AWS ParallelCluster

Domande generali

D: Quali sono i vantaggi di AWS ParallelCluster?

L'uso di AWS ParallelCluster è consigliato se desideri eseguire carichi di lavoro di calcolo ad alte prestazioni (HPC) su AWS. Puoi utilizzare AWS ParallelCluster per creare rapidamente ambienti di test per le applicazioni HPC o come punto di partenza per creare un'infrastruttura HPC nel cloud. AWS ParallelCluster riduce al minimo i costi operativi della gestione dei cluster e semplifica il percorso di migrazione verso il cloud.

D: Quali tipi di applicazioni possono trarre vantaggio dall'uso di AWS ParallelCluster?

AWS ParallelCluster è particolarmente vantaggioso per le applicazioni di calcolo ad alte prestazioni che richiedono un ambiente simile a cluster familiare nel cloud, ad esempio applicazioni MPI e applicazioni di machine learning che utilizzano NCCL.

D: In che modo AWS ParallelCluster interagisce/funziona con gli altri servizi AWS?

AWS ParallelCluster è integrato con Batch AWS, un pianificatore di batch AWS completamente gestito. Si può concepire Batch AWS come una sostituzione "nativa del cloud" dei pianificatori di batch on-premise, con in più il vantaggio del provisioning delle risorse.
AWS ParallelCluster si integra inoltre con Elastic Fabric Adapter (EFA) per le applicazioni che richiedono una rete a bassa latenza tra nodi di cluster HPC. AWS ParallelCluster è anche integrato con Amazon FSx per Lustre, un file system ad alte prestazioni con archiviazione dimensionabile per carichi di lavoro di calcolo, e Amazon Elastic File System.

D: Che cosa crea AWS ParallelCluster quando costruisce un cluster?

AWS ParallelCluster effettua il provisioning di un nodo principale per la creazione e il controllo, un cluster di istanze di calcolo, un file system condiviso e un pianificatore di batch. È inoltre possibile ampliare e personalizzare i casi d'uso utilizzando azioni di bootstrap pre-installazione e post-installazione.

D: Quali pianificatori di batch funzionano con AWS ParallelCluster?

AWS ParallelCluster supporta Batch AWS, il pianificatore di batch nativo del cloud completamente gestito di AWS, ed è compatibile anche con SLURM. 

D: Quali distribuzioni Linux sono supportate con AWS ParallelCluster?

Attualmente AWS ParallelCluster è compatibile con Amazon Linux 2, Ubuntu 18.04, CentOS 7 e CentOS 8. AWS ParallelCluster fornisce un elenco di AMI predefinite (una per distribuzione Linux compatibile per regione) da utilizzare. Nota bene che la disponibilità delle distribuzioni Linux è più limitata nelle partizioni GovCloud e Cina. Puoi approfondire il tema della compatibilità delle distribuzioni consultando la Guida per l'utente di AWS ParallelCluster all'indirizzo https://docs.thinkwithwp.com/parallelcluster/latest/ug/cluster-definition.html#base-os.

Inoltre, mentre il tuo cluster è in esecuzione su Amazon Linux, può eseguire lo strumento a riga di comando di AWS ParallelCluster per creare e gestire i cluster da qualsiasi computer in grado di eseguire Python e scaricare il pacchetto di AWS ParallelCluster.

D: Posso usare la mia AMI personale con AWS ParallelCluster?

Esistono tre modi per personalizzare le AMI di AWS ParallelCluster. Puoi prendere e modificare un'AMI di AWS ParallelCluster esistente, prendere e modificare la tua AMI personalizzata esistente e applicare le modifiche richieste da AWS ParallelCluster o utilizzare la tua AMI personalizzata in runtime. Per maggiori informazioni, visita https://aws-parallelcluster.readthedocs.io/en/latest/tutorials/02_ami_customization.html.

D: AWS ParallelCluster supporta Windows?

AWS ParallelCluster non supporta la creazione di cluster Windows. Tuttavia, puoi eseguire lo strumento a riga di comando di AWS ParallelCluster nel tuo dispositivo Windows. Per maggiore informazioni, visita https://docs.thinkwithwp.com/parallelcluster/latest/ug/install-windows.html.

D: AWS ParallelCluster supporta istanze riservate e istanze spot?

Sì. AWS ParallelCluster supporta istanze on demand, riservate e spot. Tieni presente che il lavoro svolto sulle istanze spot può essere soggetto a interruzioni. Consigliamo di utilizzare le istanze spot soltanto per le applicazioni flessibili e tolleranti ai guasti.

D: È possibile avere più tipi di istanza nei nodi di calcolo del cluster?

Sì. È possibile disporre di più code e di più istanze per coda.

D: Quali dimensioni può avere un cluster creato con AWS ParallelCluster?

Non ci sono limiti integrati alle dimensioni dei cluster creati con AWS ParallelCluster. Esistono, tuttavia, alcune restrizioni da tenere in considerazione, come i limiti delle istanze esistenti per il tuo account. Per alcuni tipi di istanza, i limiti predefiniti possono essere inferiori alle dimensioni di cluster HPC previste. In tal caso, sarà necessario effettuare richieste di aumento dei limiti prima di creare il cluster. Per maggiori informazioni sui limiti di EC2, consulta https://docs.thinkwithwp.com/AWSEC2/latest/UserGuide/ec2-resource-limits.html.

D: AWS ParallelCluster supporta l'uso dei gruppi di collocazione?

Sì. Nonostante AWS ParallelCluster non utilizzi un gruppo di collocazione per impostazione predefinita, è possibile abilitarlo o fornendo ad AWS ParallelCluster un gruppo di collocazione esistente o consentendo ad AWS ParallelCluster di creare un nuovo gruppo di collocazione all'avvio. È inoltre possibile configurare l'intero cluster o solo i nodi di calcolo per l'uso del gruppo di collocazione. Per maggiori informazioni, consulta https://cfncluster.readthedocs.io/en/latest/configuration.html#placement-group.

D: Che genere di archiviazione condivisa si può utilizzare con AWS ParallelCluster?

Per impostazione predefinita, AWS ParallelCluster configura automaticamente un volume esterno pari a 15 GB di Elastic Block Storage (EBS) allegato al nodo principale del cluster ed esportato verso i nodi di calcolo del cluster mediante Network File System (NFS). Maggiori informazioni sulla configurazione dell'archiviazione EBS sono riportate nella pagina https://docs.thinkwithwp.com/parallelcluster/latest/ug/ebs-section.html. Il volume di questo spazio di archiviazione condiviso è configurabile in base alle esigenze.

AWS ParallelCluster è inoltre compatibile con i file system di Amazon Elastic File System (EFS), RAID e Amazon FSx per Lustre. È anche possibile configurare AWS ParallelCluster con l'archiviazione di oggetti Amazon S3 come origine degli input di processi o come destinazione per l'output di processi. Per maggiori informazioni sulla configurazione di tutte queste opzioni di archiviazione con AWS ParallelCluster, visita https://docs.thinkwithwp.com/parallelcluster/latest/ug/configuration.html.

D: Quando costa AWS ParallelCluster?

AWS ParallelCluster è disponibile senza alcun costo aggiuntivo. Ti verranno addebitati solo i costi delle risorse AWS necessarie per l'esecuzione delle applicazioni.

D: In quali regioni è disponibile AWS ParallelCluster?

AWS ParallelCluster è disponibile nelle seguenti regioni: Stati Uniti orientali (Virginia settentrionale), Stati Uniti orientali (Ohio), Stati Uniti occidentali (California settentrionale), Stati Uniti occidentali (Oregon), UE (Stoccolma), UE (Parigi), UE (Londra), UE (Francoforte), UE (Irlanda), UE (Milano), Africa (Città del Capo), Medio Oriente (Bahrein), Asia Pacifico (Mumbai), Asia Pacifico (Seoul), Asia Pacifico (Tokyo), Asia Pacifico (Singapore), Asia Pacifico (Sydney), Asia Pacifico (Hong Kong), AWS GovCloud (Stati Uniti orientali), AWS GovCloud (Stati Uniti occidentali), Cina (Pechino) e Cina (Ningxia).

D: Quale assistenza viene fornita per AWS ParallelCluster?

Sei responsabile della gestione del cluster, che include interventi di manutenzione necessari su istanze EC2 e pianificatori di batch, applicazione di patch di sicurezza, gestione degli utenti e risoluzione dei problemi di MPI. L'assistenza per AWS ParallelCluster si limita alle difficoltà legate alla creazione delle risorse e all'integrazione di Batch AWS. I problemi del pianificatore Batch AWS dispongono del supporto del team di assistenza di Batch AWS. Le domande riguardanti pianificatori non di AWS devono essere rivolte alle rispettive community di assistenza. Se utilizzi un'AMI personalizzata anziché le AMI predefinite di AWS ParallelCluster, tieni presente che AWS ParallelCluster non offre assistenza per eventuali problemi di sistema operativo legati all'uso di un'AMI personalizzata.

D: Come viene rilasciato AWS ParallelCluster?

AWS ParallelCluster viene rilasciato attraverso il repository Python Package Index (PyPI) e può essere installato con pip. Il codice sorgente di AWS ParallelCluster è ospitato nel repository Amazon Web Services su GitHub all'indirizzo https://github.com/aws/aws-parallelcluster.

Elastic Fabric Adapter (EFA)

D: Qual è il vantaggio di utilizzare EFA?

EFA porta la scalabilità, la flessibilità e l'elasticità del cloud sulle applicazioni di calcolo ad alte prestazioni (HPC) strettamente associate. Grazie a EFA, le applicazioni HPC strettamente associate hanno accesso a una latenza minore e più costante e una velocità di trasmissione effettiva maggiore rispetto ai canali TCP tradizionali, consentendo una scalabilità migliore. Il supporto EFA può essere abilitato in modo dinamico e on demand su qualsiasi istanza EC2 supportata, senza necessità di prenotazione, offrendo la flessibilità di rispondere al cambiamento delle priorità aziendali o di carico di lavoro.

D: Quali applicazioni traggono benefici dall'utilizzo di EFA?

Le applicazioni HPC distribuiscono i carichi di lavoro computazionali tra cluster di istanze per l'elaborazione parallela. Alcuni esempi di applicazioni HPC includono la fluidodinamica computazionale (CFD), le simulazioni di incidenti e le simulazioni meteorologiche. Generalmente, le applicazioni HPC sono scritte utilizzando la Message Passing Interface (MPI) e hanno requisiti severi per la comunicazione tra istanze, sia in termini di latenza che di larghezza di banda. Le applicazioni che utilizzano MPI e altri middleware (software intermediari) che supportano stack di comunicazione libfabric possono trarre benefici da EFA.

D: Come funziona la comunicazione EFA?

I dispositivi EFA forniscono tutte le funzionalità dei dispositivi ENA più una nuova interfaccia hardware di bypass del sistema operativo, che permette alle applicazioni dello spazio utente di comunicare direttamente con la funzionalità di trasporto affidabile dotata di hardware. La maggior parte delle applicazioni utilizza i middleware esistenti, come la Message Passing Interface (MPI), per interfacciarsi con EFA. AWS ha lavorato con diversi fornitori di middleware per garantire il supporto della funzionalità di bypass del sistema operativo di EFA. Nota: la comunicazione che utilizza la funzionalità di bypass del sistema operativo è limitata alle istanze che fanno parte di una singola sottorete di un cloud privato virtuale (VPC, Virtual Private Cloud).

D: Quali tipi di istanza supportano EFA?

Attualmente, EFA è disponibile sulle istanze c5n.18xlarge, c5n.metal, i3en.24xlarge, i3en.metal, inf1.24xlarge, m5dn.24xlarge, m5n.24xlarge, r5dn.24xlarge, r5n.24xlarge, p3dn.24xlarge, p4d, m6i.32xlarge, m6i.metal, c6i.32xlarge, c6i.metal, r6i.32xlarge, r6i.metal, x2iezn.12xlarge, x2iezn.metal e hpc6a.48xlarge.

D: Quali sono le differenze tra EFA ENI ed ENA ENI?

Un'interfaccia di rete elastica (ENI) ENA fornisce le tradizionali funzionalità di rete IP necessarie per supportare la rete VPC. Un dispositivo EFA ENI fornisce tutte le funzioni di un dispositivo ENA ENI, più il supporto hardware per le applicazioni per comunicare direttamente con il dispositivo EFA ENI senza coinvolgere il kernel delle istanze (comunicazione di bypass del sistema operativo) utilizzando un'interfaccia di programmazione estesa. A causa delle capacità avanzate di EFA ENI, i dispositivi EFA ENI possono essere collegati solo all'avvio dell'istanza o per istanze interrotte.

D: Elastic Fabric Adapter (EFA) ed Elastic Network Adapter (ENA) Express usano entrambi il protocollo Scalable Reliable Datagram (SRD). In cosa differiscono?

EFA ed ENA Express usano entrambi il protocollo SRD, creato da AWS. EFA è appositamente progettato per consentire ai carichi di lavoro strettamente associati di avere una comunicazione di trasporto fornita da hardware con il livello applicativo. ENA Express è progettato per utilizzare il protocollo SRD per le applicazioni di rete tradizionali che si basano sui protocolli TCP e UDP.  ENA Express funziona anche all'interno di una zona di disponibilità.  

D: Quali sono i prerequisiti per abilitare EFA su un'istanza?

Il supporto EFA può essere abilitato solo all'avvio dell'istanza oppure può essere aggiunto a un'istanza interrotta. I dispositivi EFA non possono essere collegati a un'istanza in esecuzione.

NICE DCV

Domande generali

D: Quali sono i vantaggi di NICE DCV?

NICE DCV è un protocollo di streaming ottimizzato per la grafica che si presta un'ampia gamma di scenari di utilizzo, dallo streaming di applicazioni produttive su dispositivi mobili alla visualizzazione di simulazioni HPC. Sul lato server, NICE DCV supporta Windows e Linux. Sul lato client, supporta Windows, Linux e MacOS e offre inoltre un client Web per l'accesso basato su browser HTML5 tra vari dispositivi.

D: È necessario scaricare un client nativo per utilizzare NICE DCV?

No. NICE DCV funziona con qualsiasi browser Web HTML5. Tuttavia, i client nativi offrono funzionalità aggiuntive come il supporto per più monitor, mentre il client nativo Windows offre anche il supporto USB per mouse 3D, dispositivi di archiviazione e smart card. Per i flussi di lavoro che necessitano di tali caratteristiche, è possibile scaricare i client nativi NICE DCV per Windows, Linux e MacOS qui.

D: Quali tipi di applicazioni possono trarre vantaggio dall'uso di NICE DCV?

Mentre le prestazioni di NICE DCV sono indipendenti dall'applicazione, i clienti riscontrano un vantaggio sensibile sulle prestazioni di streaming quando si utilizza NICE DCV con applicazioni ad alta intensità di grafica 3D che richiedono una latenza bassa. Applicazioni HPC come simulazioni sismiche e delle riserve, analisi di fluidodinamica computazionale, modellazione molecolare 3D, compositing VFX e rendering 3D basato su motori di gioco sono alcuni esempi di applicazioni in cui il vantaggio sulle prestazioni di NICE DCV risulta evidente.

D: Il protocollo NICE DCV è sicuro?
 
Sì. Il protocollo personalizzato di NICE DCV provvede a trasferire in modo sicuro ed efficiente le immagini generate sul server nel client e, viceversa, consente al client di controllare tastiera e mouse del server. Il livello di trasporto del protocollo sfrutta le tecnologie WebSocket e TLS standard per garantire il massimo livello di sicurezza e compatibilità con qualsiasi infrastruttura di rete.

D: Quali tipi di istanza supportano NICE DCV?

NICE DCV è supportato su tutte i tipi di istanza basati su architettura x86-64 di Amazon EC2. Se utilizzato con istanze GPU compatibili con NVIDIA GRID (ad esempio G2, G3 e G4), NICE DCV sfrutterà la codifica hardware per migliorare le prestazioni e ridurre il carico del sistema.

Attivazione di NICE DCV

D: È necessario installare un server di licenza NICE DCV quando si utilizza NICE DCV su Amazon EC2?

No, non è necessario un server di licenza per installare e utilizzare il server NICE DCV su un'istanza di EC2. Tuttavia, è necessario configurare l'istanza in modo da garantire l'accesso a un bucket Amazon S3. Il server NICE DCV rileva automaticamente che è in esecuzione su un'istanza di Amazon EC2 e si collega periodicamente al bucket Amazon S3 per determinare se è disponibile una licenza valida. Maggiori istruzioni sulla configurazione della licenza NICE DCV su Amazon EC2 sono riportate in questo documento.

D: È possibile attivare NICE DCV su un'istanza in esecuzione?

Sì. NICE DCV è un software scaricabile che si può scaricare e installare sulle sessione in esecuzione. Il link alla pagina di download di NICE DCV è disponibile qui.

D: Quali distribuzioni Windows e Linux supporta il server NICE DCV?

Il supporto di sistemi operativi del server NICE DCV è documentato qui.

Uso di NICE DCV

D: Come si monitorano le prestazioni in tempo reale di NICE DCV?

I client NICE DCV dispongono di un ribbon nella barra degli strumenti visualizzato in cima alla sessione remota quando non si è in modalità a schermo intero. Fai clic su Settings >> Streaming Mode (Impostazioni >> Modalità streaming). Si aprirà una finestra che permette agli utenti di scegliere tra "Best responsiveness" (Migliore reattività) (impostazione predefinita) e "Best quality" (Migliore qualità). Fai clic su "Display Streaming Metrics" (Visualizza parametri di streaming) in fondo alla finestra a comparsa per monitorare il framerate delle prestazioni, la latenza di rete e l'utilizzo di larghezza di banda in tempo reale.

D: Come si gestisce il server NICE DCV?

Il server NICE DCV viene eseguito come servizio di sistema operativo. Per avviare, arrestare o configurare il server NICE DCV, è necessario accedere come amministratore (Windows) o root (Linux). Per ulteriori informazioni, consulta la documentazione disponibile qui.

D: Su quale porta comunica NICE DCV?

Per impostazione predefinita, il server NICE DCV è configurato per comunicare attraverso la porta 8443. È possibile specificare una porta TCP personalizzata dopo aver installato il server NICE DCV. La porta deve essere superiore a 1024.

D: Come si abilita la condivisione di GPU su Linux utilizzando NICE DCV?

La condivisione di GPU consente di condividere una o più GPU fisiche tra diverse sessioni virtuali di NICE DCV. L'uso della condivisione di GPU permette di utilizzare un unico server NICE DCV e ospitare diverse sessioni virtuali che condividono le risorse GPU fisiche del server. Per maggiori dettagli sull'abilitazione della condivisione di GPU, consulta questo documento.

D: La funzionalità per la condivisione di GPU di NICE DCV è disponibile in Windows?

No, la condivisione di GPU di NICE DCV è disponibile esclusivamente sui server NICE DCV per Linux.

D: Che cosa sono le sessioni virtuali e come si gestiscono?

Le sessioni virtuali sono supportate esclusivamente sui server NICE DCV per Linux. Un server NICE DCV può ospitare più sessioni virtuali contemporaneamente. Le sessioni virtuali vengono create e gestite dagli utenti di NICE DCV. Questi possono gestire soltanto le sessioni che hanno creato. L'utente root può gestire tutte le sessioni virtuali attualmente in esecuzione sul server NICE DCV. Per avere istruzioni sulla gestione delle sessioni virtuali, consulta questo documento.

NICE EnginFrame

D: Quali sono i vantaggi di EnginFrame?

EnginFrame può aumentare la produttività degli specialisti dei domini (ad esempio scienziati, ingegneri e analisti) permettendo loro di estendere facilmente i flussi di lavoro nel cloud e ridurre il tempo necessario per ottenere risultati. EnginFrame riduce l'investimento iniziale degli amministratori per la gestione delle risorse AWS, nonché delle autorizzazioni e dell'accesso a tali risorse da parte degli utenti. Queste caratteristiche ti aiuteranno a risparmiare tempo, limitare gli errori e permetteranno ai tuoi team di concentrarsi sulla ricerca e lo sviluppo innovativi, anziché preoccuparsi di infrastruttura e gestione.

D: Come si attiva EnginFrame nell'ambiente on-premise?

AWS HPC Connector per EnginFrame è supportato nelle versioni 2021.0 e successive di EnginFrame. Una volta installato EnginFrame nell'ambiente, gli amministratori possono cominciare a definire le configurazioni del cluster AWS dall'apposito portale.

D: Gli amministratori di EnginFrame come possono impostare o configurare ambienti HPC di AWS?

Gli amministratori di EnginFrame possono utilizzare AWS ParallelCluster per creare cluster HPC in esecuzione su AWS pronti ad accettare processi dagli utenti. Per farlo all'interno di EnginFrame, gli amministratori possono cominciare creando, modificando o caricando una configurazione di cluster ParallelCluster. Nell'ambito della fase di creazione del cluster, gli amministratori creano un nome univoco per un dato cluster AWS e specificano se è accessibile a tutti gli utenti, a un insieme di utenti e/o gruppi di utenti o a nessun utente. Una volta creato, il cluster AWS rimane disponibile per l'accettazione dei processi inviati finché l'amministratore non lo rimuove. Per impostazione predefinita, un cluster AWS nello stato creato utilizzerà soltanto l'insieme minimo di risorse necessarie affinché sia pronto ad accettare i processi inviati e si dimensionerà in modo elastico in base all'invio dei processi.

D: Gli utenti come possono scegliere se eseguire i processi on-premise o su AWS?

Per i servizi EnginFrame per cui il tuo amministratore ha attivato AWS come opzione, puoi usare un menu a discesa per effettuare una selezione da qualsiasi coda di calcolo disponibile on-premise o su AWS. Gli amministratori possono includere descrizioni di testo per aiutarti a scegliere quale delle code è idonea a eseguire il tuo carico di lavoro.

D: Quali pianificatori di processi si possono utilizzare con EnginFrame su AWS? Posso utilizzare un pianificatore di processi diverso on-premise e su AWS?

EnginFrame supporta Slurm per i cluster creati su AWS. Puoi anche scegliere di utilizzare un pianificatore diverso per on-premise e AWS (ad esempio utilizzare LSF on-premise e Slurm in AWS). Nel caso dei servizi EnginFrame che imposti per l'invio di processi sia on-premise sia in AWS con pianificatori di processi diversi, gli amministratori dovranno garantire che gli script di invio dei processi supportino l'invio attraverso ciascuno di tali pianificatori.

D: Quali sistemi operativi si possono utilizzare in AWS? Posso utilizzare un sistema operativi diverso on-premise e su AWS?

EnginFrame supporta i sistemi operativi Amazon Linux 2, CentOS 7, Ubuntu 18.04 e Ubuntu 20.04 su AWS. Puoi scegliere di utilizzare un sistema operativo on-premise diverso rispetto a quello che utilizzi su AWS. Tuttavia, se intendi utilizzare EnginFrame per eseguire lo stesso carico di lavoro sia on-premise che su AWS, consigliamo di utilizzare il medesimo sistema operativo per ridurre la differenza tra ambienti e per semplificare la portabilità dei carichi di lavoro.

D: Quando costa EnginFrame?

Non sono previsti costi aggiuntivi per l'utilizzo di EnginFrame su AWS. I prezzi sono calcolati in base alle risorse AWS utilizzate per memorizzare ed eseguire le applicazioni.

Quando si utilizza EnginFrame on-premise, viene richiesto un file di licenza. Per ottenere una licenza di valutazione o per acquistare nuove licenze di produzione, contatta uno dei distributori o rivenditori NICE autorizzati che possono offrire servizi di vendita, installazione e assistenza nel tuo paese.

Research and Engineering Studio su AWS

D: Cos’è Research and Engineering Studio su AWS?

Research and Engineering Studio on AWS (RES) è un portale Web open source e facile da usare che consente agli amministratori di creare e gestire ambienti di ricerca e ingegneria sicuri basati su cloud. Utilizzando RES, scienziati e ingegneri possono visualizzare i dati ed eseguire applicazioni interattive senza la necessità di competenze nel cloud.

D: Qual è il vantaggio di utilizzare RES?

Dovresti usare RES se esegui carichi di lavoro di progettazione e ricerca e preferisci utilizzare un semplice portale basato sul Web per creare e gestire i tuoi desktop virtuali su AWS. RES consente di configurare un ambiente desktop virtuale, permettere a ricercatori e ingegneri di creare e connettersi a desktop virtuali Windows e Linux, monitorare, stimare e gestire una flotta di desktop virtuali da un'unica interfaccia, gestire l'ambiente VDI tramite un portale basato sul Web e montare lo spazio di archiviazione condiviso in base ai requisiti del desktop virtuale per un facile accesso ai dati.  Se ricercatori e ingegneri hanno bisogno di interagire e discutere di output e progetti o simulare un test case prima di scalare un carico di lavoro di progettazione, RES offre potenti desktop virtuali per farlo.

D: Come posso gestire lo spazio di archiviazione condiviso?
 
È responsabilità degli amministratori RES creare e gestire i file system in modo che gli utenti dispongano dei dati necessari. RES supporta i tipi di file system Amazon EFS e Amazon FSx per NetApp ONTAP, che gli amministratori possono creare tramite RES o integrare i file system esistenti. Per ulteriori dettagli sulla gestione e la creazione dello spazio di archiviazione, consulta la documentazione.
 
D: Come posso accedere alla documentazione del prodotto?
 
Accedi alla documentazione RES.

D: Quanto costa RES?

RES è disponibile senza alcun costo aggiuntivo; vengono addebitati i costi delle risorse AWS necessarie per l'esecuzione dell'applicazione.

D: In quali regioni è disponibile RES?

RES è disponibile in un sottoinsieme di regioni. Puoi trovare l'elenco nella documentazione.

D: Come viene supportato RES?

Sei responsabile della manutenzione richiesta sulle istanze EC2 e sugli scheduler batch, delle patch di sicurezza, della gestione degli utenti e del software in esecuzione sulle istanze sul desktop virtuale. Il supporto delle RES è limitato ai problemi relativi alla creazione delle risorse. Se utilizzi un'AMI personalizzata anziché le AMI predefinite di RES, tieni presente che RES non offre assistenza per eventuali problemi di sistema operativo legati all'uso di un'AMI personalizzata.

D: Quali sono i sistemi operativi supportati con RES?

RES è attualmente compatibile con i sistemi operativi Windows e Linux. Per Linux, RES supporta le seguenti distribuzioni: Amazon Linux 2, CentOS 7, Red Hat Enterprise Linux 7, Red Hat Enterprise Linux 8 e Red Hat Enterprise Linux 9.

D: Come è possibile ottenere licenze aggiuntive dei Servizi Desktop remoto di Windows?

Ogni istanza Amazon EC2 è distribuita con due licenze di Remote Desktop Services (anche noto come Terminal Services o RDP) per scopi di amministrazione. Questo Quickstart è disponibile per eseguire il provisioning delle licenze per gli amministratori. È possibile usare anche Gestione sessione di AWS Systems Manager, che consente il comando remoto nelle istanze EC2 senza RDP né la necessità di licenze di RDP. Se sono necessarie licenze aggiuntive dei Servizi Desktop remoto, le CAL di Desktop remoto vanno acquistate da Microsoft o presso un rivenditore Microsoft autorizzato. Le licenze dei Servizi Desktop remoto acquistate con Software Assurance attivo prevedono vantaggi sulla mobilità delle licenze e possono essere importate negli ambienti AWS con tenant predefinito (condiviso). Per ulteriori informazioni sul trasferimento delle licenze senza i vantaggi di Software Assurance o della mobilità delle licenze, consulta questa sezione delle domande frequenti.

D: I desktop virtuali all'interno di RES supportano le istanze spot?

No. I desktop virtuali all'interno di RES supportano solo le istanze on demand.
 
D: Come viene rilasciato RES?

RES viene rilasciato tramite il repository Amazon Web Services su GitHub. Qui puoi trovare le opzioni per l'installazione.

Ulteriori informazioni sui servizi AWS per HPC

Scopri tutti i servizi AWS che puoi utilizzare per creare una soluzione HPC in AWS.

Ulteriori informazioni 
Registrati per creare un account gratuito

Ottieni l'accesso immediato al piano gratuito di AWS. 

Registrati 
Come iniziare a usare HPC in AWS

Crea il tuo primo cluster HPC in AWS.

Accedi