Häufig gestellte Fragen
AWS ParallelCluster
Allgemeines
F: Warum sollte ich AWS ParallelCluster verwenden?
Sie sollten AWS ParallelCluster verwenden, wenn Sie High-Performance-Computing(HPC)-Workloads auf AWS ausführen wollen. Sie können AWS ParallelCluster benutzen, um schnell Testumgebungen für HPC-Anwendungen zu erstellen und als Ausgangspunkt zur Erstellung von HPC-Infrastruktur in der Cloud. AWS ParallelCluster minimiert die Betriebskosten für Cluster-Management und vereinfacht den Migrationspfad in die Cloud.
F: Welche Anwendungen können von der Verwendung von AWS ParallelCluster profitieren?
Hochleistungs-Rechenanwendungen, die eine vertraute cluster-ähnliche Umgebung in der Cloud benötigen, wie etwa MPI-Anwendungen und Machine-Learning-Anwendungen, die NCCL verwenden, profitieren höchst wahrscheinlich von AWS ParallelCluster.
F: Wie bezieht sich AWS ParallelCluster auf andere AWS-Services oder arbeitet mit diesen zusammen?
AWS ParallelCluster ist mit AWS Batch integriert, einen vollständig verwalteten AWS-Batch-Scheduler. AWS Batch kann als cloud-nativer Ersatz für On-Premises-Batch-Scheduler gesehen werden, mit dem zusätzlichen Vorteil der Ressourcenbereitstellung.
AWS ParallelCluster kann auch mit Elastic Fabric Adapter (EFA) für Anwendungen integrieren, die Netzwerke mit geringer Latenz zwischen Knoten von HPC-Clustern erfordern. AWS ParallelCluster ist auch mit Amazon FSx für Lustre integriert, ein Hochleistungsdateisystem mit skalierbarem Speicher für Rechen-Workloads und Amazon Elastic File System.
F: Was erstellt AWS ParallelCluster, wenn es einen Cluster erstellt?
AWS ParallelCluster bietet einen Hauptknoten für den Aufbau und die Kontrolle, einen Cluster von Rechen-Instances, ein freigegebenes Dateisystem und einen Batch-Scheduler. Sie können Ihre Anwendungsfälle auch erweitern und anpassen, indem Sie benutzerdefinierte Bootstrap-Aktionen vor und nach der Installation verwenden.
F: Welche Batch-Scheduler funktionieren mit AWS ParallelCluster?
AWS ParallelCluster unterstützt AWS Batch – AWS vollständig verwalteter, cloudnativer Batch-Scheduler – und ist auch kompatibel mit SLURM.
F: Welche Linux-Distributionen werden von AWS ParallelCluster unterstützt?
AWS ParallelCluster ist derzeit kompatibel mit Amazon Linux 2, Ubuntu 18.04, CentOS 7, und CentOS 8. AWS ParallelCluster bietet eine Liste der standardmäßigen AMIs (eines pro kompatibler Linux-Distribution und Region), die Sie verwenden können. Beachten Sie, dass die Verfügbarkeit der Linux-Distribution in den GovCloud- und China-Partitionen eingeschränkter ist. Weitere Informationen zur Distributionskompatibilität finden Sie im AWS-ParallelCluster-Benutzerhandbuch unter https://docs.thinkwithwp.com/parallelcluster/latest/ug/cluster-definition.html#base-os.
Während Ihr Cluster auf Amazon Linux ausgeführt wird, können Sie zudem das AWS-ParallelCluster-Befehlszeilen-Tool verwenden, um Ihre Cluster von jedem Computer aus zu erstellen und zu verwalten, der Python ausführen und das AWS-ParallelCluster-Paket herunterladen kann.
F: Kann ich mit AWS ParallelCluster mein eigenes AMI verwenden?
Sie können AWS-ParallelCluster-AMIs auf drei Weisen anpassen. Sie können ein bestehendes AWS-ParallelCluster-AMI nehmen und verändern, Sie können ein bestehendes benutzerdefiniertes AMI nehmen und die von AWS ParallelCluster benötigten Änderungen darauf anwenden, oder Sie können Ihr eigenes benutzerdefiniertes AMI zur Laufzeit verwenden. Weitere Informationen finden Sie unter https://aws-parallelcluster.readthedocs.io/en/latest/tutorials/02_ami_customization.html.
F: Unterstützt AWS ParallelCluster Windows?
AWS ParallelCluster unterstützt nicht die Erstellung von Windows-Clustern. Sie können jedoch das AWS-ParallelCluster-Befehlszeilen-Tool auf Ihrem Windows-Computer ausführen. Weitere Informationen erhalten Sie unter https://docs.thinkwithwp.com/parallelcluster/latest/ug/install-windows.html.
F: Unterstützt AWS ParallelCluster Reserved Instances und Spot Instances?
Ja. AWS ParallelCluster unterstützt On-Demand-, Reserved, und Spot Instances. Beachten Sie bitte, das auf Spot Instances ausgeführte Arbeit unterbrochen werden kann. Wir empfehlen die Verwendung von Spot Instances nur für fehlertolerante und flexible Anwendungen.
F: Kann ich mehrere Instance-Typen in den Rechenknoten meiner Cluster haben?
Ja. Sie können mehrere Warteschleifen und mehrere Instances pro Warteschleife haben.
F: Wie groß kann ein mit AWS ParallelCluster erstelltes Cluster sein?
Die Größe des Clusters, das Sie mit AWS ParallelCluster erstellen können, hat keine integrierte Begrenzung. Es gibt jedoch ein paar Einschränkungen, die Sie beachten sollten, wie etwa die Instance-Begrenzungen, die für Ihr Konto gelten. Manche Instance-Typen haben kleinere standardmäßige Begrenzungen als die erwarteten HPC-Clustergrößen und Sie werden Anfragen zur Begrenzungserweiterung stellen müssen, bevor Sie Ihren Cluster erstellen. Weitere Informationen zu EC2-Begrenzungen finden Sie unter https://docs.thinkwithwp.com/AWSEC2/latest/UserGuide/ec2-resource-limits.html.
F: Unterstützt AWS ParallelCluster die Verwendung von Placement-Gruppen?
Ja. Obwohl AWS ParallelCluster standardmäßig keine Placement-Gruppe verwendet, können Sie dies entweder aktivieren, indem Sie AWS ParallelCluster eine bereits bestehende Placement-Gruppe bereitstellen oder es AWS ParallelCluster erlauben, beim Start eine neue Placement-Gruppe zu erstellen. Sie können auch den gesamten Cluster oder nur die Rechenknoten für die Verwendung der Placement-Gruppe konfigurieren. Weitere Informationen finden Sie unter https://cfncluster.readthedocs.io/en/latest/configuration.html#placement-group.
F: Welche Art von freigegebenem Speicher kann ich mit AWS ParallelCluster verwenden?
Standardmäßig konfiguriert AWS ParallelCluster automatisch ein externes Volume mit 15 GB Elastic Block Storage (EBS), das an den Hauptknoten des Clusters angefügt und über Network File System (NFS) an die Rechenknoten des Clusters exportiert wird. Weitere Informationen zum Konfigurieren von EBS-Speicher finden Sie unter https://docs.thinkwithwp.com/parallelcluster/latest/ug/ebs-section.html. Das Volumen dieses gemeinsamen Speichers kann an Ihre Bedürfnisse angepasst werden.
AWS ParallelCluster ist auch mit Amazon Elastic File System (EFS), RAID und Amazon-FSx-für-Lustre-Dateisystemen kompatibel. Außerdem ist es möglich, AWS ParallelCluster mit Amazon S3-Objektspeicher als Quelle der Auftragseingabe oder als Ziel für die Auftragsausgabe zu konfigurieren. Weitere Informationen zur Konfiguration dieser Speicheroptionen mit AWS ParallelCluster finden Sie unter https://docs.thinkwithwp.com/parallelcluster/latest/ug/configuration.html.
F: Wieviel kostet AWS ParallelCluster?
AWS ParallelCluster ist ohne Aufpreis erhältlich. Sie bezahlen nur für die AWS-Ressourcen, die zur Ausführung Ihrer Anwendungen erforderlich sind.
F: In welchen Regionen ist AWS ParallelCluster verfügbar?
AWS ParallelCluster ist in den folgenden Regionen verfügbar: USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon), EU (Stockholm), EU (Paris), EU (London), EU (Frankfurt), EU (Irland), EU (Mailand), Afrika (Kapstadt), Naher Osten (Bahrain), Asien-Pazifik (Mumbai), Asien-Pazifik (Seoul), Asien-Pazifik (Tokio), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), Asien-Pazifik (Hongkong), AWS GovCloud (US-Gov-East), AWS GovCloud (US-Gov-West), China (Peking) und China (Ningxia).
F: Wie wird AWS ParallelCluster unterstützt?
Sie sind für den Betrieb des Clusters verantwortlich, einschließlich der erforderlichen Wartung von EC2-Instances und Batch-Schedulern, Sicherheits-Patches, Benutzerverwaltung und MPI-Fehlerbehebung. Die Unterstützung von AWS ParallelCluster ist auf Probleme beschränkt, die mit dem Ausbau der Ressourcen und der AWS-Batch-Integration zu tun haben. AWS-Batch-Scheduler-Probleme werden vom AWS-Batch-Serviceteam unterstützt. Fragen zu anderen Nicht-AWS-Schedulern sollten an deren eigene Supports gerichtet werden. Wenn Sie ein benutzerdefiniertes AMI anstelle eines der Standard-AMIs von AWS ParallelCluster verwenden, beachten Sie bitte, dass AWS ParallelCluster keine Betriebssystemprobleme im Zusammenhang mit der Verwendung eines benutzerdefinierten AMI unterstützt.
F: Wie wird AWS ParallelCluster veröffentlicht?
AWS ParallelCluster wird über den Python Package Index (PyPI) bereitgestellt und kann über pip installiert werden. Der Sourcecode von AWS ParallelCluster wird auf Amazon Web Services auf GitHub gehostet, unter https://github.com/aws/aws-parallelcluster.
Elastic Fabric Adapter (EFA)
F: Weshalb sollte ich EFA verwenden?
EFA stellt die Skalierbarkeit, Flexibilität und Elastizität der Cloud für eng verzahnte High-Performance-Computing-Anwendungen (HPC) bereit. Mit EFA haben eng verzahnte HPC-Anwendungen Zugang zu niedrigerer und konsistenterer Latenz und zu höherem Durchsatz als bei traditionellen TCP-Kanälen, was eine bessere Skalierung ermöglicht. Der EFA-Support kann dynamisch und bei Bedarf auf jeder unterstützten EC2-Instance ohne Vorreservierung aktiviert werden. So können Sie flexibel auf sich ändernde Geschäfts- und Workload-Prioritäten reagieren.
F: Welche Arten von Anwendungen profitieren von EFA?
HPC-Anwendungen verteilen Computer-Workloads auf einen Cluster von Instances zur Parallelverarbeitung. Beispiele für HPC-Anwendungen sind computergestützte Strömungssimulationen, Unfallsimulationen und Wettersimulationen. Allgemein werden HPC-Anwendungen mithilfe des Message Passing Interface (MPI) geschrieben und setzen strenge Vorgaben für die Inter-Instance-Kommunikation, was sowohl Latenz als auch Bandbreite betrifft. Anwendungen, die MPI und andere HPC-Middleware verwenden, die den libfabric-Kommunikationsstack unterstützt, können von EFA profitieren.
F: Wie funktioniert die EFA-Kommunikation?
EFA-Geräte bieten alle Funktionen der Elastic-Network-Adapter-Geräte (ENA) sowie eine neue OS-Bypass-Hardware-Schnittstelle, die es Anwendungen im Benutzerbereich ermöglicht, direkt mit den von der Hardware bereitgestellten zuverlässigen Transportfunktionen zu kommunizieren. Die meisten Anwendungen verwenden bestehende Middleware wie das Message Passing Interface (MPI) zur Kommunikation mit EFA. AWS hat mit einer Reihe von Middleware-Anbietern zusammengearbeitet, um die Unterstützung für die EFA-Funktion der Betriebssystemumgehung zu gewährleisten. Bitte beachten Sie, dass die Kommunikation über die Funktion zur Betriebssystemumgehung auf Instances innerhalb eines einzelnen Subnetzes einer Virtual Private Cloud (VPC) beschränkt ist.
F: Welche Instance-Typen unterstützen EFA?
EFA ist derzeit für die c5n.18xlarge, c5n.metal, i3en.24xlarge, i3en.metal, inf1.24xlarge, m5dn.24xlarge, m5n.24xlarge, r5dn.24xlarge, r5n.24xlarge, p3dn.24xlarge, p4d, m6i.32xlarge, m6i.metal, c6i.32xlarge, c6i.metal, r6i.32xlarge, r6i.metal, x2iezn.12xlarge, x2iezn.metal und hpc6a.48xlarge Instances verfügbar.
F: Welche Unterschiede gibt es zwischen einem EFA ENI und einem ENA ENI?
Eine ENA-Elastic-Network-Schnittstelle (ENI) bietet herkömmliche IP-Netzwerkfunktionen, die zur Unterstützung von VPC-Netzwerken erforderlich sind. Ein EFA ENI bietet alle Funktionen eines ENA ENI sowie Hardwareunterstützung für Anwendungen, um mithilfe einer erweiterten Programmierschnittstelle direkt mit dem EFA ENI zu kommunizieren, ohne den Instance-Kernel zu beteiligen (Kommunikation mit Betriebssystemumgehung). Aufgrund der fortschrittlichen Fähigkeiten des EFA ENI können EFA ENIs nur beim Start oder bei gestoppten Instances angefügt werden.
F. Elastic Fabric Adapter (EFA) und Elastic Network Adapter (ENA) Express verwenden beide Scalable Reliable Diagram (SRD). Wie unterscheiden sie sich?
EFA und ENA Express nutzen beide das SRD-Protokoll von AWS. EFA wurde speziell für eng gekoppelte Workloads entwickelt, um eine direkte, von der Hardware bereitgestellte Transportkommunikation mit der Anwendungsschicht zu ermöglichen. ENA Express wurde entwickelt, um das SRD-Protokoll für herkömmliche Netzwerkanwendungen zu verwenden, die TCP- und UDP-Protokolle verwenden. ENA Express funktioniert auch innerhalb einer Availability Zone.
F: Was sind die Voraussetzungen für die Aktivierung von EFA auf einer Instance?
Die EFA-Unterstützung kann entweder beim Start der Instance aktiviert oder zu einer gestoppten Instance hinzugefügt werden. EFA-Geräte können nicht an eine laufende Instance angefügt werden.
NICE DCV
Allgemeines
F: Weshalb sollte ich NICE DCV verwenden?
NICE DCV ist ein für Grafiken optimiertes Streaming-Protokoll, dass sich gut für eine Reihe von Nutzungsszenarien eignet – von Streaming-Produktivitätsanwendungen auf mobilen Geräten bis zu HPC-Simulationsvisualisierungen. Serverseitig unterstützt NICE DCV Windows und Linux. Auf der Kundenseite unterstützt es Windows, Linux und MacOS und bietet außerdem einen Web-Client für HTML5-browserbasierten Zugriff auf Geräten.
F: Muss man einen nativen Client herunterladen, um NICE DCV zu verwenden?
Nein, NICE DCV funktioniert mit allen HTML5-Webbrowsern. Native Clients unterstützen jedoch zusätzliche Funktionen wie die Unterstützung mehrerer Monitore, wobei der native Windows-Client auch USB-Unterstützung für 3D-Mäuse, Speichergeräte und Smartcards unterstützt. Für Worklflows, die diese Funktionen benötigen, können Sie NICE-DCV-native Clients für Windows, Linux und MacOS hier herunterladen.
F: Welche Anwendungen können von der Verwendung von NICE DCV profitieren?
Obwohl die Leistung von NICE DCV anwendungsunabhängig ist, berichten Kunden von einem merkbaren Leistungsvorteil beim Streamen unter Verwendung von NICE DCV mit 3D-grafikintensiven Anwendungen, die eine niedrige Latenz voraussetzen. HPC-Anwendungen wie seismische und Reservoir-Simulationen, numerische Strömungsmechanikanalysen (CFD), molekulare 3D-Modellierung, VFX-Kompositionen und 3D-Renderings basierend auf Spiel-Engines sind Beispiele für Anwendungen, bei denen der Leistungsvorteil von NICE DCV offensichtlich ist.
F: Welche Instance-Typen unterstützen NICE DCV?
NICE DCV wird auf allen auf Amazon EC2 x86-64-Architektur basierenden Instance-Typen unterstützt. Wenn NICE DCV mit NVIDIA GRID-kompatiblen GPU-Instances (z. B. G2, G3 und G4) verwendet wird, wird NICE DCV Hardware-Encoding nutzen, um die Leistung zu verbessern und die Systembelastung zu verringern.
NICE DCV aktivieren
F: Muss man einen NICE-DCV-Lizenzserver installieren, wenn man NICE DCV auf Amazon EC2 verwendet?
Nein, Sie brauchen keinen Lizenzserver, um den NICE-DCV-Server auf einer EC2-Instance zu installieren und zu verwenden. Sie müssen jedoch Ihre Instance konfigurieren, um den Zugriff auf einen Amazon-S3-Bucket garantieren zu können. Der NICE-DCV-Server erkennt automatisch, dass er auf einer Amazon-EC2-Instance läuft und verbindet sich regelmäßig mit dem Amazon-S3-Bucket, um zu ermitteln, ob eine gültige Lizenz vorhanden ist. Weitere Anweisungen für die Einrichtung einer NICE-DCV-Lizenz auf Amazon EC2 finden Sie im Dokument hier.
F: Kann man NICE DCV auf einer bereits laufenden Instance aktivieren?
Ja. NICE DCV ist eine downloadbare Software, die auf laufenden Sitzungen heruntergeladen und installiert werden kann. Einen Link zur Download-Seite von NICE DCV finden Sie hier.
F: Welche Windows- und Linux-Distribution unterstützt der NICE-DCV-Server?
Alle Betriebssysteme, die vom NICE-DCV-Server unterstützt werden, sind hier dokumentiert.
NICE DCV verwenden
F: Wie kann man die Echtzeitleistung von NICE DCV kontrollieren?
NICE-DCV-Clients haben eine Werkzeugleiste, die oben auf der Remotesitzung angezeigt wird, wenn sie sich nicht im Vollbildschirm befinden. Klicken Sie auf Settings (Einstellungen) >> Streaming Mode (Streaming-Modus). Dadurch wird ein Fenster geöffnet, in dem Nutzer zwischen „Beste Reaktivität (standard)“ und „Beste Qualität“ wählen können. Klicken Sie auf „Streaming-Metriken anzeigen“ unten im Pop-Up-Fenster, um die Echtzeit-Performance-Framerate, die Netzwerklatenz und die Bandbreitennutzung zu überwachen.
F: Wie verwalte ich den NICE-DCV-Server?
Der NICE-DCV-Server läuft als Betriebssystem-Service. Sie müssen als Administrator (Windows) oder Root (Linux) eingeloggt sein, um den NICE-DCV-Server zu starten, zu stoppen oder zu konfigurieren. Weitere Informationen finden Sie im Dokument hier.
F: Auf welchem Port kommuniziert NICE DCV?
Der NICE-DCV-Server ist standardmäßig dazu konfiguriert auf dem Port 8443 zu kommunizieren. Sie können einen benutzerdefinierten TCP-Port angeben, nachdem Sie den NICE-DCV-Server installiert haben. Der Port muss größer als 1024 sein.
F: Wie aktiviere ich mit NICE DCV GPU-Sharing auf Linux?
Durch GPU-Sharing können Sie eine oder mehrere physische GPUs für mehrere virtuelle NICE-DCV-Sitzungen freigeben. Mithilfe von GPU-Sharing können Sie einen einzelnen NICE-DCV-Server benutzen und mehrere virtuelle Sitzungen hosten, die die physischen GPU-Ressourcen des Servers teilen. Weitere Informationen dazu, wie man GPU-Sharing aktiviert, finden Sie im Dokument hier.
F: Ist die GPU-Sharing-Funktion von NICE DCV in Windows verfügbar?
Nein, die GPU-Sharing-Funktion von NICE DCV ist nur auf Linux-NICE-DCV-Servern verfügbar.
F: Was sind virtuelle Sitzungen und wie verwaltet man sie?
Virtuelle Sitzungen werden nur auf Linux-NICE-DCV-Servern unterstützt. Ein NICE-DCV-Server kann mehrere virtuelle Sitzungen gleichzeitig hosten. Virtuelle Sitzungen werden von NICE-DCV-Benutzern erstellt und verwaltet. NICE-DCV-Benutzer können nur die Sitzungen verwalten, die von ihnen selbst erstellt wurden. Der Root-Benutzer kann alle virtuellen Sitzungen verwalten, die gegenwärtig auf dem NICE-DCV-Server laufen. Anleitungen zur Verwaltung von virtuellen Sitzungen finden Sie im Dokument hier.
NICE EnginFrame
F: Was spricht für die Verwendung von EnginFrame?
Sie sollten EnginFrame verwenden, da es die Produktivität von Domänenspezialisten (z. B. Wissenschaftlern, Ingenieuren und Analysten) steigern kann, indem sie ihre Workflows problemlos auf die Cloud erweitern und schnellere Ergebnisse erzielen. EnginFrame reduziert den Aufwand für Administratoren beim Verwalten von AWS-Ressourcen sowie die Berechtigungen Ihrer Benutzer und den Zugriff auf diese Ressourcen. Diese Funktionen werden Ihnen Zeit einsparen, Fehler reduzieren und Ihr Team mehr darauf konzentrieren lassen, innovative Forschung und Entwicklung zu betreiben, statt sich um die Infrastrukturverwaltung zu kümmern.
F: Wie aktiviere ich EnginFrame in meiner eigenen On-Premises-Umgebung ?
EnginFrame AWS HPC Connector wird in der EnginFrame Version 2021.0 oder neuer unterstützt. Sobald Sie EnginFrame in Ihrer Umgebung installiert haben, können Administratoren AWS-Clusterkonfigurationen vom Administrator Portal aus definieren.
F: Wie kann ein EnginFrame-Administrator AWS-HPC-Umgebungen einrichten oder konfigurieren?
EnginFrame-Administratoren können AWS ParallelCluster verwenden, um HPC-Cluster auf AWS zu erstellen, die bereit sind, Aufträge von Benutzern anzunehmen. Um dies mit EnginFrame zu tun, können Administratoren damit anfangen, eine ParallelCluster-Clusterkonfiguration zu erstellen, bearbeiten oder hochzuladen. Als Teil der Cluster-Erstellung erstellen Administratoren einen einzigartigen Namen für ein bestimmtes AWS-Cluster und geben an, ob er für alle Benutzer, für ein bestimmte Gruppe von Benutzern/Benutzergruppen oder für keine Benutzer zugänglich ist. Sobald ein AWS-Cluster erstellt wurde, bleibt es verfügbar, um eingereichte Jobs anzunehmen, bis ein Administrator es entfernt. Standardmäßig verwendet ein AWS-Cluster im erstellten Zustand nur den minimalen Satz erforderlicher Ressourcen, um bereit zu sein, übermittelte Jobs anzunehmen, und skaliert elastisch, wenn Jobs übermittelt werden.
F: Wie können sich Benutzer zwischen dem Ausführen ihrer Jobs On-Premises oder auf AWS entscheiden?
Für EnginFrame-Services, für die Ihr Administrator AWS als Option freigegeben hat, können Sie ein Drop-Down-Menü verwenden, um aus den verfügbaren Rechen-Warteschlangen über On-Premises und AWS zu wählen. Administratoren können Textbeschreibungen einfügen, die Ihnen bei der Auswahl helfen, welche dieser Warteschlangen für die Ausführung Ihrer Workload geeignet ist.
F: Welche Job-Schedulers kann ich mit EnginFrame auf AWS verwenden? Kann ich verschiedene Job-Schedulers On-Premises und auf AWS verwenden?
EnginFrame unterstützt Slurm für Cluster, die auf AWS erstellt wurden. Sie können auch einen anderen Scheduler On-Premises als AWS wählen (z. B. können Sie LSF On-Premises verwenden und Slurm in AWS). Im Falle von EnginFrame-Services, die Sie einrichten, um Jobs sowohl On-Premises als auch in AWS mit verschiedenen Job-Schedulers einzureichen, müssen Administratoren sicherstellen, dass alle Job-Einreichungsskripts Einreichungen durch jede dieser Schedulers unterstützt.
F: Welche Betriebssysteme kann ich in AWS verwenden? Können verschiedene Job-Schedulers On-Premises und auf AWS verwendet werden?
EnginFrame unterstützt die Betriebssysteme Amazon Linux 2, CentOS 7, Ubuntu 18.04 und Ubuntu 20.04 auf AWS. Sie können auf On-Premises ein anderes Betriebssystem wählen als das, welches Sie auf AWS verwenden. Wenn Sie jedoch vorhaben, EnginFrame zu verwenden, um den gleichen Workload auf On-Premises sowie AWS auszuführen, empfehlen wir, das gleiche Betriebssystem zu verwenden, um Umgebungsunterschiede zu verringern und die Übertragbarkeit Ihrer Workloads zu vereinfachen.
F: Wie viel kostet EnginFrame?
Für die Nutzung von EnginFrame auf AWS fallen keine zusätzlichen Gebühren an. Sie zahlen für alle AWS-Ressourcen, die zum Speichern und Ausführen Ihrer Anwendungen verwendet werden.
Wenn Sie EnginFrame On-Premises verwenden, werden Sie nach einer Lizenzdatei gefragt. Um eine Evaluationslizenz zu erhalten oder neue Produktionslizenzen zu erwerben, wenden Sie sich bitte an die autorisierten NICE-Vertreiber oder -Vertriebspartner, die den Vertrieb, Installationsdienste und Support in Ihrem Land anbieten können.
Forschungs- und Entwicklungsstudio auf AWS
F: Was ist Research and Engineering Studio auf AWS?
Research and Engineering Studio auf AWS (RES) ist ein benutzerfreundliches, webbasiertes Open-Source-Portal, über das Administratoren sichere cloudbasierte Forschungs- und Entwicklungsumgebungen erstellen und verwalten können. Mithilfe von RES können Wissenschaftler und Engineers Daten visualisieren und interaktive Anwendungen ausführen, ohne dass Cloud-Fachwissen erforderlich ist.
F: Weshalb sollte ich RES verwenden?
Sie sollten RES verwenden, wenn Sie Entwicklungs- und Forschungs-Workloads ausführen und es vorziehen, ein einfaches webbasiertes Portal für die Erstellung und Verwaltung Ihrer virtuellen Desktops auf AWS zu verwenden. RES ermöglicht Ihnen die Einrichtung einer virtuellen Desktop-Umgebung, ermöglicht es Forschern und Engineers, virtuelle Windows- und Linux-Desktops zu erstellen und eine Verbindung zu ihnen herzustellen, eine virtuelle Desktop-Flotte von einer einzigen Oberfläche aus zu überwachen, zu budgetieren und zu verwalten, Ihre VDI-Umgebung über ein webbasiertes Portal zu verwalten und gemeinsam genutzten Speicher entsprechend den Anforderungen virtueller Desktops bereitzustellen, um einen einfachen Zugriff auf Daten zu ermöglichen. Wenn Forscher und Engineers mit Ergebnissen und Designs interagieren und diese besprechen oder einen Testfall simulieren müssen, bevor sie eine technische Workload skalieren, bietet RES dafür leistungsstarke virtuelle Desktops.
F: Wie verwalte ich gemeinsam genutzten Speicher?
Es liegt in der Verantwortung der RES-Administratoren, Dateisysteme zu erstellen und zu verwalten, damit die Benutzer über die benötigten Daten verfügen. RES unterstützt die Dateisystemtypen Amazon EFS und Amazon FSx für NetApp ONTAP, die Administratoren entweder über RES erstellen oder vorhandene Dateisysteme integrieren können. Weitere Informationen zur Verwaltung und Erstellung von Speicher finden Sie in der Dokumentation.
F: Wie greife ich auf die Produktdokumentation zu?
Rufen Sie die RES-Dokumentation auf.
F: Wie viel kostet RES?
RES ist ohne zusätzliche Kosten verfügbar und Sie zahlen nur für die AWS-Ressourcen, die Sie zum Ausführen Ihrer Anwendungen benötigen.
F: In welchen Regionen ist RES verfügbar?
RES ist in einer Teilmenge von Regionen verfügbar. Die Liste finden Sie in der Dokumentation.
F: Wie wird RES unterstützt?
Sie sind verantwortlich für die erforderliche Wartung von EC2-Instances und Batch-Planern, Sicherheitspatches, Benutzerverwaltung und Software, die auf virtuellen Desktop-Instances ausgeführt wird. Die RES-Unterstützung ist auf Probleme im Zusammenhang mit dem Ausbau der Ressourcen beschränkt. Wenn Sie ein benutzerdefiniertes AMI anstelle eines der Standard-AMIs von RES verwenden, beachten Sie bitte, dass RES keine Betriebssystemprobleme im Zusammenhang mit der Verwendung eines benutzerdefinierten AMI unterstützt.
F: Welche Betriebssysteme werden mit RES unterstützt?
RES ist derzeit mit Windows- und Linux-Betriebssystemen kompatibel. Für Linux unterstützt RES die folgenden Distributionen: Amazon Linux 2, CentOS 7, Red Hat Enterprise Linux 7, Red Hat Enterprise Linux 8 und Red Hat Enterprise Linux 9.
F: Wie kann ich zusätzliche Lizenzen für Windows-Remotedesktopdienste erhalten?
Jede Amazon EC2-Instance umfasst zwei Lizenzen für Remotedesktopdienste (auch Terminaldienste genannt) für Verwaltungszwecke. Mit diesem Schnellstart können Sie diese Lizenzen für Ihre Administratoren bereitstellen. Sie können auch den Session Manager des AWS Systems Manager verwenden, mit dem Sie Remote-Zugriff auf EC2-Instances ohne RDP und ohne Erfordernis von RDP-Lizenzen erhalten. Falls zusätzliche Lizenzen für Remotedesktopdienste benötigt werden, können Remote-Desktop-Benutzer-CALs von Microsoft oder einem lizenzierten Microsoft-Vertriebspartner erworben werden. Die Remote-Desktop-Benutzer-CALs verfügen über License-Mobility-Vorteile und können in die standardmäßigen (geteilten) Mandantenumgebungen von AWS übertragen werden. Informationen zum Übertragen von Lizenzen ohne Software Assurance oder Vorteile der Lizenzmobilität finden Sie in diesem Abschnitt der häufig gestellten Fragen.
F: Unterstützen virtuelle Desktops innerhalb von RES Spot Instances?
Nein. Virtuelle Desktops innerhalb von RES unterstützen nur On-Demand-Instances.
F: Wie wird RES veröffentlicht?
RES wird über das Amazon Web Services-Repository auf GitHub veröffentlicht. Dort finden Sie Optionen für die Installation.
Erfahren Sie mehr über alle AWS-Services, die Sie zum Erstellen einer HPC-Lösung in AWS verwenden können.
Sie erhalten sofort Zugriff auf das kostenlose AWS-Kontingent.