Veröffentlicht am: Apr 4, 2024
Wir geben heute die allgemeine Verfügbarkeit von Amazon-EC2-G6-Instances mit NVIDIA-L4-Tensor-Core-GPUs bekannt. G6-Instances können für zahlreiche grafikintensive und Machine-Learning-Anwendungsfälle eingesetzt werden. G6-Instances bieten im Vergleich zu Amazon-EC2-G4dn-Instances eine bis zu doppelt höhere Leistung für Deep-Learning-Inferenz- und Grafik-Workloads.
Kunden können G6-Instances zur Bereitstellung von ML-Modellen verwenden. Diese Modelle bieten Funktionen wie die Verarbeitung natürlicher Sprache, Sprachübersetzung, Video- und Bildanalyse, Spracherkennung und Personalisierung sowie Grafikworkloads wie das Erstellen und Rendern von Grafiken in Kinoqualität in Echtzeit und das Streaming von Spielen. G6-Instances verfügen über bis zu 8 NVIDIA-L4-Tensor-Core-GPUs mit 24 GB Arbeitsspeicher pro GPU und AMD-EPYC-Prozessoren der dritten Generation. Sie unterstützen außerdem bis zu 192 vCPUs, bis zu 100 Gbit/s Netzwerkbandbreite und bis zu 7,52 TB lokalen NVMe-SSD-Speicher.
Amazon-EC2-G6-Instances sind in den AWS-Regionen USA Ost (Nord-Virginia und Ohio) und USA West (Oregon) verfügbar. Kunden können G6-Instances als On-Demand-Instances, Reserved Instances, Spot Instances oder als Teil von Savings Plans erwerben.
Nutzen Sie für den Einstieg die AWS-Managementkonsole, die AWS-Befehlszeilenschnittstelle (CLI) und die AWS-SDKs. Für weitere Informationen besuchen Sie die G6-Instance-Seite.