Veröffentlicht am: Nov 15, 2023
AWS kündigt heute die allgemeine Verfügbarkeit von Amazon Elastic Compute Cloud (Amazon EC2) DL2q Instances an. DL2q-Instanzen werden von Qualcomm AI 100 Standard-Acceleratoren betrieben und sind die ersten, die die KI-Technologie von Qualcomm in der öffentlichen Cloud einsetzen.
Mit 8 Qualcomm AI 100 Standard-Acceleratoren und 128 GiB Gesamt-Acceleratorenspeicher können Kunden DL2Q-Instances verwenden, um beliebte generative KI-Anwendungen wie Inhaltsgenerierung, Textzusammenfassung und virtuelle Assistenten sowie klassische KI-Anwendungen für die Verarbeitung natürlicher Sprache und Computer Vision auszuführen. Darüber hinaus verfügt Qualcomm AI 100 über dieselbe KI-Technologie, die für Smartphones, autonomes Fahren, Personal Computing und Extended-Reality-Headsets verwendet wird, sodass DL2q-Instances verwendet werden können, um diese KI-Workloads vor der Bereitstellung zu entwickeln und zu validieren. DL2q-Instances kombinieren die KI-Edge-Technologie von Qualcomm mit der Flexibilität, Skalierbarkeit und Breite von AWS, sodass Kunden ihre Deep-Learning-Entwicklung (DL) vorantreiben können.
DL2q-Instances sind in der Größe dl2q.24xlarge in den folgenden AWS-Regionen als On-Demand, Reserved und Spot-Instances oder als Teil eines Savings Plans verfügbar: US West (Oregon) und Europa (Frankfurt).
Nutzen Sie für den Einstieg die AWS-Managementkonsole, die AWS-Befehlszeilenschnittstelle (CLI) und die AWS-SDKs. Für weitere Informationen besuchen Sie die DL2q-Instance-Seite.