Amazon EC2 G6e インスタンスを利用できるリージョンが拡大

投稿日: 2024年11月21日

本日より、NVIDIA L40S Tensor Core GPU を搭載した Amazon EC2 G6e インスタンスがアジアパシフィック (東京) と欧州 (フランクフルト、スペイン) でご利用いただけるようになりました。G6e インスタンスは、機械学習と空間コンピューティングの幅広いユースケースに使用できます。G6e インスタンスは、G5 インスタンスと比較して最大 2.5 倍のパフォーマンスを実現し、P4d インスタンスよりも推論コストを最大 20% 削減します。

G6e インスタンスを使用して、最大 13B のパラメータを持つ大規模言語モデル (LLM) と、画像、動画、音声を生成するための拡散モデルをデプロイできます。さらに、G6e インスタンスにより、お客様は空間コンピューティングワークロード向けに、より大規模で没入感のある 3D シミュレーションやデジタルツインを作成できるようになります。G6e インスタンスには、384 GB の GPU メモリ (GPU あたり 48 GB) を備えた最大 8 つの NVIDIA L40S Tensor Core GPU と、第 3 世代 AMD EPYC プロセッサが搭載されています。また、最大 192 の vCPU、最大 400 Gbps のネットワーク帯域幅、最大 1.536 TB のシステムメモリ、最大 7.6 TB のローカル NVMe SSD ストレージをサポートしています。デベロッパーは、AWS 深層学習 AMI、AWS 深層学習コンテナ、または Amazon Elastic Kubernetes Service (Amazon EKS) や AWS Batch などのマネージドサービスを使用して G6e インスタンスで AI 推論ワークロードを実行できます。Amazon SageMaker のサポートは間もなく開始されます。

Amazon EC2 G6e インスタンスは、現在、米国東部 (バージニア北部、オハイオ)、米国西部 (オレゴン)、アジアパシフィック (東京)、欧州 (フランクフルト、スペイン) リージョンでご利用いただけます。G6e インスタンスは、オンデマンドインスタンス、リザーブドインスタンス、スポットインスタンス、または Savings Plans の一部としてご購入いただけます。

使用を開始するには、AWS マネジメントコンソールAWS コマンドラインインターフェイス (CLI)、および AWS SDK にアクセスしてください。詳細については、G6e インスタンスのページをご覧ください。