投稿日: Dec 9, 2022
Amazon SageMaker モデルトレーニングは、NVIDIA A100 GPU とハイパフォーマンス HBM2e GPU メモリを搭載した ml.p4de.24xlarge (p4de) インスタンスのプレビューをサポートするようになりました。これらのインスタンスは、大規模言語モデル (LLM)、コンピュータービジョン (オブジェクト検出、セマンティックセグメンテーション)、およびジェネレーティブ人工知能のトレーニングを必要とするユースケースで、現在利用可能な最高性能のコンピューティングインフラストラクチャを提供します。
P4de インスタンスには、80 GB の高性能 HBM2e GPU メモリを搭載した最大 8 個の NVIDIA A100 GPU メモリが搭載されています。これは p4d インスタンスの GPU の 2 倍です。GPU メモリが多いほど、主に、高解像度データや複雑なモデルの大規模なデータセットを含むワークフローのトレーニング時間とコストを削減できます。
p4d と同様、
最大 96 個の vCPU、EFA と GPUDirect RDMA による最大 400 Gbps のネットワーク帯域幅、および最大 8 TB のローカル NVMe ベースの SSD ストレージもサポートしています。
本日より、SageMaker モデルトレーニングは、AWS 米国東部 (バージニア北部) と米国西部 (オレゴン) リージョンで p4de インスタンスのプレビュー版のサポートを開始します。
p4de インスタンスの詳細については、AWS ニュースブログまたは Amazon EC2 P4 インスタンスページをご覧ください。p4de インスタンスの使用を開始するには、Amazon SageMaker のドキュメントと SageMaker モデルトレーニングのページをご覧ください。p4de の料金設定の詳細については、 Amazon SageMaker の料金表ウェブページをご覧ください。