Amazon Web Services ブログ

Category: Amazon SageMaker

AWS IoT によるコネクテッドな世界へのビジョン

モノのインターネット (IoT) の将来については、現在も議論と憶測が飛び交っています。IoT ハイパースケーラー、ベンダー、顧客などに影響が及ぶ中、状況は急速に進化しています。このトピックを明らかにするために、アマゾン ウェブ サービス (AWS) の IoT 担当バイスプレジデントである Yasser Alsaied に話を聞きました。このブログでは、IoT テクノロジー、戦略、業界成長の未来、そしてそれらが IoT エコシステムにどのように影響するかについて、Yasser の洞察を探ります。

Amazon SageMaker 上で AWS Inferentia2 と AWS Trainium を使って、低コストで高性能な生成系 AI 推論を実現

2023年5月4日、Amazon SageMaker が AWS Inferentia2 (ml.inf2) と AWS Trainium (ml.trn1) ベースの SageMaker インスタンスをサポートして、リアルタイムおよび非同期推論のための生成系 AI モデルをホストすることを発表しました。この記事では、大規模モデル推論 (LMI) コンテナを活用して、SageMaker を使用して AWS Inferentia2 に大規模な言語モデルをデプロイするプロセスを示します。

大規模言語モデルを Amazon SageMaker 上で学習する際のベストプラクティス

Amazon SageMaker Training で 大規模言語モデル(LLM) の学習を成功させるための Tips とベストプラクティスについて深く掘り下げます。本記事では、LLM 学習ワークロードのすべてのフェーズをカバーし、関連するインフラ機能とベストプラクティスについて説明しています。これらのベストプラクティスにより、SageMaker 上で数千万から数億のパラメータ規模の LLM をトレーニングすることができます。

大規模モデル推論コンテナを使って AWS Inferentia2 に大規模言語モデルをデプロイ

本稿では、AWS Inferentia2 上で大規模言語モデルをデプロイする方法を解説します。ここでは、AWS Neuron ソフトウェア開発キット (SDK) を使って Inferentia デバイスにアクセスし、その高いパフォーマンスの恩恵を受けます。そして、モデルサービングのソリューションとして、Deep Java Library (DJLServing) を搭載した大規模モデル推論コンテナを使用します。Amazon Elastic Compute Cloud (Amazon EC2) の inf2.48xlarge インスタンスに OPT-13B モデルをデプロイし、これら3つのレイヤーがどのように連携しているかをデモンストレーションします。

AWS Step Functionsを使用してオンプレミスの機械学習コードを Amazon SageMaker に取り込む

この記事では、オンプレミス環境で作成された機械学習コードを、最小限のリファクタリングで AWS 環境に移行し、またAWS内の機械学習サービス Amazon SageMaker の機能を最大限活用する方法について解説します。
非効率であることは分かりつつも修正の時間を取ることができないようなケースにおいて、Amazon SageMaker と AWS Step Functions を用いてデータサイエンティストと MLOps エンジニアという 2 人の開発者がどのようにリフトアンドシフトするのかを説明していきます。

2023 年 3 月の AWS Black Belt オンラインセミナー資料及び動画公開のご案内

2023 年 3 月に公開された AWS Black Belt オンラインセミナーの資料及び動画についてご案内させて頂きます。
動画はオンデマンドでご視聴いただけます。

Amazon Location Service と Amazon SageMaker でゴミ収集の最適化

本記事では、Amazon Location Service と最適化アルゴリズムを使って、ゴミ収集の最適化問題で最も効率的なルートを見つける方法を紹介します。ゴミ収集は、ゴミをゴミ置き場地点から処理地点に移送することです。この移送は、ゴミ収集車を使用して行われます。