Amazon Web Services ブログ
Category: Amazon SageMaker
製造業のニーズに最適な機械学習サービスの選択
機械学習 (ML) は製造業で欠かせない技術となりましたが、どの機械学習サービスやツールが自分の業務に最適かを判断するのは難しい場合があります。そこで、アマゾンウェブサービス (AWS)の 各ML サービスの使い方を、ユースケースを交えて説明します。
Amazon SageMaker Canvas の ML 予測を使用して Amazon QuickSight に予測ダッシュボードをパブリッシュ
この記事では、予測を明示的にダウンロードして QuickSight にインポートしなくても、Canvas から ML ベースの予測を使用して QuickSight で予測ダッシュボードを公開する方法を説明します。このソリューションを使用すると、Canvas から QuickSight に予測を送信できるため、機械学習を使用して意思決定を迅速に行い、効果的なビジネス成果を達成できます。
【開催報告】出版業界向け AWS クラウド活用セミナー 〜攻めと守りのデジタル戦略とユーザ事例〜
はじめに 2023 年 3月 23 日、出版業界のお客様向けに、「攻めと守りのデジタル戦略とユーザ事例」という […]
AWS 上の MongoDB のビルディングブロックを使用して車両のデジタルツインの課題を解決する方法
車両のデジタルツインの課題を解決するための技術的側面について詳しく説明します。MongoDB と AWS が、モバイルデバイス、データベース、クラウド、車両を効率的に双方向に統合するためのビルディングブロックをどのように提供しているかを説明します。
セキュリティアップデートと他のユースケースのサンプルで Amazon SageMaker 地理空間機能の一般提供を開始
AWS re:Invent 2022 では、Amazon SageMaker 地理空間機能をプレビューしました […]
カメラ・映像を活用したスマート製品の技術トレンド (AWS Summit Tokyo 2023)
みなさん、こんにちは! 先日 2023 年 4 月 20 ,21 日、AWS 国内最大のイベントである AWS […]
AWS IoT によるコネクテッドな世界へのビジョン
モノのインターネット (IoT) の将来については、現在も議論と憶測が飛び交っています。IoT ハイパースケーラー、ベンダー、顧客などに影響が及ぶ中、状況は急速に進化しています。このトピックを明らかにするために、アマゾン ウェブ サービス (AWS) の IoT 担当バイスプレジデントである Yasser Alsaied に話を聞きました。このブログでは、IoT テクノロジー、戦略、業界成長の未来、そしてそれらが IoT エコシステムにどのように影響するかについて、Yasser の洞察を探ります。
Amazon SageMaker 上で AWS Inferentia2 と AWS Trainium を使って、低コストで高性能な生成系 AI 推論を実現
2023年5月4日、Amazon SageMaker が AWS Inferentia2 (ml.inf2) と AWS Trainium (ml.trn1) ベースの SageMaker インスタンスをサポートして、リアルタイムおよび非同期推論のための生成系 AI モデルをホストすることを発表しました。この記事では、大規模モデル推論 (LMI) コンテナを活用して、SageMaker を使用して AWS Inferentia2 に大規模な言語モデルをデプロイするプロセスを示します。
大規模言語モデルを Amazon SageMaker 上で学習する際のベストプラクティス
Amazon SageMaker Training で 大規模言語モデル(LLM) の学習を成功させるための Tips とベストプラクティスについて深く掘り下げます。本記事では、LLM 学習ワークロードのすべてのフェーズをカバーし、関連するインフラ機能とベストプラクティスについて説明しています。これらのベストプラクティスにより、SageMaker 上で数千万から数億のパラメータ規模の LLM をトレーニングすることができます。
大規模モデル推論コンテナを使って AWS Inferentia2 に大規模言語モデルをデプロイ
本稿では、AWS Inferentia2 上で大規模言語モデルをデプロイする方法を解説します。ここでは、AWS Neuron ソフトウェア開発キット (SDK) を使って Inferentia デバイスにアクセスし、その高いパフォーマンスの恩恵を受けます。そして、モデルサービングのソリューションとして、Deep Java Library (DJLServing) を搭載した大規模モデル推論コンテナを使用します。Amazon Elastic Compute Cloud (Amazon EC2) の inf2.48xlarge インスタンスに OPT-13B モデルをデプロイし、これら3つのレイヤーがどのように連携しているかをデモンストレーションします。