[テキスト]
このガイダンスは、Stable Diffusion モデルのキャリブレーションとデプロイを行い、簡単なテキストプロンプトでパーソナライズされたアバターを生成する方法を示します。Stable Diffusion は、機械学習の最新の進歩を活用するあるタイプの人工知能 (AI) が生成したテキストから画像への変換モデルです。ここでは、モデルは Amazon SageMaker によって構築され、DreamBooth アプローチで調整されます。Amazon SageMaker は、ユーザーの画像を 10~15 枚使用して被写体の詳細を正確にキャプチャします。このモデルは、ソーシャルメディア、ゲーム、バーチャルイベントなど、さまざまな用途で使用できるパーソナライズされたアバターを生成します。ガイダンスには、ユーザーが特定のテキスト入力に基づいてアバターを生成できるテキストプロンプト機能も含まれています。この機能により活用範囲が広がり、メディアおよびエンターテインメント組織がユーザーに合わせてパーソナライズされたコンテンツを開発するための数多くの方法を提供できるようになります。
このガイダンスは、メディアおよびエンターテインメント組織がパーソナライズされカスタマイズされたコンテンツを大規模に開発するための AI ベースのアプローチを提供します。ただし、このガイダンスのユーザーは、これらの AI 機能が悪用されたり操作されたりしないように予防策を講じる必要があります。適切なモデレーションメカニズムでのコンテンツの保護の詳細については、「Safe image generation and diffusion models with Amazon AI content moderation services」を参照してください。
注意: [免責事項]
アーキテクチャ図
[テキスト]
ステップ 1
AWS Identity and Access Management (IAM) 認証を使用して、Amazon API Gateway RESTful API エンドポイントを呼び出し、トレーニングを開始します。
ステップ 2
AWS Lambda 関数がユーザーの画像とトレーニング設定ファイルをパッケージ化して Amazon Simple Storage Service (Amazon S3) バケットにアップロードします。その後、トレーニングジョブを呼び出します。
ステップ 3
Amazon SageMaker の非同期推論がトレーニングプロセスを管理します。トレーニングジョブは、画像の準備、キャリブレーション、後処理のステップに進む前に自動的にキューに追加されます。
ステップ 4
SageMaker が、Amazon Simple Notification Service (Amazon SNS) トピックを介してジョブステータスを公開します。
ステップ 5
トレーニングジョブが完了すると、更新のためにユーザーアプリケーションが Amazon Simple Queue Service (Amazon SQS) をサブスクライブします。
ステップ 6
モデルアーティファクトが Amazon S3 モデルホスティングバケットにアップロードされます。
ステップ 7
IAM 認証を使用して、API Gateway RESTful API エンドポイントを呼び出し、推論が開始されます。
ステップ 8
Lambda 関数がモデルエンドポイントを呼び出します。
ステップ 9
SageMaker マルチモデルエンドポイント (MME) が、各モデルへのトラフィックパターンに基づいて、Amazon S3 モデルホスティングバケットから動的に読み込まれ、キャッシュ済みのパーソナライズされたモデルからの推論を提供します。
Well-Architected Pillars
AWS Well-Architected フレームワークは、クラウドでシステムを構築する際に行う決定の長所と短所を理解するのに役立ちます。フレームワークの 6 つの柱により、信頼性が高く、安全かつ効率的で、費用対効果が高く、持続可能なシステムを設計および運用するためのアーキテクチャのベストプラクティスを学ぶことができます。AWS マネジメントコンソールで無料で提供されている AWS Well-Architected Tool を使用し、各柱の一連の質問に回答することで、これらのベストプラクティスに照らしてワークロードを確認できます。
上記のアーキテクチャ図は、Well-Architected のベストプラクティスを念頭に置いて作成されたソリューションの例です。完全に Well-Architected であるためには、可能な限り多くの Well-Architected ベストプラクティスに従う必要があります。
-
オペレーショナルエクセレンス
このガイダンス全体で、SageMaker マルチモデルエンドポイントと Amazon CloudWatch を活用し、オペレーショナルエクセレンスを強化するように設計されています。まず、SageMaker のマルチモデルエンドポイントでは、単一のエンドポイントの背後に多数のモデルをデプロイできるため、管理が必要なエンドポイントの数を削減できます。SageMaker は、トラフィックパターンに基づいてモデルの読み込みとキャッシュを管理します。エンドポイントを再デプロイせずにモデルを追加または更新できます。必要な操作は SageMaker が管理する Amazon S3 ロケーションにモデルをアップロードすることだけです。さらに、SageMaker は、モデルからメトリクス、イベント、ログファイルを追跡してモデルのパフォーマンスのインサイトを取得できる CloudWatch に自動的に統合します。また、アラームを設定して、カスタマーエクスペリエンスに影響が及ぶ前に問題を事前にモニタリングすることもできます。
-
セキュリティ
API Gateway は、API リクエストを認証および承認する組み込みのメカニズムを提供するため、サービス拒否攻撃や、バックエンドリソースに過負荷をかける可能性のあるその他の不正行為を防止できます。Amazon Cognito ユーザープール、OAuth 2.0、または IAM ロールを使用して、API へのアクセスを制御することもできます。また、データ保護のため、API Gateway では、エンドポイントに送信されるデータが SSL/TLS で暗号化されます。また、API スロットリングもサポートされており、過剰なトラフィックや悪用から API を保護できます。 また、API Gateway の前にウェブアプリケーションファイアウォールの AWS WAF を追加して、ウェブベースの攻撃やエクスプロイトからアプリケーションを保護することも検討してください。最後に、分散型サービス拒否 (DDoS) 攻撃からワークロードを保護するために AWS Shield を検討してください。
-
信頼性
このガイダンス全体では、ワークロードの信頼性を強化するために API Gateway、Lambda、SageMaker がデプロイされています。まず、API Gateway は、トラフィックのスパイクを処理する組み込みの耐障害性と自動スケーリングを提供します。また、Lambda および SageMaker と統合しているため、スケーラブルなサーバーレス API を簡単に構築できます。さらに、SageMaker は、機械学習ワークロードを実行し、機械学習モデルを提供する際に、高い信頼性と可用性を確保するように設計されています。マネージド型の自動スケーリング、耐障害性、ヘルスチェック、モニタリング、診断が提供されます。SageMaker は、複数のアベイラビリティーゾーンに分散された分散型インフラストラクチャ上で動作するため、高い可用性を確保できます。これにより、モデルトレーニングと推論の信頼性が保証されます。
-
パフォーマンス効率
ここでは SageMaker を使用してパフォーマンス効率を高め、機械学習モデルのホストに使用できる高性能で低レイテンシーの推論サービスを提供します。インスタンスのタイプ、数、その他のデプロイを簡単に設定して、推論ワークロードを適切なサイズにし、レイテンシー、スループット、コストを最適化できます。
-
コストの最適化
SageMaker のマルチモデルエンドポイントを使用すると、多くのモデルをスケーラブルかつコスト効率の高い方法でデプロイできます。これらのエンドポイントは同じコンテナを使用してすべてのモデルをホストするため、個別のエンドポイントを管理するオーバーヘッドを削減できます。一部のモデルがあまり利用されていない状況では、リソースを共有することで、個別のエンドポイントを使用する場合に比べてインフラストラクチャの利用率を最大化し、コストを削減できます。
-
持続可能性
SageMaker 非同期推論は、受信したリクエストをキューに追加し、それらのリクエストを非同期で処理する機能です。したがって、SageMaker は、未使用のインスタンスをゼロまで自動的にスケールダウンできるため、アイドリング時のコンピューティングリソースを節約し、クラウドワークロードの実行環境への影響を最小限に抑えることができます。
関連コンテンツ
Safe image generation and diffusion models with Amazon AI content moderation services
免責事項
サンプルコード、ソフトウェアライブラリ、コマンドラインツール、概念の実証、テンプレート、またはその他の関連技術 (私たちの担当者から提供される前述のものを含む) は、AWS カスタマーアグリーメント、またはお客様と AWS との間の関連文書契約 (いずれか該当する方) に基づき、AWS コンテンツとしてお客様に提供されるものです。お客様は、この AWS コンテンツを、お客様の本番アカウント、または本番データもしくはその他の重要なデータで使用すべきではありません。お客様は、サンプルコードなどの AWS コンテンツを、お客様固有の品質管理手法および基準に基づいて、本番グレードでの使用に適したテスト、セキュリティ確保、および最適化を行う責任を負います。AWS コンテンツのデプロイには、Amazon EC2 インスタンスの実行や Amazon S3 ストレージの使用など、AWS の課金対象リソースを作成または使用するための AWS 料金が発生する場合があります。
本ガイダンスにおける第三者のサービスまたは組織への言及は、Amazon または AWS と第三者との間の承認、後援、または提携を意味するものではありません。AWS からのガイダンスは技術的な出発点であり、アーキテクチャをデプロイするときにサードパーティのサービスとの統合をカスタマイズできます。