Amazon Web Services ブログ

Category: Advanced (300)

Estimating AWS Config recorder costs and usage using AWS CloudTrail

AWS CloudTrail を使用した AWS Config 設定レコーダーのコストと使用量の見積もり

AWS Config は、AWS アカウント内の AWS リソースの設定変更を追跡するサービスです。AWS Config は、記録しているリソースタイプの変更を検出するたびに、設定レコーダー を使用して設定項目を作成します。この記事では、AWS Config が有効になっている場合に、AWS CloudTrail を使用して設定項目の数の推定値を把握する方法を説明します。

ONNX Runtime を使った AWS IoT Greengrass 上での画像分類の最適化

演算能力とメモリが限られているエッジデバイスに機械学習のモデルを展開する場合、開発者は、望ましいパフォーマンスを達成するためにモデルを手動でチューニングするという課題を抱えています。このブログポストでは、AWS IoT Greengrass 上の ONNX Runtime を使用して、エッジでの画像分類を最適化する方法の例について紹介します。

AWS DataSync を使用して Amazon FSx for NetApp ONTAP にファイル共有を移行する

データ移行を計画する際には、移行ツールを評価し、オンライン移行に利用可能な帯域幅があるかどうかを判断し、移行元と移行先の特性を理解する必要があります。オンプレミスのストレージや他の AWS ストレージサービスから Amazon FSx for NetApp ONTAP にデータを移行する場合、移行元が NetApp ONTAP ではない、あるいは SnapMirror ライセンスを持っていない場合があります。 FSx for ONTAP に移行する場合、移行戦略の一環としてボリュームデータの階層化ポリシーの特性を考慮する必要があります。

カスタムメトリクスに基づいた Application Auto Scaling による Amazon ECS サービスのオートスケール

Application Auto Scaling は、Amazon Elastic Container Service (Amazon ECS) サービス、Amazon DynamoDB テーブル、AWS Lambda のプロビジョニングされた同時実行などのスケーラブルな AWS サービスに向けた、リソースを自動的にスケーリングするソリューションを必要とする開発者やシステム管理者向けのウェブサービスです。Application Auto Scaling では、Amazon CloudWatch のカスタムメトリクスに基づくスケーリングポリシーを使用して、このようなリソースをスケーリングできるようになりました。これらのメトリクスは、メトリクスの数学式に照らして評価されます。この記事では、この機能がどのように機能するかを、サンプルシナリオを使ってデモします。このシナリオでは、サービスが処理する HTTP リクエストの平均レートに基づいて、Amazon ECS サービスをスケーリングします。

AWS AppSync Private API の紹介

AppSync の Private API の一般提供を発表します。Private API を使用すると、VPC やオンプレミスのデータセンターなどのプライベートネットワーク内のクライアントのみに、お客様の GraphQL API へのアクセスを制限できます。Private API へのリクエストは、インターネットを介さずに AWS のプライベートネットワークを経由して行われます。開始するには、AppSync で GraphQL API を作成する際に API を Private に設定し、API を呼び出す同じ AWS アカウント内の各 VPC にインターフェース VPC エンドポイントを作成します。また、AWS Direct Connect または AWS Site to Site VPN を使用して、オンプレミスネットワークからインターフェイスエンドポイントをホストする VPC へのプライベート接続を確立することができます。この接続により、オンプレミスデータセンターのクライアントは Private API を呼び出すことができます。

snow-transfer-tool により様々なサイズのファイルを AWS Snowball Edge へ移行する

アプリケーションや IT インフラストラクチャを AWS に移行する際は、既存のデータも移行する必要があります。移行するデータは移行元の環境に応じて変化し、ファイルサイズも多岐に渡ります。移行するデータの内、1 MB 未満のファイルが全体の 1 桁のパーセンテージ以上含まれていた場合、移行のパフォーマンスは低下する可能性があります。

Amazon SageMaker 上で AWS Inferentia2 と AWS Trainium を使って、低コストで高性能な生成系 AI 推論を実現

2023年5月4日、Amazon SageMaker が AWS Inferentia2 (ml.inf2) と AWS Trainium (ml.trn1) ベースの SageMaker インスタンスをサポートして、リアルタイムおよび非同期推論のための生成系 AI モデルをホストすることを発表しました。この記事では、大規模モデル推論 (LMI) コンテナを活用して、SageMaker を使用して AWS Inferentia2 に大規模な言語モデルをデプロイするプロセスを示します。

AWS Backup と VMware Cloud on AWS を活用した VMware ワークロードのデータ保護シンプル化

AWS Backup と VMware Cloud on AWS が、オンプレミスで VMware ワークロードを実行しているお客様にバックアップ、マイグレーション、およびディザスタリカバリのためのシンプルなソリューションを提供できるということを紹介します。お客様は、オンプレミスの VMware ワークロードを AWS クラウドに移行し、データ保護ソリューションをコスト効率よく拡張でき、運用の複雑さも最小限に抑えることができます。

大規模モデル推論コンテナを使って AWS Inferentia2 に大規模言語モデルをデプロイ

本稿では、AWS Inferentia2 上で大規模言語モデルをデプロイする方法を解説します。ここでは、AWS Neuron ソフトウェア開発キット (SDK) を使って Inferentia デバイスにアクセスし、その高いパフォーマンスの恩恵を受けます。そして、モデルサービングのソリューションとして、Deep Java Library (DJLServing) を搭載した大規模モデル推論コンテナを使用します。Amazon Elastic Compute Cloud (Amazon EC2) の inf2.48xlarge インスタンスに OPT-13B モデルをデプロイし、これら3つのレイヤーがどのように連携しているかをデモンストレーションします。