投稿日: Nov 2, 2018
Amazon Rekognition は深層学習に基づいた画像と動画の分析サービスで、物体、人間、テキスト、シーン、アクティビティの特定や、安全でないコンテンツの検出も行えます。本日、物体とシーンの検出機能のメジャーアップデートを発表します。この機能はラベル検出とも呼ばれます。ラベル検出は、画像内の物体とシーンを判別する機能です。Amazon Rekognition ではこれまで、画像内にある物体が存在することを判別できても、画像内の位置までは特定できませんでした。今後は、Amazon Rekognition で物体の境界ボックスが返され、イヌ、人、自動車といった一般的な物体の画像内での位置を特定できるようになりました。同時に、さまざまなユースケースにおいて、既存の物体とシーンに対するラベルの精度が大幅に向上しました。さらに、境界ボックス情報を使用して画像内の各物体の数 ("イヌ 3 匹") や物体間の関連 ("ソファーの上のイヌ") も推測できるようになりました。これら新しく強化された機能は、追加費用なしで利用できます。
ニュース、スポーツ、ソーシャルメディア企業は、いずれも画像ライブラリの急速な増大という課題に直面しています。こうしたコンテンツをすばやく検索し、フィルタリングする方法が求められています。これらを実現するアプリケーションへの手動によるメタデータ追加もある程度役立つとはいえ、このアプローチによる精度とスケーラビリティには限界があります。Amazon Rekognition の物体とシーンの検出機能を使えば、膨大な画像ライブラリを自動的にインデックス化し、検索を可能にすることができます。
「GuruShots は、世界中の何百万人もの写真愛好家をつなぎ合わせ、インスピレーションを与えるサービスで、ユーザーと写真とのかかわりをより楽しく、面白く、満足度の高いものへと変革しています。以前は、画像の内容を十分把握するためにエンドユーザーが手動で画像にタグ付けしていました。より使い勝手の良いサービスを提供するため、アップロードされた画像に自動でタグ付けし、詳しく分析できるスケーラブルな方法を探してきました。Amazon Rekognition を使うことで、ユーザーのアップロードした画像にタグを付け、生成されたメタデータを使ってトレンドの検出、検索結果の改善、ユーザーの好みに合わせたコンテンツの調整を実行できるようになりました。この新しいスムーズなプロセスのおかげで、ユーザーのリテンションが 40% 向上し、エンゲージメントは 50% 向上しました」– Eran Hazout 氏、GuruShots 創設者兼 CTO
このたび、物体の境界ボックスによって各物体が画像内に何回出現しているかを数えられるようになり ("イヌ 3 匹")、画像全体の寸法に対する位置座標と境界ボックスサイズを使用して他の物体より目立っている、または重要である物体を判定することも可能になりました。この情報は、ユーザーの好みについて判断する際に活用できます。例えば、"Car" の目立っている写真が多ければ、車の愛好家である可能性が高いでしょう。一部のお客様は境界ボックスを使って、例えば武器など特定の物体にぼかしを入れるなど、さらに画像加工を実施しています。境界ボックス情報は、特定のタイプの画像 (複数のイヌが写っている画像や、1 匹ではなく複数のイヌが目立っている画像など) の検索にも活用できます。アセットの検索機能をさらに強化するため、Amazon Rekognition では階層リストの親ラベルも返されるようになりました。例えば、"Dog" というラベルには "Mammal"、"Canine"、"Animal" という親ラベルが存在します。このメタデータによってラベルを親子関係で関連付け、分類とフィルタリングを向上させることができます。
境界ボックス、階層化メタデータ、精度が向上したラベル検出は、Amazon Rekognition Image が提供されているすべてのリージョンで本日から利用できます。Amazon Rekognition Video のラベル機能も近日改善される予定です。使用開始するには、Rekognition コンソールを使うか、最新の AWS SDK をダウンロードしてください。詳細については、ドキュメントを参照してください。