Publié le: Sep 17, 2019
Amazon ECS prend en charge l’attachement des accélérateurs Amazon Elastic Inference à vos conteneurs afin d’optimiser la rentabilité de l’exécution des charges de travail d’inférence de deep learning. Amazon Elastic Inference vous permet de relier exactement la bonne quantité d’accélération basée sur GPU à une instance Amazon EC2 ou Amazon SageMaker ou une tâche EC2 afin de réduire le coût d'exécution de l'inférence deep learning jusqu'à 75 %.
Avec la prise en charge d’Amazon Elastic Inference, vous pouvez désormais choisir la configuration de CPU et de mémoire appliquée aux tâches la mieux adaptée aux besoins de votre application, puis configurer séparément la quantité d'accélération d'inférence dont vous avez besoin sans modifier de code. Cela vous permet d'utiliser efficacement les ressources et de réduire le coût d'exécution de l'inférence. Cette fonction est prise en charge lorsque vous utilisez les conteneurs et tâches Linux avec EC2 comme type de lancement. Amazon Elastic Inference prend en charge les modèles TensorFlow, Apache MXNet et ONNX, et bientôt d'autres cadres.
La prise en charge d’Amazon Elastic Inference par ECS est disponible dans toutes les régions où ECS et Elastic Inference sont disponibles. Pour démarrer, consultez notre documentation.