Publié le: Mar 1, 2024
Les modèles de fondation Mixtral 8x7B et Mistral 7B de Mistral AI sont désormais disponibles pour tous sur Amazon Bedrock. Les modèles de Mistral AI sont désormais proposés sur Amazon Bedrock, rejoignant ainsi d'autres grandes sociétés d'IA telles que AI21 Labs, Anthropic, Cohere, Meta, Stability AI et Amazon. Amazon Bedrock propose désormais un choix encore plus large de modèles performants via une API unique. Vous pouvez donc choisir le modèle optimal pour créer des applications d'IA génératives garantissant sécurité, confidentialité et responsabilité.
Les modèles Mixtral 8x7B et Mistral 7B de Mistral AI élèvent les modèles disponibles au public à des performances de pointe. Mixtral 8x7B est un modèle de mélange d'experts (Mixture-of-Experts, MoE) clairsemé et populaire de haute qualité, idéal pour la synthèse de texte, les questions et réponses, la classification de texte, le remplissage de texte et la génération de code. Mistral 7B est le premier modèle de fondation de Mistral. Il prend en charge les tâches de génération de texte en anglais avec des capacités de codage naturelles et peut être ajusté rapidement et facilement avec vos données personnalisées pour répondre à des tâches spécifiques. Le modèle est optimisé pour une faible latence, une faible quantité de nécessité en matière de mémoire et un débit élevé pour sa taille. Mistral 7B est un modèle puissant prenant en charge une variété de cas d'utilisation, allant de la synthèse et de la classification de texte au remplissage de texte en passant par le remplissage de code.
Les modèles Mixtral 8x7B et Mistral 7B de Mistral AI sur Amazon Bedrock sont disponibles dans la région AWS USA Ouest (Oregon). Pour en savoir plus, consultez le blog de lancement d'AWS News, la page produit de Mistral AI sur Amazon Bedrock et la documentation. Si vous souhaitez commencer à utiliser Mistral AI sur Amazon Bedrock, accédez à la console Amazon Bedrock.