Meta 的 Llama 3.1 8B 和 70B 模型现在可以在 Amazon Bedrock 中进行微调

发布于: 2024年10月28日

Amazon Bedrock 现在支持微调 Meta 的 Llama 3.1 70B 和 8B 模型,使企业能够使用自己的数据自定义这些生成式 AI 模型。与早期版本相比,Llama 3.1 模型进行了重大改进,包括 128K 的上下文长度(比 Llama 3 长 16 倍),允许您访问和处理来自较长文本段落的大量信息。您可以使用微调来调整 Llama 3.1 模型以适应特定领域的任务,从而增强特定使用案例的模型性能。

据 Meta 介绍,Llama 3.1模型在八种语言的多语言对话中表现出色,推理能力也有所提高。Llama 3.1 70B 模型非常适合内容创作、对话式 AI、语言理解、研究开发和企业应用程序。此模型擅长文本摘要、文本分类、情感分析、细微差别推理、语言建模、对话系统、代码生成和遵循指令等任务。Llama 3.1 8B 模型最适合计算能力和资源有限的场景,在文本摘要、分类、情感分析和语言翻译方面表现出色,同时确保低延迟推理。通过微调 Amazon Bedrock 中的 Llama 3.1 模型,企业可以进一步增强其专业应用程序的能力,从而提高准确性和相关性,而无需从头开始构建模型。

您可以在美国西部(俄勒冈州)AWS 区域微调 Amazon Bedrock 中的 Llama 3.1 模型。有关定价,请访问 Amazon Bedrock 定价页面。要开始使用,请参阅 Bedrock 用户指南