[文本]
本指南将介绍如何校准和部署 Stable Diffusion 模型,以通过简单的文本提示生成个性化头像。Stable Diffusion 是一种文本到图像模型,由某种利用机器学习最新进展的人工智能(AI)生成。此处所说的模型由 Amazon SageMaker 构建,并使用 DreamBooth 方法进行校准,该方法使用 10-15 张用户图像来捕捉对象的精确细节。该模型生成的个性化头像可用于社交媒体、游戏和虚拟活动等多种应用场景。该指南还涉及文本提示功能,使用户可以根据特定的文本输入生成头像。此功能扩展了应用程序的能力,使媒体和娱乐组织可以通过更多方式,来为消费者量身定制个性化内容。
本指南介绍了一种基于人工智能的方法,可帮助媒体和娱乐组织大规模开发个性化的定制内容。但是,本指南的用户应采取预防措施,确保这些人工智能功能不被滥用或操纵。访问使用 Amazon 人工智能内容审核服务,打造安全的图像生成和扩散模型,了解如何通过适当的审核机制保障内容的安全。
请注意:[免责声明]
架构图
[文本]
第 1 步
使用 AWS Identity and Access Management(IAM)身份验证,通过调用 Amazon API Gateway RESTful API 端点来启动训练。
第 2 步
通过 AWS Lambda 函数打包用户图像和训练配置文件,并将它们上传到 Amazon Simple Storage Service(Amazon S3)存储桶。然后,该函数会调用训练作业。
第 3 步
Amazon SageMaker 的异步推理将管理训练过程。在完成图像准备、校准和后期处理步骤之前,训练作业会自动排队。
第 4 步
SageMaker 通过 Amazon Simple Notification Service(Amazon SNS)主题发布作业状态。
第 5 步
用户应用程序订阅 Amazon Simple Queue Service(Amazon SQS),以便在训练作业完成后进行更新。
第 6 步
将模型构件上传到 Amazon S3 模型托管存储桶。
第 7 步
使用 IAM 身份验证,通过调用 API Gateway RESTful API 端点启动推理。
第 8 步
Lambda 函数调用模型端点。
第 9 步
SageMaker 多模型终端节点(MME)根据每个模型的流量规律,通过从 Amazon S3 模型托管存储桶中动态加载和缓存的个性化模型,来提供推理。
Well-Architected 支柱
当您在云中构建系统时,AWS Well-Architected Framework 可以帮助您了解所做决策的利弊。框架的六大支柱使您能够学习设计和操作可靠、安全、高效、经济高效且可持续的系统的架构最佳实践。使用 AWS 管理控制台中免费提供的 AWS Well-Architected Tool,您可以通过回答每个支柱的一组问题,根据这些最佳实践来检查您的工作负载。
上面的架构图是按照 Well-Architected 最佳实践创建的解决方案示例。要做到完全的良好架构,您应该遵循尽可能多的 Well-Architected 最佳实践。
-
卓越运营
本指南中使用了 SageMaker 多模型终端节点和 Amazon CloudWatch,旨在强化您的卓越运营能力。首先,SageMaker 多模型终端节点使您能够在单个端点后面部署多种模型,从而减少需要管理的端点数量。SageMaker 会根据您的流量规律,管理模型的加载和缓存。您无需重新部署端点即可添加或更新模型。只需将模型上传到 SageMaker 托管的 Amazon S3 位置即可。此外,SageMaker 会自动与 CloudWatch 集成,您可以在 CloudWatch 中跟踪模型的指标、事件和日志文件,深入了解模型的性能。您还可以设置警报,在问题影响客户体验之前主动进行监控。
-
安全性
API Gateway 提供内置机制对 API 请求进行身份验证和授权,防止拒绝服务攻击或其他可能使您的后端资源过载的滥用行为。您还可以使用 Amazon Cognito 用户池、OAuth 2.0 或 IAM 角色来控制对 API 的访问。为了保护数据,API Gateway 会确保进入您端点的数据经过 SSL/TLS 加密。API Gateway 还支持 API 节流,有助于保护您的 API 免受过多流量或滥用的影响。 此外,还可考虑在 API Gateway 前添加 Web 应用程序防火墙 AWS WAF,以保护应用程序免受 Web 攻击和漏洞的影响。最后,考虑使用 AWS Shield 保护您的工作负载免受分布式拒绝服务(DDoS)攻击的侵害。
-
可靠性
本指南中部署了 API Gateway、Lambda 和 SageMaker,来提高工作负载的可靠性。首先,API Gateway 提供了内置的容错和自动扩缩功能,可应对流量激增。API Gateway 还与 Lambda 及 SageMaker 集成,使您可以轻松构建可扩展的无服务器 API。此外,SageMaker 的目标是为运行机器学习工作负载和提供机器学习模型服务带来高可靠性和可用性。SageMaker 可实现托管的自动扩缩、容错、运行状况检查、监控和诊断,还可在分布于多个可用区的分布式基础设施上运行,来确保高可用性。这一切都确保了模型训练和推理的可靠性。
-
性能效率
此处使用 SageMaker 来提高性能效率,实现可用于托管机器学习模型的高性能、低延迟推理服务。您可以轻松配置实例类型、数量和其他部署配置,以调整推理工作负载的规模,优化延迟、吞吐量和成本。
-
成本优化
部署大量模型时,SageMaker 多模型终端节点是一种可扩展且经济实惠的方式。这些端点使用同一个容器来托管所有模型,减少了管理不同独立端点的开销。在某些模型使用率不高的情况下,您可以通过资源共享,以最大限度地提高基础设施的利用率,与使用单独的端点相比,还能节约成本。
-
可持续性
SageMaker 异步推理是一种对传入请求进行排队并异步处理的功能。这意味着,SageMaker 可以在不使用时自动缩减到零实例,从而在闲置时节省计算资源,并帮助最大限度地减少运行云工作负载对环境的影响。
相关内容
使用 Amazon 人工智能内容审核服务,打造安全的图像生成和扩散模型
免责声明
示例代码;软件库;命令行工具;概念验证;模板;或其他相关技术(包括由我方人员提供的任何前述项)作为 AWS 内容按照《AWS 客户协议》或您与 AWS 之间的相关书面协议(以适用者为准)向您提供。您不应将这些 AWS 内容用在您的生产账户中,或用于生产或其他关键数据。您负责根据特定质量控制规程和标准测试、保护和优化 AWS 内容,例如示例代码,以使其适合生产级应用。部署 AWS 内容可能会因创建或使用 AWS 可收费资源(例如,运行 Amazon EC2 实例或使用 Amazon S3 存储)而产生 AWS 费用。
本指南中提及第三方服务或组织并不意味着 Amazon 或 AWS 与第三方之间存在认可、赞助或从属关系。AWS 的指导是一个技术起点,您可以在部署架构时自定义与第三方服务的集成。