[Texto]
En esta guía, se muestra cómo calibrar e implementar un modelo Stable Diffusion para generar avatares personalizados mediante un simple mensaje de texto. Stable Diffusion es un modelo de conversión de texto a imagen generado a partir de un tipo de inteligencia artificial (IA) que aprovecha los últimos avances en machine learning. En este caso, Amazon SageMaker crea los modelos y los calibra con el enfoque DreamBooth, que utiliza entre 10 y 15 imágenes del usuario para capturar los detalles precisos del sujeto. El modelo genera un avatar personalizado que se puede usar en una variedad de aplicaciones, como redes sociales, videojuegos y eventos virtuales. La guía también incluye una característica de mensaje de texto que permite a los usuarios generar avatares en función de entradas de texto específicas. Esta característica amplía las capacidades de las aplicaciones y proporciona a las organizaciones de contenido multimedia y entretenimiento más formas de desarrollar contenido personalizado y adaptado al consumidor.
Esta guía contiene un enfoque basado en la inteligencia artificial para ayudar a las organizaciones de contenido multimedia y entretenimiento a desarrollar contenido personalizado y especializado a escala. Sin embargo, los usuarios de esta guía deben tomar precauciones para impedir el abuso o la manipulación de estas capacidades de la IA. Visite “Safe image generation and diffusion models with Amazon AI content moderation services” para obtener información sobre cómo proteger el contenido mediante un mecanismo de moderación adecuado.
Tenga en cuenta lo siguiente: [Descargo de responsabilidad]
Diagrama de la arquitectura
[Texto]
Paso 1
Inicie el entrenamiento mediante una llamada a un punto de conexión de la API RESTful de Amazon API Gateway con la autenticación de AWS Identity and Access Management (IAM).
Paso 2
Una función de AWS Lambda empaqueta imágenes de usuarios y archivos de configuración de entrenamiento y los carga en un bucket de Amazon Simple Storage Service (Amazon S3). A continuación, invoca el trabajo de entrenamiento.
Paso 3
Una inferencia asincrónica de Amazon SageMaker administra el proceso de entrenamiento. Las tareas de entrenamiento se ponen automáticamente en cola antes de pasar por los pasos de preparación, calibración y procesamiento posterior de imágenes.
Paso 4
SageMaker publica el estado de las tareas a través de temas de Amazon Simple Notification Service (Amazon SNS).
Paso 5
La aplicación de usuario se suscribe a Amazon Simple Queue Service (Amazon SQS) para actualizarse cuando finaliza una tarea de entrenamiento.
Paso 6
Los artefactos del modelo se cargan en el bucket de alojamiento del modelo de Amazon S3.
Paso 7
Inicie la inferencia mediante una llamada a un punto de conexión de la API RESTful de API Gateway con la autenticación de IAM.
Paso 8
La función de Lambda invoca el punto de conexión del modelo.
Paso 9
Los puntos de conexión multimodelo (MME) de SageMaker proporcionan inferencias a partir de modelos personalizados cargados y almacenados en caché de forma dinámica desde el bucket de alojamiento de modelos de Amazon S3, en función del patrón de tráfico de cada modelo.
Pilares de Well-Architected
AWS Well-Architected Framework le permite comprender las ventajas y desventajas de las decisiones que tome durante la creación de sistemas en la nube. Los seis pilares de este marco permiten aprender las prácticas recomendadas arquitectónicas para diseñar y explotar sistemas confiables, seguros, eficientes, rentables y sostenibles. Con la Herramienta de AWS Well-Architected, que se encuentra disponible gratuitamente en la Consola de administración de AWS, puede revisar sus cargas de trabajo con respecto a estas prácticas recomendadas al responder a un conjunto de preguntas para cada pilar.
El diagrama de arquitectura mencionado es un ejemplo de una solución que se creó teniendo en cuenta las prácticas recomendadas de una buena arquitectura. Para tener completamente una buena arquitectura, debe seguir todas las prácticas recomendadas de buena arquitectura posibles.
-
Excelencia operativa
Los puntos de conexión multimodelo de SageMaker y Amazon CloudWatch se utilizan a lo largo de esta guía y están diseñados para mejorar su excelencia operativa. En primer lugar, los puntos de conexión multimodelo de SageMaker le permiten implementar diversos modelos detrás de un único punto de conexión, lo que reduce la cantidad de puntos que necesita administrar. SageMaker administra los modelos de carga y almacenamiento en caché en función de sus patrones de tráfico. Puede agregar o actualizar el modelo sin volver a implementar el punto de conexión. Simplemente cargue los modelos en la ubicación de Amazon S3 administrada por SageMaker. Además, SageMaker se integra automáticamente con CloudWatch, donde puede realizar un seguimiento de las métricas, los eventos y los archivos de registro del modelo y obtener información sobre el rendimiento de sus modelos. También puede configurar alarmas y supervisar los problemas de forma proactiva antes de que afecten la experiencia del cliente.
-
Seguridad
API Gateway proporciona mecanismos integrados para autenticar y autorizar las solicitudes de API, lo que evita los ataques de denegación de servicio u otros tipos de abuso que pueden sobrecargar sus recursos de backend. También puede usar los grupos de usuarios de Amazon Cognito, OAuth 2.0 o roles de IAM para controlar el acceso a sus API. Y para proteger los datos, API Gateway garantiza que los datos que llegan a su punto de conexión estén cifrados con SSL/TLS. También admite la limitación de API, lo que ayuda a proteger sus API contra el tráfico excesivo o el abuso. Además, considere agregar AWS WAF, un firewall de aplicaciones web, delante de API Gateway para proteger las aplicaciones de ataques y exploits basados en la Web. Por último, considere utilizar AWS Shield para proteger sus cargas de trabajo de los ataques distribuidos de denegación de servicio (DDoS).
-
Fiabilidad
API Gateway, Lambda y SageMaker se implementan en esta guía para mejorar la fiabilidad de sus cargas de trabajo. En primer lugar, API Gateway ofrece tolerancia a errores integrada y escalado automático para gestionar los picos de tráfico. También se integra con Lambda y SageMaker para facilitar la creación de API escalables y sin servidor. Además, SageMaker está diseñado para ofrecer una alta fiabilidad y disponibilidad a fin de ejecutar cargas de trabajo de machine learning y ofrecer modelos de machine learning. Proporciona escalado automático administrado, tolerancia a errores, comprobaciones de estado, supervisión y diagnósticos. Se ejecuta en una infraestructura distribuida en varias zonas de disponibilidad, lo que garantiza una alta disponibilidad. Esto garantiza la fiabilidad del entrenamiento y las inferencias de sus modelos.
-
Eficiencia en el rendimiento
SageMaker , en este caso, se utiliza para mejorar la eficacia del rendimiento, mediante un servicio de inferencia de alto rendimiento y baja latencia que se puede utilizar para alojar modelos de machine learning. Puede configurar fácilmente el tipo de instancia, el recuento y otras configuraciones de implementación para ajustar el tamaño correcto de su carga de trabajo de inferencia y optimizar la latencia, el rendimiento y el costo.
-
Optimización de costos
Los puntos de conexión multimodelo de SageMaker proporcionan una forma escalable y rentable de implementar una gran cantidad de modelos. Estos puntos de conexión utilizan el mismo contenedor para alojar todos sus modelos, lo que le permite reducir la sobrecarga de administrar puntos de conexión independientes. En una situación en la que algunos de los modelos no se utilizan tanto, cuenta con el uso compartido de recursos para maximizar la utilización de la infraestructura y ahorrar costos en comparación con tener puntos de conexión separados.
-
Sostenibilidad
La inferencia asincrónica de SageMaker es una capacidad que pone en cola las solicitudes entrantes y las procesa de forma asincrónica. Es decir, SageMaker puede escalarse automáticamente hasta cero instancias cuando no se usa, lo que ahorra recursos informáticos cuando está inactivo y ayuda a minimizar el impacto ambiental de la ejecución de las cargas de trabajo en la nube.
Recursos de implementación
El código de muestra es un punto de partida. Está validado por el sector, es prescriptivo pero no definitivo, y le permite profundizar en su funcionamiento para que le sea más fácil empezar.
Contenido relacionado
Safe image generation and diffusion models with Amazon AI content moderation services
Descargo de responsabilidad
El código de muestra; las bibliotecas de software; las herramientas de línea de comandos; las pruebas de concepto; las plantillas; o cualquier otra tecnología relacionada (incluida cualquiera de las anteriores que proporcione nuestro personal) se brinda como contenido de AWS bajo el Contrato de cliente de AWS, o el contrato escrito pertinente entre usted y AWS (lo que sea aplicable). No debe utilizar este contenido de AWS en sus cuentas de producción, ni en producción ni en otros datos críticos. Es responsable de probar, proteger y optimizar el contenido de AWS, como el código de muestra, según corresponda para el uso de grado de producción en función de sus prácticas y estándares de control de calidad específicos. La implementación de contenido de AWS puede incurrir en cargos de AWS por crear o utilizar recursos con cargo de AWS, como ejecutar instancias de Amazon EC2 o utilizar el almacenamiento de Amazon S3.
Las referencias a servicios u organizaciones de terceros en esta Guía no implican un respaldo, patrocinio o afiliación entre Amazon o AWS y el tercero. La orientación de AWS es un punto de partida técnico, y puede personalizar su integración con servicios de terceros al implementar la arquitectura.