Publicado en: May 10, 2022
Las nuevas mejoras ya están disponibles para los clientes que utilicen instancias de cuaderno de Amazon SageMaker, incluida la disponibilidad de la familia de instancias de GPU ml.g5 y la compatibilidad con Python 3.8.
Ahora, los clientes de Amazon SageMaker pueden seleccionar instancias ml.g5, que cuentan con la tecnología de las GPU NVIDIA A10G Tensor Core, cuando crean una instancia de cuaderno de Amazon SageMaker con el sistema operativo Amazon Linux 2 (AL2). Las instancias ml.g5 cuentan con hasta 8 GPU NVIDIA 10 G Tensor Core y procesadores AMD EPYC de segunda generación. También admiten hasta 192 CPU virtuales, 100 Gbps de ancho de banda de red y 7,6 TB de almacenamiento local SSD NVMe. Los clientes pueden elegir el tamaño de instancia más adecuado entre ocho opciones, que ofrecen entre una y ocho GPU. Para obtener más información sobre las instancias ml.g5, visite el blog de noticias de AWS o consulte la página de instancias G5 para obtener más información.
Además, los clientes ahora pueden utilizar kernels de Python 3.8 con sus blocs de notas en instancias de cuaderno de Amazon SageMaker. Los clientes pueden seleccionar entre imágenes de Conda con Python 3.8 para Pytorch o Tensorflow para sus blocs de notas.
Los kernels de Python 3.8 se encuentran disponibles en todas las regiones públicas de AWS. Las instancias ml.g5 están disponibles en las siguientes regiones de AWS: Este de EE. UU. (Norte de Virginia), Oeste de EE. UU. (Oregón) y Europa (Irlanda).
Para comenzar, visite la consola de Amazon SageMaker y seleccione una de las ocho instancias ml.g5 disponibles cuando cree un bloc de notas de SageMaker en el sistema operativo de AL2. A continuación, seleccione conda_tensorflow2_p38 o conda_pytorch_p38 entre las varias opciones de kernel.