게시된 날짜: Dec 13, 2023

오늘부터 Amazon Elastic Compute Cloud(Amazon EC2) Inf2 인스턴스가 아시아 태평양(뭄바이), 아시아 태평양(싱가포르), 아시아 태평양(도쿄), 유럽(아일랜드), 유럽(프랑크푸르트) 리전에서 정식 버전으로 제공됩니다. 이러한 인스턴스는 Amazon EC2에서 생성형 AI 모델을 위해 가장 저렴한 비용으로 탁월한 성능을 제공합니다. 

Inf2 인스턴스를 사용하면 텍스트 요약, 코드 생성, 비디오 및 이미지 생성, 음성 인식, 개인화 등 널리 활용되는 애플리케이션을 실행할 수 있습니다. Inf2 인스턴스는 Amazon EC2에서 고속 비차단 인터커넥트 기술인 NeuronLink를 통해 지원되는 스케일 아웃 분산 추론 기능을 도입한 최초의 추론 최적화 인스턴스입니다. Inf2 인스턴스는 최대 2.3페타플롭의 컴퓨팅 성능, 최대 384GB의 총 엑셀러레이터 메모리 및 초당 9.8TB의 대역폭을 제공합니다. Inf2 인스턴스는 동급의 다른 Amazon EC2 인스턴스보다 최대 40% 더 뛰어난 가격 대비 성능을 제공합니다.

AWS Neuron SDK는 널리 사용되는 기계 학습 프레임워크와 기본적으로 통합되므로 기존 프레임워크를 계속 사용하여 Inf2에 배포할 수 있습니다. 개발자는 AWS Deep Learning AMI, AWS Deep Learning Containers 또는 관리형 서비스(Amazon Elastic Container Service(Amazon ECS), Amazon Elastic Kubernetes Service(Amazon EKS), Amazon SageMaker 등)를 사용하여 Inf2 인스턴스를 시작할 수 있습니다.

이제 Inf2 인스턴스는 8개의 AWS 리전에서 온디맨드 인스턴스, 예약형 인스턴스, 스팟 인스턴스 또는 절감형 플랜의 일부로 제공되며, inf2.xlarge, inf2.8xlarge, inf2.24xlarge, inf2.48xlarge라는 4가지 크기 중에서 선택할 수 있습니다.

Inf2 인스턴스에 대해 자세히 알아보려면 Amazon EC2 Inf2 인스턴스 웹 페이지AWS Neuron 설명서를 참조하세요.