게시된 날짜: Dec 1, 2019
Amazon SageMaker Operators for Kubernetes를 통해 개발자와 데이터 과학자는 Kubernetes를 사용하여 손쉽게 Amazon SageMaker의 기계 학습(ML) 모델을 학습시키고, 튜닝하고 배포할 수 있습니다.
고객은 범용 컨테이너 조정 시스템인 Kubernets을 사용하여 반복 가능한 파이프라인을 설정하고 워크로드에 대한 제어 능력과 이식성을 향상시킵니다. 하지만 Kubernetes에서 ML 워크로드를 실행할 때 고객은 기반 ML 인프라를 관리 및 최적화하고, 고가용성 및 신뢰성을 보장하고, ML 도구를 제공하여 데이터 과학자의 생산성을 높이고, 관련 보안 및 규정 요건을 준수해야 합니다. Amazon SageMaker Operators for Kubernetes를 통해 고객은 Kubernetes API 또는 Kubectl과 같은 Kubernetes 도구를 사용하여 SageMaker를 호출함으로써 SageMaker에서 ML 작업을 생성하고 상호 작용할 수 있습니다. 이를 통해 Kubernetes 고객은 Amazon SageMaker에서 완전관리형 ML 서비스의 이점과 함께 Kubernetes 및 EKS의 휴대성 및 표준화 이점을 누릴 수 있습니다.
고객은 Amazon SageMaker Operators를 사용하여 모델 학습, 모델 하이퍼파라미터 최적화, 실시간 추론 및 배치 추론을 수행할 수 있습니다. 모델 학습의 경우 Kubernetes 고객은 이제 SageMaker에서 관리형 스팟 학습을 비롯한 완전관리형 ML 모델 교육의 모든 이점을 활용하여 최대 90%의 비용을 절감하고 여러 GPU 노드로 확장하여 학습 시간을 단축할 수 있습니다. 컴퓨팅 리소스는 요청 시에만 프로비저닝되고 필요에 따라 확장되며 작업이 완료되면 자동으로 종료되므로 100%에 가까운 사용률을 보장합니다. 하이퍼파라미터 튜닝의 경우, 고객은 SageMaker의 자동 모델 튜닝을 사용하여 데이터 과학자의 시간을 며칠 또는 몇 주까지 절약하며 모델 정확도를 높일 수 있습니다. 또한 고객은 스팟 인스턴스를 자동 모델 튜닝에 사용할 수 있습니다. 추론의 경우 SageMaker Operators를 사용하여 SageMaker에서 학습된 모델을 여러 가용 영역에 분산된 완전관리형 Auto Scaling 클러스터에 배포ㅎ마으로써 실시간 또는 일괄 예측을 위한 고성능 및 고가용성을 제공할 수 있습니다.
Amazon SageMaker Operators for Kubernetes는 이 문서를 작성하는 현재 미국 동부(오하이오), 미국 동부(버지니아 북부), 미국 서부(오레곤), EU(아일랜드)에서 정식 버전으로 제공됩니다. 사용자 안내서와 GitHub 리포지토리의 단계별 자습서를 통해 사용을 시작할 수 있습니다.