Amazon Web Services

최근 LLM(Large Language Model)의 발전과 함께, 경량화된 sLLM(small Language Model) 또한 놀라운 성능 향상을 보이고 있습니다. 이러한 발전은 기업들이 대규모 컴퓨팅 리소스 없이도 고성능 언어 모델을 실무에 도입할 수 있는 새로운 가능성을 열어주고 있습니다.이 세션에서는 효율적인 LLM 배포와 운영을 위한 실용적인 접근 방법을 소개합니다. 특히 Amazon의 Large Model Inference(LMI)와 SageMaker를 중심으로, 안정적이고 확장 가능한 LLM 호스팅 방법을 살펴봅니다. 또한, vLLM을 활용한 최적화된 배포 전략과 샘플 코드를 통해, 참가자들은 실무에 바로 적용할 수 있는 구체적인 가이드라인을 얻을 수 있습니다. 대규모 AI 모델을 효율적으로 운영하고자 하는 엔지니어, 개발자, 그리고 기술 리더들에게 필수적인 인사이트를 제공할 이번 세션을 놓치지 마세요.

developer

Up Next

VideoThumbnail
40:14

Agentic Workflow을 이용하여 복잡한 Application 구현하기

Jun 27, 2025
VideoThumbnail
41:29

Amazon Bedrock과 함께하는 생성형 AI의 활용과 접근 방향

Jun 27, 2025
VideoThumbnail
29:37

Builders 온라인 시리즈 | Amazon CloudWatch로 모니터링 손쉽게 시작하기

Jun 27, 2025
VideoThumbnail
26:19

Builders 온라인 시리즈 | AWS 파트너와 클라우드 여정 함께하기

Jun 27, 2025
VideoThumbnail
38:14

Builders 온라인 시리즈 | AWS re:Invent recap - 2024년 AWS가 선보이는 혁신적인 클라우드 서비스

Jun 27, 2025