AWS 기술 블로그

Category: Amazon Machine Learning

Amazon Bedrock으로 그래프 RAG 구현하기

개요 대규모 언어 모델들은 방대한 데이터를 기반으로 광범위한 지식과 우수한 문장 생성 능력을 갖추고 있습니다. 그러나 이러한 모델들은 학습 시점 이후의 최신 정보나 특정 주제에 대한 심층 지식을 반영하는 데 한계가 있으며, 때때로 환각(hallucination) 문제로 답변의 정확성을 떨어뜨리기도 합니다. 이러한 문제를 해결하기 위해, RAG(Retrieval Augmented Generation) 프레임워크가 등장했습니다. RAG는 필요한 정보를 자체 데이터베이스에 저장하고 검색해, […]

Amazon Bedrock의 Claude와 Amazon Kendra로 향상된 RAG 사용하기

Amazon Bedrock의 Claude LLM v2.1은 200k token을 가지는 Context Window를 제공하고, 환각(Hallucination) 방지에서도 높은 성능을 보여주고 있습니다. 또한, Amazon Q에서는 Amazon Bedrock과 Amazon Kendra을 이용하여 다양한 데이터 소스를 통합하여 업무를 간소화하고, 빠른 의사결정 및 문제점 해결이 가능하도록, 즉각적이고 관련성 있는 정보와 조언을 제공하고 있습니다. 본 게시글은 Amazon Bedrock의 Claude LLM과 Amazon Kendra를 사용하여 RAG (Retrieval Augmented Generation)가 적용된 […]

한영 동시 검색 및 인터넷 검색을 활용하여 RAG를 편리하게 활용하기

기업의 중요한 문서를 검색하여 편리하게 활용하기 위하여 LLM(Large Language Model)을 활용하는 기업들이 늘어나고 있습니다. 기업의 모든 데이터를 사전 학습하는 것은 비용 및 시간에 대한 제약뿐 아니라 데이터 보안 면에서도 바람직하지 않을 수 있습니다. RAG(Retrieval-Augmented Generation)의 지식 저장소(Knowledge Store)를 활용하면, 다수의 문서를 안전하게 검색하여 관련된 문서(Relevant documents)를 추출한 후에 LLM에서 용도에 맞게 활용할 수 있습니다. RAG의 지식 […]

Multi-RAG와 Multi-Region LLM로 한국어 Chatbot 만들기

사전학습(pretrained)되지 않은 데이터나 민감한 정보를 가지고 있어서 사전학습 할 수 없는 기업의 중요한 데이터는 RAG(Retrieval-Augmented Generation)을 이용하여 LLM(Large Language Model)에서 이용될 수 있습니다. RAG는 지식저장소(Knowledge Store)의 연관성 검색(sementic search)을 이용해, 질문과 가장 가까운 문서를 LLM의 Context로 활용합니다. 이러한 지식저장소에는 대표적인 In-memory vector store인 Faiss, persistent store이면서 대용량 병렬처리가 가능한 Amazon OpenSearch와 완전관리형 검색서비스인 Amazon Kendra가 있습니다. 또한, 2023년 re:Invent에서는 Amazon Aurora, OpenSearch, […]

ChatOps

Amazon Bedrock, AWS Chatbot을 이용한 ChatOps 모니터링 솔루션 구축하기

Background Troubleshooting 고객들은 시스템을 운영하며 다양한 장애 상황을 마주합니다. 각 장애 상황에는 장애가 발생한 리소스에서 에러 로그가 발생하고, 이러한 에러들 중 긴급하게 처리되어야 하는 에러들은 실시간으로 보고되고 즉시 처리되어야 합니다. 개발자들은 서비스 장애 상황을 해결하기 위해, 리소스에서 발생한 에러 로그를 검색엔진등을 이용해 솔루션을 찾습니다. 또한 많은 회사들은 그들의 서비스를 운영하며 대표적인 장애 상황에 대한 문제 […]

Amazon Bedrock을 이용하여 Stream 방식의 한국어 Chatbot 구현하기

2023년 9월 Amazon Bedrock이 정식버전을 출시하면서 Amazon Titan, Anthropic Claude등의 다양한 LLM (Large Language Model)을 AWS 환경에서 편리하게 사용할 수 있게 되었습니다. 특히 Anthropic의 Claude 모델은 한국어를 비교적 잘 지원하고 있습니다. Chatbot과 원활한 대화를 위해서는 사용자의 질문(Question)에 대한 답변(Answer)을 완전히 얻을 때까지 기다리기 보다는 Stream 형태로 대화하듯이 보여주는 것이 사용성에서 좋습니다. 본 게시글은 Amazon Bedrock을 사용하여 Stream을 지원하는 […]

Amazon EC2에서 AlphaFold v2.0 실행하기

이 글은 AWS Machine Learning Blog에 게시된 ‘Run AlphaFold v2.0 on Amazon EC2 by Qi Wang’을 한국어 번역 및 편집하였습니다. DeepMind사의 AlphaFold v2.0이 오픈소스로 GitHub에 공개되고 이 논문이 Nature 지에 출판된 이후, 과학 및 연구 커뮤니티의 많은 사람들이 AlphaFold를 직접 사용해보고 싶어 했습니다. Nvidia GPU를 사용하는 Amazon Elastic Compute Cloud (Amazon EC2) 를 통해 컴퓨팅 […]

SK텔레콤의 AWS Inferentia와 AWS Step Functions를 활용한 기계학습(ML) 파이프라인 구축 사례

SK텔레콤은  대한민국 최대 이동통신 회사로, 고객에게 가장 신뢰받는 서비스를 제공하고 있습니다. SK텔레콤은 통신 사업자로서의 역할을 넘어서, 유무선 통신 인프라를 기반으로 하는 초연결 기술에 AI를 더하여 고객을 이롭게 하는 ‘AI Company’로의 비전을 갖고 있습니다. 이제 SK텔레콤은 통신 서비스 뿐만 아니라, 다양한 데이터를 바탕으로 한 AI 기반 서비스로 서비스를 확장하고 있습니다. SK텔레콤 ML서비스 개발팀 소개 SK텔레콤은 “에이닷“이라는 […]

완전 관리형 AI 서비스를 활용하여 서버리스로 책 읽어주는 서비스 이용하기

카메라로 사진을 찍으면 번역해주거나 카메라로 찍은 이미지를 읽어주는 앱은 기계 학습(Machine Learning) 기술을 활용하고 있습니다. 이런 기계 학습 모델을 직접 개발하는 것은 상당한 기술적 노하우를 요구합니다. AWS에서는 Amazon SageMaker와 같이 기계 학습 모델을 개발하는 서비스 이외에도 다양한 완전 관리형(Managed) AI 서비스를 제공하고 있어서 기계 학습에 숙련된 인력이 없더라도 기계 학습 기반의 서비스를 쉽게 개발할 수 […]

Amazon SageMaker로 컬리(Kurly) 상품 후기 분류 모델 개발하기

컬리는 신선식품으로 출발하여 화장품을 품어 뷰티컬리로 새로운 서비스를 출시하게 되었습니다. 새로운 서비스가 나오면서 더욱 중요하게 된 영역은 바로 고객의 상품 후기(feedback) 입니다. 사용자가 작성한 제품 리뷰는 다른 사용자에게 중요한 정보가되는데, 작성된 리뷰는 정형화 되어 있지 않기 때문에 모든 리뷰를 읽지 않는 이상 제품 정보를 파악하기 힘들고, 내용이 길기에 중간에 포기 할 수도 있습니다. 이에 리뷰에서 […]