Veröffentlicht am: Sep 13, 2023
Heute kündigen wir die Knowledge Base für Amazon Bedrock als Vorversion an, mit der Sie die privaten Datenquellen Ihres Unternehmens mit Basismodellen (FMs) verbinden können, um die erweiterte Generierung von Abrufen in Ihren generativen KI-Anwendungen zu ermöglichen und somit relevantere und kontextbezogenere FM-Antworten zu liefern.
Für Anwendungsfälle wie die Beantwortung von Fragen zu den privaten Daten eines Unternehmens verwenden Kunden in der Regel eine Methode namens Retrieval Augmented Generation (RAG), bei der die Anfrage eines Endbenutzers an die internen Datenquellen eines Kunden weitergeleitet und relevanter Text abgerufen wird. Um semantisch genaue Informationen aus der Suche abzurufen, konvertieren Kunden zunächst ihren Datenkorpus mithilfe eines Text-zu-Einbettung-FM in Einbettungen (oder Vektoren) und speichern sie in einer Vektordatenbank. Aktuell führen Kunden bei der Implementierung von RAG mehrere undifferenzierte Schritte durch. Mit der Knowledge Base für Amazon Bedrock ist keine Integration verschiedener Systeme mehr erforderlich. Entwickler können den Standort ihrer Dokumente angeben, z. B. in einem Amazon-S3-Bucket, und Bedrock verwaltet sowohl den Aufnahme-Workflow (Dokumente abrufen, aufteilen, Einbettungen erstellen und in einer Vektordatenbank speichern) als auch die Laufzeitorchestrierung (Erstellung von Einbettungen für die Abfrage des Endbenutzers, Auffinden relevanter Chunks aus der Vektordatenbank und deren Übergabe an ein FM). Kunden können aus einer Reihe von Vektordatenbanken wählen, darunter die Vektor-Engine für Amazon OpenSearch Serverless, Pinecone und Redis Enterprise Cloud.
Die Knowledge Base für Amazon Bedrock ist derzeit als Vorversion für alle Kunden verfügbar, die Zugang zu Agenten für Amazon Bedrock haben. Weitere Informationen finden Sie im Blogbeitrag zur Knowledge Base für Amazon Bedrock und auf der Produktdetailseite zu Amazon Bedrock.