Quy tắc bảo vệ của Amazon Bedrock
Thực hiện các biện pháp bảo vệ tùy chỉnh theo yêu cầu ứng dụng của bạn và chính sách AI có trách nhiệmXây dựng các ứng dụng AI có trách nhiệm với Quy tắc bảo vệ của Amazon Bedrock
Quy tắc bảo vệ của Amazon Bedrock cung cấp các biện pháp bảo vệ tùy chỉnh bổ sung bên cạnh các biện pháp bảo vệ gốc của FM, mang lại các biện pháp bảo vệ an toàn hàng đầu trong ngành bằng cách:
- Chặn hơn 85% nội dung gây hại
- Lọc hơn 75% phản hồi ảo giác cho khối lượng công việc RAG và tóm tắt
- Cho phép khách hàng tùy chỉnh và áp dụng các biện pháp bảo vệ an toàn, riêng tư và trung thực trong một giải pháp duy nhất
Mang lại mức độ an toàn AI nhất quán trên tất cả các ứng dụng của bạn
Quy tắc bảo vệ của Amazon Bedrock giúp đánh giá đầu vào của người dùng và phản hồi của FM dựa trên các chính sách theo trường hợp sử dụng cụ thể và cung cấp một lớp bảo vệ bổ sung bất kể FM cơ bản là gì. Quy tắc bảo vệ của Amazon Bedrock là tính năng AI có trách nhiệm duy nhất được cung cấp bởi một nhà cung cấp đám mây lớn để giúp khách hàng xây dựng và tùy chỉnh các biện pháp bảo vệ tính an toàn, quyền riêng tư và tính trung thực cho các ứng dụng AI tạo sinh của họ trong một giải pháp duy nhất. Tính năng này hoạt động với tất cả các mô hình ngôn ngữ lớn (LLM) trong Amazon Bedrock cũng như các mô hình tinh chỉnh. Khách hàng có thể tạo nhiều quy tắc bảo vệ, mỗi quy tắc được cấu hình với một tổ hợp các biện pháp kiểm soát khác nhau và sử dụng các quy tắc bảo vệ này trên các ứng dụng và trong các trường hợp sử dụng khác nhau. Quy tắc bảo vệ của Amazon Bedrock cũng có thể được tích hợp với Tác tử của Amazon Bedrock và Cơ sở kiến thức của Amazon Bedrock để xây dựng các ứng dụng AI tạo sinh phù hợp với các chính sách AI có trách nhiệm của bạn. Ngoài ra, Quy tắc bảo vệ của Amazon Bedrock còn cung cấp API ApplyGuardrail để giúp đánh giá thông tin đầu vào của người dùng và phản hồi của mô hình được tạo bởi bất kỳ FM tùy chỉnh hoặc bên thứ ba nào bên ngoài Bedrock.
Chặn các chủ đề không mong muốn trong các ứng dụng AI tạo sinh của bạn
Các tổ chức nhận ra sự cần thiết của việc quản lý các tương tác trong các ứng dụng AI tạo sinh để đạt được trải nghiệm người dùng phù hợp và an toàn. Họ muốn tùy chỉnh nhiều hơn nữa các tương tác để duy trì các chủ đề liên quan đến doanh nghiệp của họ và phù hợp với chính sách của công ty. Sử dụng mô tả ngắn gọn bằng ngôn ngữ tự nhiên, Quy tắc bảo vệ của Amazon Bedrock giúp bạn xác định tập hợp các chủ đề cần tránh trong bối cảnh ứng dụng của bạn. Quy tắc bảo vệ của Amazon Bedrock giúp phát hiện và chặn đầu vào của người dùng và phản hồi của FM thuộc các chủ đề bị hạn chế. Ví dụ: một trợ lý ngân hàng có thể được thiết kế để tránh các chủ đề liên quan đến tư vấn đầu tư.
Lọc nội dung gây hại dựa trên các chính sách AI có trách nhiệm của bạn
Quy tắc bảo vệ của Amazon Bedrock cung cấp các bộ lọc nội dung với các ngưỡng có thể cấu hình để lọc nội dung gây hại về các hành vi thù ghét, lăng mạ, tình dục, bạo lực, hành vi sai trái (bao gồm cả hoạt động phạm tội) và bảo vệ trước các tấn công bằng câu lệnh (tiêm câu lệnh và bẻ khóa). Hầu hết các FM đã cung cấp các biện pháp bảo vệ được tích hợp sẵn để ngăn chặn việc tạo ra các câu trả lời gây hại. Ngoài các biện pháp bảo vệ này, Quy tắc bảo vệ của Amazon Bedrock cho phép bạn cấu hình ngưỡng trên các danh mục nội dung khác nhau để lọc ra các tương tác gây hại. Tăng sức mạnh của bộ lọc làm tăng khả năng lọc mạnh mẽ hơn. Quy tắc bảo vệ tự động đánh giá cả thông tin đầu vào của người dùng và phản hồi của mô hình để phát hiện và giúp ngăn chặn nội dung thuộc các danh mục bị hạn chế. Ví dụ, một trang web thương mại điện tử có thể thiết kế trợ lý trực tuyến của mình để tránh sử dụng ngôn ngữ không phù hợp như lời nói thù ghét hoặc lăng mạ.
Biên tập thông tin nhạy cảm (PII) để bảo vệ quyền riêng tư
Quy tắc bảo vệ của Amazon Bedrock có thể giúp bạn phát hiện thông tin nhạy cảm, chẳng hạn như thông tin nhận dạng cá nhân (PII), trong đầu vào của người dùng và phản hồi của FM. Bạn có thể chọn từ danh sách các PII được xác định trước hoặc xác định loại thông tin nhạy cảm tùy chỉnh bằng cách sử dụng biểu thức chính quy (RegEx). Dựa trên trường hợp sử dụng, bạn có thể từ chối có chọn lọc các đầu vào có chứa thông tin nhạy cảm hoặc biên tập các đầu vào đó trong các phản hồi của FM. Ví dụ: bạn có thể biên tập thông tin cá nhân của người dùng trong khi tạo tóm tắt từ bản chuyển lời thoại của cuộc trò chuyện giữa khách hàng và nhân viên tổng đài.
Chặn nội dung không phù hợp với bộ lọc từ tùy chỉnh
Quy tắc bảo vệ của Amazon Bedrock giúp bạn cấu hình một tập hợp các từ hoặc cụm từ tùy chỉnh mà bạn muốn phát hiện và chặn trong tương tác giữa người dùng và các ứng dụng AI tạo sinh. Điều này cũng sẽ giúp bạn phát hiện và chặn những từ tục tĩu cũng như các từ tùy chỉnh cụ thể như tên đối thủ cạnh tranh hoặc các từ mang ý xúc phạm khác.
Phát hiện ảo giác trong phản hồi của mô hình bằng cách sử dụng kiểm tra nền tảng theo ngữ cảnh
Các tổ chức cần triển khai các ứng dụng AI tạo sinh trung thực và đáng tin cậy để duy trì và phát triển niềm tin của người dùng. Tuy nhiên, các ứng dụng được xây dựng bằng FM có thể tạo ra thông tin không chính xác do ảo giác. Ví dụ: FM có thể tạo ra các phản hồi lệch khỏi thông tin nguồn, kết hợp nhiều mẩu thông tin không liên quan hoặc sáng tạo ra thông tin mới. Quy tắc bảo vệ của Amazon Bedrock hỗ trợ kiểm tra nền tảng theo ngữ cảnh để giúp phát hiện và lọc ảo giác nếu các phản hồi không có cơ sở (ví dụ: thông tin mới hoặc không chính xác về mặt thực tế) trong thông tin nguồn và không liên quan đến truy vấn hoặc hướng dẫn của người dùng. Kiểm tra nền tảng theo ngữ cảnh có thể giúp phát hiện ảo giác cho RAG, tóm tắt và các ứng dụng hội thoại, trong đó thông tin nguồn có thể được sử dụng làm tham chiếu để xác thực phản hồi của mô hình.