สร้าง AI อย่างรับผิดชอบที่ AWS
การเติบโตอย่างรวดเร็วของ AI ช่วยสร้าง นำมาซึ่งนวัตกรรมใหม่ที่น่าสนใจและในขณะเดียวกันก็ทำให้เกิดความท้าทายใหม่ขึ้น ที่ AWS เรามุ่งมั่นที่จะพัฒนา AI อย่างรับผิดชอบ โดยใช้แนวทางที่มีผู้คนเป็นศูนย์กลางซึ่งให้ความสำคัญกับการศึกษา วิทยาศาสตร์ และลูกค้าของเรา เพื่อผสานรวม AI ที่รับผิดชอบในวงจรชีวิต AI แบบครบวงจร

มิติหลักของ AI ที่มีความรับผิดชอบ
ความยุติธรรม
พิจารณาผลกระทบต่อกลุ่มผู้มีส่วนได้ส่วนเสียต่าง ๆ
ความสามารถในการอธิบาย
การทำความเข้าใจและประเมินเอาต์พุตของระบบ
ความเป็นส่วนตัวและความปลอดภัย
การได้รับ ใช้ และปกป้องข้อมูลรวมถึงแบบจำลองอย่างเหมาะสม
ความปลอดภัย
การป้องกันเอาต์พุตของระบบที่เป็นอันตรายและการใช้ที่ผิด
ความสามารถในการควบคุม
การมีกลไกเพื่อตรวจสอบและควบคุมพฤติกรรมระบบ AI
ความถูกต้องและความทนทาน
การบรรลุผลลัพธ์เอาต์พุตของระบบที่ถูกต้อง แม้จะมีอินพุตที่ไม่คาดคิดหรือเป็นคู่ปฏิปักษ์
การกำกับดูแล
การรวมแนวทางปฏิบัติที่ดีที่สุดเข้ากับห่วงโซ่อุปทาน AI รวมถึงผู้ให้บริการและผู้ที่นำไปใช้
ความโปร่งใส
ช่วยให้ผู้มีส่วนได้ส่วนเสียสามารถตัดสินใจโดยมีข้อมูลเกี่ยวกับการมีส่วนร่วมกับระบบ AI
มิติหลักของ AI ที่รับผิดชอบ
ความยุติธรรม
พิจารณาผลกระทบต่อกลุ่มผู้มีส่วนได้ส่วนเสียต่าง ๆ
ความสามารถในการอธิบาย
การทำความเข้าใจและประเมินเอาต์พุตของระบบ
ความเป็นส่วนตัวและความปลอดภัย
การได้รับ ใช้ และปกป้องข้อมูลรวมถึงแบบจำลองอย่างเหมาะสม
ความปลอดภัย
การป้องกันเอาต์พุตของระบบที่เป็นอันตรายและการใช้ที่ผิด
ความสามารถในการควบคุม
การมีกลไกเพื่อตรวจสอบและควบคุมพฤติกรรมระบบ AI
ความถูกต้องและความทนทาน
การบรรลุผลลัพธ์เอาต์พุตของระบบที่ถูกต้อง แม้จะมีอินพุตที่ไม่คาดคิดหรือเป็นคู่ปฏิปักษ์
การกำกับดูแล
การรวมแนวทางปฏิบัติที่ดีที่สุดเข้ากับห่วงโซ่อุปทาน AI รวมถึงผู้ให้บริการและผู้ที่นำไปใช้
ความโปร่งใส
ช่วยให้ผู้มีส่วนได้ส่วนเสียสามารถตัดสินใจโดยมีข้อมูลเกี่ยวกับการมีส่วนร่วมกับระบบ AI
บริการและเครื่องมือ
AWS นำเสนอบริการและเครื่องมือเพื่อช่วยให้คุณออกแบบ สร้าง และใช้งานระบบ AI อย่างมีความรับผิดชอบ
การใช้มาตรการป้องกันใน AI ช่วยสร้าง
Amazon Bedrock Guardrails ช่วยให้คุณสามารถนำมาตรการการป้องกันที่ปรับแต่งให้เหมาะกับแอปพลิเคชัน AI ช่วยสร้างของคุณและสอดคล้องกับนโยบาย AI ที่รับผิดชอบของคุณไปใช้ Guardrails ให้การป้องกันที่ปรับแต่งได้เพิ่มเติมนอกเหนือจากการป้องกันดั้งเดิมของ FM ส่งมอบการป้องกันด้านความปลอดภัยที่เป็นหนึ่งในสิ่งที่ดีที่สุดในอุตสาหกรรมโดย:
- การบล็อกเนื้อหาที่เป็นอันตรายมากถึง 85%
- การกรองการตอบสนองภาพหลอนมากกว่า 75% สำหรับ RAG และการสรุปเวิร์กโหลด
- ช่วยให้ลูกค้าสามารถปรับแต่งและใช้การป้องกันความปลอดภัย ความเป็นส่วนตัว และความจริงภายในโซลูชันเดียว

การประเมินโมเดลรากฐาน (FM)
การประเมินโมเดลบน Amazon Bedrock ช่วยให้คุณประเมิน เปรียบเทียบ และเลือก FM ที่ดีที่สุดสำหรับกรณีการใช้งานเฉพาะของคุณโดยอิงจากเมตริกการวัดที่กำหนดเอง เช่น ความแม่นยำ ความทนทาน และความเป็นพิษ นอกจากนี้ คุณยังสามารถใช้ Amazon SageMaker Clarify และ fmeval เพื่อการประเมินโมเดลได้อีกด้วย

การตรวจจับอคติและอธิบายการคาดการณ์
อคติคือความไม่สมดุลของข้อมูลหรือความไม่สมดุลในประสิทธิภาพของโมเดลในกลุ่มต่าง ๆ Amazon SageMaker Clarify ช่วยให้คุณบรรเทาอคติโดยการตรวจหาอคติที่อาจเกิดขึ้นระหว่างการเตรียมข้อมูล หลังการฝึกโมเดล และในโมเดลที่ปรับใช้ของคุณโดยการตรวจสอบคุณลักษณะเฉพาะ
การทำความเข้าใจพฤติกรรมของโมเดลเป็นสิ่งสำคัญในการพัฒนาโมเดลที่แม่นยำยิ่งขึ้นและตัดสินใจที่ดีขึ้น Amazon SageMaker Clarify ช่วยให้มองเห็นพฤติกรรมของโมเดลได้ชัดเจนยิ่งขึ้น เพื่อให้คุณสามารถมอบความโปร่งใสให้กับผู้ถือผลประโยชน์ แจ้งให้มนุษย์ทราบในการตัดสินใจ และติดตามว่าโมเดลทำงานตามที่ตั้งใจไว้หรือไม่

การเฝ้าตรวจสอบและการทบทวนตรวจสอบโดยมนุษย์
การเฝ้าตรวจสอบเป็นสิ่งสำคัญในการรักษารูปแบบแมชชีนเลิร์นนิ่ง (ML) ที่มีคุณภาพสูงและช่วยให้มั่นใจในการคาดการณ์ที่ถูกต้อง Amazon SageMaker Model Monitor ตรวจจับและแจ้งเตือนคุณโดยอัตโนมัติถึงการคาดการณ์ที่ไม่ถูกต้องจากโมเดลที่ใช้งาน และด้วย Amazon SageMaker Ground Truth คุณสามารถนำข้อเสนอแนะของมนุษย์ไปใช้ในวงจรชีวิต ML เพื่อปรับปรุงความแม่นยำและความเกี่ยวข้องของโมเดล

ปรับปรุงการกำกับดูแลให้ดีขึ้น
ML Governance จาก Amazon SageMaker มอบเครื่องมือที่สร้างขึ้นโดยเฉพาะสำหรับการปรับปรุงการกำกับดูแลโครงการ ML ของคุณให้ดีขึ้นด้วยการให้คุณควบคุมและมองเห็นโมเดล ML ได้เข้มงวดยิ่งขึ้น คุณสามารถบันทึกและแชร์ข้อมูลโมเดล และคอยติดตามพฤติกรรมของโมเดล เช่น การมีอคติ ได้อย่างง่ายดายในที่เดียว

การ์ดบริการ AWS AI
AI Service Cards เป็นทรัพยากรที่ช่วยเพิ่มความโปร่งใสโดยให้คุณสามารถค้นหาข้อมูลเกี่ยวกับกรณีการใช้งานและข้อจำกัดที่ตั้งใจไว้ ตัวเลือกการออกแบบ AI ที่รับผิดชอบ และแนวทางปฏิบัติที่ดีที่สุดในการเพิ่มประสิทธิภาพการทำงานสำหรับบริการและโมเดล AI ของเราได้ในที่เดียว
