Amazon Bedrock 防护机制宣布以策略为基础强制执行负责任的人工智能
Amazon Bedrock 防护机制宣布推出基于 Identity and Access Management (IAM) 策略的强制执行能力,以大规模构建安全的生成式 AI 应用程序。借助这项新功能,客户能够对模型推理调用应用特定的防护机制,从而确保在所有人工智能交互中应用负责任的人工智能政策。Bedrock 防护机制提供了用于检测和筛选不良内容的可配置的保护措施,用于定义和禁止特定主题的主题筛选条件,用于编辑个人身份信息 (PII) 的敏感信息筛选条件,以及用于屏蔽特定词语的词语筛选条件,并通过检测模型响应的基础和相关性来检测模型幻觉,以及使用自动推理检查功能来识别、更正和解释模型响应中的事实性主张。防护机制可以应用于任何基础模型,包括由 Amazon Bedrock 托管的模型、自托管模型以及使用 ApplyGuardrail API 的 Bedrock 之外的第三方模型,从而提供一致的用户体验,并实现安全和隐私控制的标准化。
即日起,Bedrock 防护机制提供一个新的条件键 bedrock:GuardrailIdentifier,该键可在 IAM 策略中使用,以强制结合使用特定的防护机制和相关策略。这个新的条件密钥可以应用于所有 Bedrock Invoke 和 Converse API。如果您的 IAM 策略中配置的防护机制与指定的防护机制不匹配,则请求将被拒绝,从而确保遵守组织的负责任的人工智能策略。
基于 IAM 策略的强制遵守负责任的人工智能策略的功能现已在支持 Bedrock 防护机制的所有 AWS 区域推出。
要了解更多信息,请参阅技术文档和 Bedrock 防护机制产品页面。