亚马逊AWS官方博客

企业智能之旅(6):安全与负责任的 AI

过去两年,以生成式 AI 为代表的人工智能迅猛发展,正在颠覆和转变各行各业,成为企业竞争和发展的战略制高点。生成式 AI 在为企业带来技术创新和业务发展的各种机会的同时,也为企业带来信息安全、企业合规、转型和发展的众多挑战和巨大风险。企业高管需要熟悉和了解生成式 AI 所带来的安全问题,并开始着手安排部署开展与负责任的 AI 有关的工作。在此我们针对有关话题为大家做介绍分享,供您参考。

1. 人工智能带来的风险和挑战

生成式人工智能带来的技术进步必须尊重法治、人权和人性尊严,符合我们包容、隐私和公平的社会价值观。人们希望生成式 AI 具有可用性、安全性、可靠性、透明性、可解释、可信赖、合德合规合法。在传统的信息安全、网络安全和信息治理的基础之上,生成式 AI 的强大创新性和变革性,带来了独特的需要考虑和应对的问题。

生成式 AI 带来的风险挑战跨越各个领域,从技术、商业、道德、法律到社会,主要涉及到以下方面:(1)复杂模型缺乏透明性和可解释性;(2)产生错误信息和虚假信息;(3)模型造成偏见,有损公平;(4)公司机密和个人隐私泄漏;(5)生成式 AI 新技术的滥用;(6)知识产权归属与内容剽窃;(7)高风险决策和责任归属;(8)工作岗位流失和经济影响;(9)法规缺失,监管、道德和社会问题;(10)算力耗能对环境的冲击;(11)人工智能的过度依赖;(12)违反人权、威胁人类生存;(13)被恶意使用——数据毒化、模型操控、敌意攻击,等等。

2. 人工智能应用风险评估

企业采用人工智能应用的风险涵盖广泛多样的风险,包括战略、财务、运营和法律风险等。人工智能系统风险侧重于与人工智能应用系统的实施和操作相关的影响,而机器学习模型风险涉及机器学习模型固有的漏洞和不确定性。企业人工智能系统可能基于多个不同的机器学习模型一起工作,甚至牵涉到多个不同的人工智能系统。企业要综合考虑人工智能模型的特定应用的细节以及作为完整 AI 系统一部分的相应用例,针对每个用例和不同级别评估各类风险,即模型风险、人工智能系统风险和企业风险,以确定相应的应对风险的策略。

人工智能的风险管理可以最大限度地减少不确定性或潜在负面影响,同时最大化积极正面的贡献。根据 NIST 风险管理框架,风险可以被估计为事件发生概率与相应事件后果严重程度的乘积。风险评估是一项以人为本的活动,需要整个组织的努力。这包括确保所有相关利益相关者都参与评估过程(例如产品、工程、科学、销售和安全团队),描述用户如何与人工智能系统交互以实现特定目标的特定场景或情况,识别与用例相关的潜在有害事件,以及评估社会观点和规范如何影响某些事件的感知可能性和后果。

3. 人工智能安全管理

人工智能安全管理是一个快速发展的新领域,需要政策制定者、开发运维人员和其他利益相关者积极共同努力,以防范各类新出现的风险。确保人工智能系统的安全性和坚韧性对于充分发挥人工智能的潜力,同时降低误用和伤害的风险至关重要。人工智能安全的考量需要关注下述五大主要方面:

  • 合规和治理:为业务提供的支持同时,最大限度降低风险所需的政策、程序和报告。
  • 法律和隐私: 使用或创建生成式 AI 解决方案的具体监管、法律和隐私要求。
  • 安全控制:实施用于降低风险的安全控制。
  • 风险管控:识别生成式 AI 解决方案的潜在威胁和建议的缓解措施。
  • 弹性韧性:如何构建生成式 AI 解决方案以保持可用性并满足业务 SLA。

提升人工智能安全管理可以通过下述方法来实现和加强:

  • 对抗性训练和漏洞测试:使用多样化且具有代表性的数据集,并将模型置于模拟攻击场景中,以确保模型坚韧性,降低攻击的风险。模型应该经过严格的漏洞测试,包括对数据投毒的测试。
  • 透明性和可解释性:争取人工智能系统透明且可解释,这有助于识别缺陷和漏洞,并增强人工智能决策的责任感。
  • 数据安全防护:实施强大的数据治理框架来维护数据主权、安全和隐私。防止未经授权访问敏感数据,采用匿名数据集和对敏感信息实施加密。
  • 人员全程参与:在高风险应用中,维持对人工智能决策的人类监督对于减少错误或意外行为至关重要,特别是针对医疗保健、自主武器等关键领域。
  • 定期审计和监控:对部署后的人工智能系统进行持续监控,对于防范和减轻新出现的安全威胁至关重要。定期审核有助于在问题导致灾难性后果之前及时发现解决问题。
  • 道德和法律框架:依据政府和国际组织为人工智能安全制定的法规,企业要制定明确的指导方针,确保业务和开发人员对人工智能系统的安全部署负责。

4. 负责任的 AI(Responsible AI)

负责任的 AI 是指以道德、透明、负责且符合社会价值观的方式开发、部署和使用人工智能的实践。它是为了确保人工智能技术的设计和使用优先考虑公平、隐私、安全以及个人和社区的福祉,同时减轻歧视、伤害和滥用等风险。负责任的 AI 涵盖了广泛的原则、指南和最佳实践,旨在确保人工智能造福所有人,同时最大限度地减少潜在的负面影响。下面为大家介绍定义负责任的 AI 的一些核心原则和考虑因素。

负责任的 AI 的治理的一些要素包括:(1)建立明确的任务和权责;(2)公平和包容性的设计;(3)确保透明度和可解释性;(4)优先考虑数据隐私和安全;(5)确定正确的监督级别;(6)促进对生成人工智能伦理的理解。

负责任的 AI 的最佳实践是企业人工智能项目尽早地全方位和安全合规团队全方位的紧密合作,让他们参与项目的整个过程,而不是只作为后期的评审员。在这个过程中要重视对安全团队 AI 的培训,利用透明性和可解释性来加强对 AI 的理解和掌握。生成式 AI 的安全最佳实践还包括:把人始终放在首位,人要充分参与 AI 项目的每个环节; 根据具体用例逐个进行评估风险;监控整个 AI 迭代生命周期;测试,测试,再测试。

5. 亚马逊云科技的最佳实践

亚马逊始终把安全有关的工作放在所有工作的首位,是排位最优先的工作(Job Zero)。正如亚马逊云科技 Responsible AI 主页中所说,“生成式人工智能的快速发展带来了充满希望的新创新,同时也提出了新的挑战。在亚马逊云科技,我们致力于负责任地开发人工智能,采取以人为本的方法,优先考虑教育、科学和我们的客户,在整个端到端人工智能生命周期中整合负责任的 AI。“

亚马逊还提出了负责任的 AI 的八大支柱:

  • 公平性:考虑输出对不同群体中利益相关者的影响。
  • 可解释性:理解并评估系统输出。
  • 隐私保护:适当地获得使用 AI 应用和保护数据和模型。
  • 安全性:预防有害系统的输出和滥用。
  • 可控性:用机制监控和引导人工智能系统行为。
  • 准确性和稳健性:即使有意外或对抗性输入,也确保实现正确的系统输出。
  • AI 治理:将整个 AI 供应链,包括提供者和部署者,纳入最佳实践统一管理。
  • 透明性:使利益相关者能够在与人工智能系统的互动中做出明智的选择。

亚马逊云科技为企业推荐下述建设负责任的 AI 的步骤方法:

  1. 获得企业高管的支持;
  2. 组建多元化跨学科的团队;
  3. 优先实施教育培训,将负责任的 AI 融入企业文化;
  4. 将 AI 能力与人类监控相结合;
  5. 强化模型的解释性和透明性;
  6. 针对具体用例评估、管控和降低风险;
  7. 关注数据隐私和尊重知识产权;
  8. 部署实施安全护栏;
  9. 测试,测试,再测试;
  10. 全生命周期始终保持警醒。

亚马逊云科技的全托管服务 Amazon Bedrock 整合了多种人工智能安全和负责任的 AI的功能,以确保模型的使用安全、合乎道德且符合最佳实践。该服务包括强大的安全措施,例如数据加密、访问控制和身份管理,以保护敏感信息并防止未经授权的访问。此外,Amazon Bedrock 通过提供内置机制来支持负责任的 AI,帮助开发人员解决人工智能模型中的偏见、确保公平性并保持透明度。它允许进行模型监控和审计,以确保问责制和遵守道德准则。亚马逊还强调遵守监管标准,帮助用户将其人工智能部署与法律和道德框架保持一致,促进人工智能应用中负责任的创新。

Amazon Bedrock Guardrails 可帮助您实施针对您的生成式 AI 应用程序量身定制的保护措施,并与您负责任的 AI 的政策保持一致。Guardrails 在基础模型保护之上提供了额外的可定制的保护措施,通过以下方式提供业界最佳的安全保护:拦截多达 85% 的有害内容;针对 RAG 和汇总工作负载过滤超过 75% 的幻觉响应;使客户能够在单一解决方案中定制和应用安全、隐私和真实性保护。

智能之旅是我们这一代企业经营者和员工的的使命,而人工智能的安全管理和实现负责任的 AI,是通往智能道路行动的安全护栏。通过将负责任的 AI 实践嵌入人工智能战略中,企业可以有效推动创新与转型,同时降低管控风险,培养客户信任,确保人工智能系统产生积极的社会影响。企业不应该以人工智能安全和负责任的 AI 为借口拖延行动,如果您的企业还没有实施负责任的 AI 管理,现在就是时候开始着手构建管理机制,为企业的智能之旅保驾护航。


*前述特定亚马逊云科技生成式人工智能相关的服务仅在亚马逊云科技海外区域可用,亚马逊云科技中国仅为帮助您了解行业前沿技术和发展海外业务选择推介该服务。

其它系列文章

企业智能之旅(1): 建立智能企业的战略蓝图并付诸行动
企业智能之旅(2):着手进行企业智能的技术准备和实践
企业智能之旅(3):构建智能企业的文化、组织、人才与能力
企业智能之旅(4):智能企业为生成式 AI 做好数据准备
企业智能之旅(5):人工智能基础模型的选择与评估

本篇作者