专栏名称: 亚马逊云科技
亚马逊AWS的公众号,第一时间获取关于AWS国内外服务的资讯。AWS中国(北京)区域由光环新网运营。
目录
相关文章推荐
杭州本地宝  ·  CP31定档杭州!杭州漫展活动汇总来啦! ·  昨天  
杭州本地宝  ·  家里房子装修,能不能提取杭州公积金来用? ·  2 天前  
51好读  ›  专栏  ›  亚马逊云科技

企业的智能之旅 | 人工智能安全与负责任的AI

亚马逊云科技  · 公众号  ·  · 2024-12-26 11:00

正文


本文作者 张侠

亚马逊云科技 首席企业战略顾问


过去两年,以生成式AI为代表的人工智能迅速普及,正在颠覆和转变各行各业,成为企业竞争和发展的战略制高点。生成式AI在为企业带来技术创新业务发展的各种机会的同时,也为企业带来信息安全、企业合规、转型和发展的众多挑战和巨大风险。 企业高管需要熟悉了解生成式AI所带来的安全问题,并开始着手安排部署开展负责任AI有关的工作。 在此我们就有关话题为大家做介绍分享,供您参考。









人工智能带来的风险和挑战


生成式AI带来的技术进步必须尊重法治、人权和人性尊严,符合我们包容、隐私和公平的社会价值观。人们希望生成式AI具有可用性、安全性、可靠性、透明性、可解释、可信赖、合德合规合法。在传统的信息安全、网络安全和信息治理的基础之上,生成式AI强大的创新性和变革性,带来了独特的需要考虑应对的问题。

生成式AI带来的风险挑战跨越各个领域,从技术、商业、道德、法律到社会,主要涉及到以下方面:


(1)复杂模型缺乏透明性和可解释性;(2)产生错误信息和虚假信息;(3)模型造成偏见有损公平;(4)公司机密和个人隐私泄漏;(5)生成式AI新技术的使用、控制和滥用;(6)知识产权归属与内容剽窃;(7)高风险决策和责任归属;(8)工作岗位流失和经济影响;(9)法规缺失,监管、道德和社会问题;(10)算力耗能对环境的冲击;(11)过度依赖人工智能;(12)违反人权,威胁人类生存;(13)被恶意使用——数据毒化、模型操控、敌意攻击等。


企业人工智能应用风险评估


企业在采用人工智能应用时,面临的风险可能广泛多样,包括战略、财务、运营和法律风险等。人工智能系统风险侧重于与人工智能应用系统的实施和操作相关的影响,而机器学习模型风险涉及机器学习模型固有的漏洞和不确定性。企业人工智能系统可能基于多个不同的机器学习模型一起工作,甚至牵涉到多个不同的人工智能系统。企业要综合考虑人工智能模型的特定应用的细节,以及作为完整人工智能系统一部分的相应用例,针对每个用例和不同级别评估各类风险,即模型风险、人工智能系统风险和企业风险,以确定相应的应对风险的策略。


人工智能的风险管理可以最大限度地减少不确定性或潜在负面影响,同时将积极正面的贡献最大化。 根据NIST风险管理框架,风险可以被估计为事件发生概率与相应事件后果严重程度的乘积。风险评估是一项以人为本的活动,需要整个组织的努力。这包括确保所有利益相关者都参与评估过程(例如产品、工程、科学、销售和安全团队),描述用户如何与人工智能系统交互以实现特定目标的特定场景或情况,识别与用例相关的潜在有害事件,以及评估社会观点和规范如何影响某些事件的感知可能性和后果。



人工智能安全的管理


人工智能安全管理是一个快速发展的新领域,需要政策制定者、开发运维人员和其他利益相关者积极共同努力,以防范各类新出现的风险。确保人工智能系统的安全性和坚韧性对于充分发挥人工智能的潜力,同时降低误用和伤害的风险至关重要。 人工智能安全的考量需要关注下述五大主要方面。

  • 合规和治理: 为业务提供支持的同时,最大限度降低风险所需的政策、程序和报告;

  • 法律和隐私: 使用或创建生成式AI解决方案的具体监管、法律和隐私要求;

  • 安全控制: 实施用于降低风险的安全控制;

  • 风险管控: 识别生成人工智能解决方案的潜在威胁和建议的缓解措施;

  • 弹性韧性: 如何构建生成式AI解决方案以保持可用性并满足业务SLA。


提升人工智能安全管理可以通过下述一些具体方法来实现和加强:
  • 对抗性训练和漏洞测试: 使用多样化且具有代表性的数据集,并将模型置于模拟攻击场景中,以确保模型坚韧性,降低被攻击的风险。模型应该经过严格的漏洞测试,包括对数据投毒的测试。
  • 透明性和可解释性: 争取人工智能系统透明且可解释,这有助于识别缺陷和漏洞,并增强人工智能决策的责任感。
  • 数据安全防护: 实施强大的数据治理框架来维护数据主权、安全和隐私。防止未经授权访问敏感数据。采用匿名数据集和对敏感信息实施加密。
  • 人员全程参与: 在高风险应用中,维持对人工智能决策的人类监督对于减少错误或意外行为至关重要,特别是在诸如医疗保健、自主武器等关键领域的应用。
  • 定期审计和监控: 对部署后的人工智能系统进行持续监控,对于防范和减轻新出现的安全威胁至关重要。定期审核有助于在问题导致灾难性后果之前及时发现并解决问题。
  • 道德和法律框架: 依据政府和国际组织为人工智能安全制定的法规,企业要制定明确的指导方针,确保业务和开发人员对人工智能系统的安全部署负责。


负责任的AI(Responsible AI)


负责任的AI是指以道德、透明、负责且符合社会价值观的方式开发、部署和使用人工智能的实践。 它是为了确保人工智能技术的设计和使用优先考虑公平、隐私、安全以及个人和社区的福祉,同时减轻歧视、伤害和滥用等风险。负责任的AI涵盖了广泛的原则、指南和最佳实践,旨在确保人工智能造福所有人,同时最大限度地减少潜在的负面影响。


下面为大家介绍定义负责任的AI的一些核心原则和考虑因素。


(1)建立明确的任务和权责;

(2)公平和包容性的设计;

(3)确保透明度和可解释性;

(4)优先考虑数据隐私和安全;

(5)确定正确的监督级别;

(6)促进对生成式AI伦理的理解。


负责任的AI的最佳实践是企业人工智能项目尽早地和安全合规团队全方位的紧密合作,让他们参与项目的整个过程,而不是只作为后期的评审员。 在这个过程中要重视对安全团队的人工智能培训,利用透明性和可解释性来加强对人工智能的理解和掌握。生成式AI的安全最佳实践还包括:把人始终放在首位,人要充分参与人工智能项目的每个环节;根据具体用例逐个进行评估风险;监控整个人工智能迭代生命周期;测试,测试,再测试。



亚马逊云科技负责任的AI的实践


亚马逊云科技始终把安全有关的工作放在所有工作的首位,是排位最优先的工作(Job Zero)。 正如亚马逊云科技Responsible AI登陆页所说,“生成式AI的快速发展带来了充满希望的新创新,同时也提出了新的挑战。在亚马逊云科技,我们致力于负责任地开发人工智能,采取以人为本的方法,优先考虑教育、科学和我们的客户,在整个端到端人工智能生命周期中整合负责任的AI。”

亚马逊云科技提出了负责任的AI的八大支柱:

(1) 公平性: 考虑输出对不同群体中利益相关者的影响;

(2) 可解释性: 理解并评估系统输出;

(3) 隐私保护: 适当地获得使用人工智能应用和保护数据和模型;

(4) 安全性: 预防有害系统的输出和滥用;

(5) 可控性: 用机制监控和引导人工智能系统行为;

(6) 准确性和稳健性: 即使有意外或对抗性输入,也确保实现正确的系统输出;

(7) 人工智能治理: 将整个AI供应链,包括提供者和部署者,纳入最佳实践统一管理;

(8) 透明性: 使利益相关者能够在与人工智能系统的互动中做出明智的选择。

亚马逊云科技为企业推荐下述建设负责任的人工智能的步骤方法:

(1)获得企业高管的支持;(2)组建多元化跨学科的团队;(3)优先实施教育培训,将负责任的AI融入企业文化;(4)将人工智能能力与人类监控相结合;(5)强化模型的解释性和透明性;(6)针对具体用例评估、管控和降低风险;(6)关注数据隐私和尊重知识产权;(7)部署实施安全护栏;(9)测试,测试,再测试;(10)全生命周期始终保持警醒。

亚马逊云科技全托管的服务Amazon Bedrock整合了多种人工智能安全和负责任AI的功能,以确保模型的使用安全、合乎道德且符合最佳实践。 该服务包括强大的安全措施,例如数据加密、访问控制和身份管理,以保护敏感信息并防止未经授权的访问。此外,Amazon Bedrock通过提供内置机制来支持负责任的AI,帮助开发人员解决人工智能模型中的偏见,确保公平性并保持透明度。它允许进行模型监控和审计,以确保问责制和遵守道德准则。亚马逊云科技还强调遵守监管标准,帮助用户将其人工智能部署与法律和道德框架保持一致,促进人工智能应用中负责任的创新。

Amazon Bedrock Guardrails可帮助您实施针对您的生成式AI应用程序量身定制的保护措施,并与您负责任的AI的政策保持一致。 Amazon Guardrails在基础模型保护之上提供了额外的可定制的保护措施,通过以下方式提供业界最佳的安全保护: 拦截多达85%的有害内容;针对RAG和汇总工作负载过滤超过75%的幻觉响应 ;使客户能够在单一解决方案中定制和应用安全、隐私和真实性保护。



智能之旅是我们这一代企业经营者和员工的的使命,而人工智能的安全管理和实现负责任的AI,是通往智能道路行动的安全护栏。通过将负责任的AI实践嵌入人工智能战略中,企业可以有效推动创新与转型,同时降低管控风险、培养客户信任,确保人工智能系统产生积极的社会影响。企业不应该以AI安全和负责任的人工智能为借口,拖延人工智能有关的行动。如果您的企业还没有实施负责任的AI管理,现在就是时候开始着手构建负责任的AI的管理机制,为企业的智能之旅保驾护航。



系列往期内容










请到「今天看啥」查看全文