专栏名称: 学术头条
致力于科学传播和学术分享,关注计算机科学、认知科学、人工智能科学、神经科学、脑科学等学科领域。我们从跨学科的角度,围绕“认知智能”向科学界和大众介绍相关领域的前沿话题和深度解读。
目录
相关文章推荐
新北方  ·  男子火海被救,2年后跨千里跪谢恩人 ·  11 小时前  
新北方  ·  沈阳市疾控中心最新提醒!事关开学! ·  2 天前  
新北方  ·  老方便了!“辽宁医保”上线新功能! ·  3 天前  
51好读  ›  专栏  ›  学术头条

多专家警告:AI 或将破坏全球和平与安全

学术头条  · 公众号  ·  · 2024-07-27 08:29

正文



【编者按】 上月,前 OpenAI 联合创始人、首席科学家 Ilya Sutskever 宣布成立新公司 SSI,将人工智能(AI)的安全性放在首位。


诚然,任何一项技术都会给人类社会带来风险, AI 也不例外。 但问题是,谁应该站出来、付诸行动,才能更好地规避风险?


日前,来自斯德哥尔摩国际和平研究所的 Vincent Boulanin、联合国裁军事务办公室的 Charles Ovink 以及其他合作者在 IEEE Spectrum 上刊文,呼吁 AI 从业者需要接受更多的培训,从而减轻 AI 可能带来的风险。



文章指出,AI 的进步可能直接或间接威胁安全,比如通过 AI 驱动的聊天机器人制造虚假信息,或通过大语言模型(LLM)生成网络攻击代码。AI 从业者在整个 AI 技术生命周期中的决策,对风险缓解起着关键作用。


文章呼吁,从业者应该提高对这些挑战的意识,教育应融入负责任创新的理念,提供 AI 学位的课程应跨多个学科,继续教育应关注 AI 研究的社会影响,以便从业者在职业生涯中不断学习。


同时,AI 从业者需要与社会更广泛地互动,分享知识并讨论潜在风险,尤其是在政策制定方面。文章强调多样性和包容性的重要性,并呼吁专业组织和高校帮助推动这一进程。


最后,投资于 AI 教育被视为确保 AI 开发者负责任地开发技术的有效方法,让他们成为未来 AI 法规的设计者和实施者。


学术头条在不改变原文大意的情况下,做了简单的编译。内容如下:


许多民用人工智能(AI)社区的成员似乎没有意识到,当今的 AI 创新可能对国际和平与安全产生严重影响。然而,AI 从业者——无论是研究人员、工程师、产品开发者还是行业管理者——都可以通过在整个 AI 技术生命周期中所做的决策,在缓解风险方面发挥关键作用。


民用 AI 的进步有可能以多种方式威胁和平与安全。一些是直接的,比如制造虚假信息、编写网络攻击的代码。一些 则更为间接。例如,AI 公司关于是否将其软件开源以及在何种条件下开源的决定。这决定了国家或非国家行为者如何获取关键技术,他们可能会利用这些技术开发军事 AI 应用,可能包括自主武器系统。


AI 公司和研究人员必须更加意识到这些挑战,以及他们解决问题的能力。


变革需要从 AI 从业者的教育和职业发展开始。在技术层面,AI 研究人员可以使用许多负责任创新的工具来识别和缓解其工作带来的风险。他们必须有机会了解这些内容,包括:


  • IEEE 7010: Recommended Practice for Assessing the Impact of Autonomous and Intelligent Systems on Human Well-being

  • IEEE 7007-2021: Ontological Standard for Ethically Driven Robotics and Automation Systems

  • National Institute of Standards and Technology’s AI Risk Management Framework


如果教育项目提供了关于技术社会影响和技术治理方式的基础知识, AI 从业者将更有能力负责任地进行创新,并成为有意义的法规设计和实施者。



AI 教育需要改变什么?


负责任的 AI 需要一系列的能力,这些能力在 AI 教育中通常没有涵盖。AI 不应再被视为纯粹的 STEM 学科,而应是一个跨学科的领域,它不仅需要技术知识,还需要来自社会科学和人文学科的洞察。应该有关于技术社会影响和负责任创新的必修课程,以及关于 AI 伦理和治理的具体培训。


这些科目应该成为所有提供 AI 学位的大学本科和研究生核心课程的一部分。


如果教育项目提供了关于技术社会影响和技术治理方式的基础知识,AI 从业者将被赋权负责任地进行创新,并成为 AI 法规的有意义的设计者和实施者。


改变 AI 教育课程并非易事。在一些国家,大学课程的修改需要得到教育部级别的批准。由于文化等原因,提出的变革可能会遇到内部阻力。同时,现有教师在新主题方面的专业知识可能有限。


然而,越来越多的大学现在提供这些主题作为选修课,包括哈佛大学、纽约大学、索邦大学、于默奥大学和赫尔辛基大学。


不需要一刀切的教学模式,但确实需要资金来聘请专职人员并对他们进行培训。



将负责任的 AI 纳入终身学习


AI 社区必须开发继续教育课程,探讨 AI 研究的社会影响,以便从业者可以在整个职业生涯中不断学习这些主题。


AI 注定会以意想不到的方式发展。识别和缓解其风险将需要持续的讨论,不仅涉及研究人员和开发者,还涉及可能直接或间接受到其使用影响的人。一个全面的继续教育项目将汲取所有利益相关者的见解。


一些大学和私营公司已经设有伦理审查委员会和政策团队,评估 AI 工具的影响。虽然这些团队的职责通常不包括培训,但可以扩大其职责,向组织内的每个人提供课程。负责任的 AI 研究培训不应是个人的兴趣问题;应该鼓励这样做。


像 IEEE 和 ACM 这样的组织在建立继续教育课程方面可以发挥重要作用,因为它们能够汇集信息并促进对话,这可能导致伦理规范的建立。



与更广泛的世界互动


我们还需要 AI 从业者分享知识,并在 AI 研究社区之外引发关于潜在风险的讨论。


幸运的是,社交媒体上已经有众多团体积极辩论 AI 风险。还有一些专注于负责任 AI 的组织,它们研究 AI 研究与创新的安全影响。


然而,这些社区目前规模太小,多样性不足,因为它们最著名的成员通常有着相似的背景。他们的缺乏多样性可能导致这些团体忽视影响代表性不足人群的风险。


更重要的是,AI 从业者可能需要帮助和指导,以了解如何与 AI 研究社区之外的人士——尤其是政策制定者——进行互动。用非技术性个体能够理解的方式表达问题或建议是一项必要的技能。


我们必须找到方法来扩大现有社区,使它们更加多元和包容,并更好地与社会其他部分互动。像 IEEE 和 ACM 这样的大型专业组织可能有所帮助,或许可以通过创建专家专门工作组或在 AI 会议上设立专题来帮助。


大学和私营部门也可以通过创建或扩大专注于 AI 社会影响和 AI 治理的职位和部门来提供帮助。于默奥大学最近创建了一个 AI 政策实验室来处理这些问题。包括 Anthropic、Google、Meta 和 OpenAI 在内的公司已经建立了专门处理这些问题的部门或单位。


世界各地正在兴起规制 AI 的运动。最近的发展包括创建联合国 AI 高级咨询机构和军事领域全球负责任 AI 委员会。G7 领导人发表了关于广岛 AI 进程的声明,英国政府去年举办了首届 AI 安全峰会。


摆在监管者面前的主要问题是,是否可以信任 AI 研究人员和公司负责任地开发这项技术。


在我们看来,确保 AI 开发者承担风险责任的最有效和可持续的方式之一,是投资于教育。当前和未来的从业者,如果要想 成为未来 AI 法规的有效设计者和实施者,就







请到「今天看啥」查看全文