“人工智能教母”李飞飞:即使最初的意图是好的,所开发的模型也可能在之后被误用。
作者是斯坦福大学以人为本人工智能研究院(HAI)的创始联合主任,以及世界实验室(World Labs)的首席执行官兼联合创始人
人工智能正在以惊人的速度发展。过去需要计算模型花费数天才能完成的工作,现在可以在几分钟内完成。虽然训练成本大幅上升,但随着开发者学会用更少的资源做更多的事情,成本很快会下降。我以前说过,现在再重复一遍——人工智能的未来就是现在。
对于该领域的任何人来说,这并不令人惊讶。计算机科学家一直在努力工作,各家公司多年来也在不断创新。令人惊讶和引人注目的是,似乎缺乏一个全面的人工智能治理框架。是的,人工智能正在迅速发展,因此有必要确保其惠及全人类。
作为一名技术专家和教育工作者,我强烈认为全球人工智能生态系统中的每个人都有责任推动技术进步,并确保以人为本。这是一项艰巨的任务,值得制定一套结构化的指导方针。为准备下周在巴黎举行的人工智能行动峰会(AI Action Summit),我提出了未来人工智能政策制定的三个基本原则。
首先,要依靠科学,而不是科幻。科学工作的基础是原则性地依赖实证数据和严谨的研究。同样的方法也应适用于人工智能治理。尽管未来的情景——无论是乌托邦还是末日——激发了我们的想象力,但有效的政策制定需要对当前现实有清晰的认识。
我们在图像识别和自然语言处理等领域取得了显著进展。聊天机器人和协作软件助手程序正在以令人兴奋的方式改变工作——但它们应用的是先进的数据学习和模式生成。它们并不是具有意图、自由意志或意识的智能形式。理解这一点至关重要,这可以让我们避免被不切实际的情景分散注意力,并专注于重要的挑战。
鉴于人工智能的复杂性,即使专注于我们的现实也并不总是容易的。为了弥合科学进步与现实应用之间的差距,我们需要能够分享其能力的准确、最新信息的工具。像美国国家标准与技术研究院这样的知名机构可以揭示人工智能在现实世界中的影响,从而制定基于技术现实的精确、可操作的政策。
其次,要务实而非意识形态化。尽管人工智能领域发展迅速,但仍处于起步阶段,其最大的贡献尚未到来。在这种情况下,关于可以和不可以构建的政策必须务实制定,以尽量减少意外后果,同时激励创新。
以使用人工智能更准确地诊断疾病为例。这有可能迅速实现高质量医疗服务的民主化。然而,如果没有得到适当的指导,它也可能加剧当今医疗系统中存在的偏见。
开发人工智能并非易事。即使最初的开发意图良好,模型也可能在后期被滥用。因此,最佳的治理政策应在策略上减轻此类风险,同时奖励负责任的实施。政策制定者必须制定切实可行的责任政策,以防止故意滥用,同时不对善意的努力进行不公平的惩罚。
最后,赋能人工智能生态系统。该技术可以激励学生,帮助我们照顾老龄化人口,并创新清洁能源解决方案——而最好的创新往往通过合作实现。因此,政策制定者赋能整个人工智能生态系统,包括开源社区和学术界,显得尤为重要。
开放获取人工智能模型和计算工具对于进步至关重要。限制这些资源将会造成障碍,减缓创新,尤其是对那些资源少于私营部门同行的学术机构和研究人员来说。这种限制的后果当然远远超出学术界。如果今天的计算机科学学生无法使用最好的模型进行研究,他们在进入私营部门或决定创办自己的公司时将无法理解这些复杂的系统——这是一个严重的差距。
人工智能革命已经到来——我对此感到兴奋。在一个由人工智能驱动的世界中,我们有可能显著改善人类的生活条件,但要实现这一目标,我们需要以实证、协作和深植于以人为本的价值观为基础的治理。