随着人工智能技术的突飞猛进,人类对其的担忧也日渐加深。如今,AI大潮中的两家领军者—— Google 旗下的著名人工智能公司 DeepMind,以及 Elon Musk 部分资助的非盈利性实验室 OpenAI ——正试图以实际行动来解决人工智能可能会出现的威胁隐患。
实际上,OpenAI 和 DeepMind 在去年夏天就曾参与了一篇论文,呼吁在短期内就应开始应对人工智能的安全挑战。近日,OpenAI 和 DeepMind 联合发表了一篇论文,研究如何让机器学习系统更多的根据人类的指引来学习新的任务,而不是使用一些不可预测的方法进行摸索。
目前,OpenAI 和 DeepMind 所面临的第一个问题是,强化学习驱动的软件并不总是执行人类发出的指令,甚至有时会欺骗人类。但强化学习技术目前在人工智能领域又很热门,也是 AlphaGo 应用于围棋领域的重要技术,并被评为《麻省理工科技评论》 2017 年十大突破性技术之一。
当下,听取人类目标和动机的人工智能系统已经成为制造安全可靠的机器人项目的主要议题。例如,加州大学伯克利分校人类学研究中心的研究人员正在尝试让家庭助理等机器人接受人们的建议或指导。
毫无疑问,在未来几年中,研发适度的机器学习系统将更加符合人类的长期目标,这或许也将为未来超级智慧的诞生打下基础。
附论文链接:
https://arxiv.org/pdf/1706.03741.pdf
-End-
参考:
https://www.wired.com/story/two-giants-of-ai-team-up-to-head-off-the-robot-apocalypse/
欲知会员计划详情,请点击以上图片