人工智能真的需要上锁吗?
普林斯顿大学的研究人员最近发出警告:
限制对AI模型内部结构的访问可能弊大于利
。
在10月10日发表于《科学》杂志的一篇文章中,普林斯顿大学计算机科学教授Arvind Narayanan和研究生Sayash Kapoor与其他顶尖大学的研究人员一起,深入探讨了限制AI模型访问可能带来的负面影响:
Arvind Narayanan教授
研究团队并非对AI滥用的风险视而不见。
他们详细讨论了AI在虚假信息传播、黑客攻击、生物恐怖主义和生成虚假图像等领域的潜在威胁。但他们认为,
与其限制访问,不如采取更有效的方法来应对这些风险
。
以AI生成钓鱼邮件为例,研究人员指出:
钓鱼攻击的关键瓶颈通常不是邮件文本,而是下游的安全措施:现代操作系统、浏览器和电子邮件服务实施了多层保护来防范此类恶意软件。
这意味着,
加强防御比限制AI访问更为有效
。
近年来,AI的迅速崛起确实引发了监管呼声。白宫和欧盟都在考虑对AI技术进行规范。
争议的焦点在于像GPT-4和Llama 2这样的基础模型的构建代码和数据。这些模型可以被用来撰写报告、创作图形和执行其他任务。
模型的发布方式主要分为三类:
虽然这种区分看似技术性,但对监管至关重要。研究人员表示,
大多数对AI模型的担忧都与模型可能被恶意利用有关
。限制对模型的访问是一种防范滥用的选择,监管者可以要求开发者阻止外部访问,或者让开发者对模型被他人滥用负法律责任。
然而,研究人员发现,
现有证据并不表明开放模型比封闭模型或通过标准研究技术(如在线搜索)获得的信息风险更大
。他们在今年早些时候的国际机器学习会议上发表的一篇文章中得出结论:
限制对模型的访问并不一定能限制滥用的风险
。
这部分是因为即使是封闭模型也可能被破解,部分是因为恶意行为者可能已经通过搜索引擎在互联网上获得了相关信息。
研究人员强调:
正确描述开放基础模型的独特风险需要关注边际风险:相对于封闭基础模型或预先存在的技术(如搜索引擎),开放基础模型在多大程度上增加了风险。
这并不意味着我们应该完全开放所有模型。在某些领域,封闭模型可能确实是最佳解决方案。但研究人员认为,
监管者需要仔细考虑限制访问是否真的是防止伤害的最佳方式
。
他们总结道:
对于许多威胁向量,现有的边际风险证据是有限的。这并不意味着开放基础模型在这些向量上不构成风险,而是需要更严格的分析来证实政策干预的合理性。
普林斯顿大学计算机科学系
这项研究为我们提供了一个全新的视角:
在AI监管中,开放可能比封闭更有利于安全
。它挑战了我们对AI安全的传统认知,提醒我们在制定政策时需要更加谨慎和全面的考虑。
如何在创新与安全之间找到平衡,将是一个持续的挑战。Yann LeCun(@ylecun) 对该研究表示支持:
开源AI胜利!
这一观点得到了不少人的赞同。
Vincent Karaboulad(@VKaraboulad)评论点赞:
你对开源AI的推动是我一直感谢你的一件事🙏