专栏名称: 新智元
智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人革命对人类社会与文明进化的影响,领航中国新智能时代。
目录
相关文章推荐
爱可可-爱生活  ·  【[37星]Ola:打破多模态边界,实现图像 ... ·  20 小时前  
爱可可-爱生活  ·  【[20星]audiobox-aesthet ... ·  20 小时前  
黄建同学  ·  DeepSeek的研究使得模型训练变得越来越 ... ·  昨天  
宝玉xp  ·  ChatGPT 的 Canvas ... ·  昨天  
黄建同学  ·  学习-20250205192620 ·  2 天前  
51好读  ›  专栏  ›  新智元

图灵巨头再次决裂!Hinton支持的加州AI限制法案初步通过,LeCun李飞飞吴恩达喊打

新智元  · 公众号  · AI  · 2024-08-17 13:06

正文



新智元报道

编辑:好困
【新智元导读】 在一众AI大佬、科技大厂、初创公司和风险投资人的强烈反对之下,加州的「AI限制法案」顺利地得到了初步通过。

众所周知,除了各种科幻电影的演绎外,AI在现实世界中还没有杀过人,也没有发动过大规模网络攻击。
然而,美国的一些立法者依然希望,在这种反乌托邦的未来变为现实之前,能够实施足够安全保障。
就在本周,加州的《前沿人工智能模型安全创新法案》——SB 1047,再次朝着正式成为法律,迈出了重要一步。
简单来说,SB 1047将会通过追究开发者的责任,来防止AI系统造成大规模人员伤亡,或引发损失超过5亿美元的网络安全事件。
不过,由于来自学界和业界的反对太过强烈,加州立法者稍稍做了一些妥协——加入了AI初创Anthropic和其他反对者建议的几项修正案。
相比于最初的提案,现行版本减少了加州政府追究AI实验室责任的权力。

法案地址:https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB1047
但即便如此,(几乎)没有人喜欢SB 1047。
Yann LeCun、李飞飞、吴恩达等AI大牛们,都曾多次表达了对这项「扼杀开源AI,迫使AI创新暂缓甚至停止」的法案的不满。
各种联名信也是层出不穷:
不仅有40多位来自加州大学、南加州大学、斯坦福大学和加州理工学院的研究人员,强烈呼吁不要通过这项法案。
而且代表加州各选区的8位国会议员,也敦促州长否决法案。
甚至,LeCun还照搬了之前要求暂停AI研究时的原梗——请暂停AI立法六个月!
那么问题来了,为什么前文用的是「几乎所有人」?
因为,除了LeCun之外的另外两位图灵巨头,Yoshua Bengio和Geoffrey Hinton,都强烈支持这项法案通过。
甚至还觉得,现在的条款定得有些太过宽松了。
作为高级人工智能技术和政策研究人员,我们写信表达对加州参议院法案1047的强烈支持。
SB 1047概述了对这种技术进行有效监管的基本要求。它没有实施许可制度,不要求公司在训练或部署模型之前获得政府机构的许可,它依赖于公司自行评估风险,甚至在发生灾难时也不对公司严格追责。
相对于我们面临的风险规模,这是一项相对宽松的立法。
取消该法案的基本措施将是一个历史性的错误——这一错误将在一年内变得更加明显,因为下一代更强大的AI系统将被发布。
如今,SB 1047虽然遭到了一些美国国会议员、知名AI研究人员、大型科技公司和风险投资人的强烈反对,但在加州立法机构中却还是相对轻松地通过了。
接下来,SB 1047将进入加州议会进行最终投票。由于加入了最新的修正案,法案在通过之后,还需要被送回加州参议院进行投票。
如果这两次都投票通过,那么SB 1047就会被送到州长那里,等待最终的否决或签署成为法律。

哪些模型和公司会受到约束?

根据SB 1047的要求,开发者或开发模型的公司,需要负责防止自己的AI模型被人拿去造成「重大伤害」。
比如制造大规模杀伤性武器,或发起损失超过5亿美元的网络攻击。顺便一提,CrowdStrike的「全球Windows蓝屏事件」,造成了超过50亿美元的损失。
不过,SB 1047的规则仅适用于那些规模十分巨大的AI模型——即训练成本至少为1亿美元,且浮点运算超过10^26次。(基本上就是照着GPT-4的训练成本定的)
据称,Meta下一代Llama 4所需的计算量将会翻至10倍,因此也将会受到SB 1047的监管。
对于开源模型及其微调版本,则需要原始开发者负责。除非花费的成本达到了原始模型的3倍。
如此看来,难怪LeCun的反应会如此激烈。
此外,开发者还必须创建能够解决AI模型风险的测试程序,并且必须每年聘请第三方审计员来评估其AI安全实践。
对于那些基于模型打造的AI产品,则需要制定相应的安全协议来防止滥用,包括一个关闭整个AI模型的「紧急停止」按钮。
等等……

SB 1047现在的功能是什么?


如今,SB 1047不再允许加州总检察长在灾难性事件发生之前,因安全措施疏忽起诉AI公司。(来自Anthropic的建议)
取而代之的是,加州总检察长可以寻求禁止令,要求公司停止其认为危险的某项操作,并且如果其模型确实导致灾难性事件,仍然可以起诉 AI 开发者。
SB 1047不再设立原本包含在法案中的新政府机构「前沿模型司(FMD)」。
但仍然设立了FMD的核心——前沿模型委员会,并将其置于现有的政府运营署内,规模也从之前的5人扩大到了9人。委员会仍将为所涵盖的模型设定计算门槛,发布安全指导,并为审计员发布法规。
在确保AI模型安全方面,SB 1047的措辞也更加宽松。
现在,开发者只需提供「合理注意」来确保AI模型不会构成重大灾难风险,而不是之前要求的「合理保证」。
此外,开发者也只需提交公开的「声明」来概述其安全措施,不再需要以伪证罪为惩罚提交安全测试结果的认证。






请到「今天看啥」查看全文