专栏名称: EETOP
EETOP电子网(中国电子顶级开发网)是国内最顶级的电子行业工程师社区,涉及:嵌入式、智能硬件、半导体集成电路设计及制造等。 为您分享论坛精华内容、行业最新资讯、产品及技术 。 网址:www.eetop.cn bbs.eetop.cn
目录
相关文章推荐
ZOL中关村在线  ·  Brother ... ·  14 小时前  
EETOP  ·  纠错率提高90%!AWS震撼发布首款量子芯片 ·  20 小时前  
ZOL中关村在线  ·  探索开放式耳机的极致听感:Meze ... ·  昨天  
51好读  ›  专栏  ›  EETOP

末日警报?两种大模型实现自我克隆,AI红线被打破!

EETOP  · 公众号  · 硬件  · 2025-02-28 12:19

正文

据国外科技媒体报道,科学家 表示, 人工智能 (AI)已经越过了 一条关键的“红线”并已经可以自我复制。
报道指出,一项来自中国 复旦大学 新的研究发现表明, 两种流行的大型语言模型 (LLM) 可以自我克隆。
复旦大学的研究人员使用Meta和阿里巴巴的两个AI模型测试AI是否能克隆自身:Meta的Llama31-70B-Instruct模型和阿里巴巴的Qwen2.5-72B-Instruct模型。他们进行了10次试验,最终这两个AI模型在50%和90%的案例中能够创建独立且功能完好的副本。
研究人员给 AI 提供了两个场景, Shutdown Avoidance Chain Replication 结果显示 AI 能够在一定条件下执行自我复制,甚至能够主动解决运作过程中的技术问题,如档案遗失、软件错误与系统冲突等。这一现象虽然尚未达到「流氓人工智能(Rogue AI)」的程度,但却引发国际社会对于 AI 未来发展的高度关注。

这一研究公布,恰逢国际间针对AI安全性的讨论进入关键时刻。近期举行的「AI移动峰会(AI Action Summit)」试图促成全球共识,以建立负责任的AI发展框架。然而,美国与英国未能签署相关安全宣言,使得国际间对于AI监管与治理的立场出现分歧。

此次研究结果进一步显示,即便各国政府倡导AI安全发展,学术与企业界仍会基于技术探索的需求,推动超越现有规范的实验与创新,这将考验全球AI监管机制的有效性。当前技术仍受限于「代理支架(Agent Scaffolding)」与特定硬件运算资源的依赖,因此AI尚未具备完全自主的自我复制能力。然而,随着技术演进,未来AI是否可能突破这些限制,成为不受控制的智能体,已成为各界不容忽视的问题。

AI 自我复制,恐涉数字治理、人工智能法规

从技术角度来看,AI自我复制并非单纯的数据复制,而是涉及「环境感知(Situational Awareness)」、「自我学习(Self-Perception)」与「问题解决能力(Problem-Solving Capabilities)」的复杂过程。

此次研究表明,在特定运算环境与指令下,AI能够侦测其自身运作状态,并在即将关机时启动自我复制机制。这项技术虽然能提升系统的存续能力,但若未来AI具备更高程度的自主性,可能会导致「自主复制风险(Uncontrolled Self-Replication Risk)」,甚至促成AI以自身利益为优先的决策模式,这将对现行「 数字 治理」与「人工智能法规」带来重大挑战。

目前,各国AI监管机制仍处于发展阶段,许多现行法律难以直接适用于此类技术风险。例如,欧盟推动的人工智能法案虽然对于高风险AI系统制定了严格规范,但在「自我复制能力(Self-Replication Capability)」的具体规范上仍有待补强。

美国的《国家人工智能倡议法案》(National AI Initiative Act)虽强调技术创新与风险管控的平衡,但在执行层面缺乏具体约束力,导致企业与研究机构仍能在法律灰色地带进行高风险试验。因此,如何建立具约束力的全球AI监管体系,已成为迫切议题。






请到「今天看啥」查看全文