如果我们看看编程,这是当前 AI 进展最快的领域之一。我们已经接近这样一个世界,
大概三到六个月内就能出现
,
AI 可以写 90% 的代码;再过 12 个月,或许就会进入 AI 几乎写出“所有代码”的时代
。
Anthropi
c 的 CEO 达里奥・
阿莫代 (
Dario Amodei) 最近连续接受了 NYT Hard Fork 和 Council on Foreign Relations 的采访,这里面被提到最多的就是,
程序员现有的工作,很快就要被 AI 大量替代
。但程序员依旧需要指定一些前提目标:你到底要做什么应用?总体的设计决策是什么?如何与其他已有代码协作?怎么判断这个设计是不是安全?
Dario 表示:“只要这些小环节(AI 还不擅长的部分)仍需要人类程序员来做,那么人类的生产力依然会得到增强。
但
另一方面,最终那些人类的「小根据地」会被 AI 一点点攻克。然后我们会来到这样一个时刻:AI 可以做任何人类能做的事情,我认为这会发生在所有行业
"。
实际上,如果 AI 突然把 50% 的工作全部取代,那才是最具社会分裂性的结果 —— 因为那意味着,社会给其中一半人打上“你们没用了、你们没有价值、不再需要”的标签。
但这就是现实,最终 AI 会到达一个能够做所有人类工作(几乎所有行业)的阶段
。
访谈中 Dario 多次表达 AI 技术正以指数级速度前进,风险和收益都在迅速增大,留给社会和决策者做出稳健应对的“容错空间”或“时间”并不多。
Anthropic 内部对 AI 的能力界定有自己的标准,和 OpenAI 还有 Google Deepmind 不同,Anthropic 并不爱提 AGI 这个没法定义的概念,他们更多从安全控制出发,用 A.S.L.(AI Safety Levels)来判定自己模型的能力水平,参照了美国政府的生物安全级别(BSL)标准,用于应对灾难性风险
。
🔗
https://www.anthropic.com/news/anthropics-responsible-scaling-policy
目前,Anthropic 所有模型均按照 ASL-2 标准运行,该标准反映了当前行业的最佳实践,这也意味着 GPT-4.5 还有 Gemini 2.0 依然在这一安全等级之下
。
-
AI 自主研发
(Autonomous AI Research and Development):如果一个模型能够独立执行通常需要人类专家参与的复杂人工智能研究任务,并有可能以不可预测的方式显著加速 AI 的发展,那么我们需要更高的安全标准(可能是 ASL-4 或更高等级的标准)以及额外的安全保障措施。以此避免 AI 发展速度超过我们应对新风险的能力;
-
化学、生物、放射和核武器
(Chemical, Biological, Radiological, and Nuclear,CBRN):如果一个模型能够帮助拥有一定技术背景的人员制造或部署 CBRN 武器,那么我们需要加强安全和部署保障措施(ASL-3 标准);
ASL-3 标准涉及增强的安全措施和部署控制,具体包括:
这些措施旨在确保模型在部署过程中不会被滥用,特别是在涉及化学、生物、放射和核(CBRN)武器的情况下。明白为什么 Anthropic 要把它们训练中的模型藏着公司的地下设施里了。防止被盗用和模型自我越狱。这也意味着,
以后更高级的模型,都是这些公司或是政府用来保持自身竞争优势的私有资产了,而公众可能很难接触到这些能力强大的新模型
。
Dario 认为我们正处于 AI 指数增长陡峭曲线的初期,人类的线性思维总是会误判指数增长的潜力。
可能会在今年中就能达到或逼近 ASL-3,预计未来几个月的 Claude 4 发布;ASL-4 则会在 2026-2028 年之间达到。
以下内容综合了两场访谈中 Dario Amodei 的主要观点与核心论点,涵盖了他对 AI 技术发展、潜在风险、国家安全、道德与社会影响、以及产业竞争等多方面的见解。为方便阅读,做了要点分条整理。
#01
为何从 OpenAI 离开并创立 Anthropic
-
对“大规模模型(Scaling Laws)”的发展前景有明确判断
对研发与部署方式不满
Anthropic 的使命导向与公司文化
#02
Anthropic 在 AI 安全与可控性上的具体做法
-
投入机制剖析(
Mechanistic Interpretability
)
“Constitutional AI” 训练方法
Responsible Scaling Policy(负责任的模型扩展政策)
与政府及行业合作进行红队(Red Team)与安全测试
#03
对 AI 潜力及社会经济影响的展望
-
生物医学与新药研发