专栏名称: Dots机构投资者社区
机构投资者组成的社区,深度点评财经事件
目录
相关文章推荐
51好读  ›  专栏  ›  Dots机构投资者社区

当AI让所有人"无用":Anthropic CEO 的未来社会观

Dots机构投资者社区  · 公众号  ·  · 2025-03-15 08:15

正文

本文转自微信公众号“INDIGO科技加速站”,作者:观点解读。

图片

如果我们看看编程,这是当前 AI 进展最快的领域之一。我们已经接近这样一个世界, 大概三到六个月内就能出现 AI 可以写 90% 的代码;再过 12 个月,或许就会进入 AI 几乎写出“所有代码”的时代

Anthropi c 的 CEO 达里奥・ 阿莫代 ( Dario Amodei) 最近连续接受了 NYT Hard Fork 和 Council on Foreign Relations 的采访,这里面被提到最多的就是, 程序员现有的工作,很快就要被 AI 大量替代 。但程序员依旧需要指定一些前提目标:你到底要做什么应用?总体的设计决策是什么?如何与其他已有代码协作?怎么判断这个设计是不是安全?

Dario 表示:“只要这些小环节(AI 还不擅长的部分)仍需要人类程序员来做,那么人类的生产力依然会得到增强。 另一方面,最终那些人类的「小根据地」会被 AI 一点点攻克。然后我们会来到这样一个时刻:AI 可以做任何人类能做的事情,我认为这会发生在所有行业 "。

实际上,如果 AI 突然把 50% 的工作全部取代,那才是最具社会分裂性的结果 —— 因为那意味着,社会给其中一半人打上“你们没用了、你们没有价值、不再需要”的标签。 但这就是现实,最终 AI 会到达一个能够做所有人类工作(几乎所有行业)的阶段

访谈中 Dario 多次表达 AI 技术正以指数级速度前进,风险和收益都在迅速增大,留给社会和决策者做出稳健应对的“容错空间”或“时间”并不多。

Anthropic 内部对 AI 的能力界定有自己的标准,和 OpenAI 还有 Google Deepmind 不同,Anthropic 并不爱提 AGI 这个没法定义的概念,他们更多从安全控制出发,用 A.S.L.(AI Safety Levels)来判定自己模型的能力水平,参照了美国政府的生物安全级别(BSL)标准,用于应对灾难性风险

🔗 https://www.anthropic.com/news/anthropics-responsible-scaling-policy

图片

目前,Anthropic 所有模型均按照 ASL-2 标准运行,该标准反映了当前行业的最佳实践,这也意味着 GPT-4.5 还有 Gemini 2.0 依然在这一安全等级之下

  • AI 自主研发 (Autonomous AI Research and Development):如果一个模型能够独立执行通常需要人类专家参与的复杂人工智能研究任务,并有可能以不可预测的方式显著加速 AI 的发展,那么我们需要更高的安全标准(可能是 ASL-4 或更高等级的标准)以及额外的安全保障措施。以此避免 AI 发展速度超过我们应对新风险的能力;

  • 化学、生物、放射和核武器 (Chemical, Biological, Radiological, and Nuclear,CBRN):如果一个模型能够帮助拥有一定技术背景的人员制造或部署 CBRN 武器,那么我们需要加强安全和部署保障措施(ASL-3 标准);

ASL-3 标准涉及增强的安全措施和部署控制,具体包括:

  • 内部访问控制 :加强对模型权重的保护,确保只有授权人员能够访问和修改模型;

  • 多层次的部署风险防控 :实时和异步监控、快速响应协议以及彻底的预部署红队测试;

这些措施旨在确保模型在部署过程中不会被滥用,特别是在涉及化学、生物、放射和核(CBRN)武器的情况下。明白为什么 Anthropic 要把它们训练中的模型藏着公司的地下设施里了。防止被盗用和模型自我越狱。这也意味着, 以后更高级的模型,都是这些公司或是政府用来保持自身竞争优势的私有资产了,而公众可能很难接触到这些能力强大的新模型

图片

Dario 认为我们正处于 AI 指数增长陡峭曲线的初期,人类的线性思维总是会误判指数增长的潜力。 可能会在今年中就能达到或逼近 ASL-3,预计未来几个月的 Claude 4 发布;ASL-4 则会在 2026-2028 年之间达到。


以下内容综合了两场访谈中 Dario Amodei 的主要观点与核心论点,涵盖了他对 AI 技术发展、潜在风险、国家安全、道德与社会影响、以及产业竞争等多方面的见解。为方便阅读,做了要点分条整理。


#01

为何从 OpenAI 离开并创立 Anthropic

  1. 对“大规模模型(Scaling Laws)”的发展前景有明确判断

  • Dario 和其团队在 2019-2020 年间已清晰认识到,只要持续投入更多算力与数据、使用相对简单的算法,模型性能会成指数级提高,具备跨领域的认知与处理能力。

  • 当时很多人(包括行业内外)并不完全相信这种“模型规模+数据规模”的简单粗暴增长路线,但 Dario 及其同事非常坚信这会带来巨大经济与安全影响。

  • 对研发与部署方式不满

    • Dario 及其伙伴们认为,当 AI 技术发展到一定“智能”水平时,必须要非常严肃地对待安全、可靠性与可控性,而不只是快速迭代。

    • 虽然 OpenAI 最初也强调“安全与公益”,但在 Dario 的看法里,OpenAI 当时的领导层在某些方面并未体现出足够的重视,导致他最终与团队分离,成立了 Anthropic。

  • Anthropic 的使命导向与公司文化

    • 自诩为“Mission-first”公益性企业(Public Benefit Corporation),坚持“先保证安全,再追求商业价值”的理念。

    • 在实际产品策略上愿意牺牲部分市场机会。例如他们曾延迟发布模型 6 个月,以进行更加审慎的安全评估,错过了和 ChatGPT 同期的出圈时机,却确立了公司文化和技术伦理。


    #02

    Anthropic 在 AI 安全与可控性上的具体做法

    1. 投入机制剖析( Mechanistic Interpretability

    • Dario 认为 AI 模型本质上是“生成式”的统计系统,而不是可以被精确设计的传统软件,因而理解模型内部原理、推理过程至关重要。

    • 创始团队成员 Chris Olah 带头深耕“可解释性研究”,坚持投入资源做纯科学探索,并将成果公开共享,用于造福整个社区。

  • “Constitutional AI” 训练方法

    • 他们通过给模型设定一套“原则(宪法)”来约束模型在对话和决策时的输出,而非只通过人工标注的反馈数据。

    • 这让模型的价值观或行为准则可以相对透明地公开,便于在公众和监管层面审视、质询与改进。

  • Responsible Scaling Policy(负责任的模型扩展政策)

    • 参照生物安全(Bio-safety Level)的做法,把模型划分为不同级别(ASL 1、2、3、4…),每升一级就意味着潜在危害或风险更高,需要更严格的安全或部署手段。

    • 当前大模型可能即将逼近“ASL 3”,意味着在化学、生物、核能等领域若不加限制,模型可能显著降低从业门槛,让危险信息在更大范围内扩散。

  • 与政府及行业合作进行红队(Red Team)与安全测试

    • Anthropic 与美国政府(例如国家安全部门、AI 安全机构)协作,进行模型能力和风险测试(特别是“生物武器”或“自主决策”方面),确保尽早发现潜在滥用场景。

    • 提倡强化对研发企业的网络安全和内部安全审查,防范工业间谍、内部泄密,让关键算法或代码落入对手。


    #03

    对 AI 潜力及社会经济影响的展望

    1. 生物医学与新药研发

    • 强调“系统性疾病”(癌症、阿尔茨海默症、精神疾病等)的突破需要高级 AI 的帮助;AI 可以在分析海量分子、复杂病理等方面极大提速医疗进展。







    请到「今天看啥」查看全文