Lex Fridman 带来了一场长达5小时的AI深度对话,涵盖了
从DeepSeek到o3-mini,从NVIDIA到AI Agent,从中美竞争到AGI,几乎覆盖了当前AI领域所有关键议题。
这场Lex Fridman 与Dylan Patel 和Nathan Lambert 的对话超出了常规播客时长,但每一分钟都充满了关键信息。
两位嘉宾都是AI硬件和研究领域的重量级人物
,一个运营着备受业内关注的半导体研究公司,另一个则在Allen人工智能研究所担任研究科学家。
其中的
Dylan Patel 有人可能会有些眼熟,其刚刚发布了一份分析报告称
DeepSeek 训练成本远超600万美元
,见前文:《
美分析机构称DeepSeek V3 成本远超600 万美元,实际达13亿美元!
》
在播客中,
Dylan透露了DeepSeek 背后不为人知的故事
:这家公司的母公司Highflyer (幻方)原本是一家量化对冲基金,早在2021年就已经拥有了10000个A100 GPU的集群。
他们将这些原本用于量化交易的算力资源,转向了语言模型训练。
「很多人可能不知道,DeepSeek的CEO
梁文峰在2021年就宣布他们是中国拥有最大A100集群的公司。
」
Dylan表示:
「这些资源最初主要用于量化交易的自然语言处理,但现在他们将目光投向了更宏大的目标。」
而Nathan Lambert 则分享了一个有趣的观察:
「
所有重大的AI突破都离不开两个关键要素:模仿学习和试错学习。
目前看来,试错学习的潜力可能更大,这也是为什么DeepSeek和其他公司在推理模型上取得了令人惊讶的进展。」
在谈到AI基础设施时,Dylan提到了一个惊人的数字:
「
下一代AI集群的能耗将达到2.2吉瓦,这比一些城市的用电量还要大。
这就是为什么像OpenAI的Stargate项目这样的大规模集群建设如此重要。」
对于OpenAI的Stargate项目,Dylan表示这个5000亿美元的计划确实令人震撼,但目前实际落地的资金可能远低于这个数字。「
第一期项目大约需要1000亿美元,其中包括500亿美元的服务器支出,以及数据中心、维护和运营成本。
」
在AI人才竞争方面,Nathan指出:
「
现在最热门的岗位是推理训练工程师,这个领域的人才极其稀缺。
因为推理模型需要非常专业的知识和经验,而且这个领域还在快速发展。」
对于未来的AI发展,两位嘉宾都持谨慎乐观态度。Dylan认为:
「
未来2-3年内,我们可能会看到更多令人惊讶的突破,但真正的挑战在于如何平衡发展速度和安全性。
」
而Nathan 也补充道:
「开源AI的重要性正在上升。尽管像Anthropic这样的公司在安全性方面投入巨大,但开源社区的创新速度也不容忽视。
我们需要在保持创新活力的同时,确保AI发展的透明度。
」
这场长达5小时的对话,不仅涵盖了技术层面的深度讨论,还包含了对AI未来发展的深刻思考。
有网友称:
这不仅仅是一场谈话,更像是一份关于AI未来的详细路线图。
下为视频内容概要:
开场导览 [0:00]
嘉宾Dylan Patel是Semi Analysis的创始人,专注于半导体和AI硬件分析。Nathan Lambert则是Allen人工智能研究所的研究员,同时也是著名AI博客Interconnects的作者。
DeepSeek模型解析 [3:33]
DeepSeek的R1和V3是采用了专家混合(Mixture of Experts)架构的语言模型
。
V3是基础模型,而R1则是在此基础上添加了推理能力的特殊版本。两者都采用了创新的
MLA注意力机制
,大幅降低了内存使用。
低成本训练之谜 [25:07]
DeepSeek能够实现低成本训练的关键在于两大创新:
算力集群规模 [51:25]
DeepSeek拥有约50,000个GPU的计算集群,这些算力部分来自其量化交易业务。
公开数据显示他们在2021年就拥有10,000个A100 GPU。
对华出口管制 [58:57]
美国政府对中国实施了严格的GPU出口管制。H800被禁后推出了H20,但功能受限。这些限制正推动中国加速发展本土化替代方案。
AGI 时间表预测 [1:09:16]
专家们对AGI实现时间有不同预测:
中国制造能力评估 [1:18:41]
中国在工业基础设施方面具有显著优势,特别是在供电能力上。「
一个钢铁厂的用电量就相当于美国整个行业的总和。
」
新冷战态势 [1:26:36]
AI技术正成为新一轮中美竞争的焦点。出口管制可能会推动技术发展轨道分化,形成「
平行宇宙
」式的发展模式。
台积电与台湾 [1:31:05]
台积电在全球半导体产业链中占据核心地位:
AI最佳GPU选择 [1:54:44]
目前市场上主要的AI训练GPU选择:
DeepSeek低成本秘密 [2:09:36]
成本优势主要来自:
产业间谍问题 [2:22:55]
技术泄露主要通过三种方式
:
审查制度影响 [2:31:57]
不同地区对AI的监管方式存在差异,这可能影响模型的训练数据和行为表现。
Karpathy论RL魔力 [2:44:52]
Andrej Karpathy强调:
AI进步主要来自两种学习方式
:
o3-mini对比r1 [2:55:23]
OpenAI和DeepSeek的最新模型各有优势:
NVIDIA地位分析 [3:14:31]
NVIDIA在AI硬件市场的主导地位来源于:
GPU走私现象 [3:18:58]
存在多种GPU非正常流通渠道
:
OpenAI 数据训练争议 [3:25:36]
DeepSeek被指使用OpenAI的API输出进行训练,引发了数据使用伦理的讨论。
AI 超级集群 [3:36:04]
未来的AI集群规模惊人:
AGI 竞赛胜者 [4:11:26]
竞赛的关键因素包括: