专栏名称: Dots机构投资者社区
机构投资者组成的社区,深度点评财经事件
目录
相关文章推荐
51好读  ›  专栏  ›  Dots机构投资者社区

Ilya宣判:预训练即将终结!NeurIPS现场沸腾

Dots机构投资者社区  · 公众号  ·  · 2024-12-15 08:15

正文

本文转自微信公众号“量子位”,作者:关注前沿科技。

金磊 发自 凹非寺
量子位 | 公众号 QbitAI

继李飞飞、Bengio、何恺明之后,在刚刚的 NeurIPS 2024 中, Ilya Sutskever 最新演讲也来了。

虽然时长仅有15分钟左右,但内容依旧看头十足。

例如这一句:

Pre-training as we know it will end.
我们所熟知的预训练即将终结。

而之于未来,Ilya还预测道:

what comes next is superintelligence: agentic, reasons, understands and is self aware.
接下来将是超级智能:代理、推理、理解和自我意识。

那么为何会有如此?我们一起来看看完整演讲。

回顾十年技术发展

Ilya先是用一张十年前的PPT截图开启了这次演讲,那时候深度学习还处于探索阶段。

在2014年的蒙特利尔,他和团队(还有Oriol Vinyals和Quoc Le)首次提出了如今成为AI领域基石的深度学习理念。

Ilya展示了当时的一张PPT,揭示了他和团队的核心工作: 自回归模型 大型神经网络 大数据集 的结合。

在十年前,这些元素并不被广泛看作成功的保证,而今天,它们已经成为人工智能领域最重要的基础。

例如在谈到 深度学习假设 时,Ilya强调了一个重要观点:

如果有一个10层的大型神经网络,它就能在一秒钟内完成人类能做的任何事情。

他解释说, 深度学习的核心假设是人工神经元与生物神经元的相似性。

基于这一假设,如果人类能够在0.1秒钟内完成某项任务,那么同样的任务,一个训练良好的10层神经网络也能完成。

这一假设推动了深度学习的研究,并最终实现了当时看似大胆的目标。

Ilya还介绍了自回归模型的核心思想: 通过训练模型预测序列中的下一个token,当模型预测得足够准确时,它就能捕捉到整个序列的正确分布。

这一思想为后来的语言模型奠定了基础,特别是在自然语言处理领域的应用。

当然除了“押对宝”的技术之外,也有“押错”的。

LSTM(长短期记忆网络)就是其中之一。

Ilya提到LSTM是深度学习研究者在Transformer之前的主要技术之一。

尽管LSTM在当时为神经网络提供了强大的能力,但它的复杂性和局限性也显而易见。

另一个便是并行化(parallelization)。

尽管现在我们知道pipeline并不是一个好主意,但当时他们通过在每个GPU上运行一层网络,实现了3.5倍的速度提升。

Ilya认为, 规模假设 (scaling hypothesis)是深度学习成功的关键。







请到「今天看啥」查看全文