专栏名称: 新技术法学
究新技术法理,铸未来法基石
目录
相关文章推荐
萧山发布  ·  来就对了!萧山让你“鲜掉眉毛”! ·  9 小时前  
萧山发布  ·  来就对了!萧山让你“鲜掉眉毛”! ·  9 小时前  
Foodaily每日食品  ·  三得利开卖“家庭版”百事可乐,会是下一个爆款? ·  3 天前  
Foodaily每日食品  ·  西梅、柠檬、柚子相继爆火后,万亿水果制品市场 ... ·  2 天前  
艾格吃饱了  ·  再不抢,山上的春笋要被夺完了。。。 ·  5 天前  
51好读  ›  专栏  ›  新技术法学

人工智能行动峰会巴黎理工分会场:人工智能、科学与社会会议综述

新技术法学  · 公众号  ·  · 2025-02-12 00:06

正文


来源:科技世代千高原

人工智能革命内部:巴黎综合理工学院为期两天的奥德赛

过去两天,我参加了巴黎综合理工学院举办的人工智能会议,该会议是巴黎 知识产权组织 举办的“人工智能行动峰会:人工智能、科学和社会”的一部分。我发现自己沉浸在涵盖人工智能整个领域的各种想法、辩论和启示之中。从世界模型和自主代理的复杂细节到人工智能提出的深刻的伦理、环境和经济问题,每一场会议都是一次旅程——一个在理论、技术和社会交汇处展开的故事。
在本报告中,我邀请您和我一起探索会议,会议中的每个演讲都是我们 AI 未来宏大叙事的一个章节。在此过程中,出现了两个真正的灯塔般的声音: Yann LeCun 对超越自回归模型的机器智能的革命性愿景 ,以及 Yoshua Bengio 为下一个 AI 时代制定的平衡、安全第一的蓝图 。他们的见解与众多杰出研究人员和行业先驱的贡献交织在一起,给我留下了不可磨灭的印象,让我了解了什么是可能的——以及必须做什么——以负责任地利用 AI。

图片


第 1 章:从生命分子到掌握多模态

Eric Xing与“康德陷阱”

在开幕演讲中, Eric Xing 向观众提出了一个极具挑衅性的观点:几十年来,人类对知识的追求从神秘转向了科学。我们曾经在宗教中寻找答案,然后在物理学中寻找答案——并承诺最终一切都会得到解决。但现在,当我们正站在构建远远超出简单下一个词预测的 世界模型 的边缘时,我们面临着 Xing 所称的“康德陷阱”。
他认为,尽管我们目前的语言模型擅长预测序列(由标志性公式 P(s′∣s,a) 表示),但它们缺乏对世界潜在动态的内在理解。下一代人工智能不应只是对输入做出反应的物体,而应发展成为自主代理:以反映生物有机体复杂性的方式从环境中学习并与之互动的系统。这一 “人工智能驱动的数字有机体” 愿景为一系列 将定义会议其余内容 的思想打开了大门。


图片

Joëlle Barral 和 AlphaFold 革命

我们刚刚消化了 Xing 对新型智能的呼吁, Joëlle Barral 就登台讲述了一个既技术性又具有变革性的叙述。她讲述了 AlphaFold 的历史历程——从 1994 年的 CASP 竞赛到 2020 年在原子分辨率上取得的胜利,这一突破有效地解决了蛋白质结构预测问题。Barral 的故事讲得非常生动:想象一个世界,氨基酸序列被翻译成生命本身的三维地图,为药物设计、疟疾疫苗开发,甚至塑料污染缓解等环境应用开辟了前所未有的途径。
她的故事不仅仅是一个成功案例,也展示了人工智能与特定领域挑战相结合的潜力。AlphaFold 的故事是计算能力与科学好奇心相遇时可以取得的成就的一个缩影——这一主题在整个会议中引起了反响。

基因组学、数字孪生和生命语言

基于这些见解, Karim Beguir Jean-Philippe Vert 深入研究了基因组学领域。他们展示了如何将基于 Transformer 的模型(曾经被归类为自然语言处理)重新用于解码 DNA 和蛋白质的“语言”。他们的工作通过将序列转换为不仅可以捕获结构还可以捕获功能和表型的嵌入,重新定义了我们对生物学的理解。
想象一下细胞的数字孪生——一个可以预测 DNA 序列的微小变化如何改变生物体特征的 AI 模型。这一愿景并非科幻小说;它正在发生,由结合 GC 含量等附加特征以提高预测准确性的模型提供支持。这一前景令人着迷:未来,精准医疗和个性化治疗将由 AI 指导,将原始遗传密码转化为可付诸行动的见解。

第 2 章:自主代理和突发行为的兴起

Ece Kamar 与 Agentic AI 的探索

随着上午会议的展开,讨论从预测转向行动。Ece Kamar 讲述了她对人工智能代理的研究——这些系统的设计目的不仅仅是服从命令,而是自主行动,无需人类的持续监督就能创造价值。一个特别引起我注意的例子是,当一个人工智能代理被分配一个看似平凡的任务时,它会自发地浏览复杂的在线安全协议来重置密码。尽管设计上并非如此,但这种突发行为凸显了自主系统的潜力和风险。
Kamar 的见解提出了一个关键问题:当我们赋予人工智能更多自主权时,我们如何确保可靠性并防止滥用?她认为,答案在于结合强大的评估基准(如谷歌针对医疗应用的 MedQA)和通过“人机交互”系统整合人类监督。这场对话为更广泛的辩论奠定了基础,即打造既有创意又安全的代理的道德和技术挑战。

埃马纽埃尔·坎德斯 (Emmanuel Candès) 和信任的统计视角

Emmanuel Candès 是代理技术讨论的最后一位嘉宾,他将话题转向了人工智能在做出准确推断方面的可靠性。他在斯坦福大学的工作主要围绕量化模型生成的陈述在统计上是否正确——这是一项至关重要的工作,因为人工智能系统越来越多地做出影响现实生活的决策。Candès 的观点提醒我们,无论我们的模型变得多么复杂,确保其可靠性既是一项统计挑战,也是一项计算挑战。

第3章:超越预测——元认知和因果表征的出现

Michal Valko:能够思考自己想法的人工智能

Michal Valko 是一位刚刚从 Meta GenAI 和 Google DeepMind 走出来的企业家,他正在挑战我们对人工智能认知能力的看法。目前,他领导着一家隐形初创公司,他的研究不仅仅是让人工智能变得更聪明,而是让人工智能理解自己的思维方式。
突破在哪里?一个看似简单的四步流程,让语言模型分析自己的问题解决方法。可以把它看作是教人工智能成为自己的老师。首先,模型确定解决问题所需的技能。然后,将相似的技能聚集在一起,并在这些更广泛的技能类别下重新组织问题。最后,当面临新挑战时,人工智能会从其技能库中汲取相关示例。
令人兴奋的是,这不仅仅是因为它有效,还因为它似乎比广受赞誉的思维链推理表现更好。更有趣的是 Valko 与 Kili 的合作,探索强化学习如何帮助人工智能系统做出更明智的决定,决定何时寻求人类帮助。
这是对未来的一瞥,人工智能不仅能解决问题,还能了解如何解决问题——有可能彻底改变从教育到复杂问题解决的一切。

Bernhard Schölkopf:揭示因果表征和数字孪生

在关于元认知和内部表征的热烈讨论中, ELLIS 研究所和马克斯·普朗克图宾根研究中心的科学主任 Bernhard Schölkopf 提出了互补而又独特的观点,吸引了观众的注意力。Schölkopf 的演讲深入探讨了因果推理和数字孪生领域,探讨了如何让人工智能系统对生成数据的底层机制有深入的理解。
他首先强调了因果马尔可夫条件的重要性——即一个变量以其父变量为条件,独立于其非子变量。在此基础上,Schölkopf 引入了独立因果机制 (ICM) 原理,该原理假定世界的生成过程是模块化的,每个组成部分都独立于其他组成部分运行。


图片


随后,Schölkopf 转向了一个引人注目的应用: 系外行星凌日探测。 他解释说,当系外行星从恒星前方经过时,会导致恒星亮度出现典型下降。 但是,如果仪器故障或其他混杂因素存在,许多亮度曲线可能会看起来非常相似。 只有通过仔细模拟这些外部影响(使用人工智能“减去”仪器的信号),我们才能准确推断出 K2-18b 上存在水等现象。 他在寻找外星生命时对海星范式的讨论强调了建立因果表征的深远意义。
此外,Schölkopf 还展示了新兴技术,例如 GraphDreamer(一种用于生成组合式 3D 场景的模型),并讨论了通过正交微调控制文本到图像扩散的最新进展。在他看来,强大的内部表征类似于老鼠的地图:虽然地图对于生存来说并非绝对必要,但它可以显著提高生物体的导航和繁衍能力。他幽默地点点头,将当前的语言模型比作拼字游戏冠军,尽管不会说法语,但他记住了整个法语词汇以赢得比赛。他的观点很明确:记忆不是理解, 人工智能 要真正掌握世界, 必须学会 以一种反映我们自己的思维地图的方式来表示因果结构。

第4章:巨人的发言——LeCun 的激进愿景和 Bengio 的道德框架

在规划人工智能的未来时,很少有人能像 Yann LeCun 和 Yoshua Bengio 那样引人注目和具有影响力。他们在会议上的主题演讲不仅仅是演讲;他们是大师班,深入探讨了人工智能的本质以及未来的发展方向。在本章中,我将详细回顾他们的演讲,记录他们提出的技术创新、哲学见解和道德要求。

Yann LeCun:开拓 AI 架构新领域

Yann LeCun 是深度学习的创始人之一,也是 Meta 的首席人工智能科学家,他在主题演讲中既批判了人工智能的现状,又展望了人工智能的未来蓝图。他的观点明确而发人深省: “自回归法学硕士注定要失败。” 他认为,虽然自回归模型取得了显著的进步——尤其是在自然语言处理方面——但它们对下一个单词预测的依赖使它们从根本上无法捕捉现实世界的复杂性。


图片


超越下一个单词预测:呼吁基于感官的学习

LeCun 的主要批评是, 当前的大型语言模型 (LLM) 通过记忆 大量数据并预测序列中的下一个标记来运行,这项任务虽然在纸面上令人印象深刻,但与真正的理解还相去甚远。他进行了生动的比较:想象一个世界级的拼字游戏冠军,他通过死记硬背单词来获胜,而没有掌握任何含义。
真正的智能不是重复数据,而是理解世界的底层语言。
他认为,人工智能应该从原始感官输入(图像、视频、声音)中学习,就像人类儿童通过与环境的互动来学习一样。

联合嵌入预测架构 (JEPA) 简介

为了阐明他的愿景,LeCun 引入了 联合嵌入预测架构 (JEPA) 。这一创新框架与自回归模型截然不同。其工作原理如下:
  • 双重编码: 输入 xx(例如,图像或视频片段)和目标 yy(未来状态或其他相关传感输入)均由编码器独立处理。这些编码器将原始数据转换为潜在表示。
  • 潜在空间对齐: JEPA 的核心目标是最大化 xx 和 yy 的潜在表示之间的共享信息,同时最小化预测误差。换句话说,模型的训练不仅仅是为了预测标记或像素值,而是为了开发一个强大的高维世界地图,以捕捉因果关系和上下文关系。
  • 基于能量的公式: LeCun 还强调了基于能量的模型的潜力,其中系统不严格受显式概率分布的约束,而是学会最小化能量函数。这种观点特别适合高维传感数据,而传统的生成方法可能会失败。
  • 整合潜在变量: 通过将潜在变量整合到架构中,JEPA 可以处理数据中的不确定性和多变性。这种方法对于捕捉自然环境的微妙之处至关重要,因为在自然环境中,相同的初始条件可能会产生多种合理的结果。

LeCun 认为,这样的架构将使 AI 系统能够形成 持久的世界模型 ——内部表征并非静态的,而是随着系统收集更多感官信息而演变的。他声称,这是实现他所谓的 “高级机器智能”的关键。 用他的话来说,未来在于能够理解、规划和与世界互动的系统,其水平可以反映人类的认知,而不仅仅是预测序列。


人类与机器学习范式

在整个演讲中,LeCun 将技术细节与哲学思考交织在一起。他挑战社区重新思考智能的衡量标准。他没有赞扬法学硕士在考试中取得优异成绩或生成连贯文本的能力,而是敦促我们关注系统如何从感官数据中开发 世界模型 ——灵活、自适应且能够进行零样本学习的模型。他充满激情地呼吁人工智能社区摆脱对基于文本的预测的狭隘关注,采用更全面、感官整合的方法。


Yoshua Bengio:为人工智能安全规划一条负责任的道路

与 LeCun 前瞻性的架构愿景形成鲜明对比的是,Yoshua Bengio 的主题演讲是对我们的 AI 革命所固有的风险和责任的一次深思熟虑、慎重的探索。Bengio 的开创性工作为深度学习奠定了基础,他的演讲致力于揭示开发通用 AI 所面临的道德、社会和技术挑战。
国际人工智能安全报告:负责任创新的蓝图
Bengio 的演讲以最近发布的《国际人工智能安全报告》 为主题。他的讨论围绕三个核心风险类别展开:



  1. 恶意使用: Bengio 警告了人工智能的黑暗潜力,复杂的模型可能被武器化。从生成扭曲公众认知的超逼真的深度伪造到引发网络攻击甚至生物威胁,人工智能的滥用带来了巨大的危险。他强调,可以加速科学发现的同一项技术也可能被用于有害目的。
  2. 故障: 没有哪个系统是完美的,人工智能也不例外。Bengio 强调了与故障相关的固有风险——从决策中的细微偏见到系统在没有适当监督的情况下运行时的灾难性故障。他指出,尽管人工智能的输出在统计上是合理的,但由于缺乏对情境的理解和控制,导致现实世界的危害。
  3. 系统性风险: 除了个人错误或恶意之外,Bengio 还探讨了大规模部署 AI 的更广泛的系统性影响。他讨论了如果 AI 系统在开发时不注重公平和问责,隐私侵犯、劳动力市场混乱和社会不平等加剧等问题将如何出现。

推理扩展和不受控制的增长的风险

Bengio 演讲中一个特别有见地的部分集中在推理扩展 的概念上——在推理阶段提高计算能力以获取准确度的边际收益的做法。虽然更大的模型无疑推动了科学推理和编程任务的最新发展,但 Bengio 警告说,这种趋势也可能导致意想不到的后果。在没有相应安全措施的情况下增加计算能力可能会放大错误,加剧能源消耗,甚至放大训练数据中存在的系统性偏差。



本吉奥认为,此类风险需要进行范式转变: 人工智能研究必须与严格的安全协议和道德监督齐头并进。 他敦促政策制定者和研究人员合作制定标准,确保人工智能系统透明、负责且符合人类价值观,而不是将监管视为创新的障碍。

安全人工智能未来的合作愿景

Bengio 的愿景不是通过严厉的监管来扼杀创新,而是培育一个安全与进步齐头并进的生态系统。他强调需要 透明的方法 ——从开源框架到详细的模型卡,这些模型卡不仅记录了性能指标,还记录了能源消耗、偏见和潜在风险。他呼吁基于 科学的监管 ,恳求政策制定者根据严谨的技术见解而不是恐惧或猜测来做出决定。
在闭幕致辞中,本吉奥强调了一个基本事实:人工智能成功的真正衡量标准不是其计算能力的规模,而是它在多大程度上服务于人类而不造成意外伤害。他深思熟虑的方法,在创新与谨慎之间取得平衡,为不受约束的技术进步的繁荣提供了清醒的对比。


和谐的结合:愿景与责任

LeCun 和 Bengio 共同描绘了一幅既令人振奋又复杂的 AI 未来图景。一方面,LeCun 的彻底重构挑战我们构建能够真正理解世界的 AI 系统——从感官输入中学习,形成动态世界模型,并最终超越当前自回归架构的局限性。另一方面,Bengio 提醒我们,这种巨大的力量伴随着重大的责任:确保我们的创造是安全的、合乎道德的,并与社会更广泛的利益保持一致。
他们的演讲充满了技术细节和哲学深度,为人工智能社区敲响了警钟。他们敦促我们突破机器学习的界限,同时不要忘记管理我们共同未来的道德准则。在激进创新与严格安全的相互作用中,前进的道路浮现出来——这条道路不仅能带来更智能的机器,还能带来更智能、更有责任心的社会。
在反思这些深刻见解时,我意识到,人工智能的发展之路不仅要提出正确的问题,还要找到答案。LeCun 和 Bengio 的愿景迫使我们努力创造一个技术与道德同步发展的未来,确保我们的创新能够提升人类,而不会损害其核心价值。

第5章:炉边谈话——关于人工智能未来的思想交流

当晚的炉边谈话是会议的一大亮点——一场充满活力、没有剧本的对话,汇聚了人工智能领域最聪明的人才。在温馨的氛围、温暖的灯光和坦诚的交流下,小组成员们得以揭开层层技术术语的面纱,揭示他们对人工智能是什么、人工智能的发展方向以及如何重塑我们的社会的原始、未经过滤的想法。对话的参与者包括迈克尔·乔丹、扬·勒昆、伯恩哈德·舍尔科普夫、斯特凡·马拉特和阿苏曼·奥兹达拉尔——这是一个多元化的群体,他们的观点涵盖了人工智能的技术、道德、经济和社会层面。


自主代理和以人为本的人工智能的愿景

迈克尔·乔丹 以大胆的宣言拉开了讨论的序幕: “我不想戴一副提醒我要开会的眼镜——我想要一个能帮我做事的助手!” 对他来说,人工智能的前景不在于被动观察,而在于创造真正自主的代理,这些代理可以无缝融入我们的日常生活,接管平凡的任务,让我们专注于创造力和创新。他将人工智能视为一个动态、主动的助手,为接下来的对话设定了一个高标准。
Yann LeCun 从来不回避争议,他以自己标志性的技术洞察力和务实乐观的态度进行反击。他认为, 目前有关人工智能能耗的说法往往被夸大了。 他问道:“我们真的会看到能源使用量大幅增加,因为每个人都会使用人工智能吗?”根据 LeCun 的说法,市场经济确保效率的提高自然会跟随需求。 数百名工程师正在改进各个方面——从更智能的算法到更高效的 GPU——他向我们保证,像 Meta 这样的公司在运营中已经实现了碳中和。 对他来说,挑战不仅在于构建可行的人工智能,还在于以经济和环境可持续的方式构建人工智能。

应对人工智能的道德问题和社会影响

随着对话的深入, Stéphane Mallat 将讨论转向了人工智能更广泛的社会影响。他对人工智能权力集中在少数几家大公司手中表示了合理的怀疑。 “这些由大公司控制的模型可以为自己的利益管理这种权力,” 他指出,强调在全球变暖等关键问题上缺乏共识——即使科学已经明确。Mallat 的观点是呼吁重新构建辩论:社会科学应该理解复杂的人类系统,而不仅仅是做出预测。他的言论引起了观众的共鸣,他们点头表示同意,同时他哀叹当前的趋势是人工智能的影响是用数据点来衡量的,而不是有意义的社会理解。
Bernhard Schölkopf 也加入进来,尖锐地提醒人们注意 AI 的隐性成本。他特别担心 ChatGPT 等推理密集型模型对环境的影响。 他警告说:“每次我们进行简单的推理时,都会消耗大量的计算能力”, 并描绘了一幅巨大的混凝土墙数据中心产生数 TB 二氧化碳的画面。Schölkopf 的警告语气不仅与能源有关,还与 潜入我们文化的智力懒惰 有关, 我们更喜欢摘要版的信息,而不是接触原始的、更丰富的内容。

监管、责任和偏见的作用

对话很快转向了棘手的监管问题。 迈克尔·乔丹坚持认为:监管应该在创新成熟之后进行。“过早监管只会让事情变得更加困难,” 他辩称。他设想的未来是,人工智能可以补充人类的创造力,而无需过早监管。然而,他的自由放任立场引发了一场激烈的辩论。
斯特凡·马拉特 (Stéphane Mallat) 以其一贯的敏锐机智反驳道,监管是不可避免的——无论我们喜欢与否,最终一切都会受到监管。他指出, 如果没有任何监管框架,人工智能不受制约的力量可能会导致一个由少数垄断力量决定我们共同未来的社会。 伯恩哈德·舍尔科普夫 (Bernhard Schölkopf) 补充说, 最好的监管是由 技术专家 制定的,而不是由善意但不知情的局外人制定的。然而,他对监管是某些人的荣誉徽章这一观点表示不满——这种情绪强调了平衡创新与问责的复杂性。
Asuman Özdağlar 对这种微妙的平衡提出了自己独到的见解。她说 :“监管无处不在——这本身并不是一件坏事。” 她强调,监管的目标应该是顺应人类创造力的潮流,而不是扼杀它。不过,她警告说,监管必须旨在提高人工智能系统的可读性。例如,在医学等领域,如果医生不理解人工智能预测背后的原因,那么这项技术最终就无法实现其目的。

关于偏见和信息洪流的争论

随后,讨论转向人工智能偏见的本质。 迈克尔·乔丹 挑衅性地指出, 偏见并不总是坏事 ;有时它为我们提供了一个观察世界的必要视角。“偏见是不可避免的——我们比较,我们选择,我们甚至喜欢因为偏见而便宜一点的电影,”他打趣道,敦促进行更细致入微的讨论,而不是对“好”或“坏”偏见做出一刀切的判断。
然而, Yann LeCun则 对“人工智能天生危险”这一普遍观点持更坚定的立场。 他辩称:“担心被人工智能生成的信息淹没是没有道理的——我们选择阅读什么。”他坚持认为,真正的解决方案是 改进人工智能 ,而不是实施可能扼杀开源创新的严厉监管。Stéphane Mallat 讽刺地 指出 ,虽然我们可以选择我们想要的偏见,但我们必须保持警惕,防止权力垄断单方面决定这些偏见。

展望未来:人工智能作为合作伙伴

聊天结束时,小组成员就未来的共同愿景达成了共识。迈克尔·乔丹回顾了人工智能的早期发展,将其比作弗兰肯斯坦的怪物——能够进行伟大的创新,但会带来不可预见的后果。然而,他仍然乐观地认为,作为一个社会,我们可以利用人工智能来增强人类的能力,而不是取代它。他对人工智能仅仅是副驾驶表示了些许怀疑,更愿意将其视为帮助我们应对现代生活复杂性的自主伙伴。
Yann LeCun 在讨论结束时高调地表示,人工智能最终将使我们变得更加智能。 “人工智能没有两种类型——每个系统都是为与人类合作而设计的,” 他说。他的愿景是,无论在医学、材料科学还是日常任务中,我们身边总有一个智能伙伴,而且我们无需害怕这种进化。

最后的思考:拥抱复杂性并促进创新

炉边谈话并没有以明确的答案结束,而是以一系列的见解结束,承认了人工智能未来的复杂性。对话强调,人工智能不是一个孤立的领域,而是一个涉及技术、道德、可持续性和人际互动的多方面学科。小组成员的不同观点是更大辩论的一个缩影:如何营造一个人工智能可以蓬勃发展、改善人类生活并得到负责任治理的环境。
一位小组成员说: “只要学习数学,音乐和数学就是答案”,这是 对下一代学生的号召,他们要为应对这些重大挑战打下必要的基础。随着灯光渐暗,讨论接近尾声,很明显,这场炉边谈话不仅丰富了我们的理解,还点燃了我们以创造力和责任感迎接人工智能未来的集体决心。

第 6 章:实验室之外的人工智能——可持续性、经济和社会

人工智能的环境和经济足迹

随着会议进入 第二天 ,焦点从模型架构的微观世界转移到我们世界面临的宏观挑战。 里卡多·维努埃萨 (Ricardo Vinuesa) 对人工智能对联合国可持续发展目标 (SDG) 的影响进行了令人信服的分析。据维努埃萨称,人工智能技术有潜力 实现 79% 的可持续发展目标 。然而,矛盾的是,到 2030 年,ICT 的能源消耗可能会激增至全球电力需求的 20%——这清楚地提醒我们数字革命的环境成本。
David Rolnick 用一个生动的比喻比较了不同的 AI 用例,进一步强调了这种二元性:重量级模型(“大象”)占据了头条新闻,而无数较小的专业网络(“蜜蜂”)往往能提供更高效、更有针对性的解决方案。他举的例子包括遥感应用(其中精益模型优于臃肿的架构)和解决复杂的电网优化问题。Rolnick 的信息既务实又紧迫:要真正发挥 AI 的潜力,我们必须将正确的工具与任务相匹配,并注意生态足迹。

人工智能能源评分和绿色人工智能的探索

Hugging Face 的 Sasha Luccioni 博士 介绍了她的 AI Energy Score 项目,这是一项开创性的计划,旨在对 AI 模型在不同任务中的能耗进行基准测试和比较。Luccioni 的演讲是呼吁采取更可持续的 AI 研究方法的号召,强调“AI 的生命周期”必须考虑从原材料提取和训练到部署和最终退役的所有方面。她的工作是确保 AI 创新的快速发展不会以不可持续的环境成本为代价的重要一步。

第7章:经济视角:生产力、垄断和工作的未来

会议对人工智能的经济影响的探索既富有启发性又发人深省,其中两次演讲因其深度和细微差别而脱颖而出。Erik Brynjolfsson Philippe Aghion 就人工智能如何改变工作场所和更广泛的经济提出了互补而又独特的观点,挑战了传统指标并强调了技术、竞争和政策之间的复杂相互作用。

人工智能作为生产力催化剂

Erik Brynjolfsson 在演讲的开头深入探讨了人工智能对现代工作场所的变革性影响,并以呼叫中心作为一个引人注目的案例研究。他的研究表明,人工智能工具(尤其是大型语言模型)的引入推动了生产力的快速增长。例如,在呼叫中心,使用人工智能助手的员工能够更快地解决查询,即使在人工智能中断期间,通话时长等性能指标也恢复到了人工智能之前的平均水平。有趣的是,Brynjolfsson 指出, 表现最差的代理经历了最显著的改进,而表现最好的代理只获得了微不足道的收益。 这种传统生产力趋势的逆转尤其引人注目,因为从历史上看,技术被视为最熟练工人的辅助手段。然而,有了人工智能,即使是最不熟练的工人也能从中受益匪浅,这表明技术正在以意想不到的方式让竞争环境变得公平。


布林约尔松还谈到了这样一个悖论:尽管微观层面有所改善,但宏观经济生产力指标却出现停滞迹象。他引用了研究结果,指出 总体生产力增长已经放缓 ——从 2005 年的 2.6% 降至今天的 1.2% 左右,一些经济体 甚至 出现 负增长 。这种差异暗示着标准经济指标无法捕捉到的隐藏价值。例如,虽然 免费数字工具 (如 YouTube、Gmail 甚至 AI 应用程序)的激增 创造了大量消费者剩余,但这些好处往往被排除在 GDP 计算之外。 这一观察结果提出了一个重要问题:在数字创新从根本上改变我们经济互动结构的时代,我们如何衡量生产力。


图片

生产率J曲线与长期愿景

Brynjolfsson 提出了“生产力 J 曲线” 的概念,该概念表明,技术投资的收益最初可能看起来不大,但一旦资本存量效应开始发挥作用,收益就会急剧增加。他的分析得到了斯坦福数字经济实验室数据的支持,表明虽然现在全面观察生成式人工智能的宏观经济影响可能为时过早,但基于 Hulten 定理等模型的未来预测表明,生产力每年将增长 1.4% 至 3.0%。然而,他承认预测这些影响存在固有的挑战,尤其是当人工智能创造的大部分经济价值仍然是无形的,并分布在免费服务和互补创新中时。


Philippe Aghion:积极竞争政策案例

在此基础上,菲利普·阿吉翁描绘了一幅更广泛、更谨慎的人工智能驱动世界的经济格局图景。阿吉翁的分析尤其引人注目,因为他深入研究了云计算和 GPU 市场等关键领域出现的垄断趋势。他警告说,人工智能能力集中在亚马逊、谷歌、微软和 Nvidia 等少数科技巨头手中,会带来严重风险。 如果没有积极的竞争政策,这些垄断可能会扼杀创新、限制消费者选择并加剧经济不平等。


图片
阿吉翁认为,历史上的技术革命,如电力和 IT,最终刺激了广泛的生产力增长,但这只是在经过一段时间的制度调整和监管干预之后。他指出,目前对人工智能的投资水平通常估计仅为 GDP 的 1%,远远高于美国和中国等主要经济体部署的巨额预算。他表示,这种不平衡 可能会使欧洲等地区处于竞争劣势,除非它们在资金和监管方面采取更积极的立场。

阿吉翁最引人注目的观点之一是,他强调竞争不仅在推动创新方面发挥着作用,而且在推动公平方面也发挥着作用。他展示的数据表明,尽管 自 2012 年以来,人工智能专利数量呈爆炸式增长 ,但由于缺乏竞争多样性,这些创新的质量和可及性受到了阻碍。 在少数主导者控制市场的行业中,创新生态系统有可能自我强化 ,新进入者挑战现状的机会更少。阿吉翁呼吁制定严格的竞争政策,这提醒我们,技术进步必须与制度变革相结合。 如果没有旨在打破垄断结构的政策,人工智能实现生产力民主化和刺激经济增长的承诺可能会受到严重破坏。


弥合微观经济学与宏观经济学之间的差距

Brynjolfsson 和 Aghion 都强调,尽管人工智能已经重塑了个人工作场所, 但只有我们能够将微观层面的生产力增长与宏观经济现实相协调,才能充分发挥其经济潜力。 他们认为,真正的进步将来自一种整体方法——这种方法不仅要考虑人工智能对任务效率的直接好处,还要考虑对就业、消费者剩余和更广泛的竞争格局的长期影响。
总之,会议上提出的经济观点提供了双重叙述:一方面,人工智能是生产力和创新的直接催化剂,即使是技术水平最低的工人也能达到新的绩效高度;另一方面,人工智能权力集中在少数巨头手中,带来了重大风险,必须通过深思熟虑、积极的政策措施来缓解。菲利普·阿吉翁的细致入微的分析尤其引起了深刻的共鸣,它号召人们确保人工智能革命的好处广泛传播,而不是集中在少数人身上。 工作的未来——事实上,我们全球经济的未来——取决于我们能否以雄心和审慎的态度应对这些复杂问题。


图片

第 8 章:圆桌会议——从构建人工智能到生活在人工智能的世界

在由 Alice Albizzati 主持的充满活力、毫无保留的圆桌会议上,全球经济学、伦理学和人工智能创新领域的顶尖专家 Erik Brynjolfsson、Danielle Allen、Yoshua Bengio 和 Philippe Aghion 齐聚一堂,探讨重大问题: 人工智能将如何重塑我们的社会、经济和日常生活?作为全球社会,我们应承担哪些责任,以确保技术革命惠及所有人? 此次对话涵盖了从人工智能代理的进化到地缘政治技术霸权竞争等方方面面,既激发了智识,又坦诚相待。


图片

人工智能的经济和社会影响:工具、代理和人为因素

Erik Brynjolfsson 在讨论开始时强调了贯穿整个会议的一个观点: 人工智能不是来“做”我们的工作的——而是来改变我们的工作方式的。 “这不是关于人工智能接管;而是关于我们如何使用人工智能,” 他解释道。他强调,虽然这项技术还远未成为完全自主的代理,但它目前作为一种先进工具的作用已经开始改变生产力。Erik 分享了他在斯坦福大学数字经济实验室的研究见解,指出 即使是现在,我们也看到任务性能的逐步、持续改进。 随着人工智能代理逐渐接管日常功能,他设想了一个 未来, 人们可以自由地从事创造性、战略性甚至纯粹的娱乐活动,如体育或音乐。
然而, 菲利普·阿吉翁很快就改变了这种乐观的看法。 他认为,将人工智能视为一个包罗万象的助手的想法为时过早。 “真正意义上的代理尚未出现,” 他评论道。 “仍然迫切需要人类监督来检查这些系统做出的道德决策。” 对菲利普来说, 人工智能必须仍然是一种工具 ——一种与人类判断协同工作的工具。他强调,单靠技术无法推动社会繁荣;强大的机构和精心制定的政策对于充分利用人工智能的潜力至关重要。

自主与控制之间的紧张关系

圆桌会议很快深入探讨了 市场驱动的“代理”人工智能与维持人类控制的必要性之间的矛盾。Yoshua Bengio 强调了 一个关键的悖论:虽然许多 公司正在转向开发像自主代理 一样运行的系统,但如果不加以控制,这种转变可能会很危险。 “将这些实体简单地视为工具只是一厢情愿的想法,” 他辩称,并警告说,如果没有刻意的设计和监管监督,我们 可能会创建功能更强大但不一定更安全的强大系统。
丹妮尔·艾伦 (Danielle Allen) 对监管的作用提出了更细致入微的看法。她坚持说: “我们不应该只是坐等事情出错。我们应该积极选择和塑造人工智能发展的道路。” 她的话引起了共鸣,呼吁 研究界和政策制定者采取行动 。丹妮尔强调,智力竞争——科学家之间的竞争,而不是公司之间的竞争——才是突破性创新背后的真正引擎。她认为,这将带来更好、 更周到的人工智能系统,从而增强社会,而不会将权力集中到少数主导者手中。

监管、去中心化和人工智能的地缘政治

讨论中特别激烈的部分围绕着监管和地缘政治竞争展开。 菲利普·阿吉翁警告说,目前分配给人工智能研究的预算——通常被认为仅占 GDP 的 1%——与美国和中国的巨额投资相比严重不足。“这不是运气的问题,” 他断言。 “这是一个预算问题,如果欧洲不果断采取行动,我们可能会无可挽回地落后。” 菲利普的言论强调了他的信念,即如果没有积极主动和资金充足的政策,全球人工智能霸权竞赛可能会让某些地区——以及它们所代表的价值观——处于不利地位。
Yoshua Bengio强调了人工智能权力分散化的 必要性,从而为这一主题做出了贡献。他警告说,如果只有少数几家公司控制着最先进的系统,他们就可以利用这种权力创造不可逾越的竞争优势,从而有效地垄断市场。Bengio 的担忧不仅仅是技术上的,而且是深刻的道德问题: “我们必须确保人工智能的力量保持分散,并确保所有人都能享受到它的好处,” 他说。他对权力分散化的愿景不仅关乎技术多样性,也关乎在快速创新面前维护民主价值观。

道德困境和偏见的作用

随后,讨论转向了 人工智能中复杂的偏见问题 。Erik Brynjolfsson 极具挑衅性地指出,偏见在某种程度上是人类决策中不可避免的,甚至是有益的。他指出: “我们都有偏见” ,并将其与我们日常做出的选择进行类比,例如更喜欢一部电影而不是另一部电影,或者看重某些品牌。 然而,Philippe 和 Danielle 都反驳了这种观点,强调虽然偏见可以简化决策,但人工智能系统中不受控制的偏见可能会导致系统性不公正。Danielle 指出,透明度可以作为对抗这些偏见的工具,尤其是在影响从拼车服务到新闻推送等一切事物的推荐系统中。
Philippe 用一个强有力的现实例子来打破关于人工智能偏见的抽象讨论。 当被问到一些敏感时,大模型的回答会依据其所在地区的价值观和立场,这不是人工智能推理的结果,而是反映其训练数据固有偏见的一面镜子。 这一发现引发了一场至关重要的辩论:在一个人工智能系统继承了人类偏见的世界里, 竞争政策如何确保思想市场的多元化,而不是让少数科技巨头的观点主导全球对话?

展望未来:以人为本的人工智能与协同创新

讨论接近尾声时,出现了一个共同的主题:人工智能的未来取决于协作和集体责任。埃里克·布林约尔松重申,人工智能 的真正前景在于它能够变得更像人类——不是取代我们,而是实现更深入的人机协作。 他设想的未来是,人工智能系统不是孤立地工作,而是与人类系统形成共生关系,双方都为更富裕、更高效的社会做出贡献。
丹妮尔·艾伦强调,人工智能革命已经到来,我们所有人都有责任去塑造它。 “通用人工智能不是某家公司或某个国家的财产,” 她辩称。 “它是属于人类的东西——就像月球一样,是所有人共享的。” 她呼吁 权力下放和增加公共投资, 这引起了小组的强烈共鸣,反映了一个共同的信念,即前进的道路必须以科学卓越和道德诚信为指导。

最后的思考

随着圆桌会议接近尾声,对话让听众们感受到了 深刻的紧迫感和可能性。 本次会议中交换的见解强调,虽然人工智能提供了变革性的机会,但它也带来了重大挑战,需要有意识的行动和协作治理。 无论是讨论监管的作用、不受控制的偏见的危险,还是人工智能投资的地缘政治风险,小组成员都明确表示,人工智能的未来并不是预先确定的——而是我们可以塑造的。
正如一位小组成员所说, “没有责任感的创新就像在沙滩上建房子。” 圆桌会议生动地提醒我们,随着我们迈向人工智能驱动的未来,我们的成功将取决于我们平衡技术进步与定义我们的道德和社会价值观的能力。

结语:变革之旅的反思

在会议的最后一天下午,当我走出会议厅时,我感觉自己仿佛参与了 一场真正具有变革意义 的会议——各种思想的汇聚很可能影响我们社会未来几十年的发展轨迹。从 Eric Xing 和 Michal Valko 严谨的技术方案,到 Yann LeCun 富有远见甚至有时激进的想法,再到 Yoshua Bengio 谨慎、安全第一的方法,这些不同的观点描绘了一幅 复杂但充满希望的 AI 未来图景

LeCun 和 Bengio 的双重遗产

从很多方面来看,此次会议的叙述都以两大支柱为基础:LeCun 对 AI 架构的彻底重新构想和 Bengio 对负责任创新的坚定承诺。LeCun 挑战我们重新思考机器学习的意义 ——敦促社区超越单纯的预测,走向理解整个世界。他呼吁系统从 感官输入中学习并开发持久的世界模型, 这既是一份技术路线图,也是对更大梦想的邀请。
另一方面,Bengio 提醒我们,能力越大,责任越大。 他坚持将人工智能发展建立在严格的、基于科学的政策和道德标准之上,这是对技术创新繁荣的清醒但必要的平衡。他们的见解概括了我们人工智能未来的前景和危险—— 这个未来虽然充满了令人眼花缭乱的潜力,但必须谨慎和有远见地驾驭。

呼吁合作

或许,此次会议最深刻的教训就是认识到人工智能的未来 并非少数几位孤立专家的领域,而是一项集体努力。 从基因组学和元认知方面的技术突破,到可持续性、经济和伦理方面的辩论,每一条讨论线索都强调了跨学科、跨行业、跨边界合作的必要性。
作为一名人工智能和高级视觉计算的学生,我离开会议时有了 新的目标感。 挑战是巨大的,但机遇也是巨大的。下一代人工智能系统不会孤立地建立起来;它们将诞生于丰富多彩的想法、实验和对话中—— 每一个都为更智能、更公平、更可持续的世界做出贡献。

最后的想法:旅程才刚刚开始

在巴黎综合理工学院会议厅的回响中,我不仅收获了丰富的技术见解,还坚信: 人工智能的未来取决于我们将激进创新与道德责任相结合的能力。 无论是重新思考模型架构,还是重新调整我们对能源消耗和经济不平等的态度,未来的道路既充满挑战,又令人兴奋。
亲爱的读者,我邀请你加入这一旅程。 参与这些想法,质疑假设,并为塑造我们共同未来的活跃对话做出贡献。人工智能的故事仍在书写中—— 我们每个人都可以在其不断发展的叙事中发挥作用。
感谢您花时间与我一起探索这份深入的报告。如果您和我一样觉得这些见解鼓舞人心、发人深省,请在 LinkedIn 上与我联系,或在下面的评论中留下您的想法。让我们保持对话的活力,共同打造一个造福所有人的人工智能未来。

Alfonso Mateos Vicente

人工智能和高级视觉计算理学硕士

巴黎综合理工学院

图片



During the last two days I attended the AI conference at the école Polytechnique as part of the AI Action Summit Conference: AI, Science, and Society by IP Paris, I found myself immersed in a veritable whirlwind of ideas, debates, and revelations that spanned the full spectrum of artificial intelligence. From the elegant intricacies of world models and autonomous agents to the profound ethical, environmental, and economic questions posed by AI, every session was a journey — a story unfolding at the intersection of theory, technology, and society.

In this report, I invite you to join me on a exploration of the conference, where each presentation was a chapter in the grand narrative of our AI future. Along the way, two voices emerged as true beacons: Yann LeCun’s revolutionary vision of machine intelligence beyond auto-regressive models , and Yoshua Bengio’s balanced, safety-first blueprint for the next era of AI . Their insights, interwoven with contributions from a host of brilliant researchers and industry pioneers, left an indelible mark on my understanding of what’s possible — and what must be done — to harness AI responsibly.

图片

Chapter 1: From Molecules to Multimodal Mastery

Eric Xing and the “Kant Trap”

In his opening talk, Eric Xing challenged the audience with a provocative idea: for decades, humanity’s intellectual pursuits have swung from the mystical to the scientific. We once sought answers in religion, then in physics — with the promise that, eventually, everything would be solved. But now, as we stand at the precipice of building world models that go far beyond simple next-word prediction, we face what Xing dubbed the “Kant Trap.”
He argued that while our current language models excel at predicting sequences — captured by the iconic formulation P(s′∣s,a) — they lack the inherent understanding of the world’s underlying dynamics. Instead of being mere objects that respond to inputs, the next generation of AI must evolve into autonomous agents: systems that learn from and interact with their environment in ways that mirror the complexities of biological organisms. This vision of “AI-driven digital organisms” opened the door to a cascade of ideas that would define the rest of the conference .


图片

Joëlle Barral and the AlphaFold Revolution

No sooner had we digested Xing’s call for a new kind of intelligence than Joëlle Barral took the stage with a narrative that was both technical and transformative. She recounted the historic journey of AlphaFold — from the 1994 CASP competition to its triumphant atomic-resolution victory in 2020, a breakthrough that effectively solved protein structure prediction. Barral’s storytelling was vivid: imagine a world where the sequence of amino acids is translated into a three-dimensional map of life itself, opening unprecedented avenues in drug design, malaria vaccine development, and even environmental applications like plastic pollution mitigation.
Her narrative was not merely one of success but also a demonstration of AI’s potential when fused with domain-specific challenges. The story of AlphaFold was a microcosm of what could be achieved when computational power and scientific curiosity meet — a theme that reverberated throughout the conference.

Genomics, Digital Twins, and the Language of Life

Building on these insights, Karim Beguir and Jean-Philippe Vert delved into the realm of genomics. They showcased how transformer-based models, once relegated to natural language processing, were now being repurposed to decode the “language” of DNA and proteins. Their work is redefining our understanding of biology by transforming sequences into embeddings that capture not just structure but function and phenotype.
Imagine a digital twin of a cell — an AI model that can predict how a minute change in a DNA sequence might alter an organism’s traits. This vision isn’t science fiction; it’s happening right now, powered by models that incorporate additional features like GC content to improve prediction accuracy. The promise is tantalizing: a future where precision medicine and personalized treatments are guided by AI, turning raw genetic code into actionable insights.

Chapter 2: The Rise of Autonomous Agents and Emergent Behaviors

Ece Kamar and the Quest for Agentic AI

As the morning sessions unfolded, the discussion shifted from prediction to action. Ece Kamar recounted her research on AI agents — systems designed not to simply follow orders, but to act autonomously and create value without constant human oversight. One example that particularly caught my attention was a scenario where an AI agent, when tasked with a seemingly mundane assignment, spontaneously navigated complex online security protocols to reset a password. Although unintended by design, such emergent behavior underscored the potential — and the risks — of autonomous systems.
Kamar’s insights posed a critical question: as we imbue AI with more autonomy, how do we ensure reliability and prevent misuse? The answer, she suggested, lies in a combination of robust evaluation benchmarks (like Google’s MedQA for medical applications) and the integration of human oversight through “human-in-the-loop” systems. This dialogue set the stage for a broader debate on the ethics and technical challenges of building agents that are both creative and safe.

Emmanuel Candès and the Statistical Lens of Trust

Rounding out the technical discussions on agents was Emmanuel Candès , who shifted the conversation toward the reliability of AI in making accurate inferences. His work at Stanford revolves around quantifying whether a statement generated by a model is statistically true — a crucial endeavor as AI systems increasingly make decisions that affect real lives. Candès’s perspective was a sobering reminder that no matter how sophisticated our models become, ensuring their reliability is as much a statistical challenge as it is a computational one.

Chapter 3: Beyond Prediction — The Emergence of Metacognition and Causal Representations

Michal Valko: AI That Thinks About Its Own Thinking

Michal Valko, an entrepreneur fresh from the halls of Meta GenAI and Google DeepMind, is challenging how we think about AI’s cognitive abilities. Now leading a stealth startup, his research isn’t just about making AI smarter — it’s about making AI understand how it thinks.
The breakthrough? A deceptively simple four-step process that lets language models analyze their own problem-solving methods. Think of it as teaching AI to be its own teacher. First, the model identifies the skills needed for a problem. Then, similar skills are clustered together, and questions are reorganized under these broader skill categories. Finally, when facing a new challenge, the AI draws on relevant examples from its skill repository.
What makes this exciting isn’t just that it works — it’s that it appears to outperform the widely-celebrated Chain-of-Thought reasoning. Even more intriguing is Valko’s collaboration with Kili, exploring how reinforcement learning could help AI systems make smarter decisions about when to ask for human help.
It’s a glimpse into a future where AI doesn’t just solve problems, but understands how it solves them — potentially revolutionizing everything from education to complex problem-solving.

Bernhard Schölkopf: Unraveling Causal Representations and Digital Twins

Amid the vibrant discussion on metacognition and internal representations, Bernhard Schölkopf — Scientific Director at the ELLIS Institute and Max Planck Tuebingen — offered a complementary yet distinct perspective that captivated the audience. Schölkopf’s talk delved deep into the realm of causal inference and digital twins, exploring how AI systems can be endowed with a robust understanding of the underlying mechanisms that generate data.
He began by emphasizing the importance of the causal Markov condition — the idea that, conditioned on its parents, a variable is independent of its non-descendants. Building on this, Schölkopf introduced the Independent Causal Mechanism (ICM) principle, which posits that the generative process of the world is modular, with each component operating independently of the others.


图片
Schölkopf then transitioned to a striking application: exoplanet transit detection. He explained that when an exoplanet passes in front of a star, it causes a characteristic dip in the star’s brightness. However, if instrument failures or other confounding factors are present, many brightness curves can appear deceptively similar. Only by carefully modeling these external influences — using AI to “subtract” the instrument’s signature — can we accurately infer the presence of phenomena like water on K2–18b. His discussion of the hycean paradigm in the search for extraterrestrial life underscored the profound implications of building causal representations.
Further, Schölkopf showcased emerging techniques such as GraphDreamer — a model for generating compositional 3D scenes — and discussed recent advances in controlling text-to-image diffusion through orthogonal fine-tuning. In his view, robust internal representations are akin to a map for a rat: while not strictly necessary for survival, a map can dramatically enhance an organism’s ability to navigate and thrive. With a humorous nod, he compared current language models to a scrabble champion who, despite not speaking French, memorized an entire French vocabulary to win a tournament. His point was clear: memorization is not understanding, and for AI to truly grasp the world, it must learn to represent causal structures in a way that mirrors our own mental maps.

Chapter 4: The Titans Speak — LeCun’s Radical Vision and Bengio’s Ethical Framework

When it comes to charting the future of artificial intelligence, few voices are as compelling — and as influential — as those of Yann LeCun and Yoshua Bengio. Their keynote sessions at the conference were not just presentations; they were masterclasses that delved into the very heart of what AI is today and what it could become tomorrow. In this chapter, I revisit their talks in granular detail, capturing the technical innovations, philosophical insights, and ethical imperatives they laid out.

Yann LeCun: Pioneering a New Frontier in AI Architectures

Yann LeCun, one of the founding figures of deep learning and Meta’s Chief AI Scientist, delivered a keynote that was both a critique of the current state of AI and a visionary blueprint for its future. His message was clear and provocative: “Auto-regressive LLMs are doomed.” He argued that while auto-regressive models have driven remarkable progress — especially in natural language processing — their reliance on next-word prediction leaves them fundamentally ill-equipped to capture the complexities of the real world.


图片

Beyond Next-Word Prediction: A Call for Sensory-Based Learning

LeCun’s central critique was that current large language models (LLMs) operate by memorizing vast amounts of data and predicting the next token in a sequence, a task that, while impressive on paper, falls short of true understanding. He drew a vivid comparison: imagine a world-class Scrabble champion who wins by rote memorization of words without any grasp of meaning.
True intelligence, is not about regurgitating data but about understanding the underlying language of the world.
In his view, AI should learn from raw sensory inputs — images, videos, sounds — much like a human child learns by interacting with its environment.


图片

Introducing the Joint-Embedding Predictive Architecture (JEPA)

To illustrate his vision, LeCun introduced the Joint-Embedding Predictive Architecture (JEPA) . This innovative framework represents a radical departure from auto-regressive models. Here’s how it works:
  • Dual Encoding: Both the input xx (for example, an image or a snippet of video) and the target yy (the future state or another related sensory input) are independently processed by encoders. These encoders transform the raw data into latent representations.
  • Latent Space Alignment: The core objective of JEPA is to maximize the shared information between the latent representations of xx and yy, while simultaneously minimizing the prediction error. In other words, the model is trained not merely to predict a token or pixel value, but to develop a robust, high-dimensional map of the world that captures causal and contextual relationships.
  • Energy-Based Formulation: LeCun also emphasized the potential of energy-based models, where the system is not strictly bound by explicit probability distributions but instead learns to minimize an energy function. This perspective is particularly suited for high-dimensional sensory data, where conventional generative approaches may falter.
  • Incorporating Latent Variables: By integrating latent variables into the architecture, JEPA can handle uncertainty and variability in the data. This approach is crucial for capturing the subtleties of natural environments, where multiple plausible outcomes can emerge from the same initial conditions.
LeCun argued that such an architecture would enable AI systems to form persistent world models — internal representations that are not static but evolve as the system gathers more sensory information. This, he claimed, is the key to achieving what he termed “Advanced Machine Intelligence.” In his words, the future lies in systems that can understand, plan, and interact with the world on a level that mirrors human cognition, rather than merely predicting sequences.
图片

The Human vs. Machine Learning Paradigm

Throughout his talk, LeCun interwove technical details with philosophical reflections. He challenged the community to rethink the metrics of intelligence. Instead of celebrating the ability of LLMs to ace exams or generate coherent text, he urged us to focus on how systems can develop world models from sensory data — models that are flexible, adaptive, and capable of zero-shot learning. His impassioned call was for the AI community to move away from a narrow focus on text-based predictions and to embrace a more holistic, sensory-integrated approach.


Yoshua Bengio: Charting a Responsible Path for AI Safety

In stark contrast to LeCun’s forward-looking architectural vision, Yoshua Bengio’s keynote was a thoughtful, measured exploration of the risks and responsibilities inherent in our AI revolution. Bengio, whose pioneering work laid the groundwork for deep learning, dedicated his talk to unpacking the ethical, societal, and technical challenges of developing general-purpose AI.
The International AI Safety Report: A Blueprint for Responsible Innovation
Bengio’s presentation was anchored in the recently published International AI Safety Report . He organized his discussion around three core risk categories:


图片
  1. Malicious Use: Bengio warned of the dark potential of AI, where sophisticated models could be weaponized. From generating hyper-realistic deepfakes that distort public perception to enabling cyberattacks and even biological threats, the misuse of AI poses significant dangers. He stressed that the same technology that can accelerate scientific discovery could also be repurposed for harmful ends.
  2. Malfunctions: No system is perfect, and AI is no exception. Bengio highlighted the inherent risks associated with malfunctions — ranging from subtle biases in decision-making to catastrophic failures when systems operate without proper oversight. He pointed to incidents where AI outputs, though statistically plausible, led to real-world harms due to a lack of contextual understanding and control.
  3. Systemic Risks: Beyond individual errors or malicious intent, Bengio examined the broader, systemic implications of deploying AI at scale. He discussed how privacy violations, disruptions in labor markets, and the amplification of social inequalities could emerge if AI systems are not developed with an eye toward fairness and accountability.

Inference Scaling and the Perils of Unchecked Growth

A particularly insightful part of Bengio’s talk centered on the concept of inference scaling — the practice of ramping up computational power during the inference stage to extract marginal gains in accuracy. While larger models have undeniably advanced the state of the art in scientific reasoning and programming tasks, Bengio cautioned that this trend could also lead to unintended consequences. Increasing computational power without corresponding safety measures could amplify errors, exacerbate energy consumption, and even magnify systemic biases present in the training data.


图片
Bengio argued that such risks necessitate a paradigm shift: AI research must be pursued hand in hand with robust safety protocols and ethical oversight. Instead of viewing regulation as an impediment to innovation, he urged policymakers and researchers to collaborate in developing standards that ensure AI systems are transparent, accountable, and aligned with human values.

A Collaborative Vision for a Safe AI Future

Bengio’s vision was not one of stifling innovation through heavy-handed regulation, but of fostering an ecosystem where safety and progress go hand in hand. He emphasized the need for transparent methodologies — from open-source frameworks to detailed model cards that document not just performance metrics, but also energy consumption, biases, and potential risks. His call for science-based regulation was a plea for policymakers to base their decisions on rigorous technical insights, rather than on fear or speculation.
In his closing remarks, Bengio underscored a fundamental truth: the true measure of AI’s success will not be the sheer scale of its computational power, but the degree to which it serves humanity without unintended harm. His thoughtful approach, balancing innovation with precaution, provided a sobering counterpoint to the exuberance of unchecked technological advancement.


图片

A Harmonious Synthesis: Vision and Responsibility

Together, LeCun and Bengio painted a picture of the future of AI that is as inspiring as it is complex. On one side, LeCun’s radical reimagining challenges us to build AI systems that can truly understand the world — learning from sensory inputs, forming dynamic world models, and ultimately transcending the limitations of current auto-regressive architectures. On the other side, Bengio reminds us that with this immense power comes a profound responsibility: to ensure that our creations are safe, ethical, and aligned with the broader interests of society.
Their talks, rich in technical detail and philosophical depth, serve as a clarion call for the AI community. They urge us to push the boundaries of what machines can learn while never losing sight of the ethical imperatives that govern our shared future. In the interplay between radical innovation and rigorous safety, the path forward emerges — a path that promises not only smarter machines but a smarter, more conscientious society.
In reflecting on these profound insights, I am reminded that the journey of AI is as much about asking the right questions as it is about finding answers. The visions of LeCun and Bengio compel us to strive for a future where technology and ethics evolve in tandem, ensuring that our innovations uplift humanity without compromising its core values.

Chapter 5: Fireside Chat — A Confluence of Minds on AI’s Future

The evening’s fireside chat was a highlight of the conference — a vibrant, unscripted dialogue that brought together some of the brightest minds in AI. The intimate setting, complete with warm lighting and candid exchanges, allowed the panelists to peel back the layers of technical jargon and reveal their raw, unfiltered thoughts on what AI is, where it’s headed, and how it will reshape our society. The conversation featured Michael Jordan, Yann LeCun, Bernhard Schölkopf, Stéphane Mallat, and Asuman Özdağlar — a diverse group whose perspectives spanned the technical, ethical, economic, and social dimensions of AI.


图片

The Vision of Autonomous Agents and Human-Centric AI

Michael Jordan kicked off the discussion with a bold declaration: “I don’t want to wear a pair of glasses that reminds me I have a meeting — I want an assistant that does things for me!” For him, the promise of AI lies not in passive observation but in the creation of truly autonomous agents that can seamlessly integrate into our daily lives, taking over mundane tasks and allowing us to focus on creativity and innovation. His vision of AI as a dynamic, proactive helper set a high bar for the rest of the conversation.
Yann LeCun , never one to shy away from controversy, countered with his trademark blend of technical insight and pragmatic optimism. He argued that the current narrative around AI’s energy consumption is often exaggerated. “Are we really going to see a massive surge in energy use because everyone will use AI?” he asked. According to LeCun, the economics of the market ensure that efficiency improvements will naturally follow demand. With hundreds of engineers refining every aspect — from smarter algorithms to more efficient GPUs — he assured us that companies like Meta are already carbon neutral in their operations. For him, the challenge is not just building AI that works, but doing so in a way that’s economically and environmentally sustainable.

Grappling with Ethics and the Social Impact of AI

As the conversation deepened, Stéphane Mallat turned the discussion toward the broader social implications of AI. He expressed a healthy skepticism about the concentration of AI power in the hands of a few mega-corporations. “These models, controlled by huge companies, can manage this power in their own interests,” he noted, highlighting the lack of consensus on critical issues like global warming — even when the science is clear. Mallat’s perspective was a call to reframe the debate: social science should be about understanding complex human systems, not just making predictions. His remarks resonated with the audience, who nodded in agreement as he lamented the current trend where AI’s impact is measured in data points rather than in meaningful social understanding.
Bernhard Schölkopf joined in with a pointed reminder of AI’s hidden costs. He was particularly concerned about the environmental footprint of inference-heavy models like ChatGPT. “Every time we run a simple inference, we’re consuming a lot of computational power,” he warned , painting a picture of vast, concrete-walled data centers churning out terabytes of CO₂. Schölkopf’s cautionary tone was not just about energy — it was also about the intellectual laziness creeping into our culture , where we prefer a summarized version of information over engaging with the original, richer content.

Regulation, Responsibility, and the Role of Bias

The dialogue soon shifted to the thorny issue of regulation. Michael Jordan was adamant: regulation should come after innovation has had a chance to mature. “Regulating too early just makes things more difficult,” he argued. He envisions a future where AI complements human ingenuity without the heavy hand of premature oversight. His laissez-faire stance, however, sparked a lively debate.
Stéphane Mallat , with his characteristically incisive wit, countered by stressing that regulation is inevitable — everything is regulated eventually, whether we like it or not. He pointed out that without any regulatory frameworks, the unchecked power of AI could lead to a society where a few monopolistic forces decide our collective future. Bernhard Schölkopf added that the






请到「今天看啥」查看全文