专栏名称: 知识分子
《知识分子》是由饶毅、鲁白、谢宇三位学者创办的移动新媒体平台,致力于关注科学、人文、思想。我们将兼容并包,时刻为渴望知识、独立思考的人努力,共享人类知识、共析现代思想、共建智趣中国。欢迎关注。
51好读  ›  专栏  ›  知识分子

2025年,AI到底会给科学界带来怎样的变化?

知识分子  · 公众号  · 科学  · 2025-02-17 08:23

主要观点总结

知识分子The Intellectual科学四十人圆桌活动现场图,讨论AI在科学研究中的应用,及其给社会带来的各种影响。专家们在讨论中指出,AI正在深刻改变科学研究的方式,但在AI的应用和治理上也存在诸多挑战。他们认为,AI无法完全替代人类,而是需要人类与AI共同协作,以发挥最大效能。此外,AI在推动科学研究的同时,也可能带来一些新的社会问题,如数据污染、职业变革等,需要人类深入思考并予以解决。

关键观点总结

关键观点1: AI正在深刻改变科学研究的方式

AI在科学研究中的应用正逐渐成为关键节点,推动科研的快速发展,但也带来了数据污染、长尾分布、数据多样性等问题。

关键观点2: AI应用与治理的挑战

在AI的应用和治理上,需要人类与AI共同协作,确保AI的发展方向与人类价值观相符,避免AI的滥用。

关键观点3: AI不能完全替代人类

尽管AI在某些方面可以超越人类,但它不具备人类的创造性、情感和自主思维,无法完全替代人类。

关键观点4: AI可能带来的社会问题

AI的广泛应用可能引发新的社会问题,如数据污染、职业变革等,需要人类思考并予以解决。


正文

2.17 ‍‍‍‍‍‍‍
知识分子
The Intellectual


科学四十人圆桌活动现场图。从左至右依次为: 清华大学苏世民书院院长、人工智能国际治理研究院院长薛澜 北京大学理学部副主任、化学与分子工程学院教授、生物医学前沿创新中心研究员高毅勤, 北京邮电大学信息与通信工程学院教授、科学探索奖得主王光宇, 清华大学计算机系教授、智能技术与系统实验室副主任黄民烈。


在AI for science以及很多领域,AI的突飞猛进让⼈兴奋和激动;同时,AI可能的影响和导致的后果也让我们担心。AI将把我们带往何处?怎么才能做到AI for good?


围绕这些问题,与2025新年科学演讲同期举行的科学四十人圆桌,邀请到北京大学理学部副主任、化学与分子工程学院教授、生物医学前沿创新中心研究员高毅勤,清华大学计算机系教授、智能技术与系统实验室副主任黄民烈,北京邮电大学信息与通信工程学院教授、科学探索奖得主王光宇,主持人为清华大学苏世民书院院长、人工智能国际治理研究院院长薛澜。


此后的快闪接力发言由《知识分子》总编辑、中国科普作家协会理事长、中国科学院院士周忠和主持,《知识分子》总编辑、大湾区大学讲席教授夏志宏,中国科学院自动化所研究员王飞跃,86岁的原中国科院大学党委书记颜基义,首都医科大学校长饶毅等多位学者也分享了自己的观点。


在科学四十人圆桌之前,香港大学计算与数据科学研究院院长马毅发表演讲,提出“百模大战”资源消耗惊人,智能本质到底是什么?亚马逊云科技上海人工智能研究院院长张峥发表演讲,提出在人工智能时代,更要像文艺复兴时期一样思考。( 港大马毅:“百模大战”资源消耗惊人,智能本质到底是什么? 张峥演讲:在人工智能时代,更要像文艺复兴时期一样思考


在这场讨论碰撞中,学者们分享了一些非常有价值、有意思的观点。比如:

——AI具体给哪些学科带来了范式革命?AI能否提出创新的想法,还是可能阻碍科研人员的创新?AI是不是科学史上最特别的存在?AI对科学影响的深刻程度,能否与相对论或量子力学相比?

——AI for Science面临怎样的关键挑战?如何构建可信的科学数据共享模式,如何解决长尾分布、数据污染和数据多样性的问题?

——如果说目前人工智能的所有数学表达公式都基于概率论,概率最大的事情就是正确的,而人类所有的原创性工作本质上都是小概率事件。那么,在现代人工智能的框架下,还需要担心AI会超越人类吗?

——如果我们被大量人工生产的内容包围,再难发现事实、真相、真理,又没有清理这些内容的能力,该如何预防这样的未来?当内容由AI生成,目前又能否用AI的方法识别?

——AI作为心理咨询师,能否达到中级咨询师的水平?以及,AI自身会不会“抑郁”呢?


以下为科学四十人圆桌讨论及随后的快闪发言实录。


撰文 | 知识分子



薛澜: 今天我们聚焦人工智能,尤其是它在科学研究中的应用。过去一年,AI在科学研究领域迎来了关键节点,不少诺贝尔奖成果都与AI相关,这充分证明了AI的潜力,它正在深刻改变着社会的方方面面。然而,也有人担心,未来科学研究会不会被AI完全牵着鼻子走?AI究竟能改变什么,又不能改变什么?这些问题都值得我们深思。


今天,我们有幸邀请到几位在AI应用领域深耕的科学家,他们将分享AI在科学、医学甚至心理健康领域的应用实践。


高毅勤: 我是做化学的,具体是理论化学和计算化学。我的研究主要是从分子出发,研究分子的物理过程,包括分子的结构以及它们之间的相互作用。我们试图通过这些物理规律来理解生命的本质,以及分子在生物过程中的功能。


我们为什么引入AI呢?我的专业主要是理论推导和科学计算。生命过程的分子世界极其复杂,小分子的可能性有10的200次方种,药物分子个数也高达10的60次方,这是一个巨大的数字。蛋白质的可能性也非常多。如果完全从量子力学的角度出发,从分子和原子层面理解生命过程,是非常困难的。在过去的研究中,我们试图从微观逐渐理解到宏观,但这几乎是不可能的,因为两者之间的差距太大,可能性也太多。


而深度学习为我们带来了新的可能。我们可以对所有分子进行压缩表示,找到它们与宏观现象真正相关的特征。人工智能技术可以与科学计算有效结合,比如通过强化学习,在微观和宏观或介观层面同时推进,更快、更有目的地闭环学习。这样,我们对生命基于分子的理解就能产生更多基于科学原理的数据。


王光宇: 我的研究方向是智能信息处理和生物医学计算。概括来说,我的工作主要是希望通过智能信息处理手段,深入分析和解析多源且复杂的生物医学数据,实现对疾病的刻画、预测或调控。


围绕着AI for Science,我认为有三个关键层面,我们的工作也与之密切相关。首先是大规模数据协作。我们知道,丰富多样的科学数据对构建AI for Science的能力至关重要,但传统的科研流程中,实验复杂性和数据共享目前仍是一个挑战。如何构建可信的科学数据共享模式,是我们非常关心的问题。从技术层面来看,我们团队面向生物医学复杂的场景,构建了可信的隐私计算平台,能够弹性适配并支持科研机构合作,这属于底层信息基础建设方面的。


在中间层,是智能算法和模型的创新。我们正在构建基于基础大模型的生物医学计算框架,最近发布了一个1760亿参数的生物医学基础模型,通过在海量的科学大数据训练模型,使其具备生物医学知识与能力。我们希望通过这样的工具,来加速下游任务的新发现或新工具的使用。在应用层面,可以通过数据微调来处理长尾分布的任务或罕见疾病问题。


最后,我们希望通过这些工具结合生成式AI,生成大量的假设或实验方案,从而拓展人类对科学假设的新灵感。通过这样系统性的工作,能够推动AI for Science领域的研究。


黄民烈: 我领导的研究小组主要在做两件事情。第一是AI的安全和对齐。安全是大模型最重要的研究方向之一。我们开发算法让模型更快地对齐各种价值观和偏好,让它变得更安全、更可靠、更可信。我们在AI治理、AI安全以及政策法规制定方面,也跟薛老师有各种各样的讨论,为了以后有更多的合作。


第二是AI for 心理健康。2016年,英国媒体曾预测心理咨询师是人类最不可能被AI替代的工作之一,但如今回头看,我认为AI咨询师替代的可能性越来越大。随着研究的深入,我越来越确信这一点。其实早在1966年,MIT的教授就开发了Eliza,是最早的AI心理咨询师,当时效果还挺好的。如今,大模型的发展让我们可以预见,AI作为心理咨询师达到中级咨询师水平是非常有可能的。


在我的研究小组里,我们试图让计算机理解情绪、表达共情、理解人类的认知、心智和思维,以及预测人在社交场合中的潜在行为。从更大的层面来说,我们希望通过这些研究让AI具备更好的社交智能,能够理解人的情感、思维和行为背后的动机。


其实从更宏观的角度来看,我们今天开发的所有大模型,最终目标都是为了提升生产效率、创造力和工作效率,进而提高整体的劳动生产效率。而我们团队的研究方向则是让AI具备更强的社交智能,使其能够真正理解人的情感、思维和行为,以及这些行为背后的潜在动机。


AI for 心理健康是一个重要的应用场景。目前,我们已经在中小学和全国的大学推广AI应用,比如基于AI的访谈,它可以代替人与人之间的聊天,给出初步的心理状态评估,同时提供AI陪伴工具,帮助人们疏解情绪压力,更好地应对各种压力。此外,我们还开发了培训咨询师的工具,通过更好的培训和反馈,帮助咨询师更快提升咨询技能。


01

AI for Science:跨学科合作与专业领域挑战


薛澜: 请教各位科学家在用人工智能工具时,是自己学会用这些大模型,还是也会和学人工智能的学者合作呢?另外,在使用AI for Science的过程中,你们觉得有哪些关键挑战?刚才提到数据问题,那算力呢?目前有没有遇到什么具体问题,又是怎么解决的?


黄民烈: 作为计算机科学家,我们擅长的是数据和算法。不过,今天我们确实面临一些问题。


首先,关于数据污染的问题。这会影响我们下一步如何训练大模型,以及如何让它进一步迭代和提升。我们也在尝试一些自对齐的方法,让模型能够自主进化,但仍然面临长尾分布和数据多样性的问题。


其次,当我们深入到行业的解决方案时,比如AI用于心理健康,这并不是一个简单的通用模型能够解决的问题。它需要深入到行业内部,不能仅仅依靠简单的数据训练。我们需要行业专家来注入专业知识,并提供更好的评估。比如,我们开发的AI咨询师,如何判断它是否达到了中级或初级咨询师的水平?这就需要像北师大这样有实际咨询经验的专家来告诉我们,目前的水平如何,还存在哪些问题。


心理学领域有很多专业知识,我们对此必须保持敬畏之心。如果希望这些工具真正帮助到更多人,情感、心智和认知的问题是非常个体化和长尾的。比如失恋,原因可能多种多样:性格问题、相处问题,或者压力太大不想恋爱……每个人的情况都不一样。这就要求我们在行业基础上进行深度钻研,与心理学的学生和专家合作,怀着一颗敬畏的心,以确保这些工具在真实场景中真正可用。


高毅勤: 实际上在分子领域,模型和通用模型有很大的不同。比如,分子可以想象成一个三维图像,但它不仅仅是图像,它需要符合量子力学的规律,并且要保持对称性。通用模型在这方面是无法满足要求的,所以我们需要自己开发模型。


当然,问题不止于此。在生命科学领域,普通的Transformer架构也会面临一些问题,比如灾难性遗忘。但在真实的物理世界中,这些问题本身是有科学规律可循的,这就需要我们开发新的算法和框架。


虽然我们自己也会写代码,比如我之前写过分子动力学模拟的代码,但在工程化的过程中,我们仍然需要外部帮助。我们和国内的很多厂商,比如华为、曙光集团等,都有大量的合作。从深度学习框架的早期开发阶段开始,我们就会提出一些科学问题。我特别想强调的是,专业领域的知识不仅仅是对AI提出要求,也对AI的算法、框架甚至硬件提出了新的要求和启示。


王光宇: 从通用领域到专业领域,通用大模型在专业场景下的适用性是有限的。尤其是生物医学开放领域,场景本身就非常复杂,不仅包含互联网知识之外的大量专业知识,而且数据模态也更加复杂,具有高维度、跨尺度、科学规律约束的特点。这就意味着我们不能直接使用通用大模型,而需要针对专业领域开发自己的基础大模型。在生物医学领域,比如罕见病的推理诊断方面,通用大模型的表现并不理想。此外,专业领域的推理任务通常更加复杂,可能涉及多步推理、不确定性估计等问题。


02

从AlphaGo到AlphaFold:AI如何重塑科学研究?

薛澜: 刚才提到人工智能可以帮助提出假设,这让我有点好奇。在大家的印象中,人工智能擅长解决重复性问题,比如像解谜题一样快速给出答案。但它能不能识别出新的科学问题,或者发现反常现象,甚至提出创新的想法呢?在这方面,人工智能究竟能做些什么?


王光宇: 这个问题确实很有挑战性。在我看来,生成式AI的出现与我们过去做的优化工作有很大不同。生成式AI的核心在于“生成”,它能够提出大量新的假设和方案,从而拓展科研的问题空间和解空间。比如在数学研究中,科学家们通过与AI的交互来获取一些可能的解决方案,然后在这些基础上进行逻辑推理。这种新型人机协作的方式,极大地提高了效率。


然而另外一方面值得警惕的是AI带来创造力方面的风险,目前AI的训练大多是基于已有数据的拟合,而在其训练数据中往往会最小化异常值。但很多时候,人类科学发现正是通过对异常值的关注来取得突破的。这就引出了一个问题:现有AI的这种训练方式是否会阻碍人类的创新,减少了偶然性发现?我认为这是有可能的。


不过,我也相信随着研究的不断深入,比如现在的个性化大模型技术的发展,未来能避免同质化研究问题等,同时人机协作会更加紧密。通过这种方式,我们或许能够更好地解决这个问题,让AI真正成为推动科学发现的重要工具。


黄民烈: 我觉得这是有可能的。对于创造性问题或新的假设,往往是长尾分布的。但目前的大模型在训练时,会倾向于高估常见事件,而低估长尾事件。换句话说,它会认为长尾事件的概率比实际发生的概率更低。


这就带来了一个难点:我们如何设计采样方法或算法,来提出新的假设?我觉得这是可行的。比如AlphaGo曾经下出过一些人类棋手从未下过的“上帝之手”,这些招法经过人类验证后,就成为了新的知识。所以,AI确实有可能提出创新性的假设,关键在于我们如何更好地处理长尾数据,通过算法设计捕捉到这些低频事件,并通过验证将其转化为知识。这或许可以成为一种基本的逻辑。


高毅勤: 我也有同感。在一些复杂体系或复杂系统中,当现象、数据或相互作用的模式变得极为复杂时,人类的抽象能力和想象力可能会达到极限。但在这种情况下,通过数据压缩和感知,AI有可能发现一些令人惊叹的关系。这些隐藏在背后的逻辑关系,或许反而更容易被AI挖掘出来。不过,人的积极参与、深度思考以及对更底层逻辑的探寻,仍然是实现这一目标的关键因素。只有人机结合,才能真正发挥出AI在复杂系统中的潜力。


03

AI的未来:科学突破还是边际收益递减?


薛澜: 去年好几个诺贝尔奖都和人工智能相关。我想问问各位,这只是一个特例,还是说未来这种情况可能会经常出现?换句话说,人工智能的研究,或者与人工智能相关的研究,是否会在不同科学领域持续引导出突破性的成果呢?


黄民烈: 我觉得未来这种情况可能不会太多。比如Hinton获得物理学奖,这既让人意外,又在情理之中。他最有名的工作是玻耳兹曼机,这是基于物理学原理开发的。他甚至说过,他一生中最骄傲的工作就是玻耳兹曼机。包括这次化学奖AlphaFold,确实很有影响力,但成果大多是“摘低垂的果实”,类似这样的工作未来可能会减少,可能会面临边际收益递减的问题,导致未来获得诺贝尔奖的概率也会更低。


王光宇: 我觉得还是有一些可能性的,至少在科学领域,比如AI有可能会在诺贝尔生理学或医学奖方面取得突破。我们可以看到,现有的实验科学研究面临很大的瓶颈:从假设到做实验的周期很长,很多时候只是局部优化,且受限于数据采集与模拟空间,难以实现全局性地发现科学规律。但AI能够有效建模和挖掘高维科研数据,捕捉潜在科学规律,突破这些局限,进而加速整个科研过程,甚至帮助人类找到尚未攻克的重大疾病的解决方案。毕竟,人类仍面临还有很多亟待解决的疾病问题,比如肿瘤。我非常希望我们能通过AI的方法创新,在这方面取得一些突破。


高毅勤: 我也觉得这种情况还是很有可能的,至少在两个方面有较大潜力。首先,就像AlphaFold一样,虽然表面上看似解决了蛋白质结构问题,但它真正的作用是帮助我们理解蛋白质之间的相互作用,以及细胞的特异性。这或许会带来新的研究范式和科学发现。其次,在算法方面,随着我们对生物过程的理解不断加深,我们可以将生物过程视为一种算法。这可能会反向启示我们,如何将这些基于物质世界的相互作用转化为数学算法。这不仅对智能的理解和未来发展,也会带来很多新的机会。我觉得这只是一个开始。


04

AI vs. 传统工具:为何AI需要特别对待?






薛澜: 我们此前也收集了一些观众问题请教各位老师,比如,人类从成为人类以来,发明的机器或工具不计其数,那么是什么将AI与此前任何工具机器区别开来以至于需要特别地考虑AI for science,AI for good?


王光宇: 其实AI之前也有很多科学工具,比如计算仿真工具,但为什么我们认为AI代表着一个新的科学范式呢?首先,AI的本质是让机器具备类似人类的能力,随着大模型的发展,AI在一定程度上已经具备了丰富的知识和推理能力,可以在很多层面帮助我们改变科研范式。


比如在工具层面,现在许多学生已经开始使用大模型作为科研工具。它可以自动读文献、帮助梳理和生成研究方案等。过去,科研的门槛很高,需要掌握多种工具,但大模型的出现把很多工具进行了整合,方便调用,从而大大降低了科研的门槛。从这个角度看,AI对科学研究的推动作用是“平权化”的。


在研究范式层面,过去的科研大多是假设驱动的,但现在AI可以基于数据直接产生可能的科学假设,然后再由人类进行验证,这是一种数据密集型驱动的新模式。同时,AI作为一个工具,在提出假设后还能够更好地挖掘高维、非线性、复杂数据中的规律,并在整个研究过程中提供帮助或模拟结果,形成了“AI in the loop”研究闭环,这在过去是很难做到的。所以,我觉得AI不仅仅是一个简单的工具,它正在引发一场全新的科学发现变革。


高毅勤: 我并不觉得AI一定是人类科学史上最特别的存在。一方面,因为我们身处其中,很容易感受到它的变化。另一方面,现在的传播方式也让我们觉得AI的影响力铺天盖地。但如果我们回过头去比较,AI带来的变化真的比量子力学的提出更深刻、更伟大吗?真的比微积分的发明对世界的认知和改变更深远吗?我觉得这还需要时间来验证。


05

AI时代的职业变革

薛澜: 下面的问题是,在大模型等技术的加持下,未来的四足/人形机器人/机器手能否低成本完成人类所有/绝大部分体力劳动?换句话说,今后的科研人员是不是不需要那么多了,甚至于有一天会被替代?文科还有没有未来?


黄民烈: 这个问题确实很难回答,因为它本质上是在问人和AI未来会是什么样的关系,以及如何相互协作。


首先,AI对工作的替代正在发生,这对我们高校的专业设置影响很大。比如,很多文科专业,像机器翻译和同声传译相关方向,很多学校已经裁撤了,因为这些工作正在被AI替代。但与此同时,AI也在创造新的工作机会。所以,我们需要思考的是,人和AI到底该如何相处,以及我们的边界在哪里。


我认为核心是:如果用AI做教育,关键是要设计它更好地教会学生如何学习,而不是直接喂给他知识和结果。否则,学生的能力可能会退化。在这样不可逆转的技术发展大潮下,我们需要重新思考如何设计教育工具、教育方法和教育理念,以更好地启发学生提问、思考和学会学习。


人类不可能在死记硬背方面胜过AI,比如,我们使用导航系统,就是因为它能提供更全面的信息,而人类需要学会如何规划和决策,尤其是在不确定的情况下。这是一个很大的问题,各个行业都需要深刻思考。在这样的思考中,可能会诞生许多新的工作和就业机会,同时也会有一些旧的职业被替代。这是时代潮流,不可避免。


高毅勤: 不管是在什么背景下,从事哪个领域,具备基本的科学素养都是非常重要的。我们这个世界是有规律的,不管是从社会层面还是更高层面来看问题,它都遵循一些基本的物理规律。这些规律可以帮助我们在受限的条件下更好地发展各个学科。同时,我也觉得我们需要让这些学科更多地关注到“人”本身,而不仅仅是像机器那样只关心效率。所以,我认为在文科中引入一些基本的科学和数学素养,或许可以用更高效的方法来展开研究和教学。


黄民烈: 我想补充一点,大模型其实可以极大地助力社会学研究。 我们希望物理世界有物理世界的模型,那么在精神世界或社会科学领域,也应该有一个类似的模型。 而这个模型在一定程度上可以通过大模型设计和模拟出来的。 最近有人做了一个涉及一千人的实验,发现了一些非常有趣的现象,这种大规模人群实验本身就是社会学研究中非常有价值的工具。


06

科学家快闪接力

周忠和(《知识分子》总编辑、中国科普作家协会理事长): 关于AI的未来,我先分享一点自己的看法。看到这个问题,我马上想到了人类哲学的三个经典问题:我们从哪里来?我们是谁?我们往哪里去?对于AI来说,它的起源相对简单,但回答“AI往哪里去”的问题时,我觉得“AI是谁”这个问题很重要,就像“我们从哪里来,我们是谁”是回答“我们往哪里去”的基础和前提一样。接下来,我们请在座的科学家们,围绕这个主题分享一下你们的观点,包括看法、担忧,甚至是奇思妙想。


黄样(国科大天文与空间科学学院): 我对黄老师的研究方向很感兴趣。AI做心理咨询的时候,一般心理咨询师有一个风险,自己也会抑郁。那AI会不会也会得抑郁呢?


黄民烈: 首先,目前的AI没有自主情感。不过,这方面的研究其实很早就开始了,有一个研究方向叫“人工心理”,它希望让AI有自己的心理状态和状态变化过程。但目前,AI的心理状态仍然是相对机械的。


另外,如果您理解AI在某种意义上是一个“人”,那么可以认为AI学到了大数据中平均的人格。比如,谷歌在2022年有一个系统,内部人员对它进行了评估,认为它表现得像一个人。但这种表现只是基于数据的平均人格,它能够聊出有立场、观点和价值观的内容,却没有自主情感的变化和迁移。


周忠和: 黄老师的意思是AI目前不会得抑郁,对吧?


黄民烈: 对,暂时不会。不过,AI给出答案后,说不定也会“抑郁”呢。


李春光(北京邮电大学): 事实、真相、真理,又没有清理这些内容的能力。该如何预防这样的未来?


我对人工智能有一个疑虑和担忧,在人工智能技术,特别是AIGC大行其道的今天,“写作业”不再是难事、“写作”不再是难事、“内容生产”不再是难事;如果有一天,我们被大量人工生产的内容包围,再难发现事实、真相、真理,又没有 (了) 清理这些内容的能力……该如何预防这样的未来?


黄民烈: 这是一个非常严重的问题。如果外部数据被AI污染,就会陷入一个循环:用AI生成的数据再去训练AI。从理论上分析,长尾分布一定是被低估的,即其估计概率不足;而高频数据则会被高估,比真实发生的概率还要高。这会导致采样时很容易得到一些缺乏创意的结果,从而使AI的能力逐渐下降。


那怎么办呢?我们可以用AI的方法来测试内容是否由AI生成。比如,在模型中加入水印,虽然用户无法感知,但我可以通过算法检测出这是模型生成的内容。比如,可以通过设置参数,在采样时从两个词表中选择,大概判断这是否是AI生成的,甚至实现型的溯源。不过,这方面的前沿研究还在进行中,距离实际应用还有很长的路。


王飞跃(中国科学院自动化研究所研究员): 今天我们讨论的主题是“AI for Science”和“AI for Good”,大家都希望能找到通用人工智能的通用理论,而且可解释,让大家放心,For Good。


我自己从事相关的探索已经40多年了,从70年代末的布丰与蒙特卡洛试验启蒙,80年代初的计算实验起步,到80年代中赴美正式开始机器人与人工智能研究,直到二年前,一直坚信可解释的人工智能。2023年是帕斯卡诞辰400周年,苇草智库研讨纪念,让我做一个报告。在回顾他的生平时,我突然意识到,可解释的人工智能从字面上都说不通,智能不可解释,不存在当下科学意义下完备且一致的智能理论,加多少形容词都不行。所以,我认为不存在所谓的通用人工智能,除非修改定义,比如OpenAI和微软在秘密“合同”里定义:盈利超过1000亿美元就是“通用人工智能”了。


哲学上,帕斯卡以其“Pascal's Wager (帕斯卡的赌注) ”著名,针对人工智能,我们应引入"Pascal's New Wager": 人工智能不可解释,但可治理,必须治理。我知道很多人一定反对这种观点,但我不怕被人批判,也尊重大家的探索。而且在我看来,如果智能本身可以完全解释,那就不存在人性与哲学了。个人认为,一旦智能可以解释,而且完备一致,就意味着人类不存在的那一天已经到来。


人类必须治理人工智能,为了安全,为了自由。有人说我们将被AI奴役,只要认真治理,这是不存在的。因为只有人才能奴役人,而且人类发展的历史证明,没有AI更能奴役,有了AI更难奴役。当然,前提是发展开放开源的智能,如何“AI for Good”,而不是“AI for God”,关键是要确保象征多样化的二个o, 而不是独裁式的一个o。


我想说,大家不要浪费时间去争论这些。我们应该专注于人工智能的发展与治理,而不是纠结于如何解智能或担心智能。智能本身是不可解释的,无论加什么形容词都一样,除非你将它局限到一个很具体的场景,那它必须可解释。但通用的、没有边界的、连场景都不清楚的智能,现实是不存在的,更无从解释,除非重新定义。所以,不应浪费时间在这上面。


张峥(亚马逊云科技上海人工智能研究院院长): 说到“AI for Good”还是“AI for God”,我有一个或许有点政治正确的想法:我认为AI不仅有可能,甚至应该获得诺贝尔和平奖。原因是什么呢?在任何一种文化中,大模型的价值观反映的是文化价值的中间值。如果用统计分布来理解,当一个文化的中间值与长尾端的距离较远时,这个文化往往容易被一些头脑发热的领导者带到错误的方向。从国际关系来看,国与国之间的冲突很多时候是因为领导人意见相左。但实际上,各国文化的核心价值观并没有那么大的差距。如果人类愿意放手让AI发挥作用,AI或许能够弥合这些分歧,促进和平。所以,我觉得AI完全有资格获得诺贝尔和平奖。


刘钝(科学史学者): 培根说“知识就是力量”,而“power”既可以理解为物理上的力量,也可以理解为权力。福柯仿此宣传他的“知识-权力”论,也就是将主语和宾语倒过来,成了“权力即知识”,这确实很有趣。在今天的学术界,知识和权力几乎可以画等号。后来,赫拉利又提出了一个观点,他说“信息就是权力”,也可以反过来说“权力就是信息”。谁掌握了信息,谁就掌握了权力;反过来也是。这和我们今天讨论的“AI for Good”密切相关。


现在,大数据和大语言模型这些东西到底掌握在谁手里?赫拉利在《人类简史》中提到,人类之所以能够发展到今天,战胜那些和我们相近的灵长类动物 (比如黑猩猩,它们也有简单的语言和社会性) ,但是只有人类的祖先能够组织起大规模的社会群体。动物学家发现,黑猩猩的群体规模很难超过50个个体,而智人却可以组织起成千上万的集体。这是因为智人种群中的聪明人会“编故事”,这些故事里包括谎言与八卦,不要小看这一点,它使得智人具有凝聚在一起的力量。


今天,编“故事”和讲“故事”的能力掌握在谁手里呢?我有点担心。


颜基义(原中国科学院研究生院党委书记): 我为什么来参加这个会?因为我可能是这里最年长的人,已经86岁了。接触AI之后,我感到非常兴奋。


作为一个会很快离开这个世界的人,看到AI有这样迅猛的发展,我觉得不应该远离它,而应该去了解它、认识它。


今天这个会议给了我一个很好的机会,我非常感谢马毅和张峥两位教授的精彩演讲和后面的讨论,这些内容让我对AI的认识又提升了一步。


马毅教授一开始引用了爱因斯坦的那句话——“一切应该尽可能简单,但不能更简单了。”


这句话既给出了一个方向,一个起点,又给出了一个目标,一个终点。


然而在“尽可能简单”和“不能再简单”之间的gap其实是很大的。


我更关心的是,就这个gap而言,我们现在做的这些AI,尤其是我们国内的AI,到底发展到了什么地步了?


苏夜阳(独立研究者): 谢谢,刚周老师提出一个很好的问题,AI是什么,人是什么,我想加一个维度,我们和AI的关系是什么。如果跳出这个场域,大部分人,我们在中国社会现代当代活着的人,也应该关心今天讨论的问题。因为我们每个人,普通人对AI的理解会跟我们现在科学家们讨论的不一样。这对大家去开发AI产品,对AI进行定位,对我们投入做什么非常重要。


我自己是跨学科,工科、理科、文科都学过。我觉得文科并不是说现在需要被淘汰,而是文科现在更重要,因为我们一定要去深刻地思考一些真正的会触动到人类,我们怎么去理解,怎么去处理好和AI的关系问题。这不是科学家说我们以后会怎么样,我们所有的中国人都会跟着那个方向走的。因为刚刚包括大家半开玩笑提到的现在内卷,精神内耗,并不是说科学能够解决。黄老师提到的Eliza例子,那个设计者当年最后是提醒大家,我们不要被机器欺骗。


大家看国外很多讨论并不是一个笑话,包括马斯克要去火星,背后有一套他们对人类未来、人类社会,他们自己处在人类未来社会位置的设想。那我们有没有?如果我们有,我们中国人有的话,我们的是什么?当代的中国人是不是应该更多参与到这个讨论里来?而不是说现在好像看到了的问题,全部归于我们想象科学能够解决,但是可能我们创造了更多的问题。


王雪凇(清华大学): 我的研究方向是观测系外行星。我在听演讲和讨论的过程中发现,“科学研究范式变化”这个词被反复提及。不同的人可能有不同的定义,但在我看来,范式变化意味着在某个事物出现之后,我们做科学的方式发生了彻底的改变——许多科学发现如果没有它就无法实现。







请到「今天看啥」查看全文