专栏名称: Web3天空之城
美好, 有趣的, 值得铭记的
目录
相关文章推荐
掌上平度  ·  早春的甜蜜诱惑竟然是它?在平度藏不住了…… ·  21 小时前  
掌上平度  ·  早春的甜蜜诱惑竟然是它?在平度藏不住了…… ·  21 小时前  
Marine Sedimentology  ·  图书推荐:《释光测年:方法与应用》 ·  2 天前  
CDCC  ·  我们需要把数据中心搬到太空吗? ·  2 天前  
CDCC  ·  我们需要把数据中心搬到太空吗? ·  2 天前  
地产知识橘  ·  广州的下一张牌 ·  3 天前  
地产知识橘  ·  广州的下一张牌 ·  3 天前  
51好读  ›  专栏  ›  Web3天空之城

全网首发: AI教父辛顿·诺贝尔奖最新官方访谈-未来AI超越人类概率50%? 及诺贝尔奖金的去向和应该分享这个奖的人【周末推荐】

Web3天空之城  · 公众号  · 科技创业 科技自媒体  · 2025-03-15 11:22

主要观点总结

这篇文章是关于AI领域的深度专访报道,文章主要内容包括对人工智能专家杰弗里·辛顿的访谈。辛顿讨论了关于人工智能超越人类智力的可能性、人工智能存在的风险、如何避免滥用风险等问题。此外,他还分享了自己对神经网络的理解以及个人经历对坚持科学观点的影响。最后,辛顿谈到了奖金分配的问题,包括如何处理奖金以及捐赠的决策过程。

关键观点总结

关键观点1: 人工智能超越人类智力的可能性及风险

辛顿提到未来五到二十年间,人工智能超越人类智力的可能性很大,概率为百分之五十。但人工智能存在两种风险,一种是短期风险,主要与人们滥用人工智能有关;另一种是长期风险,即人工智能接管一切的风险。

关键观点2: 神经网络的理解与个人经历

辛顿分享了自己对神经网络的理解,以及如何坚持科学观点的经历。他提到自己目睹了大陆漂移学说的转变,并认为自己坚持观点的经历对神经网络的研究有很大帮助。

关键观点3: 奖金分配问题

辛顿将获得的奖金一部分捐赠给了加拿大一个为原住民社区提供安全饮用水生产技术的组织;另一部分则是与合作伙伴共同设立的奖项,用于奖励年轻的研究人员,该奖项旨在认可那些拥有关于大脑工作机制的疯狂理论的年轻研究人员。


正文

未经许可不得转载,务必保留原文出处链接和公众号名片
点击蓝字公众号并设星🌟标,不错过最新精彩内容
天空之城·城主:
这是昨晚最新放出的AI教父辛顿诺贝尔官方访谈,同时和各位分享完整版视频和文字。无需多介绍,5000字的篇幅,周末的上午很适合看看。
除了对AI未来的展望,辛顿最后提到了如何处理奖金和谁应该获奖,有点意外和打动。

=天空之城整理全文=

未来五到二十年间,人工智能超越人类智力的可能性很大,概率为百分之五十。

当时我或多或少地睡在加利福尼亚州的一家酒店房间里。我的手机屏幕朝下放在床头柜上,并且静音了。恰巧我侧卧着睡,手机在我的视线范围内。然后手机亮了起来。我看到一条细细的亮光,手机开始震动。我当时在加利福尼亚州,而我几乎所有熟人都住在东海岸。因此,我想知道究竟是谁会在那个时间给我打电话。

所以我拿起手机,上面显示着一个我不认识的号码,包括区号和国家代码。然后,一个瑞典口音的声音问道:“您是杰弗里·辛顿吗?”然后他告诉我我获得了诺贝尔物理学奖。我的第一反应是,等等,我不研究物理学。这可能是恶作剧。我觉得这很可能是个恶作剧。但后来他说的话听起来非常合理。然后又出现了其他瑞典口音的声音。我确信这是真的。嗯,我多少确信这是真的。

但在那之后的几天里,我以为我可能是在做梦。所以我做了一些统计推理。统计推理是这样的:一个真正致力于理解大脑运作的心理学家获得诺贝尔物理学奖的概率是多少?好吧,假设概率是二百万分之一。这是一个相当宽松的概率估计。如果这是我的梦想,我获得诺贝尔物理学奖的概率是多少?好吧,假设概率是二分之一。因此,这更可能是梦想而不是现实,概率高出百万倍。

所以我认为这可能就像年轻时做的那些梦一样,例如梦到自己会飞。你梦到自己会飞,感觉很棒。然后你醒来,那只是一个梦。一个月后,你做了一个梦,梦见自己又能飞了。你记得自己曾经做过一个会飞的梦,但那不是真的,而这次是真的。我以为这可能是那种梦境之一。所以我几天都一直在等,看看我是不是会醒来。但我还没醒来。

当时面临着巨大的学业成功压力。所以从很小的时候我就知道,自己要么成为一个成功的学者,要么就是个失败者。我高中时有个朋友,他总是比我聪明得多,在我们十六七岁的时候,有一天他来到学校,开始谈论大脑中的记忆,以及记忆如何在脑中以类似全息图的方式分布。当时全息图刚刚发明。这应该是在1965年左右。他对一位名为拉什利的心理学家提出的观点——记忆分散在大脑中的许多神经元中——产生了浓厚的兴趣。我也对此非常感兴趣。从那时起,我一直思考着大脑的工作机制。

因此,人工智能存在两种风险。一种是相对短期内的风险,这些风险非常重要且紧迫。这些风险主要与人们滥用人工智能有关。人们仍然掌控着人工智能,但他们正在滥用它。这些风险包括:大量工作岗位被取代,以及贫富差距扩大。

利用人工智能提高生产力时,其收益并非平均分配。有些人失业,而另一些人则变得富有。这对社会有害,是一种风险。我们需要想办法解决这个问题,尽管目前尚不清楚该如何解决。

另一种风险是虚假视频,它们会破坏选举。这种情况已经发生。

另一种风险是网络攻击,恶意行为者利用大型人工智能模型来策划更有效的攻击。最初可能只是为了更好地进行网络钓鱼。去年网络钓鱼攻击增加了1200%,这很可能主要是因为大型语言模型使它们更有效。然后是设计病毒,使用人工智能可以更高效地做到这一点,而且很快设计此类事物就会相对容易。这意味着一个疯狂的人就能造成无休止的混乱。如果你释放大型模型的权重,事情就会容易得多,他们可以获取大型模型,然后对其进行微调。人们现在正在发布大型模型的权重,我认为这简直是疯狂的。

还有一些短期风险。显然存在歧视和偏见之类的问题。例如,如果你训练一个模型来决定囚犯是否应该假释,而历史数据显示白人囚犯获得假释而黑人囚犯没有,并且你用历史数据训练一个 AI 模型,它就会得出同样的结论。

我不像其他人那样担心这个问题,我认为,因为对于 AI 模型,你可以冻结权重并测量歧视,而对于人则无法做到这一点。如果你试图测量人们的歧视行为,他们会意识到自己正在被测量,你就会得到大众效应,即他们在被测量时行为会发生改变。所以,我认为实际上,在 AI 系统中测量歧视偏见要比在人身上容易得多。

我认为我们的目标不应该是创造那些不歧视且没有偏见的事物。我们的目标应该是创造那些歧视程度远低于、偏见远低于其所替代系统的事物。所以,这是一个非常重要的问题,但我们在这个问题上取得进展是相当明确的。这些是短期问题。

还存在一个长期问题,即这些事物接管一切。我们正在做的是创造比我们自身更智能的事物。研究人员对于何时会发生这种情况意见不一,但在领先的研究人员中,几乎没有人不同意它将会发生,当然除非我们自我毁灭。所以问题是,当我们创造出比我们更智能的存在时会发生什么?我们不知道会发生什么。我们从未面临过这种情况。声称一切都会好起来的,那是痴人说梦;声称人工智能必然会接管一切,同样也是痴人说梦。我们真的不知道。但正因为我们真的不知道,现在开展大量基础研究就显得非常有意义,研究的关键在于我们能否掌控那些比我们更聪明的创造物。

鲜有更聪明的存在被更不聪明的存在所控制的案例。我所知的唯一一个好例子是婴儿控制母亲。婴儿和母亲的智力差距并不大,而进化过程必须付出巨大的努力才能实现这种控制。婴儿能够控制母亲至关重要。但总的来说,放眼四周,更聪明的存在通常不会被更不聪明的存在控制。

现在有些人认为一切都会好起来,因为这些人工智能是我们创造的,我们会以一种能够始终控制它们的方式来构建它们。但是,这些人工智能将会非常聪明,它们将会像我们一样。事实上,它们的工作方式与我们人类非常相似。

它们不像计算机代码。人们有时将它们称为计算机程序。但它们根本不是计算机程序。你编写计算机程序来告诉神经网络如何学习,一个模拟的神经网络。但一旦它开始学习,它就会从数据中提取结构。

而你最终得到的系统已经从数据中提取了其结构。这不是任何人编程出来的东西。我们并不完全知道它将如何工作。它将像我们一样。

因此,使这些系统表现得合理,就像让一个孩子表现得合理一样。你真正能够控制的是,你可以强化,奖励其良好行为,惩罚其不良行为。但你主要的控制方法是示范良好行为,用良好行为训练它。这就是它应得的,也是它会模仿的。







请到「今天看啥」查看全文