专栏名称: 投资银行在线
投资银行在线 Investment Bank Online,一个资本与项目对接的平台,一个互联网金融的探索者和实践者。
目录
相关文章推荐
海南工信微报  ·  全球首个海洋最深生态系统图在三亚发布 ·  2 天前  
海南工信微报  ·  全球首个海洋最深生态系统图在三亚发布 ·  2 天前  
最英国  ·  15年来首次!美国对杀人犯执行枪决! ·  2 天前  
51好读  ›  专栏  ›  投资银行在线

奥特曼谈AI的机遇、挑战与人类自我反思:中国将拥有独特的大语言模型

投资银行在线  · 公众号  ·  · 2024-06-17 10:22

正文

划重点

奥特曼认为AI在提升生产力方面已显现积极作用,但网络安全等问题也随之而来。


GPT-4o能覆盖97%人群的母语,奥特曼承诺将持续改进,解决语言公平性问题。


面对AI治理的挑战,OpenAI成立安全委员会,奥特曼强调安全与效率并重。

奥特曼预测在众多大语言模型,少数将会胜出;中国将会拥有自己独特的大语言模型。

奥特曼认为AI可能使人类更谦卑,促使我们重新认识自身在宇宙中的位置。



在近日在瑞士举行的2024年的人工智能向善全球峰会(AI for Good Global Summit)上,OpenAI首席执行官山姆·奥特曼(Sam Altman)通过视频连线,与《大西洋月刊》的CEO尼古拉斯·汤普森(Nicholas Thompson)展开了深入的交流。该峰会由联合国国际电信联盟发起。


这场对话不仅触及了人工智能技术的前沿发展,更深入探讨了人工智能对全球社会、经济以及文化格局的深远影响。


在全球化的浪潮中,人工智能作为一项革命性技术,其发展速度和影响力前所未有。奥特曼在对话中特别提到,中国将在这个领域扮演重要角色,孕育出具有本土特色的大语言模型。这一预见不仅彰显了中国在全球人工智能领域中日益增长的影响力,也预示着未来技术发展的多元化趋势。


奥特曼预计,在未来将有10到20个大语言模型在全球范围内“存活”并发挥重要作用。这些模型将成为推动各行各业发展的关键力量,同时也将引发对技术伦理、数据安全和国际合作的全新思考。奥特曼的洞察提醒我们,面对人工智能技术的快速发展,我们需要建立一个更加包容和协作的全球治理体系,确保技术进步能够惠及全人类,而不是成为新的分化力量。



以下为此次对话的全文:



大语言模型的未来与技术伦理


主持人 非常荣幸你能够参加今天的活动。在今天的访谈中,我期望探讨多个领域,包括人工智能的现状、未来趋势、关键议题以及治理问题。让我们先设定一个背景:我们正处在一个人工智能的有趣时期,人们普遍认识到其巨大潜力,尽管它尚未彻底改变世界或我们讨论的各个领域。我的问题不是这一变革何时到来,而是想问当人工智能开始真正产生影响时,我们首先会看到哪些积极和消极的影响?


奥特曼: 目前,人工智能在提升生产力方面已经产生了影响。软件开发人员是最常见的例子,也是最能说明问题的例子。人们能够以更快、更有效的方式完成工作,更多地专注于他们所喜欢的工作。随着这些工具成为工作流程的一部分,人们很快就会发现,没有它们,工作将难以想象。我预计这种模式将在更多领域出现,我们会看到各行各业因为能够利用这些工具而变得更加高效,这将对编写代码、教育、学习、医疗保健等各个方面产生积极影响。效率的提升将是第一个明显可感知的积极成果。


至于消极影响,随着这些工具的出现,已经有一些负面效应。网络安全是我特别想提醒大家注意的问题,我认为这可能是一个相当严重的问题,不过我不确定它是否会是第一个出现的问题。


主持人 确实,这是一个极具吸引力的话题。在深入探讨这个问题的深层原因之前,我想先询问一下你正在训练的新模型。你刚刚宣布已开始开发下一代模型,无论是GPT-5还是其他名称。现场观众的主要担忧是,GPT-4和其他大语言模型在英语、西班牙语和法语上的表现要优于斯瓦希里语(一种在非洲广泛使用的语言)等语言。在训练产品的下一个重大迭代时,你如何看待语言公平性的重要性?


奥特曼 我不确定这是否是一个准备好的问题,但我欣然接受。我们对几周前发布的GPT-4o感到非常满意,因为它在更多种类的语言上都表现出色,我们将继续让未来的版本更加优秀。我们公布的统计数据显示,GPT-4o能够很好地覆盖97%人群的母语,这确实是一个巨大的进步。公众对此表示高度认可,我们亦将持续致力于此领域的进一步改进与发展。


主持人 我们把话题转向贵公司正在研发的下一代模型的后续进展。在它进行训练的过程中,你认为我们将看到怎样程度的提升?我们是否会经历线性增长,还是会迎来指数增长的显著飞跃,或者是否会有令人震惊的指数级提升?


奥特曼 这是一个极具洞察力的问题。我们并不认为我们正处于任何指数增长的临界点。然而,这是一个在全球范围内广泛讨论的话题。对我们而言,最好的策略是展示成果而非仅仅预言。众多人士正在提出各种预测,而我们的策略是致力于进行尽可能深入的研究,并随后决定如何负责任地发布我们所能创造的成果。我预期在某些领域将实现巨大的进步,在其他一些领域可能提升并不如预期显著,这与我们之前每次模型更新时的情况相似。当我们从3.0版本升级到3.5版本,再到4.0版本时,关于是否真的会有显著改进,将在哪些方面改进,都存在许多讨论。答案似乎是,我们仍然有很大的发展空间,我预计我们会在一些人们未曾预料到的领域取得进展。



人工智能的可解释性与安全性


主持人 现在网络中充斥着大量由其他大语言模型生成的合成数据,而这将是OpenAI首次在很大程度上使用合成数据来训练模型。你对使用这些由大语言模型创建的数据来训练大语言模型,可能引发的系统出错问题有多担忧?


奥特曼 我认为关键在于获取高质量的数据。无论是合成数据还是人类生成的数据,都存在质量良莠不齐的问题。只要我们能够收集到足够高质量的数据来训练模型,或者能够开发出提高数据效率的方法,从较少的数据量中学习更多,或者采用其他各种技术手段,我认为这个问题是可以解决的。我们有信心,我们拥有为开发下一代模型所需的一切资源。


主持人 OpenAI是否为了训练模型而创建了大量的合成数据?OpenAI是否自行生成了用于训练的数据?


奥特曼 我们自然已经进行了各种实验,包括大量生成合成数据。我期望的是,如果训练模型的最佳途径仅仅是创造数以万亿计的合成数据Tokens并将其重新输入系统,那显得非常不合常理。你可能会认为,这种方法在某种程度上显得效率不高,应该存在一种机制,让模型在训练过程中能够更有效地从数据中学习。我认为我们还有许多问题需要解决,但当然,我们已经生成了大量合成数据,用以进行训练方面的实验。然而,我认为你提问的核心是如何实现用更少的数据获得更多的学习成果。


主持人 这确实引人入胜,我之前并不知情。让我们探讨一个关键议题,我认为这将决定这些技术如何在世界范围内应用。去年,我有幸与Stripe的创始人帕特里克·科里森(Patrick Collison)进行了一次精彩的对话。他当时提出了一个深刻的问题:在人工智能领域,如果有某些变化,是否会让人类对人工智能可能给世界带来的巨大负面影响的担忧大为减少?


你曾经说,如果我们能够深入理解背后真正发生的事情、能够洞察单个神经元的活动,就像你希望人工智能模型能够传授某人化学知识,但不希望它教授如何制造化学武器一样,你期望这种控制能力是内嵌在模型的核心,而不仅仅是界面层。这样的理解是否正确?这个问题是否已经得到解决?


奥特曼 我认为,确保安全性需要一种全面的方法,而模型的可解释性显然是一个值得探究的领域,它可能在多个层面上发挥作用。尽管我们尚未解决可解释性问题,但我对正在发生的许多事情感到非常兴奋,尽管这还没有达到我可以宣布“大家可以放心,我们已经完全理解了”的地步。在我看来,我们对这些模型内部运作的理解越深入,我们就越能做出更好的决策。我相信,这可以成为我们构建和验证安全性声明的综合性方案的一部分。


主持人 如果你不完全理解正在发生的事情,这是否成为不继续推出更新、更强大模型的理由?


奥特曼 尽管我们无法在单个神经元层面上完全理解大脑的运作,但我们确信它能够遵循规则。除了在神经元层面的深入理解之外,还有许多其他方式可以帮助我们理解整个系统。这些系统的特质和行为已经被非常精确地界定。事实上,包括我自己在内的许多领域内的专家都对这一点感到惊讶:在新技术发展的历程中,我们能够如此迅速地让这些系统被普遍认为既安全又稳定。


主持人 我的妻子坦言,她有时难以完全理解我内心深处的思考过程,看来我们在这方面有着共鸣。在探究这种无法深刻理解的问题上,我们取得了哪些进展,或者是否有什么真正的突破?


奥特曼 最近,Anthropic的研究人员进行了一项实验,使人工智能模型Claude相信自己就是金门大桥。这展示出一些引人入胜的特性,这是我想特别指出的一个近期发展。


主持人: 现在,让我谈谈今天早上我们在讨论安全性时,人道科技中心联合创始人兼执行主管特里斯坦·哈里斯(Tristan Harris)提出的一个建议。哈里斯在这个舞台上表示,大语言模型公司每投入100万美元用于增强模型的能力,也应同等投入100万美元于安全性研究,一比一的比例,你怎么看待这个建议?


奥特曼: 我不确定这具体意味着什么。我认为,人们往往倾向于把世界简单地划分为性能与安全两个部分,并制定一些听起来很有道理的政策。但如果你审视我们为确保像GPT-4这样的模型安全所做的工作--该模型已经被数亿人用于日益频繁、重要且有价值的任务--你会发现,要界定许多工作的性质是非常困难的。因为如果你在生产中使用一个模型,你希望它能够完成既定任务,同时不会产生任何负面影响。


作为用户,你可能会感到困惑:究竟是我的需求得到了满足,还是模型的能力或安全性得到了提升,才导致了这项工作的完成?或者,这是否是两者的结合?例如,让模型在既定的界限内,按照用户的期望去运行。这是一个综合性的问题。尽管我已经提到过一个不太恰当的例子,但我仍将坚持使用它作为说明:就像你登上飞机,期望它能安全地将您送达目的地,同时你也希望在整个飞行过程中不会出现任何故障。在飞机设计中,有些部分可以明确区分为能力提升或安全措施,但总体而言,我们是在努力设计一个综合系统,旨在安全、迅速地将您带到目的地,并确保飞行中不会出现任何部件脱落的问题。这种界限,实际上并没有表面上看起来那么清晰。



人工智能与社会结构的演变


主持人 理解了,看来在某种程度上,你们多年的引擎研发工作都围绕着提升安全性展开。不过,让我换个角度来探讨这个问题。


奥特曼 我差点说出“安全是每个人的责任”,但那听起来像是典型的企业口号,所以我没有那样说。


主持人: 这个问题之所以引起我的深思,部分原因在于,众所周知,OpanAI负责安全事务的联合创始人、首席科学家伊尔亚·苏茨克维(Ilya Sutskever)在最近离职,而另一位在安全领域作出重大贡献的成员杨·莱克(Jan Leike)也离开公司转投Anthropic,并在社交媒体X上表达了对公司未把安全性作为优先考虑的担忧。这无疑让在场的每个人感到忧虑,毕竟我们都在搭乘你们的“飞机”。山姆,我们需要你让我们相信,在这些关键人才离开之后,“飞机的机翼”依然稳固。


奥特曼: 我认为,评价我们应基于我们的行动--我们发布的模型、所开展的工作、进行的科学研究。正如我之前所强调,如果回望GPT-3时代,人们对我们能否开发出既安全又可靠的系统持怀疑态度,然而几年后,我们所推出的产品已经达到了一个新的标准,这是众多团队共同努力的结果。我们进行了对齐研究、建立了安全系统、实施了监控措施。最近我们还采取了一系列有影响力的行动,我们能够做到这一点。虽然我们并不完美,但我们不断从实践中学习,能够在当前水平上取得这样的成就,这是我们深感自豪的。我还认为,把超级对齐团队与进行这些研究的团队更紧密地结合起来,正如我之前提到的,这将是一个积极的发展,有助于我们更有效地整合资源,推动研究向前发展。


主持人 我知道通用人工智能(AGI)一直是OpenAI的研究焦点,也是你经常讨论的话题。如果我在OpenAI工作,我可能会敲你的门,要求简短的会面。我会说,我明白为什么通用人工智能一直是研究的核心,它是所有人工智能研究者梦寐以求的目标,它在科幻小说中占有一席之地--构建一个能够像人类一样思考的机器,这代表着我们在地球上创造出的最卓越的智能体。但我对此感到担忧,因为许多人工智能的负面影响似乎源于其模仿人类的能力。你之前提到了网络安全,我们看到的许多问题都是因为人们可以轻易地冒充他人。我认为OpenAI的一些决策似乎在使机器更接近人类。例如,机器的打字方式有时模仿人类,使用“第一人称单数”,我们即将讨论的声音问题听起来非常人性化。为什么我们一直在让机器更像人类,而不是在认识到这些风险后改变方向呢?


奥特曼 我认为,设计与人类兼容的系统至关重要,但假设它们在思考方式、能力或局限性上与人类相似则是错误的。尽管我们通过人类文本数据进行行为克隆,但它们已经能够做到一些超乎人类的事情,而在某些方面又显得非常非人类。我总是试图将其视为一种外星智能,而不是将自己的拟人化偏见投射到它上面。我们之所以做出某些界面选择,而放弃其他选择,是因为我们相信要为一个与人类高度兼容的世界进行设计。


这些系统使用自然语言进行操作对我们来说非常重要,这似乎是正确的方向,并且从长远来看,我们可以预见到许多积极的安全特性。让人工智能尽可能地与人类相容,为人类设计,并以一种它们能够与我们用语言沟通的方式工作,这是一个非常重要的目标。也许它们之间也会用语言进行交流。我还认为,世界应该更倾向于人形机器人而不是其他形状或结构的机器人,以鼓励世界保持最大程度的人类导向。 因此,我认为易于人类使用,包括将语言作为主要的交互方式,但不要在这些方面之外赋予它们太多的人类特征。例如,我们没有给我们的人工智能起一个人类的名字。我认为ChatGPT虽然名字听起来有些笨拙,但它很好地解释了自己的功能,并且由三个听起来像机器人的字母组成,这非常清楚地表明它不是人类。


主持人 是否规定ChatGPT永远不能使用第一人称“我”?


奥特曼 这实际上关乎于系统的人机相容性。我们曾尝试过这样的设计,但结果往往让用户感到更加挫败而非受益。在日常语言交流中,我们习惯使用某些习语。


主持人 在语音模型的使用上,比如在语音输出前加入一个提示音,明确告知这不是人类发声,我认为这是一个值得考虑的点。我们都知道,随着美国大选的临近,大家对深度伪造和错误信息的担忧与日俱增。在这样的背景下,我们如何验证信息的真实性?在产品设计的核心层面,我们可以采取哪些措施来减少这类问题的发生?


奥特曼 的确,像加入提示音这样的音频提示是可行的,但用户肯定不希望听到机械感过强的语音输出。这又回到了人机相容的问题,以及我们人类的本能反应。我必须说,自从使用了语音模型,我对它的喜爱超出了预期。它让我意识到,一个自然流畅的语音接口所具有的巨大价值,远超过我之前的认识。如果语音输出不接近人类的声音,我认为它不会那么吸引我,也不会有同样自然和流畅的体验。不过,提示音或其他形式的提示,都是可以考虑的方案。


我认为我们需要进一步研究用户对这些设计的反应,并计划在不久的将来推出相关功能。我对用户对ChatGPT的反馈感到鼓舞,用户很快就理解了:a) 它是人工智能;b) 它的局限性;c) 何时使用它,何时不使用它,以及如何将其融入日常使用。尽管语音模式是一个新事物,我对它将遵循与ChatGPT相似的发展轨迹持乐观态度。我们将设立一个紧密的反馈机制,对用户的反应进行仔细的观察和分析。


主持人 我满怀希望地期待实时翻译能够奏效,因为我目前身在瑞士,当我在山间跑步时,有人用法语对我大喊,我本想借此机会提升我的法语水平,便假装听懂了。但显然我并没有听懂,因为我正朝着一个危险区域前进,差点跌落悬崖。因此,一旦翻译问题得到解决,我的法语水平定会有所提高。

奥特曼:这种情况非常适合使用翻译工具。







请到「今天看啥」查看全文