专栏名称: AI科技大本营
为AI领域从业者提供人工智能领域热点报道和海量重磅访谈;面向技术人员,提供AI技术领域前沿研究进展和技术成长路线;面向垂直企业,实现行业应用与技术创新的对接。全方位触及人工智能时代,连接AI技术的创造者和使用者。
目录
相关文章推荐
笔吧评测室  ·  小米首款 AI PC ... ·  昨天  
笔吧评测室  ·  戴尔全新命名 14/16 Plus ... ·  2 天前  
笔吧评测室  ·  新一代 ROG XG 显卡扩展坞发布:可选 ... ·  3 天前  
笔吧评测室  ·  惠普将推 RTX 5060/5050 ... ·  3 天前  
笔吧评测室  ·  聊一个“知名老品牌”推出的新型笔记本 ·  3 天前  
51好读  ›  专栏  ›  AI科技大本营

Sam Altman 众叛亲离,OpenAI 前董事万字剖析他所忽视的 AI 安全风险!

AI科技大本营  · 公众号  ·  · 2024-05-31 19:52

正文

作者 | 王启隆、王轶群

出品丨AI 科技大本营(ID:rgznai100)

当 Sam Altman 得意于 OpenAI 抢走了谷歌热搜的时候,他应该没想到接下来一整个月的热搜不是 GPT-4o,而是 他自己

GPT-4o 发布仅一天后,轰动全网的产品突破锋芒就被内部团队变动和管理内部的爆料所掩盖。主张安全的 Ilya Sutskever 和 Jan Leike 两员大将相继离职,安全团队分崩离析,逐渐暴露的内幕显示超级对齐团队在成立之处成立的20%算力早已让位于各种明星产品的训练开发。由此掀起的离职潮,内幕爆料风波,纷纷指向了 Sam Altman 的领导本身。

为了商业利益,背离公司及团队的创始初衷,违背诺言,向董事会有所隐瞒等行为,让他的危险一面逐渐显现。

在近期上线的《TED AI 秀》播客节目中,前 OpenAI 董事会成员 Helen Toner 再次爆料了 OpenAI 的宫斗内幕 ,指责了 Sam Altman 在安全方面的领导能力。

但是,Toner 并没有怒喷 Altman 40 分钟。作为乔治城大学安全与新兴技术中心战略总监,也是 OpenAI 主张安全大于商业利益的前董事之一,Helen Toner 更多是将重点放在向公众阐释她自己对人工智能安全问题的见解。她最后建议, 每个人都有权利对技术的未来发展持有自己的见解,所以不要盲信大公司和专家,而是 依靠自己的经验去探索,去形成自己的见解

访谈内容如下:

Sam Altman 的谎言

Bilawal Sidhu(采访者) 我是 TED-AI Show 的 Bilawal Sidhu,今天我要采访的是 Helen Toner,一位致力于 AI 监管的研究者,她也是 OpenAI 的前董事会成员。在接下来的采访中, Helen 将首次揭露去年年底 OpenAI CEO Sam Altman 被解雇的幕后真相,并对他提出了一些相当严肃的批评

让我们快速回顾一下:2023 年 11 月的一个周五,OpenAI 的董事会解雇了 Sam Altman。这起罢免事件在那个周末一直是头条新闻,董事会称他没有做到“在沟通中始终坦诚”。

随后的周一,微软宣布聘请 Sam 领导他们的 AI 部门。许多 OpenAI 员工支持 Sam,并威胁要随他一同离开。与此同时,OpenAI 宣布了一位临时CEO。一天后,剧情反转,Sam 被重新聘用回 OpenAI。几位董事会成员被撤换或辞职,并被替换。自那以后,持续有后续影响。

截至录制本集时的 2024 年 5 月 15 日(TED-AI Show 的实际播出时间为 5 月 29 日),OpenAI 的首席科学家 Ilya Sutskever 正式辞职。Ilya 不仅是解雇 Sam 的董事会成员之一,还是超级对齐( Super Alignment )团队的一员,该团队专注于 缓解 AI 长期风险

随着另一位高管 Jan Leike 的离职,许多原本注重安全的领导层人员要么离开了 OpenAI,要么转移到了其他团队。那么,这里面到底发生了什么?

OpenAI 在 2015 年作为非营利组织起步,自称为人工智能研究公司。他们只有一个使命,为人类的利益创造 AI。他们希望负责任地对待 AI,近距离研究风险,并找出如何最小化它们的方法。这将是一家向我们展示正确使用 AI 方式的公司。

在微软的大量投资下,OpenAI 现在似乎与谷歌处于某种科技军备竞赛之中。ChatGPT 的发布促使谷歌在去年匆忙推出了自己的聊天机器人 BARD。随着时间的推移,OpenAI 变成了“CloseAI”。

从 2020 年发布 GPT-3 开始, OpenAI 停止了代码分享 —— 我不是说这是个错误。保持代码私有是有充分理由的。但不知何故,OpenAI 发生了变化,从一个有着利他目标的使命驱动型非营利组织,变成了一个产品推新速度惊人的普通科技公司。这一轨迹显示了经济激励的力量有多么强大。

如今,AI 领域有很多钱可赚,但同样重要的是,利润不应该是决策的唯一驱动力。人工通用智能(AGI)有可能非常、非常具有颠覆性。这就是 Helen Toner 的工作职责。在 OpenAI 解雇并重新聘用 Sam Altman 不到两周后,Helen Toner 辞去了董事会职务。而她也是投票罢免 Altman 的董事会成员之一。当时内部调查仍在进行中,所以 她被建议保持沉默,并因此遭受了太多的批评 。看着那时候的新闻报道和推特,我对她的最初印象是一个阻碍进步的技术悲观主义者,或者是一个利用安全政策作为武器的疯狂权力追求者。

但后来,我在今年的 TED 大会上遇到了 Helen,我听到了她的说辞,并改变了印象。这让我思考了治理与监管之间的区别。现在在我看来,OpenAI 的故事是关于 AI 董事会治理和一些非常聪明的人之间思考方式的错位 。它还向我们展示了为什么信任科技公司自我管理并不总是会顺利,这也是为什么我们需要外部规则和监管的原因。这是一个平衡。

Helen 已经对 AI 政策进行了大约七年的思考和写作。她是 CSET(Georgetown 大学的安全与新兴技术中心)的战略主任,与华盛顿的政策制定者合作处理各种 AI 问题。让我们欢迎 Helen。

Helen Toner 很高兴来到这里。

Helen Toner

Bilawal Sidhu Helen,几周前在温哥华的 TED 大会上,我从你那了解到了去年 OpenAI 大会上发生的事情的简短版本,你能透露一下全部情况吗?

Helen Toner 先让我们快速回顾一下背景:OpenAI 的董事会并非寻常。公司本身也不一般,其董事会是一个非营利性质的董事会,其明确设立的目的是确保公司的公共利益使命居首位,优先于利润、投资者利益及其他事项。

但多年以来,Sam 通过 隐瞒信息、误导公司内部发生的事情 ,在某些情况下甚至 直接对董事会撒谎 ,使得董事会很难真正履行这一职责。

每当此时,大家总会问:“比如呢?给我举些例子。”

我无法透露所有细节,但我可以举例一些情况:

  • 2022 年 11 月 ChatGPT 发布时, 董事会并未事先得到通知 。我们是从 Twitter 上得知 ChatGPT 的。

  • Sam 没有告知董事会他持有 OpenAI 创业基金,尽管 他一直坚称自己是以无财务利益于公司的独立董事会成员身份存在

  • 在多个场合下,他向我们提供了关于公司少量既定安全流程的不准确信息,这意味着董事会几乎无法了解这些安全流程的实际运行效果,也不知道是否需要做出调整。

  • 最后,我可以分享一个广为人知的例子,因为它已被媒体广泛报道 —— 我撰写的一篇论文,《 Decoding Intentions Artificial Intelligence and Costly Signals 》。 这篇论文在媒体报道中被过分夸大了。

Bilawal Sidhu 我可以向各位读者介绍一下这篇论文:Helen 去年秋天与人合著了一篇旨在为政策制定者提供参考的研究论文。 Sam Altman 对此并不满意 。Helen 的论文似乎对 OpenAI 持批评态度,而对他们的竞争对手 Anthropic 则更为看好。该论文发表之际,正值联邦贸易委员会(FTC)正就构建其生成式 AI 产品所使用的数据对 OpenAI 展开调查。基本上,OpenAI 一下子受到了大量批评和审查的压力。

Helen Toner 这件事与 11 月的那场风波关联起来的方式相当直接 —— 它与这篇论文的内容无关,问题在于论文发布后 —— Sam 从此以后开始向其他董事会成员撒谎,试图将我排挤出董事会。这是又一次严重损害了我们对他信任的例子。

实际上,这件事发生在去年 10 月底,当时我们已经在认真讨论是否需要解雇他。还有很多个别例子,对于任何一个单独的案例,Sam 总能想出某种听起来无害的解释,说明为什么这没什么大不了的,或者被误解了等等。但最终的结果是,经过多年的这类事情,我们四个最终决定解雇他的董事得出结论,我们不能再相信 Sam 对我们说的话了。

董事会因此陷入了完全无法运作的状态 ,尤其是作为一个本应为公司提供独立监督的董事会 —— 而不仅仅是帮助 CEO 筹集更多资金的那种董事会。

这就是去年秋季事态发展到那个阶段的背景。我们一直在董事会层面尽最大努力建立更好的结构、流程等,试图解决我们在董事会层面遇到的问题。

然而,转折点主要发生在去年 10 月,我们与数名高管进行了一系列深入交流,他们首次向我们吐露了与 Sam 交往的亲身经历,他们之前因感到不安而从未分享。他们表达了对 Sam 的不信任,特别提到了他营造出的 压抑工作环境 。他们用“ 心理虐待 ”来形容,并明确表示不认为 Sam 是引领公司迈向 AGI(通用人工智能)愿景的合适领导者,坚信他无法或不愿改变,认为给予反馈徒劳无功,解决问题的努力也注定无效。

尽管事后他们试图减轻这些言论的严重性,但那些对话绝非轻松随便,而是异常严肃,以至于他们提供了 Sam 在不同情境下撒谎和操控行为的截图和其他证据,证明所言非虚。这是一个影响深远的事件,牵扯了很多内容,所以我们在几周的时间里对此进行了非常密集的讨论,最终得出结论 —— 为了 OpenAI 的使命和组织本身,最好的做法是引入一位不同的 CEO

一旦我们达成这个结论,我们就很清楚,只要 Sam 一有风吹草动,意识到我们可能做出对他不利的事情,他就会不遗余力地利用一切手段来破坏董事会,阻止我们甚至到达能够解雇他的那一步。因此,我们非常谨慎,非常有计划地选择告知的对象,除了显然包括我们的法务团队外,几乎没有人提前知道。这就是导致我们在 11 月 17 日采取行动的原因。

Bilawal Sidhu 感谢您的分享。现在,Sam 最终重新担任首席执行官,大多数员工都支持他的回归。究竟发生了什么?为什么会有这么大的压力要让他回来?

Helen Toner 是的,这显然是个避不开的话题,而且遗憾的是,外界对此有不少误解。我认为有三个关键点能帮助我们理清这里的情况。

  • 首先,很早就有人向公司内部传达了这样一种观点:只有两种选择,要么 Sam 立即无条件复职并拥有他自己挑选的全新董事会,要么公司就会面临崩溃。但实际上, 情况并非如此非黑即白 。我们最终达成的方案并不属于上述两者。可以理解,出于对公司的爱护——不论是因即将从即将进行的收购报价中获益,还是纯粹热爱自己的团队、担心失业,或是对工作的投入——许多人不愿见到公司瓦解,我们也一样。

  • 另一个被严重低估的重要事实是, 人们非常恐惧与 Sam 对立 他们亲历或听闻过 Sam 对批评者施加报复的行为,因此对于可能招致的后果感到极度恐慌。 所以,当部分员工提出“我们不能让公司垮掉,应该让 Sam 回来”时,那些有过不愉快经历的人很难发声反对,生怕万一 Sam 真的继续掌权,他们的处境会变得难以忍受。

  • 最后,我想指出的是,这其实一直是 Sam 存在的一个问题,并非首次出现。 自去年 11 月以来的一些报道揭示, 他实际上是被 Y Combinator 辞退的 ,这一事件当初被低调处理了。

Y Combinator 联合创始人 Paul Graham

在 Toner 的采访后发布了一则“ 辟谣

他表示, Sam Altman 不是被「辞退」的

而是 OpenAI 和 YC 之间 做了个「二选一
  • 更早之前,在他仅有的另一份硅谷工作—— 在初创企业 Loopt 时,管理层曾两次向董事会提议解除他的职务 ,原因是其“欺骗和制造混乱”的行为。审视他的过往记录,你会发现他的职业声誉并不光鲜。这个问题并不像他试图描绘的那样,仅是与特定董事会成员的个人冲突。

Bilawal Sidhu OpenAI 家公司一开始是想做好事,但现在却转向了营利模式,而且它确实在这场人工智能游戏中跑到了最前面,同时还伴随着一系列道德问题。


前所未有的 AI 隐私危机

Bilawal Sidhu 我不得不问你一个问题,但这确实与我们今天要讨论的话题有关。

Helen Toner 好的,你问吧。

Bilawal Sidhu 从我的角度来看,人工智能从看似遥远的科幻事物变成了几乎无处不在的事物,监管机构也突然开始努力追赶。但我认为,对于一些人来说,需要监管的理由可能并不明显 —— 比如对于普通人来说,我们可能会觉得,我们现在只是有了像 Dall·E 和 ChatGPT 这样的很酷的新工具,可以做这些了不起的事情 —— 我们为什么还要监管它们呢?

Helen Toner 对于技术较为初级的应用形式,我们有一些最基本的需求。比如,如果人们使用它来决定谁可以获得贷款、谁可以假释、谁可以购买房屋,确保技术的准确无误至关重要。

鉴于人工智能常伴有歧视性问题,我们必须保障人们在遭遇不公的时候能有申诉的渠道,让人们能够回头质问: AI 为什么要做出这样的决定?

如果我们谈论的是军事领域中的人工智能应用,那就是另一回事了,我不确定我们是否会说那需要监管, 但显然需要有指导原则、流程等措施到位。

展望未来,考虑到更先进的人工智能系统,我认为随着 AI 不断变得更加复杂,我们可能会看到一系列潜在的危害。 如果任何一位在家自学编程的年轻人,都能掌握国家级安全机构级别的黑客技能,这无疑是个隐患

真正让监管者难以思考人工智能的一个因素是,它涵盖了许多不同的事物,其中很多并不需要监管。例如,像 Spotify 通过 AI 来决定如何制作你的播放列表这种事,我觉得就不需要被监管。我很乐意让 Spotify 随意为我挑选歌曲,即便选错了,也没关系。但对于许多其他应用场景,你至少希望围绕它设置一些基本的 常识性界限

Bilawal Sidhu 比起战场,我更想讨论几个日常生活中的具体案例。

来谈谈 监控技术 吧。如今,人工智能在感知领域表现出色,几乎能精确解析图像、视频和音频的内容。并且,公共及私人区域的监控摄像头数量正在快速增长。大公司将 AI 融入到这些设备中,实质上是为这些几乎无处不在的、没什么用的老旧摄像头赋予了智能。

以纽约市的麦迪逊广场花园为例,他们利用人脸识别技术阻止了与母公司 MSG 娱乐有诉讼纠纷的律师进入场馆观赛,这种有争议的做法显然引起了对隐私、正当程序以及该技术潜在滥用的担忧。我们能探讨一下这个问题的症结所在吗?

Helen Toner 没错,我认为这在技术发展历程中是一个常见现象: 社会中已有的事物,因技术进步而变得更快速、成本更低廉、普及度更高。

比如监控技术,起初是邻居看到你做了什么不对劲的事,可能会告诉警察;再到后来,安装了闭路电视摄像机,警察随时能回放检查;直至今日,监控全天候运行,还加入了AI人脸识别,未来甚至可能出现能标记可疑行为的AI行为分析器。

某种程度上,这并没有改变本质问题——你的行踪会被人掌握在手中

但必须认识到,当技术变得无孔不入且成本低廉,情形就大不同了。一提监控,人们马上想到的是执法应用。所以关键在于,找出执法需求和过度使用技术之间的平衡。

比如,人脸识别技术在不同群体间表现各异。有地方的警方仅凭人脸识别匹配,不需其他证据就实施抓捕,有个案例就是讲一个孕妇被关押时正值临产期,仅仅因为人脸识别错误就无辜被捕。

我的意思并不是主张全面禁止,呼吁大家任何情况下都不应使用技术。但我们确实要审视这些问题:技术应该如何被应用?出错时会有哪些后果?受害者有哪些救济途径?他们该如何获得正当程序保障?至于私人用途,我认为我们应当更加审慎。

像你提到律师被 驱逐 的案例,显然就与言论自由、行动自由相悖。虽然我不是律师,不清楚法律对此的具体规定,但其中暴露的公民自由和隐私问题显而易见。

Bilawal Sidhu 我觉得现在存在一种趋势: 最新的技术集成了更高级的功能,而广大民众却对此浑然不觉 。最近有一个令我震撼的例子是,一段咖啡厅监控视频的画面中满是顾客和咖啡师,顾客的头顶显示了他们在店内停留的时间,而咖啡师的头顶则展示了各自制作饮品的数量。

这背后意味着什么?显然,一是商家能在未经顾客知情或同意的情况下,跟踪顾客的驻留时长,深入了解顾客行为模式;二是商家能监控员工工作效率,甚至可能据此解雇效率较低的咖啡师。这背后隐藏哪些问题和风险?这合法吗?怎么会这样?

Helen Toner (笑了起来)简而言之,如果你在做人工智能政策方面的工作,其实会经常遇到这个问题,因为美国缺乏统一的联邦隐私立法。也就是说,关于企业如何处理数据,法律上几乎是一片空白。

在美国,由于受到保护的个人数据类型以及保护方式很少,过往有许多制定法律的尝试屡遭挫败。但眼下突然出现了一个低调推进的新势力(人工智能政策),所以人们看到了一丝成功的曙光。谁知道呢?也许这个问题正逐步得到解决。但目前,这绝对是一个大大的漏洞。

Bilawal Sidhu 我认为第一步是让人们意识到这一点,对吧,因为正如你所说,大众已经知道了在线追踪技术。但将同样的分析技术应用于现实生活中的物理空间,却需要破釜沉舟的勇气 —— 而且当我们走进任何一家杂货店时,我们甚至都不知道发生了什么。

Helen Toner 确实,这再次涉及到了规模与普及程度的问题。这就好比你最喜欢的咖啡师知道你总是进来,坐在那里用笔记本电脑待上几个小时 —— 因为他们连续几周都看到你这样做。这与数据被系统性地搜集后,出售给国内外各大数据供应商并用于多种用途的情况截然不同。因此, 当我们谈及如此庞大规模的数据时,基于现实人际交往的直观感受似乎就难以适用了

Bilawal Sidhu 另外,我还想谈谈诈骗问题。现在许多人都遭遇了电话诈骗,他们接到看似来自亲人的来电,内容是家人遭到绑架并索要赎金。实际上,这是不良分子利用市面上随手可得的人工智能技术,挖掘受害者的社交媒体音频资料合成其声音。骗子随后利用这些素材制造出极具说服力的虚假电话,让人听起来就像是处于困境中或被囚禁在某地求救。当前我们已曝光了此类欺诈手段,但未来的趋势如何?又有哪些潜在威胁让你感到忧虑呢?

Helen Toner 显而易见,诈骗接下来会发展到视频领域 如果你尚未向父母、祖父母或生活中的非科技达人强调: “你们必须警惕这种现象。 ” 那你应该立即去做。

我经常讨论有关政策以及我们在人工智能方面可能需要的政府参与或监管。在许多方面我们都可以适应,不一定非要出台新的规则。我们曾经历过多次在线诈骗风潮,但最新的这波对受害者而言尤为恶劣。

但我也预料到五年后,这将成为人们非常熟悉的事情,只有极少数人仍然容易受到它的影响 。所以我认为主要的是,对任何声音都要保持高度怀疑,尤其是不要在银行账户等事务上使用语音识别。我很确定有些银行仍在提供这项服务 —— 那就放弃它。绝对要使用更安全的方式。

警惕视频诈骗的时候,要注意视频通话中看似真实的人物。最近有个案例,一个人参加了全是人工智能生成的虚拟人物参与的会议,唯有他本人是真实的,最终被骗取大量钱财( 香港最大 AI 诈骗案:AI 变脸冒充 CFO,骗走 2 亿港元 | 极客头条 所以这类诈骗案件即将发生。

Bilawal Sidhu 总而言之,基于内容的验证方式似乎已经走到尽头了。

Helen Toner 的确如此。我们应当时常思考,目前的安全基准究竟在哪里?现在有很多信息本来就是公开的,而且似乎并未被滥用。比如,许多人的住址信息是公开可查的,过去还有电话黄页供人查询。再举个简单的例子,比如快递员送货上门,或你去餐馆取预订的餐食时, 通常都不会导致可怕的后果。一切井然有序,方便快捷。


我们永远不会拥有完美的解决方案

Bilawal Sidhu 接下来探讨一下我们实际上能做什么。规制咖啡馆和餐馆之类的商业活动是一码事,遏制可能滥用此类技术的不法分子则是另一码事。法律和规定真的能保护我们吗?

Helen Toner 当然,它们确实能够发挥作用,事实上已经在起效。重申一次, 人工智能涵盖众多领域,不存在单一的通用规范 。许多现有的法律与规章已对人工智能有所涉及。

大家对于人工智能存在很多担忧(比如算法歧视),这都是有正当理由的。然而在很多情形下,法律条文已明确禁止基于种族、性别、性取向等因素的歧视行为。在这些情况下,我们甚至无需制定新法或新增规定,只需确保相关部门拥有必要的人员配置,或许还需明确其在调查权限、处罚对象等方面的细微调整。对于自动驾驶车辆,已有相应的管理规则,交通部门可以妥善处理,这都是合理的职责分配。至于银行业的 AI 应用,则有众多银行业监管机构及其制定的系列规则。

我认为, 在许多领域中,人工智能并非全新概念。现有的体系在应对这些问题上做得还可以,它们只是可能需要更多人员,或对其职能进行轻微调整 。此外,在人工智能的前沿地带,随着系统能力边界不断拓展,能执行前所未有的任务,我们也面临着一些新挑战,这要求我们考虑是否应建立规则,确保这些系统的研发和应用是负责任的。

Bilawal Sidhu 我尤其感兴趣的是,你是否遇到过一些特别巧妙或是能称为“良好监管典范”的事例?

Helen Toner :这种事例可能 “正在进行中”。我的意思是,我事实上还没有发现哪个方案能真正完全把握住要点。

我们当前在人工智能领域面临的诸多挑战,很大程度上源于对技术能力及其未来五年内发展程度的不确定性。专家们对这些问题的看法分歧极大,这给政策制定带来了巨大难度。因此,我最为关注的那些政策倾向于点明这些疑问, 帮助我们更清晰地认识到技术所处的状态

例如,去年十月下来了一项行政命令,内容广泛,其中一点是要求训练特别先进系统的公司必须向政府提交有关这些系统的特定信息。这是一种既不限制模型的构建或训练,也不要求政府审批的机制,而是通过信息共享增强透明度,并随技术演进而提高应对能力,所以对于政府跟进快速变化的技术而言是个巨大挑战。此外,外界还出现了大量积极动向,致力于资助人工智能评估与衡量的科学研究。

判断人工智能现状的一大难题在于,我们很难确切衡量哪个系统更高效,很难对两个系统之间如何比较,并判断哪个系统是否可以称为更“聪明” 。因此,过去一两年间,为增强政府在这一领域的资金支持和能力建设投入了大量关注,我认为这是非常有成效的。

Bilawal Sidhu 所以,政策制定者们肯定已经意识到人工智能了,并且很多人都对此感到担忧。他们想确保人工智能是安全的,对吧?但这并非易事。你之前说如何规范人工智能是很困难的,为什么会这样?是什么让人工智能治理如此困难?

Helen Toner 的确,我认为至少有三个原因使这一任务极具挑战性。

  • 1. 人工智能覆盖广泛,它横跨多个行业,有许多不同的应用场景。 我们很难全面了解它是什么、它能做什么、它将产生什么影响

  • 2.







请到「今天看啥」查看全文