专栏名称: 钛媒体
最新鲜犀利的商业见闻,最国际视野的前沿技术,最不常见的独家猛料。钛媒体(www.tmtpost.com),网罗天下创新事,一个创新者最爱聚集的地方。
目录
相关文章推荐
新浪科技  ·  【#DeepSeek怎么看待概念股大涨#】“ ... ·  19 小时前  
新浪科技  ·  #OpenAI换新Logo#【#OpenAI ... ·  昨天  
新浪科技  ·  【华为新动作!事关DeepSeek】据华为云 ... ·  4 天前  
51好读  ›  专栏  ›  钛媒体

伯克利Mark Nitzberg:可靠性仍是制约生成式AI发展的主要障碍 | T-EDGE

钛媒体  · 公众号  · 科技媒体  · 2024-12-10 17:26

主要观点总结

本文是钛媒体APP在北京市大兴区举办的2024T-EDGE创新大会暨钛媒体财经年会上的对话实录,主要讨论了生成式AI的潜力、困境与未来。暗物智能DMAI前美国CEO符海京和哈佛大学博士、加州大学伯克利分校人工智能实验室执行董事、Dark Matter AI联合创始人、微软/亚马逊顾问Mark Nitzberg进行了深入对谈。Mark Nitzberg强调了生成式AI的可靠性问题以及未来发展的研究方向。

关键观点总结

关键观点1: 生成式AI在许多任务中展现了显著的效率提升,但技术可靠性问题仍是制约其进一步发展的主要障碍。

Mark Nitzberg提到,虽然生成式AI在回答复杂问题、生成高质量内容等领域表现出色,但技术仍处于实验阶段,可靠性问题在医疗、交通等高风险领域无法被接受。

关键观点2: 生成式AI的潜力巨大,但也伴随着复杂的技术挑战和安全隐患。

Mark Nitzberg强调,解决技术可靠性问题是生成式AI未来发展的关键,同时他也提到了多模态数据的整合和因果推理的增强是未来的研究重点。

关键观点3: 创业者在生成式AI领域的探索方向和应用场景具有广阔前景。

Mark Nitzberg建议创业者可以在各个行业中探索如何应用这些工具,特别是在细分行业中寻找机会。

关键观点4: 智能体的转变潜力巨大,但也需要解决可靠性和控制机制的问题。

Mark Nitzberg提到,微软提到的自动化代理和AI的推理能力是一个有趣的方向,但同时也需要解决可靠性和安全性问题。


正文

“虽然这些效率提升令人兴奋,但它们的可持续性依然取决于我们能否攻克技术可靠性的问题。”


作者|蔡鹏程

编辑|刘洋雪

本文首发于钛媒体APP


12月7日,在北京市大兴区举办的2024T-EDGE创新大会暨钛媒体财经年会上,暗物智能DMAI前美国CEO、蓝色光标前美国总裁符海京和哈佛大学博士、加州大学伯克利分校人工智能实验室执行董事、Dark Matter AI联合创始人、微软/亚马逊顾问 Mark Nitzberg 展开了一场深入对谈,探讨生成式AI的潜力、困境与未来。


在Mark Nitzberg看来,尽管生成式AI在许多任务中展现了显著的效率提升——例如回答复杂问题、生成高质量内容等——但这项技术仍处于实验阶段,可靠性问题成了制约其进一步发展的主要障碍。“当前的模型在性能上的确进步巨大,但我们无法忽视它们在关键场景中的不一致性。例如,一个细微的输入变化可能导致模型输出答案出现巨大偏差,而这种不确定性是无法在医疗、交通等高风险领域被接受的。” 


与此同时,Mark Nitzberg 特别提到生成式AI在许多新兴领域中展现了指数级的效率提升。例如,他分享了瑞典对多个行业进行的分析研究,其中“建筑修复”这一领域因生成式AI的应用效率比传统方法提升了约100倍。 


不过他也保持了理性态度。Mark Nitzberg 提醒道:“虽然这些效率提升令人兴奋,但它们的可持续性依然取决于我们能否攻克技术可靠性的问题。” 


Mark Nitzberg 特别强调,如果我们将生成式AI引入我们所做的每一个领域,就需要确保我们对没有它时的操作方式有清晰的理解。只有这样,当我们引入AI并使其更高效、更快速地运行时,我们才不会将之前手动操作中的“问题部分”也自动化。


此外,Mark Nitzberg认为生成式AI向智能体的转变潜力巨大,但同时也伴随着复杂的技术挑战和安全隐患,可靠性和控制机制是未来发展的重要研究方向。对于未来的研究重点,Mark Nitzberg表示将集中在两个方面:一是多模态数据的整合,二是因果推理的增强。



以下为符海京和Mark Nitzberg对话实录,略经钛媒体App编辑: 


中美都尚处于生成式AI的“实验时代”



符海京:欢迎来到2024年T Edge大会。由于特殊情况,今天的特邀嘉宾无法亲自到场与大家面对面交流,所以我们特别安排了连线对话。让我们聊聊你的实验室,以及AI领域有什么新的动态?


Mark Nitzberg:美国加州大学伯克利分校是全球顶尖的高等教育机构之一,同时也是一个非常优秀的AI实验室所在地。这个实验室很有趣,因为它是一个公共的AI实验室。我们有70位教授,还有超过400名博士生,其中许多是中国籍学生,以及成千上万的本科生。


AI已经以某种方式融入了人类生活的方方面面。但我们实际上仍处于生成式AI的实验时代,这一切才刚刚开始。


AI的基础是数字计算基础设施,而这种基础设施几乎已经介入了人类的每一项活动。这背后是全球互联网。几年前的数据表明,人类每年创造的数字数据量达到120泽字节(zettabytes)。这是一个非常庞大的数字,相当于1200亿TB,而你手中的设备可能只有1TB的存储空间。


互联网可以说是人类最大的技术创造,连接了我们所有人以及无数设备。这些数据的生成为AI的突破奠定了基础。这些数据的生成,以及提供服务的公司高度集中化,构建了数据、网络和处理能力的基础设施。这些基础设施使得神经网络的发明成为可能,因为训练神经网络需要大量的数据。


随后,大的技术突破是嵌入技术(embeddings)和transformers架构,它们催生了大型语言模型(LLMs),这一切始于2017年。因此,生成式AI的影响力源于我们生活在一个拥有超强传感器、高度连接的设备和高度集中的数字服务的世界。这一切构成了生成式AI的基础。


符海京:我想大家可能会好奇,生成式AI如何在不同的地理区域和不同行业中产生影响?


Mark Nitzberg:生成式AI的出现有一些值得理解的关键点。如果你要构建一个控制像水电大坝这样强大系统的计算系统,就需要应用典型的工程方法来限制其行为。比如,你需要设定运行速度的上限,或者确保它不会超过某些阈值。 


这是一个令人兴奋的前景——我们可以使用看似“智能”的语言模型来控制水电大坝。然而,这些变换器模型的本质是一个巨大的电路板,就像一个混音面板,但这个混音面板有数万亿个旋钮。每个旋钮在训练过程中都会被调整。你输入一些数据,如果输出结果不符合预期,就调整旋钮。这个过程重复上百万亿次,最终你会得到一个所有旋钮都调整好的电路板,这就是我们现在使用的语言模型,比如GPT-4等。


这些商业模型有几个共同点。首先,它们非常强大,能够完成许多令人惊讶的任务,比如回答各种复杂问题、生成图像等,它们在广泛的应用领域中表现出色。


然而,它们也有一个共同的问题,那就是不可靠。也就是说,你不能指望一个语言模型去回答医疗问题。虽然我们可以在它们外面构建一个所谓的“安全层”,但实际上很难对这些模型的行为提供任何形式的保证。这也在一定程度上限制了它们的应用范围。


我们目前仍然处于生成式AI的实验时代。无论是在美国、中国,还是世界其他地方。初步的结果表明,许多任务可以通过生成式AI显著加速,并带来更高质量的成果。结果的提升取决于用户的经验水平。例如,管理咨询行业的效率可以提高15%到50%,而在编程领域,有些开发者报告称他们的效率翻倍。 


更有趣的是,我们看到一些新任务的效率提升可能是“指数级”的,比如在某些特定领域,效率可能提升100倍。例如,我最近了解到,瑞典对其经济各个行业进行了全面研究,发现生成式AI在“建筑修复”这一领域的效率提升最为显著。这是一个你可能不会想到会有巨大影响的领域,但确实如此。


不过,这些预测需要谨慎对待,因为我们还不知道是否能够解决生成式AI的可靠性问题。


符海京:这背后的关键是什么?作为一名科学家、实践者和教育者,你认为这个转型成功的最重要因素是什么? 


Mark Nitzberg:我认为,任何重大自动化技术的共同主题是:它必须适合其用途。如果我们将生成式AI引入我们所做的每一个领域,就需要确保我们对没有它时的操作方式有清晰的理解。这样,当我们引入AI并使其更高效、更快速地运行时,我们不会将之前手动操作中的“问题部分”也自动化。 


因此,我们在研究中心特别关注那些可能会失败的系统,并设计它们时确保:如果发生故障,我们能够追踪到问题的来源,然后进行修正,避免未来再次出现类似的故障。这种设计理念是任何工程系统中都应具备的,例如飞机、核电站或大型水电大坝。然而,目前生成式AI才刚刚开始让我们初步理解它是如何运行的。


创业者应在细分行业中探索



符海京:数据是生成式AI的”汽油”,巨型企业比如美国的significant seven和中国的百度具有竞争优势,创业者应该如何在这场转型竞赛中取胜?


Mark Nitzberg:数字化工具正在为下一代提供应用AI的基础,而这个领域的应用仍然是“广阔未定”的。创业者可以在各个行业中探索如何应用这些工具。


例如,我们正在与加州大学旧金山分校(UCSF)医疗中心合作,开发一种变换器模型的变体。与传统的语言模型训练文本不同,我们的模型是基于患者治疗的临床步骤进行训练的。训练数据包括数百万个序列,例如患者首次出现症状、进行的测试、可能开出的药物、后续检查等。这种训练方法产生了一种完全不同的变换器系统,它更加“可解释”。比如,当模型建议进行胸部扫描时,你可以理解它这样建议的原因可能是因为发现了肺部问题。这是一种新的方向,其核心仍然是“适合用途”。 


智能体更加考验可靠性和安全性



符海京:我想谈谈AI的“推理”reasoning能力。我会分享微软今天在Yahoo Finance上的最新声明。他们提到自动化代理(automation agents),并使用了“AI可以更好地推理”的说法,同时也提到它们能够以更复杂的方式感知环境。之前我们在暗物智能 DMAI致力于认知AI的层次架构 (cognitive AI framework),你对微软今天的声明怎么看呢?


Mark Nitzberg:这是一个非常有趣的方向,也是生成式AI未来发展的关键领域之一。微软提到的实际上是AI从工具型系统向更高级智能体(agent)转变的标志。这意味着AI不仅能够处理输入和输出,还可以在复杂环境中感知、推理并采取行动。


但这里需要注意的是,所谓的“推理”并不是传统意义上的逻辑推理,而是基于大量数据的统计相关性和模式识别。换句话说,当前的AI在某种程度上模拟了人类的推理过程,但它并不真正“理解”所做的事情。这种能力的提升更多依赖于模型的复杂性和训练数据的质量。


此外,环境感知的复杂性也提出了新的挑战。AI需要处理多模态数据(例如文本、图像、声音等),并在动态环境中实时做出响应。微软的声明表明,他们的目标是将AI从静态的生成工具转变为动态的智能体,能够感知环境、推理因果关系并做出自主决策。


然而,这种转变也带来了更多的问题,尤其是关于可靠性和安全性的问题。


一个能够自主感知和推理的系统,如果没有明确的限制和控制机制,可能会带来意想不到的后果。因此,我们需要在开发这些系统时,确保它们的行为是可预测的,并且能够在失败时追踪问题来源并进行修正。 


符海京:你提到的可靠性和控制机制确实是一个关键问题。那么,你认为在这一领域,接下来的研究重点应该是什么? 


Mark Nitzberg:我认为接下来的研究重点应该集中在两个方面:一是多模态数据的整合,二是因果推理的增强。


在多模态数据整合方面,我们需要开发更强大的模型,能够同时处理和理解来自不同来源的数据。例如,一个智能体可能需要同时处理摄像头捕获的视觉数据、麦克风捕获的音频数据以及用户输入的文本指令。这需要模型具有更高的灵活性和适应性,同时也需要更高效的计算资源。 





请到「今天看啥」查看全文