2024年5月3日下午,北京大学建校126周年校庆之际,一场汇聚人工智能领域顶尖智慧和力量的盛会——
北京大学人工智能产业峰会暨校友“人工智能+”论坛
,在北京大学博雅酒店隆重举行。此次峰会不仅是对北京大学深厚学术底蕴的展
示,更是对未来人工智能技术和“人工智能+”产业发展趋势的深入探讨
和展望。
本次盛会由
北京大学校友会
、
信息科学技术学院
联袂主办,
北京大学武汉人工智能研究院、北京大学校友青年CEO俱乐部、未名科创、“人工智能+”研习社
承办。
北京大学科技开发部、北京大学创新创业学院、北京大学王选计算机研究所、上海人工智能研究院、创客总部、创业公社
联合支持,
北大法宝
大力支持。
新智元创始人杨静
出席此次论坛并发表了精彩演讲。
新
智元创始人 杨静
各位校友,大家好!在今天这个科技创新日新月异的时代,我们有幸齐聚于此,共同探讨和见证人工智能领域的蓬勃发展。我深感荣幸能够站在这里,与大家分享我对AI技术,特别是大模型发展的观察和思考。
我前两天去北大的双创学院,参与了一个科技创新的课程,并进行了60分钟的演讲(但今天只有20分钟),但我加快了语速以确保内容的充实和与听众的互补。我的演讲内容偏理论型,因为我是学新闻出身,更注重文科方面。
接下来,我要提到的是,摩尔定律目前仍然有效,英特尔预测它可以维持到2030年,每两年晶体管的性能提升翻倍。但大模型的发展速度更快,八个月就能翻一倍。这表明我们将迎来技术的新阶段。
亮亮分享了一个内部测试数据,它是一个可视化的图表,展示了主流大模型的参数规模。其中一些主流模型在发布后,无疑将再次引发行业内的竞争。李菲菲等人最近发布了一份关于人工智能的报告,提到了过去五年内企业和学术机构研发的150个大模型,平均训练成本高达1亿美元,这是一个天文数字。
去年我听王老师讲课时,他分享了一个观点,即硅谷和美国政府都有类似“登月计划”的AI发展计划,目标是通用人工智能。关于这个计划是否与OpenAI的内部计划相关联,我认为它们之间肯定存在某种联系。
据说OpenAI计划使用1000万块GPU来训练一个大模型,这是一个惊人的数字。目前H100的价格在3万到4万美金之间,但关键是我们买不到。即使是最强的芯片B200,价格也相当昂贵且难以购买。计算一下,1000万块GPU的总价值高达4000亿美金,这超出了我们的想象。去年全球的军事开支都没有这个数额高,美国政府的军费开支也没有这么多。
更令人震惊的是,美国还有一个计划,打算投入7万亿美金来打造一个芯片帝国。这个数字相当于美国七年的军费开支。这凸显了AI领域竞争的激烈程度。
从图表中我们可以看到,去年各大公司购买了大量H100 GPU,Meta和微软是其中的佼佼者。Meta之所以购买这么多GPU,是因为他们需要处理大量的视频数据以支持元宇宙的发展。而未来两年内我们是否能获得足够的GPU仍然是一个问题,不仅仅是H100和A100的问题。因为当算力超过一定水平时,英特尔和AMD等供应商可能无法提供足够的供应。
新智元作为一个专注于AI和计算机领域的媒体,虽然读者群体相对较小,但他们的报道和观点在行业内具有重要影响。我希望大家能够关注新智元,以获取更多关于AI和计算机领域的深入分析和报道。最后,我想强调的是,训练大模型所需的GPU数量是惊人的,高达72万块,这再次证明了AI研发的高昂成本和算力的重要性。
关于合成数据的重要性,我们同样需要考虑基数数据的庞大需求。尽管有些传言,如微软可能为OpenAI提供了5000亿的视频数据用于训练,但这些数据在开放接口后可能会引发更海量的数据需求。然而,值得注意的是,抖音、B站等平台已经为我们提供了大量的数据资源。
然而,这些数据的质量可能参差不齐。因此,在AI训练,尤其是大模型的训练中,我们越来越多地依赖于合成数据,即AI自己生成的数据。根据预测,到2030年,大模型训练所需的数据将主要由AI自己生成,因为人类生成的数据已经无法满足需求。目前,全世界每天人类生成的数据约为100万亿个字节,相当于大约100亿个tokens。行业人士分析指出,GP5(假设指的是某种未来大模型)的训练可能需要接近这一数量的tokens。
关于AGI(通用人工智能)的实现时间,不同专家有不同的预测。根据李菲菲的报告和几位行业大佬的预测,AGI可能在2030年左右实现。然而,扎克伯格提出了一个不同的观点,他认为能源将成为AI训练的一个巨大瓶颈。确实,随着AI的发展,全球数据中心的用电量预计将在2030年超过一些国家的总用电量。
在评估大模型的能力时,我们不仅要关注模型的参数大小,还要考虑其在实际应用中的表现。清华和中关村人工智能研究院联合发布的报告评测了大模型在多个方面的能力,并特别关注了模型在用户体验、中文表现等方面的对齐能力。
对于为什么GPT-4等模型在中文表现上较强,这主要得益于它们海量的训练数据和更强大的逻辑推理、理解能力。此外,有专家指出,许多中文模型通过API与大型模型(如GPT和拉玛)相连,这些大型模型能够接收和分析更多的中文数据,因此更理解中文的信息和知识。
在机器人技术方面,大模型驱动的机器人已经成为一种趋势。去年推出了多个具有人形特征的机器人,而今年则出现了更多电动机器人,这些机器人通过大模型的驱动,能够展现出更高的智能水平。
如果我们设想一个超级AGI(通用人工智能)驱动了众多超强机器人,那么这确实会形成一个我们以前未曾设想的异构空间。在分析AI所需的海量资源时,我们注意到过去13年或23年(此处时间表述存在混淆,假设为“过去十三年”),我们见证了五家中国公司退出市值前十(此处可能指全球科技公司市值排名)。截至4月22日的数据,中国大陆前二十的科技公司总市值约为1.2万亿美元,不包括字节跳动和华为。
与此同时,排名前六的美国科技公司总市值高达12万亿美元。这一对比凸显了科技行业的资金密集性和竞争性。提到金钱的游戏,我们不得不提到历史上的星球大战计划和阿波罗计划,它们的预算在今天的购买力下折算均不到2000亿美元。然而,当前的AI竞赛可被视为新的“AI星球大战”,需要投入巨量的资金。
去年,许多视频创业公司被大模型技术的迅速进步所震撼。这些大模型在智能和知识测试中已经全面超越人类,尽管具体的超越时间点还存在争议。红杉资本的预测显示,到2030年,AI可能在多个领域达到或超越人类专家的表现,包括创作者、程序员、图形设计师和视频直播等岗位。
在AI创业趋势方面,虽然2023年AI投资有所下降,但OpenAI等少数公司仍获得了巨额投资。微软在2023年第一季度向OpenAI投资了100多亿美金,亚马逊和谷歌也分别投资了40亿和20亿美金。这些投资使得OpenAI、亚马逊和谷歌成为AI领域的领导者。
此外,我们还看到了Cloud 3等新型AI平台的崛起,它们声称在性能上超越了GPT-4。然而,随着拉玛三等更大模型的发布,这一竞争格局可能会再次发生变化。
我认为AI技术的发展将使得未来的应用更加便捷,从云原生到大模型原生,再到未来可能的零代码开发,这将使得包括文科生在内的更多人能够自如地使用AGI。例如,姚颂这样的行业专家,在将芯片公司深鉴科技出售后,转而涉足火箭行业,这体现了AI技术如何推动跨领域的创新和发展。
其实,刚才的数据确实让我有些惊讶,它似乎表明,火箭技术相比于大模型在资金回报上可能是一个更为出色的选择。另外,我想分享一下关于汤晓鸥老师的事情。去年12月,他不幸离世,这个消息让我深感震惊。而就在今年,商汤科技发布了他们自己的大模型,并在清明节前后推出了一个名为“复活版汤晓鸥”的项目,利用AI技术将汤教授的形象重现,仿佛他仍在我们身边。这不禁让我开始思考,我们创业的真正意义究竟是什么?
在我看来,人类生存的意义远不止于对技术的追求。对于生命的思考和追求,我觉得这比任何技术参数都更加重要。我们应该回到生命的本质,去探寻那种AI永远无法替代的、属于人类独有的意义。
在创业方面,我也有过一些尝试。比如,我曾见过小冰的数字人技术,他们制作的数字人惟妙惟肖,令人惊叹。然而,随着AI技术的快速发展,这些领域也将面临巨大的挑战。比如去年有一款叫妙压相机的小程序,只需28块钱就能制作一个活灵活现的AI数字人,这让我意识到这个领域的成本可能会迅速降低,甚至趋近于零。
在AI领域,我也注意到了一些成功的案例。比如贾扬清,他原本在美国工作,后来加入阿里担任副总裁,现在硅谷创业一年,专注于大模型的开发。然而,我也提醒他和其他创业者,不要盲目跟风基石大模型,因为新技术的快速发展可能会让旧的技术迅速被淘汰。
我还关注到了一些像李志飞这样的创业者。他创办了出门问问,并在港股上市,成为了AIGC领域的领军企业。他抓住了AI技术的浪潮,创业十年终于迎来了爆发。这也让我看到了创业的机会和可能性。
另外,雷鸣在北大开设了创新科技课程,颜水成也在多家公司间辗转,从新加坡到360,再到依图、昆仑万维和智源研究院。这些都证明了只要对AI有深入的理解和应用,未来总是充满机会的。
总而言之,只要我们真正理解并善于运用AI技术,未来总是宽阔的。尽管这涉及到一些哲学问题,但我相信我们能够借助AI技术迈向新的智能时代。谢谢!