专栏名称: 钛媒体
最新鲜犀利的商业见闻,最国际视野的前沿技术,最不常见的独家猛料。钛媒体(www.tmtpost.com),网罗天下创新事,一个创新者最爱聚集的地方。
目录
相关文章推荐
新浪科技  ·  【#小米回应YU7公告时间早#】12月10日 ... ·  昨天  
环境工程  ·  文章推荐 | ... ·  2 天前  
36氪  ·  刚刚,PANTONE公布2025年度代表色, ... ·  5 天前  
51好读  ›  专栏  ›  钛媒体

赵何娟对话李开复:2025中国将从“百模大战”转向应用大战|T-EDGE

钛媒体  · 公众号  · 科技媒体  · 2024-12-07 22:39

正文

一场万字深度对话。


作者|林志佳

编辑|胡润峰

本文首发于钛媒体APP


今年11月30日,风靡全球的ChatGPT迎来了两周年日子。


这个下一代AI浪潮的命运之子、拥有3亿活跃用户的 AI 聊天机器人应用,引爆了全球新一轮 AI 创业热潮,让世界迎来AI 2.0时代。


在AI 2.0新的时代机遇下,已经耕耘AI四十多年的李开复决定躬身入局,创立了大模型公司零一万物,致力于打造全新的 AI 2.0 平台与AI-first生产力应用的全球化公司,并且在短短一年多时间里,技术能力、公司规模和商业化脚步迅速扩大。(详见前文:《李开复:中美人工智能竞争不是零和博弈》


零一万物日前推出的全新旗舰预训练模型Yi-Lightning,近期在国际权威盲测榜单 LMSYS 上超越OpenAI GPT-4o-2024-05-13、Anthropic Claude 3.5 Sonnet(20241022),排名世界第六,中国第一。(数据截至2024年11月20日)


同时,零一万物早已跻身10亿美元“独角兽”,并且全面瞄向 AI 大模型的商业化,公布了一整套“从 AI Infra 到模型,再到应用”的全行业 ToB 解决方案:构建大模型算力平台的智算中心解决方案;面向本地生活、办公会议等场景的“如意”数字人解决方案、万视营销短视频解决方案在内的零售行业解决方案;以及模型训练解决方案——由数据平台、预训练平台、训练后平台、模型Playground等构成全链路模型运维平台,加速 AI 大模型技术的商业落地。


12月6日-7日,2024 T-EDGE创新大会暨钛媒体财经年会在北京召开,以“ALL-in on Globalization ,ALL-in on AI”为主题,汇聚全球科技和商业领导者,共同探讨人工智能对全球各行业的巨大影响,以及企业全球化增长新格局新趋势。作为钛媒体集团每年年终举办的科技和财经领域的顶级盛会,T-EDGE一直代表了钛媒体在科技与经济前瞻性,以及推动国际创新交流上的高质量追求。


12月7日T-EDGE大会上,钛媒体集团创始人、董事长&CEO,T-EDGE全球委员会主席 赵何娟,与零一万物CEO、创新工场董事长李开复,围绕 AI 2.0驱动全球科技创新,推理、端侧、行业和基础大模型的发展,以及迈向AGI 如何更好落地等热点话题进行了一场深度对话交流。


“我们坚决不盲目烧钱买不赚钱的流量,也不做‘赔本赚吆喝’的生意。”李开复反复强调,零一万物要在性能优异的基础上,做最快、最便宜的模型,来点燃大模型在To C、To B的生态。



以下是钛媒体AGI摘录的李开复七个重要观点:


  • 过去一年半时间,模型能力越来越好,价格也越来越便宜,推理成本一年下降了10倍左右,而零一万物希望做的,不是1年10倍(速度增长、成本下降),而是希望做到三、四十倍,要比行业更快三、四倍,更快催生出好的应用。


  • o1 也是 Scaling,只不过 Scaling 的对象从 Training Time Compute 变成了 Inference Time Compute,两者相辅相成之下能够更高效地突破模型能力的上限。


  • Scaling Law还是有效的,但它的效率不像之前那么高了,主要原因是有两点:数据受限,文本数据的递增不会像过去那么快;同时,用堆GPU卡的方式进行模型训练会面临算力利用率降低的问题,GPU的数量和实际训练时的收益并不是线性提升的关系。


  • 模型做得又快又便宜,一个核心是少用内存,善用内存,少用GPU,能存的不要算,必须算的才算,这些是原则。而且,对中国大模型初创公司而言,要侧重“有效的创新”,不要单枪匹马地去挑战过于宏伟的AGI实验,有可能花了巨大成本但难寻落地的场景。


  • 明年,全球推理算力会进一步降价,进而推动AI-first的To C应用爆发,“需要用一段时间去积累用户再商业变现”应用成长路径有望会迎来机会。其中,中国AI 2.0未来的优势是,中国能够做出性价比更高的模型,极低的推理成本将成为High DAU应用的基础,同时,中国团队也积累了大量从移动互联网时代传下来的打法,能够用于AI应用的推广和增长。多种因素叠加下,中国团队在To C方向上会有很大希望。


  • 行业的最大挑战是,作为大模型初创公司,现在进入了新阶段——要证明自己可以有持续的收入增长。在技术竞争变成商业化竞争的过程中,大模型初创们能否从起初的学者型创业转变为企业家创业?这个坎如果过不去的话,最终路还是会越走越窄。


  • 零一万物的定位是,第一、坚决做最快最便宜的世界第一梯队模型,点燃To C、To B的生态;第二,坚决不盲目烧钱买不赚钱的流量,也不做“赔本赚吆喝”的生意。


李开复强调,AI大模型公司要去为客户服务,与客户共同创造价值,达到双赢。至于AGI,他表示,总有一天,AI会能够做的事情会比人类更多,但是,AI未必要做到人类所能做的每一件事情。他预计,我们距离通用人工智能(AGI)还有7年时间,AGI出现的大致时间点会是在2030年。



以下是赵何娟和李开复之间的对话全文(经整理):


赵何娟:开复老师您好,欢迎来到我们2024 T-EDGE全球创新大会暨钛媒体财经年会,我们非常高兴能请到开复老师跟我们做这样的一个对话。


李开复:何娟你好,谢谢邀请,各位观众朋友大家好。


谈推理模型发展:o1更像是理工科

需与基础模型并存发展



赵何娟:过去一年,AI无论是在硅谷、美国还是中国其实都发生了很多大的事件。最近您自己觉得,我们能观察到的整个硅谷和全球AI发展的大趋势里面预计可能接下来的一年可能得变化里面,您最看重的一个可能性的变化是什么?


李开复:我最看重的变化就是,越来越多开发者会意识到,今天非常好的模型已经非常便宜了,能够支撑一个百花齐放的AI-first应用时代到来。我觉得这将是2025年最大的事件。


在此之前,这些应用很难被开发出来。你可以想象,仅在一年半之前,足够好的模型只有GPT-4,现在回头看,GPT-3.5其实能满足的应用场景很少,因为模型能力不够强。但如果一年半之前应用开发者选择接入GPT-4,每调用一次就要花费1-2美元,谁又能做得起应用呢?很容易自己就会做破产。


在过去一年半的时间内,模型性能越来越好,从GPT-4、Turbo、4o到o1,模型能力已经提升了很多。另一方面,当年的GPT-4,现在来看也已经很便宜了,即便是4o,每百万token也只有4.4美金(按输入输出3:1比例计算),比一年多以前的GPT-3.5下降了接近20倍。


从整个行业来看,推理成本一年下降了10倍左右。整个行业在以1年十倍的速度实现推理速度变快和推理成本下降。而零一万物希望做到的,不是1年10倍(推理速度增长、成本下降),而是希望做到三、四十倍,也就是说,我们要比行业更快三、四倍。这样的话,零一万物就能先人一步做出好的应用。


赵何娟:成本下降会带来大量应用爆发,就是您对2025年特别大的一个期待或者预判。刚才您也提到了,今年其实有很多模型在迭代。前段时间,我们在硅谷办公室也组织了一次关于o1大模型平台的讨论,有邀请x.AI、OpenAI相关的team leader来,我们讨论的时候发现,所有大厂现在都在做一件事情,就是o1这种推理模型。但是,o1跟过去的基础模型其实在范式或在路线上,已经有很大的一个变化了,我们是不是可以理解为,接下来所有大厂都会在推理模型上竞争,而不是基础模型上竞争?那么基础模型的竞争是不是到头了?零一是不是也有考虑推出新的推理模型?


李开复:大家都在做推理模型,这肯定是一个趋势,包含零一万物在内的少数中国大模型公司目前也已经做出了不错的初步成果。


从技术角度来说,o1既是一个大模型的延伸,也启发了行业尝试相对不一样的做法。o1 也是在Scaling,只不过 Scaling 的对象从 Training Time Compute 变成了 Inference Time Compute,两者相辅相成之下继续高效地突破模型能力的上限。


就像人类的“快思考”、“慢思考”,都是大脑的功能和延伸,合并起来能够思考得更深入,所以在大模型领域内,它们(推理和基础模型)也是互补的。但之前没有尝试“慢思考”,大家都在做类似“快思考”一样的探索,模型就像是在做快问快答,脑子里面想到什么就蹦出来什么。


当然,人类不经过很多思考,往往也可以七步成诗,做出很多创意类的文学内容等。所以,其实“快思考”,也就是o1之前的大模型也能够完成很多人类的需求和任务。


但是,人类面临难题时,答案不是一拍脑袋可以拍出来的,通过直觉给的第一个答案并不一定是对的,或者在讲述几句话之后我们发现思路不对,需要修正。人类有一个很强的能力,就是能够自我反思、自我修正,即所谓的reflection(反思),那些能够在科学界有建树的人,往往存在批判式思维,能延续类似的逻辑推理思考,经历过不断迭代求证甚至推翻重来的过程,才能取得一个有重大进步的科学成果。


o1的发展就类似上述的路径,并且已经向外界自证了它的价值。很多人也从巨型的预训练模型转到推理探索,整体思路演变成为了两个并行的Scaling:第一个是模型越大越来越聪明,第二个是想得越久越聪明。两个Scaling是可以1+1至少等于2甚至等于3。


我认为,这对行业而言是一个巨大的推进。虽然OpenAI没有告诉外界如何做出o1,但是令我们振奋的是,随着思考的时间长度增加,模型思考出正确答案的概率也会大大提升。两个Scaling Law叠加,给追寻AGI的我们带来了更多可能性,让我们不必把鸡蛋都放在一个篮子里。


赵何娟:我们是不是可以理解为,过去基于Transformer的基础、基础大模型Scaling Law法则已经失效了?将没有数据可算了?所以到达一个瓶颈之后,Scaling Law他不可能就是无限大,即便有算力,提供再多的算力也没有用?


李开复:Scaling Law还是有效的,但它的效率不像之前那么高了。


第一个理由是,世界上数据总量只有那么多,虽然我们可以用机器造数据,用视频数据、多模态数据、具身智能数据来训练,但是最浓缩的智能还是来自于文字,而文字总量就那么多,其他方法做出来的都不是最完美的。就像你说的,人类的所有文本数据都会被拿来用,但文本数据的增长不会那么快。


第二个理由是,要持续推进大模型预训练的Scaling Law,就需要把越来越多的GPU和机器串在一起。当你只有一、两张GPU做深度学习Transformer计算的时候,大模型预训练时间几乎都在计算,很少会涉及传输;但是当你拥有10万张、20万张GPU计算的时候,数据传输成本就会变得很高;到100万、1000万GPU的规模时,几乎大部分时间都在做传输了。GPU越多,数据传输越慢,算力并不能随着GPU增多而线性上升。


举个例子,如果从一张GPU扩展到两张,你可能会获得1.95张卡的效能,但是如果你从10万张变成20万张,卡的效能可能会更接近10万张卡的效能而不是20万张。一个重要原因就在于所增加的传输环节,以及过程中的延迟。


所以,我们认为Scaling Law的落地会变得越来越贵,边际收益会降低,但并不是无效了,继续坚持预训练模型还是会有进步。


赵何娟:如果说OpenAI在推理模型方向上推出o1,可能明年还会推出o2系列的话,OpenAI为什么还要在GPT-5、6这条路上投入重金去发展?为什么这两条路不能合为一条路?


李开复:这两个路径并不互斥。我觉得,做“快思考”、“慢思考”都是永无止境的。比如,一个文科生突然在微积分里找到了新大陆,但这并不代表你不该回去再读柏拉图,这两者是没有冲突的。


我们以后要做一个“超级大脑”,还是希望它“文理双全”。


但我认为,这个过程中倒是存在着另一个悖论,这两种Scaling Law都会让模型变得越来越慢。第一种要求模型厂商把模型越做越大,而模型越大推理越慢;第二种在大模型上叠加“慢思考”,会进一步降低推理速度。假设未来模型推理所需要的时间从目前的5秒到60秒,延长至了5分钟到60分钟,那模型在绝大多数场景下就不适用了。


所以我认为,这里存在着一个非主流、但是零一万物认为很重要的认知,尤其在o1为代表的“慢思考”出现之后,更凸显了这一认知的重要性——我们一定要把推理做到超快。你可以这么想象,如果零一万物训推优化出一个很好的“快思考”模型,回答同一个问题,别的模型需要3秒钟,我们的模型只要0.3秒钟,假设慢思考会让模型变慢20倍,3秒钟变慢20倍会变成1分钟,但是我们的0.3秒变慢20倍才6秒钟,在很多场景下依然是可用的。


所以,当你拥有一个非常快的推理引擎时,叠加“慢思考”后也不会特别慢,对用户的价值就会更大。所以零一万物会坚持做超快的推理模型,因为超快的推理速度不仅在“快思考”的阶段有所助力,在引入“慢思考”后,它还能够让模型在具备令人惊艳的性能的同时,使推理速度保持在可用的范围内。


赵何娟:我们在理解您说快思考基础模型逻辑的时候,其实很清楚有数据、算力时限制的,但是o1这个新范式的推理模型的时候,其实是有很多不清楚的,比如推理的慢思考一定是相对的词,如果我们把慢思考的5秒提升到3秒,这个就变成我推理模型的最关键因素,怎么把推理的慢速度提快一点点,这或许就是竞争力,那么您觉得,做推理模型能够提高这一点点的竞争力关键是什么?是算法吗?


李开复:这肯定是核心竞争力。我认为这也是零一万物的最大特色。我们在“快思考”阶段的推理速度就非常快。


赵何娟:推理速度再快,思考就会非常快,那么这是如何做到的?我们连OpenAI 的o1怎么做的,都还不确定,他们是黑盒子。那么,零一把推理变快两三倍,o1推理也快2-3倍,那么零一万物为什么能够把推理模型做得这么快呢?


李开复:我们做了下面几个工作。


第一,寻找方案解决速度减缓问题。大模型速度逐渐变慢是因为GPU在不断计算。那么,我们是否有可能让GPU少算点?其实在经典计算机学里面就有提到,要做计算和存储的迁移。也就是说,能被记得的内容就不用再算一遍了。计算机学里的Hash Table(哈希表)等等这些技术,其实就是指,别什么都算,能记下来的内容就不要算,算过一遍的内容记住然后下次直接用就行了。


第二,Memory Caching(内存缓存)。后续可能会用到的数据,我先把它调到附近来,要调用的时候方便就近使用。这就类似于,日常在网上看视频有时候会卡顿,原因就是要通过网络传输很多数据,但是一个聪明的做法是,先把视频部分缓存到我的电脑或手机上,即便出现网络卡顿,视频还是能从本地播出,这就是一个Caching的方向。


所以简单地说,如果能把底层的推理模型,从一个计算模型,变成一个更多是存储的模型,推理速度就会变快很多,甚至变快三倍。


另外,零一万物在做模型研究的时候,就不会去研究那种超大、无法缩小、没法变快的模型。我们从做科研的第一天就会考虑,最终做推理时会用多大的机器,有多少个HBM、多少RAM、多少SSD,然后统筹布置模型训练。


零一万物会先定一个目标——做又快又便宜的模型,在这个基础上做到最好。零一万物的每一个人,无论是做AI infra的、做模型训练的、做推理引擎或者做数据中心的,全部都是秉着这一个目标去做,因此做出来的模型才会这么快。


赵何娟:您说得特别好,又快、又便宜,这是两个非常关键的因素,这是否也代表着 AI 模型能否在应用市场普及的关键因素。快我们现在理解了,但便宜您是怎么做到的?我们都知道算力没办法便宜,数据现在越来越折桂,那我们能够做到加快性能和推理速度的同时,还能做到便宜?


李开复:我们加快模型的速度不是通过堆更多的机器让大模型变快,而是用同数量、同规格的机器让大模型变快,这样训推出来的模型才能多快好省,才有竞争力和性价比。


我们的硬件是固定的。零一万物会在相同硬件的前提下做到最快。模型速度变快之后,假设以同样的成本多生成了三倍的token,那公司就可以获得三倍收益。或者换句话说,以同样的成本多生成了三倍的token,那模型对外的价格也会降到原先的1/3甚至更低。


赵何娟:所以您认为这中间最核心的是什么?


李开复:核心其实就是少用内存,善用内存,少用GPU,能存的不要算,必须算的才算,这些是原则。


另外,在零一万物做AI科研的同学,被要求不要去做那些过于宏伟的AGI实验,要做“能落地和最有效的创新”。


一个公司战略定位要从自身实际情况出发。当年IBM的电脑是巨型且昂贵的商务机,微软和苹果则做出了人人可用的PC。几家公司的战略和路径出现了明显分野:有的要做世界最大、最强的电脑,有的则要做一个最快且人人可用的电脑。零一万物目前选择的路径是第二种。


另外,我刚才的描述也可以被理解为“垂直整合”。为什么早期的 iPhone那么惊艳、那么好用?就是因为乔布斯完美地实现了垂直整合的工程工作。谈到零一万物聚焦的目标,它不见得是由一个伟大的论文,或者是巨大的技术突破,或者是靠堆更多GPU做出的结果。我们现在所要实现的,是一个靠谱、快速、卓越的工程工作。


零一万物做大模型的第一目的,就是要快、要便宜,在这个前提之下尽可能把模型做到最好。在这样一个共同的目标下,用“垂直整合”的思路,来把内存的问题、降本增效的问题做好,最终设计出一个兼具性能与性价比的模型。


谈中美AI发展:明年To C、ToB都会爆发

但开源模型仍存挑战



赵何娟:我特别能理解这背后的一个机制和原理。


我们接下来看应用端,我们经常说中国的优势是一个庞大的应用市场,中国是个大市场,这是我们的优势。虽然我们基础科研不如美国,但是我们因为应用市场巨大,而且相关的创业者也比较多,如同互联网和移动互联网应用一样,我们会领先于全球。但是我们现在看到,尤其在通用大模型,除了ChatGPT这样一个C端产品外,已经很少有特别爆发性的C端应用,更多的可能在B端,包括美国现在B端应用“百花齐放”,甚至有的已经开始挣钱了,这一块对于中国来说又是一个短板。我想问,这会不会加大我们对于美国的差距?然后,我们怎么看待现在应用市场上的这些机会,到底是To b(企业级)先行还是To C(消费级)先行?


李开复:在国内市场上,我们也看到了你所说的这几点担忧,但是我依然认为,2025年会是一个转折点,AI-first的To C、ToB应用都会爆发。


从To C的角度来看,“能够很快变现但增长很慢”的To C APP不是中国团队的长项,“前期积累大量流量随后变现”的To C APP才是中国团队的长项。但在过去的一年里,构建后者这类应用的方法论在国内其实没有用武之地。


目前的Chatbot应用的用户量还没有达到能够变现的阶段,但如果在无法变现的前提下,依靠纯投放获得百万DAU要花费大量资金,这不是长久之计。


但是我对2025年是乐观的,因为推理成本会足够便宜、模型也足够好。零一万物的Yi-Lightning模型,还有一些其他的优质国产模型,不仅在性能上已经对齐美国顶尖模型,而且还做到了更快、更便宜。明年一个大趋势就是,越来越便宜的推理成本会推动High DAU的应用出现,“先用一段时间积累用户随后再探索商业变现”,这类AI-first To C应用的成长路径在明年会更清晰。


中国大模型领域未来一个很大机会也在于此。中国能够做出性价比更高的模型,让推理变得很便宜,把大量从移动互联网时代积累下来的打法,用于AI应用的推广和增长,催生出更多To C High DAU的AI-first APP。这几个因素叠加下,中国To C会有很大希望。这是第一点。


接下来,有关To B我也同意你的说法,美国是一种“我帮你赚钱、你帮我赚钱”的生态,企业用户有很成熟的付费习惯,这个付费习惯是中国的To B从业者非常羡慕的。在未来一年内,期待中国To B生态能从付费习惯上做出改变,这并不容易。


但是我认为,中国团队也存在着独特优势,就是中国大模型公司更愿意深入企业做定制。我们可以先尝试单点突破,然后快速迭代。如果我们的模型能帮企业“印钞票”,我们当然也能从企业客户的增长中受益。


目前,在零售、游戏、政务等领域,我们已经看到了一些“曙光”,零一万物给客户的价值足够大,所以能够得到不错的回报。展望2025年,这是我所看到To B领域的希望。


赵何娟:刚才有讲到一个点,关于To B应用层面,像OpenAI可能不会给你提供模型,而是API接口,那么这是否意味着,开源模型会比闭源模型更有优势?


李开复:开源模型是一个非常强大的势力。零一万物本身在做开源,也认可开源的做法,开源生态下也能够出现相当好的模型,虽然未必是最好的。


但开源也有一些挑战。


首先,开源是无国界的。越来越多的国家不愿意把数据分享出去,鸿沟会越来越大。同时,一个国家的合法数据在另一个国家不一定合法,跨国使用存在风险。


第二,开源模型也有相当高的调试门槛。大家对开源模型有一个很大的“误解”,开源模型只是共享了模型和参数,但训练过程是黑箱。另一方面,即便是很多大企业的技术团队也不是做模型微调的专家,所以在引入开源模型后,企业如何基于自身需求继续训练模型会是一个很大的挑战。


第三,很多开源模型并没有考虑到推理速度和推理成本的问题,即便性能不错,但高额的推理成本和缓慢的推理速度很难满足企业需求。模型的特性和企业诉求很可能是不一样的。


闭源模型的优势就在于,顶尖的闭源模型性能会比开源模型好一些,而且模型厂商可以派专家团队到企业去服务。在性能和ToB专业服务方面,采购闭源模型会更领先一筹。


赵何娟:那么,开源模型是不是更适合中国市场?


李开复:其实不见得。一般来说,中国大模型公司是愿意到企业去提供服务的。对于企业来说,是引入开源模型自行摸索更划算,还是选择与大模型公司合作共建效果更好?我认为是后者。除了少数技术比较强的企业之外,选择与大模型公司共建是更好的选择,大模型公司可以帮助企业训练出差异化的模型。当然前提是,这家企业愿意付费。


开源模型的最大优势,就是免费,但按照美国人的话说——You get what you pay for,一分钱一分货。你付0元得到的,可能需要你在其他层面付出更大的成本支出。


赵何娟:所以,即便是一个开源模型,到企业去做一些调优后,可能也就会变成闭源模型,同时,有可能已经不是开源和闭源的问题,而是可能更多是需要企业定制专属模型,而这个专属模型不一定是我们所谓的通用大模型了,更多可能是端侧模型。我可以这么理解吗?


李开复:定制的模型往往不是端侧的,它是一个部署在企业内部可控环境里运作的大模型。


我敢打赌,几乎95%以上情况是,大模型企业帮企业做,要比企业在开源模型自行摸索效果更好。即便是拿零一万物的开源模型,由企业自己做,我可以100%的保证,做出来的效果不如付合理的费用给我们,我们用闭源模型帮你一起做。


未来大模型挑战:

2030年AI能力有望超越人类



赵何娟:我明白了。所以这个里面也有一个很有意思的问题,现在我们看美国To B的整个云生态里面,除了大厂外,新的大模型独角兽一个是OpenAI、另一个是Anthropic,其实这两个都有深度绑定的云服务商——OpenAI与微软云深度绑定,Anthropic是与亚马逊AWS深度合作的,而且现在分流越来越明显,甚至都要绑定自己的云服务。所以在零一万物看来,中国独立大模型公司不是与云厂商绑定,怎么解决生态问题?


李开复:云服务在国内还没有像国外那么普及,大部分中国公司还是会选择在企业本地部署模型,而不选择云部署的形式。同时,不少企业使用大模型的场景都会涉及到内部业务数据、财务数据、文档邮件等,对保密要求很高,这些场景下企业也会更倾向于私有化部署。


未来两年,大模型和云如何强强结合,可能还不会成为一个独立大模型公司能碰到的挑战。


赵何娟:未来两年,作为一家独立的大模型公司,与大厂的生态模型公司进行竞争,面对的最大挑战是什么?


李开复:我认为,我们最大的挑战是,大模型公司现在进入了一个新阶段,要证明自己“可以有持续的收入增长,而且可以看到未来打平的一天”。我们从AI 1.0时代发展历程可以看到,行业的关注点从谁团队最强、谁写了最多论文、谁打榜打了最高的分数,逐渐转移到了谁做了第一个落地的应用,谁收了第一桶金。就像当年的“AI四小龙”一样,这些我觉得如今的大模型公司都做到了。


再下一个阶段,大模型公司就要面临灵魂拷问,就是你能不能拿更多的订单,你能否在部分业务上盈利,并验证业务是否达到了一个可扩张的阶段,随后才能考虑上市的问题。


我们看到,在AI 1.0时代,那些没有通过灵魂拷问的公司,有些运气好先上市了,但也碰到了破发等窘境;有些运气不好的,就一直没能上市。


所以,这就是大模型领域共同面临的一个巨大挑战:在技术竞争变成商业化竞争的过程中,能否从起初的学者型创业转变为企业家创业?这个坎如果过不去的话,最终路还是会越走越窄。


现在,大模型“六小虎”在内的几家头部大模型公司其实已经几乎不再彼此竞争了,各家走的路各不相同。大模型这个赛道比AI 1.0时代的计算机视觉要大得多,也许各家在不同的领域都会成为伟大的公司。5 年以后,我想这几家大模型公司可能都不见得会被称作“大模型公司”,因为他们都找到了新的道路。


赵何娟:您刚才也讲到,我们现在国内五、六家模型公司都有各自定位,你觉得零一万物是属于哪个定位?


李开复:两个定位。第一、坚决做最快、最便宜的模型,点燃To C、To B的创新生态;第二,坚决不盲目烧钱买不赚钱的流量,也不做“赔本赚吆喝”的生意。


赵何娟:当前我们可以看到,李飞飞在做空间智能,杨立昆在做世界模型,波士顿动力创始人Marc Raibert也在研究关于机器人的新算法,他们都在解决一个问题,就是利用机器人这种“具身智能”,希望解决大语言模型限制、或局限性问题。所以,您有没有考虑未来如何把模型跟机器人进行结合做模型突破。


李开复:“具身智能”肯定是(AGI)下一个特别重要的方向和里程碑,会是生成式AI的一个重要应用场景。目前具身智能只能够实现对现实物体、环境的大致理解,做到准确性要求不高的基本操作,还有很多技术问题待解决。


从宏观角度来看大模型的发展,文字只是第一步,多模态是第二步,再往下就应该是Action,“智能体”直接帮你把事情都做了,而不只是给你答案。它要有行动的能力,这样才是一个完整的智能重现。


当然,我们也看到了很多很酷的演示,但这些都是低垂的果实,具身智能要产生真实的商业价值还需要一些时间。目前,零一万物还需要聚焦大模型创新,暂时没有办法分心做这些事情。但我们很愿意去跟具身智能公司探索合作,大模型作为“大脑”,可以跟具身智能有很多叠加的方向。


赵何娟:最后预判一下,有人说o1推理模型出来后,意味着AGI已经实现。在您看来,实现AGI还应该怎样发展?以及AGI的实现还需要哪些条件?


李开复:今天人与AI,各自能做很多事情,有些事情人做得更好,有些AI做得更好。AI会比人发展得更快,未来总有一个时刻AI 能够做的事情会比人类更多。但是,我们认为,它未必能做人类能做的每一件事情。


EPOCH AI智库研究把AGI做了定量分析,分析里认为,从GPT-2到GPT-4提升了多少,GPT-6或GPT-7就需要在GPT-4的基础上提升同样的幅度才能够达到AGI,也就是说从GPT-4到GPT-7的进步需要和从GPT-2到GPT-4一样多。他们用比较科学谨慎的方法算出来,大概会是在2030年左右达到AGI,这个预测我认为是比较靠谱的。


赵何娟:好的,谢谢开复老师。刚才的对话非常精彩,开复老师都很坦诚的跟我们交流了很多他的真知灼见,我们也相信,在未来的一年,整个 AI 行业还会发生非常多的变化,我们也希望能够成为持续的观察者和记录者,然后也持续跟开复老师保持这样的对话和沟通。我也非常谢谢大家,能够来参与到我们今天的对话,我们相信,开复老师给我们的回答还是非常精彩,也是很真实的一面。


谢谢开复老师,也谢谢大家参与。


(本文首发于钛媒体App)




2024T-EDGE全球创新大会闭幕,视频回放指路点击“阅读原文”进入活动官网,更多重磅嘉宾和精彩演讲不容错过


万水千山总是情,点个在看行不行