专栏名称: 纯科学
宗旨:现代文明从根本上说是科学文明。中国文明的崛起,面临的是从传统科学走向纯科学的历史机遇。本平台致力于推广纯科学,并展示用纯科学解决问题的伟大力量。 愿景:让纯科学的光芒照亮每一个角落。 使命:用纯科学解决一切认知问题。
目录
相关文章推荐
51好读  ›  专栏  ›  纯科学

玉渊谭天:中国AI企业应如何看待英伟达RTX50系显卡?

纯科学  · 公众号  ·  · 2025-01-08 18:34

正文

本文转自公众号玉渊潭天

编者按: 现代电子计算机架构从诞生的第一天起就是硬件与软件相结合完成所有计算工作的,直到现在的一切人工智能,这一基本点也从未改变。硬件和软件结合的方案不同,消耗硬件与软件资源上会有巨大的差异。从商业角度说,做硬件的总是喜欢更加消耗运算能力的方案,而做软件的,总是喜欢更加体现软件价值的方案。在当初PC的时代,INTEL与微软结成的 WINTEL 联盟达成了一种相互的商业默契,就是微软的软件不要去考虑提高计算效率节省硬件算力的问题,从而尽可能更大程度地消耗运算量。这样两家公司的价值就都得到更大的体现,而用户则需要更多更快地花钱升级软硬件。历史上曾经出现过用Linux平台上运行的微软视窗操作系统仿真器,加载支持微软操作系统的应用软件,居然运行效率比直接在微软操作系统上运行高8倍的惊人效果。在今天的人工智能时代存在同样的问题,英伟达取代了当年的INTEL,OpenAI取代了当年的微软,商业逻辑还是一样的。这就是中国的DeepSeek为什么用极简单的硬件就能达到与 O pen AI和ChatGPT同代版本一样效果的根本原因所在。不是 O pen AI技术水平不行,而是“英伟达- O pen AI联盟”采用最浪费算力的方案 人为 制造出来的改进空间。不要单纯迷信大力出奇迹,英伟达只是要让 市场 盲目 相信“别问价格、只管购买更大力的人工智能硬件”就可以了。但对中国企业来说,需要考虑的是获得最佳投入产出比的最终人工智能应用。



1月7日上午,英伟达总裁黄仁勋在全球最大的消费电子展上作了演讲。


此前就有海外科技博主预测,英伟达即将发布的新版显卡,其GPU性能,又要提升一大截。而在今天的演讲中, 黄仁勋发布了英伟达RTX 50系列显卡。按英伟达的说法,RTX 5090整体性能是上一代RTX 4090的两倍。


由此,也有些声音担忧,在美国对华断供高端芯片的背景下,无法获得最高性能GPU用于训练的中国人工智能行业,与美国的差距是否会被进一步拉大。


人工智能领域,“算力焦虑”一直是种流行的叙事。作为主导全球的GPU企业,英伟达H100GPU数量一度成为了衡量大模型公司算力的指标,黄仁勋曾言:“英伟达是AI世界的引擎”,在他的叙事下,英伟达的硬件是发展人工智能大模型的决定性产品。


不过,谭主跟在现场的朋友聊了聊,他表示:


算力和人工智能大模型已经不再是现场多数企业最关心的问题。相比之下,如何将人工智能落地应用是2024年很明显的一个重点,在这方面,很多时候并不需要最高性能的GPU芯片。


相比之下,黄仁勋却显得没有那么“淡定”,在演讲中渲染英伟达“Blackwell架构芯片是人类历史上最大的单芯片”“前所未有的规模”的同时,却也对其消费级的产品采取了性能不变,但降价至三分之一的策略。


这跟此前舆论场认为英伟达产品将继续涨价的预期,形成了反差。显然,在主导地位遭遇越来越多挑战的情况下,英伟达也开始考虑多找“几条腿”走路。


实际上,全球几家还在全力投入人工智能大模型研发的头部企业,也正在掀起一股“去英伟达”的趋势。


诸如Open AI、苹果公司等都开始自研芯片和生态系统,支撑自身的大模型训练。


而这股趋势更重要的意义在于,英伟达营销人工智能“算力为王”的认知,已经被人工智能行业的新动向打破了。


除了自研AI芯片,Open AI等全球头部的人工智能公司,都在更多地聚焦大模型本身的设计优化。


模型训练层面,Mistral AI公司公开将混合专家模型引入大模型训练,用许多个特定领域的“小专家”配合几个“通用专家”,先决定问题类型,再用少数适合的专家处理不同类型的问题;


以DPO、LoRA为代表的高效微调方法,将原本需要高算力和复杂调优算法的模型对齐过程进行了化简,大幅度降低了模型对齐复杂度。


在这样的趋势下,国产大模型也逐渐明确了自己的发展方向。


2024年,国产大模型突飞猛进, 不乏通过底层优化,实现用2048块GPU,接近头部公司数万块GPU训练才具备的大模型性能的案例。


在全球最大的大模型和数据集社区Hugging Face推出的开源大模型排行榜单上, 从去年6月开始,中国国产开源大模型曾一度第一名,到年末,这个纪录又被新的国产开源大模型刷新,身位已经稳定在领先行列。


业内人士跟谭主分析:


之所以能做到这一点,是因为国产大模型主要进行了三个方面的创新:底层大模型数据结构的创新,训练过程的创新,以及数据准备有创新。


中国工业互联网研究院的最新数据显示,Deepseek V3通过采用混合精度方法,有效平衡训练精度和效率,结合混合专家模型架构,大模型训练成本降低至500万美元,仅为同性能模型的5%~10%,其性能上却跟GPT-4o以及Claude-3.5-Sonnet,相差无几。而目前,国内类似的大模型成本、训练时长都已经大幅下降。


这种新的模型训练方法,不仅大幅度降低了大模型行业的门槛,还推动了全球大模型的降价潮。 而大模型的降价,对于人工智能技术的应用和转化有着革命性的意义。


行业人士告诉谭主:


在当前全球人工智能大模型的竞争中,算力虽然重要,但从来不是决定性因素。只有跟软件、应用场景结合起来,才能真正成为赋能行业转型、提高经济效率的引擎。


相比之下,目前部分人工智能项目存在“假智能”的问题——靠大量数据叠加出来答案,缺乏真正的创造力和想象力。


这与当前发展道路的“唯算力论”有关。现在市场上的许多AI,说白了就是用户告诉它怎么改,它一步步按要求调整,最终生成一个看上去“对”的答案,但它本身缺少主动思考或提出创新解决方案的能力。


虽然一些前沿大模型探索了“思维链”,试图让大模型长时间思考模拟人类的思维推导,在一些问题上已经有一定效果,但如何实现“通用人工智能”仍然有较大障碍。


更大的问题是,这种只靠算力的方式,迟早会碰到天花板。


行业人士跟谭主分析:


拿美国当前的大模型来说,他们的模型已经读完了几乎所有的英文书籍。可是,接下来怎么办?这就是人工智能大模型的发展瓶颈。由于世界上没有更多的新书可以喂进去,那AI只能让自己写书,但这种“自己生成自己喂”的方式,其实并没有真正突破。这就好比饿了没东西吃,只能“自给自足”,显然不长久。


要突破这个瓶颈,就不能再光盯着算力和数据,而是要回到大模型的技术本质,去解决更关键的方向性问题。就像一个不算聪明但记性好的同学,读了一万本书以后,问到的问题只要书里有答案,他就能直接告诉你怎么解决。可如果书里没有,他就无从回答了。这正是现有大模型的局限。


也就是说,真正要把大模型做好,不只是加算力,而是让它“活”起来,这就需要操作系统、应用场景的发展协同,帮助它从归纳走向创新。


中国的国产大模型,显然正在运用这种高效、灵活的路径,找到更加“聪明”的人工智能发展方向。


人工智能,不是一场跑道和圈数划定的跑步比赛,而是一场向着未知的探险。中国企业选定的方向,不会轻易被各式的“焦虑”裹挟。


能者非他,能自树立不因循者是也。


延伸阅读:

对中国来说,美国航母无用论已经成为事实(一)
对中国来说,美国航母无用论已经成为事实(二)
对中国来说,美国航母无用论已经成为事实(三)
对美航母的破相能力——对中国来说,美国航母无用论已经成为事实(四)

美国这个国家实在是太坏了

美国军事霸权正在迅速丧失

美元霸权的终结已经进入倒计时了吗?

新能源清场式领先决定的美国成为中国小弟的精确时间

为什么美国会很快成为中国小弟?

水运差异的国运天注定 —— 美国成为中国小弟的准确时间系列文章

中美科技战——从轻舟已过到清场式领先

新能源清场式领先决定的美国成为中国小弟的精确时间







请到「今天看啥」查看全文