文章介绍了国产AI产业的最新发展,以DeepSeek的走红为例,阐述了国产大模型和国产芯片算力的生态适配以及训练算力的重要性。同时,提到了科大讯飞在AI技术创新和国产算力平台方面的成果,以及整个AI产业的发展趋势和挑战。
文章指出,DeepSeek的大模型服务已经接入多个云平台和国产芯片,引发了行业的关注。这不仅仅是模型本身的技术优势,还涉及到应对国际算力供应链的不确定性,实现大模型自主可控的紧迫性。
文章强调了训练算力的重要性,它是人工智能模型从无到有的关键。大模型的进步依赖于不断优化和迭代模型,这需要持续的强大算力支持。训练算法的创新也对算力水平提出了更高的要求。
科大讯飞联合华为打造的万卡国产算力平台“飞星一号”已经稳定运行,并能支撑全国产算力大模型的训练。其推出的基于国产算力的大模型讯飞星火X1,在深度思考和推理能力方面表现出色。
文章指出,越来越多的企业加入国产AI技术的战场,形成了独特的生态协同。这种协同产生了远超预期的“化学反应”,推动了国产AI技术的快速发展。
文章认为通用人工智能的发展已经来到了重要节点,企业必须坚持自主可控的技术路线,不断提升技术实力。同时,产业分工更加明确,应用场景丰富,但实现AGI仍然充满挑战和希望。
梦晨 白交 发自 凹非寺
量子位 | 公众号 QbitAI
DeepSeek太过火爆,整个国产AI产业都调动起来了!
春节没过完,就已迅速适配多个国产芯片,并在各大云平台上线,好生热闹~
这一系列动向主要聚焦于以下三个方面:
-
平台层:
像华为云、阿里云、腾讯云等云厂商先后接入DeepSeek相关大模型服务,价格不变甚至有的更便宜、性能与官方相当,直接零门槛部署API开发各种应用。
-
算力层:
一些国产算力玩家,像昇腾、壁仞等,他们联合生态玩家完成了与模型的适配,也纷纷上线了DeepSeek R1模型服务。
-
应用层:
AI应用厂商、手机助手也在接入和部署国产模型。像我们更日常的手机端,华为小艺助手已接入DeepSeek,只需升级至原生鸿蒙系统就可以体验。
实际上,国产大模型和国产芯片算力的生态适配,已经有了成功实践。
破算力困局:国产AI生态的生死突围
为什么DeepSeek的走红,能够让国内AI产业如此迅速地行动起来?仅仅只是因为模型本身的技术优势吗?
答案并非如此。
还有一个关键因素,是应对国际算力供应链的不确定性,面对来自国际的压力,实现大模型自主可控愈发紧迫起来。
算力是大模型的基础,可以按照应用场景分为:训练算力、推理算力和应用算力。
训练算力
是指用于训练机器学习模型的计算资源,过程中涉及大量的数据输入、复杂的数学运算以及反复的迭代优化,计算密集、时间长、硬件需求高、数据量也很大。
推理算力
是将训练好的模型应用于实际数据以生成预测或结果的计算资源,过程比训练简单,但需求高效且低延迟。
应用算力
是指支持整个AI应用系统运行的计算资源,包括数据处理、模型推理、用户交互、存储和网络通信等。
目前,在整个中国的大模型产业中,大模型算力还是主要依靠海外算力,尤其是在训练环节。
那么为什么要特别强调训练环节呢?因为训练算力是人工智能模型从无到有的关键,大模型的进步依赖于不断优化和迭代模型,而这需要持续投入。
在训练阶段,强大的算力是优化模型参数、提升模型性能的关键。当前主流的大模型动辄拥有数百亿、上千亿个参数,如此巨量的参数空间意味着海量的计算工作量。
只有拥有超大规模的算力集群,才能支撑起如此复杂的训练任务。而训练算法的创新,如更高效的并行化策略、更智能的参数搜索方法等,都对算力水平提出了更高要求。
训练算力作为AI技术创新的战略制高点,其自主可控程度直接决定产业发展主动权,掌控了大模型的训练过程,才算掌握了AI技术创新的核心。
在国产算力平台尚处拓荒期时,多数企业因技术门槛高、投入风险大而却步,科大讯飞作为先行者选择了一条“硬核突围”之路:
科大讯飞联合华为打造的万卡国产算力平台“飞星一号”,自2023年10月启用以来,目前已长稳运行,全年平均使用率94%,能支撑万亿参数大模型训练。
2024年1月,“飞星一号”的首个成果
讯飞星火V3.5
是首个全国产算力训练的大模型。
一年过去了,讯飞星火仍然是唯一的一家全国产算力大模型。
为什么是唯一一家?
这既是由于全栈自研的技术处于深水区,从芯片指令集优化,到超大规模集群稳定性保障,技术复杂度呈指数级攀升。
也是对长期投入的战略定力的考验,全算力国产化需要持续多年的高强度投入,多数企业难免更倾向于选用现成方案,这种路径依赖导致其训练算力环节始终受制于人。
值得一提的是,今年1月15日,科大讯飞发布了我国首个基于全国产算力训练的具备深度思考和推理能力的大模型讯飞星火X1,和DeepSeek可以说是异曲同工。
仅用1万张910B国产算力卡,科大讯飞不仅取得了大模型研发上的一系列成果,而且做了大量国产算力平台上的无人区的适配和效率优化,用更少的算力、更小的模型尺寸,在国产算力平台上实现了业界一流的深度思考和长文本推理效果。
可以说是真正把国产算力做到了极致效率,这更需要技术实力和战略勇气,也标志着国产AI技术在应对复杂认知任务上取得了重要突破。
科大讯飞董事长刘庆峰透露,讯飞团队正在加紧迭代,有望
在未来一个月内
推出性能更上一层楼的升级版讯飞星火X1,确保在数学、教育、医疗一科研等关键领域始终处于业界领先水平。
与此同时,“飞星二号”——科大讯飞、华为、合肥市大数据资产运营有限公司三方联合打造的中国国产超大规模智算平台,首批算力也将在2025年交付试用。
这种国产AI生态协同产生了远超预期的“化学反应”:华为昇腾系列芯片在真实场景中得到千锤百炼,不断打磨、迭代出更适配AI应用的特性;讯飞模型通过与硬件深度适配,摆脱了算力瓶颈的桎梏,探索出的创新训练范式。
当下愈来愈多的企业加入战场,国产AI技术体系的独特性开始显现——它既非对国际技术的简单模仿,也非闭门造车的另起炉灶,而是在生态协同中进化演绎的全新物种。
科大讯飞董事长刘庆峰说:“都说前人栽树,后人乘凉。在全国产化大模型的路上,总得有人做那个栽树人。”市场狂欢背后,先行者的远见与定力,正在这场AI竞赛中显现出跨越周期的战略意义。
科大讯飞已经完成了训练算力、推理算力和应用算力的全部国产化。
从2024年1月至今,讯飞星火大模型已经实现了5次升级,持续对标GPT-4 Turbo和GPT-4o,还首发星火多语言大模型,给了世界第二选择。
在产业应用上,科大讯飞是少有的GBC三方向都覆盖的市场参与者,
以“GBC联动”的方式,推动大模型应用落地。
GBC联动,不仅是三大业务方向都要布局,更是利用好其中的资源共享与协同效应。
G端建立示范效应,为B端和C端市场的拓展奠定基础;在B端通过与行业龙头企业的合作,扩大市场影响力,增强C端产品的市场认知度和信任度;同时C端的反馈和市场需求为G端和B端的产品优化提供了数据支持。
在这种策略下,具体取得哪些成果呢?
模型迭代层面,2024年的讯飞星火GB端共性能力相对提升25%,长文本效果相对提升50%,行业图文效果相对提升60%。
业务落地层面,截至去年底,科大讯飞已经与中国石油、中国移动、中国海油等央国企及20多个行业的头部企业一起发布行业大模型,覆盖300多个应用场景。
此外值得一提的是,科大讯飞在2024年还夺得“央国企大模型第一”的好成绩,中标金额超第2-6名之和,在中标项目数量和金额上都实现断层领先。
△
图源:智能超参数
像这样以模型和算力为底座,以行业数据为积累,以应用和服务为落脚点,最终建立起”技术优势-商业回报-数据反哺”的正向循环,才能不断加深自己的”护城河”,在错综复杂的竞争中找到立足点。
这场始于算力突围的技术革命,终将演变为生态价值的全面释放——这或许是中国AI给世界的最好答案。
“通用人工智能是一场需要聚精会神的长跑”
而如果将时间继续往前推进,能够看到当前国内大模型发展,其实来到了重要节点。
一边大模型朝着更高智能水平方向演进,另一边关于AI产业生态也进一步深入和夯实,不管是从底座、到模型再到应用,都在向通用人工智能这一最终目标加速行进。
这在各海内外专家的看法中,也进一步得到了印证:虽然AGI实现时间表众说纷纭,但也的确迎来了关键时刻。
奥特曼认为在现有GPU硬件上可以实现通用人工智能。在他的年终总结中能够看到,OpenAI已经明确AGI如何实现,并且将目标转向了更远的超级智能。
而李飞飞聚焦在空间智能的实现上,认为作为AGI的关键一步,空间智能能让AI学习、理解并行动。就在前段时间他们团队完成了AI模拟世界的雏形:AI可以仅凭一张图,就能生成可交互的3D世界。
图灵奖得主LeCun、Hinton则是关注在大模型能力过快迭代背后的安全隐忧之中,探讨如何以人为本地发展人工智能。这本身也是AGI绕不开的问题。
在大家都在探讨如何实现、还有多远的时候,科大讯飞董事长刘庆峰提出了一个独特的观点:通用大模型的天花板仍然在被持续打开。但是,就算再怎么发展,根基也得在自己手里,自己的大楼决不能建在别人的院子里。
如今在风起云涌的通用人工智能浪潮,刘庆峰认为,有没有自主可控的国产底座能力做支撑,这决定了我们在这条路上能走多远,决定了在通用人工智能这一波浪潮中,我们能不能享受这波红利,能不能成为美国之后全球智慧涌现的第二级。
基于这样的逻辑,为什么做“飞星一号”?其实就能找到背后的原因。
讯飞不仅走得远,还走得深。
科大讯飞在其创立第一天起,就一直坚持走国产化路线,立志“技术报国”,要让“中文语音技术由中国人做到最好,中文语音产业掌握在中国人自己手中”。这是做中国技术的初心,现在看来,其影响无比深刻。