DeepSeek于2025年2月24日正式启动“开源周”,计划连续5天每天开源一个项目。
第一天,DeepSeek就放大招。#DeepSeek榨干显卡性能潜力震惊网友#等话题引发关注!
DeepSeek开源周的第一个项目为
FlashMLA,可以理解为专门为高性能显卡(Hopper GPU)设计的“AI加速工具”。
例如,当AI同时处理长句子和短句子时,FlashMLA能动态调整资源分配,避免浪费算力。
网友们纷纷点赞,向DeepSeek工程团队致敬。有人表示,“DeepSeek王炸开局”“‘源’神启动!”有人称赞说,“DeepSeek是真正的Open AI”。
2月25日,DeepSeek再度官宣,今日开源代码库为
DeepEP,它是首个用于 MoE 模型训练和推理的开源EP通信库。
特点有:高效的全员沟通;节点内和节点间均支持 NVLink和RDMA;用于训练和推理预填充的高吞吐量内核;用于推理解码的低延迟内核;原生 FP8 调度支持;灵活的GPU资源控制,实现计算-通信重叠。
DeepSeek选择了先在GitHub上线,然后再在官方账号发上新通知。不出所料,底下一片叫好:
DeepSeek开源列车永不停止
据介绍,DeepSeek的目标是通过开源透明化团队在通用人工智能(AGI)领域的探索进展,推动技术共享与行业应用加速。这个“开源周”已经吸引了全球开发者极大关注。
据悉,DeepSeek
的横空出世及开源策略正在牵动大模型赛道的分化,以及各国不同的AI发展路径之争。
最初,开源指“开放源代码”,
在人工智能和数字时代,开源更指的是“开放资源”。
有业内人士告诉记者,其实在DeepSeek-R1发布之前,o1模型已经具备了深度思考的能力,只是OpenAI秉持闭源策略,并未公布o1的技术方案,而DeepSeek则是自主探索出了背后的技术,并对此进行了全面开源,引发全球热潮。
今年,在DeepSeek的带动下,越来越多的AI厂商开始拥抱开源。
天使投资人、资深人工智能专家郭涛表示,越来越多AI企业选择开源,
一方面
将促使各企业更加注重打造差异化的生态体系,围绕开源模型衍生出不同的服务、插件、工具等产品
;
另一方面,
为了在生态竞争中胜出,企业会联合起来制定统一的接口规范、数据格式等标准,提高整个行业的协同效率和兼容性。
“AI这个领域本身就是由开源推动的。”
清华大学计算机科学与技术系长聘副教授、面壁智能创始人刘知远认为,开源不仅是一种技术选择,更是一种信任机制。当一个项目开源,意味着它向全世界证明自身的可信度——我说它能做到什么,任何人都可以去验证,这种机制将极大地提升现代社会的运作效率。
“未来,开源会得到更深入、更广泛的应用,它是一种不可逆的趋势。”
刘知远也表示,不能简单地将开源视作一种无条件的共享,而是要注重如何在开源的基础上,构建更深层次的技术优势,“真正的竞争力,不在于某一个具体的开源模型,
而在于如何高效、稳定、可持续地生产更先进的模型。
这才是决定一家AI公司能否保持领先的关键。”