DeepSeek发布时,美国股市开盘后出现大规模下跌,芯片巨头英伟达股价暴跌16.86%,美国AI 领域的明星企业,及上下游企业也同样受损。
市场分析认为,美股暴跌是因DeepSeek带来的冲击所致。
为中国在全球AI竞争中争取更多话语权。尽管美国在AI生态和高端芯片领域仍占优势。
DeepSeek既站在了巨人的肩膀上,又在此基础上进行了大量自主创新实现了突破。例如,针对中文的优化、低成本高效率的实现方式、开源免费的战略等,都体现了 DeepSeek 的独特价值。这受益于全球 AI 技术的发展,尤其是在大模型领域(如 GPT、BERT 等)的积累。它在模型架构、训练方法、优化技术等方面借鉴了国际先进经验。
但单纯分析DeepSeek 技术,会不会真的是颠覆或全面压制?
这需要冷静思考。举个较典型的例子,有些文章提到了 PTX 汇编语言和CUDA的关系,并指出关于PTX 绕过 CUDA 。这种说法可能更多是一种情绪宣泄或美好愿景。
PTX(Parallel Thread Execution)是英伟达(NVIDIA)推出的一种中间汇编语言,用于编写GPU 程序。它是CUDA 编程模型的一部分,它的存在是为了优化GPU程序的编译和执行效率。CUDA是英伟达的并行计算平台和编程模型,而PTX是CUDA编译过程中的一个中间步骤,而不是为了绕过CUDA。并不能脱离CUDA生态独立运行,而是CUDA 生态的一部分。所以这并不能真正绕开英伟达的限制,也无法冲击英伟达在GPU领域的霸权。但是
这种技术路径为我们国产技术在AI、高性能计算和芯片领域的发展路径提供了一种优化性能的方向和启示:与其依赖上层算子调用,不如深入底层进行软硬一体的优化,并验证其可行性的价值。只有通过底层技术的创新,才能真正突破技术瓶颈,推动国产技术的崛起。
未来更强大的AI模型将面临更复杂的计算需求、数据处理和硬件资源,这意味着需要更大的投资。虽然对于当前同样性能的模型,算法层面的优化可以大幅降低节省投资。正如Anthropic的CEO达里奥·阿莫迪 (Dario Amodei) 团队发表过一篇论文的结论:
仅仅算法层面的进步就让成本曲线每年能有大约1.68倍的“平移”(即同样的性能,成本下降到原来的约1/1.68)。但未来的创新和技术突破依然需要更多的资金投入。
随着模型的规模和复杂性的增加,训练这些模型的成本必然大幅上升。
“大力出奇迹” 的模式在AI领域并未终止,算力仍然是未来技术突破的关键驱动力。
尽管短期内这种模式可能显得简单粗暴,但长期来看,它可能催生新的质变,并进一步拉开技术差距。从AI过去70多年的发展历史来看,算力的重要性无可替代,未来它将继续在AI技术的发展中扮演核心角色。这种趋势对AI领域的投资、研发和竞争格局具有深远影响。
在这场中美博弈上,DeepSeek 真正意义上实现了两大突破,一个是显著成本下降。第二个是开源大模型超过闭源大模型。
在相同时期和周期上,出现这样领先趋势,标志着中国在技术上迎来新机遇,但并不意味着全面压制。目前,DeepSeek原始支持的算力格式主要有FP32、FP8和BF16,但国内芯片原生支持FP8的还较少。虽然部分国产芯片在部署时做了量化处理(例如671B),但并非完全原生支持,仍需进一步关注和优化。国产芯片在制程和支持格式上都还有一定差距,技术突破是一个渐进的过程,不能指望一蹴而就,需要冷静理性和务实。