需要注意的是,557.6万美元是DeepSeek技术报告中提到的基座模型DeepSeek-V3的训练成本。“关于V3版本的训练成本只能代表最后一次成功训练的成本,前期的研究、架构及算法的试错等成本都没有包含在内;而R1的具体训练成本,论文中没有提到。”刘聪表示。也就是说,557.6万美元仅为模型总成本的一小部分。
半导体市场分析和预测公司SemiAnalysis指出,考虑到服务器资本支出、运营成本等因素,DeepSeek的总成本在4年内可能达到25.73亿美元。
从业者认为,相较其他大模型公司百亿美元的投入,即便按25.73亿美元计算,DeepSeek的成本也是低的。
而且,DeepSeek-V3的训练过程仅需2048张英伟达GPU、所用GPU小时仅为278.8万,相比之下,OpenAI耗费了上万张GPU,Meta训练模型Llama-3.1-405B所用的GPU小时为3084万。
DeepSeek不仅在模型训练阶段效率更高,在调用推理阶段也更高效、成本更低。
从DeepSeek给出的各大模型API定价(开发者可以通过API调用大模型,实现文本生成、对话交互、代码生成等功能),能看出成本其低于“OpenAI们”。通常认为,高开发成本的API通常需要通过较高的定价来回收成本。
DeepSeek-R1的API定价为:每百万输入tokens1元(缓存命中),每百万输出tokens16元,反观OpenAI的o3-mini,输入(缓存命中)、输出每百万tokens的定价,分别为0.55美元(4元人民币)、4.4美元(31元人民币)。
缓存命中,即从缓存中读取数据而非重新计算或调用模型生成结果,可以减少数据处理的时间、降低成本。行业通过区分缓存命中和缓存未命中,从而提高API定价的竞争力,低价也让中小企业也更容易接入。
近期结束了优惠期的DeepSeek-V3,虽然从原来的每百万输入tokens0.1元(缓存命中)、每百万输出tokens2元,分别上调到了0.5元、8元,价格仍然低于其他主流模型。
虽然大模型总训练成本很难预估,但从业者一致认为,DeepSeek可能代表的是目前一流大模型的最低成本,未来各家应该会参照DeepSeek往下降。