#DeepSeek#
AI 重要的突破要多写一次
总之,这几天是一次很烧脑的过年假期,感觉比平常还要认真研读资料。甚至大年初一晚上还有券商办2000人的专家论坛..... 这个市场实在太卷。
当然,花了这些精神做功课,就是要研究一下开年后的投资动作,究竟是新春大特卖赶快捡便宜、还是苗头不太对脚底要抹油?短期市场已经走了后者,但相关的AI应用却可能加速发展。
DS 的论文重点以及它在算法上的突破,网络上已经有很多人分享,我就不再赘述;直接讲几个观察到的重点吧~
1)还记得Apple为了推销Apple Intelligence,将iPhone 全面升级到8GB以上吗?这仅仅是为了跑一个3B 参数的小模型而已。 现在,有人成功用一张 Nvidia RTX 6000 (48GB VRAM) 就可以跑动 DS 671bn 参数的大模型,而且这个模型还开源可以直接下载。
这代表什么意思?以后企业或个人要布建AI,可能买一台具有高阶显卡的计算机就做的到。 不用每个月花200USD订阅OpenAI、不用CSP租赁昂贵的AI server & 网络..... 在地端布署AI 变得简单&便宜许多。这两天已经有看到朋友的公司开始研究把AI模型的布建转为在地端执行的可能性。
2)各大厂纷纷投入:短短几天,可以看到微软、AWS、NVIDIA 都开始提供DS R1 模型的服务。由于对硬件的要求的确不高,百万token 输出的价格只要2.19美元(作为对比: OpenAI的输出价格爲60美元/百万Token),价差接近30倍。
NVIDIA 官方也有描述:在单个NVIDIA HGX H200系统上,完整版DeepSeek-R1 671B的处理速度可达3,872 Token/秒。仅需一个系统就可以完整运作DS R1 大模型。就算企业依然需要利用云端来布建AI,需要的系统&价格也比之前简化许多。
3)英伟达关键优势不再? 这两年来,我们持续提到NV产品在大模型与高运算力方面的优势,包括存储器的使用、NVlink多卡串联、Scale-up/out 的领先等等;在探讨下一代Rubin或更后面的产品,讨论的是一个机柜做到NVL 144/288 、如何处理这么大功耗的产品、系统架构该如何演进等等;
重点不仅仅是“教主产品做的比别人好”,而是“不用教主的产品就根本无法训练&使用这些大的模型”。
忽然间,这个必要性被打了一个大问号。
进而延伸的问题:HBM、CoWoS等等原本为了在空间体积功耗等等限制下塞进最多算力的技术,是不是仍然必要?还是有许多便宜的替代品可以用?
总之,这几天是一次很烧脑的过年假期,感觉比平常还要认真研读资料。甚至大年初一晚上还有券商办2000人的专家论坛..... 这个市场实在太卷。
当然,花了这些精神做功课,就是要研究一下开年后的投资动作,究竟是新春大特卖赶快捡便宜、还是苗头不太对脚底要抹油?短期市场已经走了后者,但相关的AI应用却可能加速发展。
DS 的论文重点以及它在算法上的突破,网络上已经有很多人分享,我就不再赘述;直接讲几个观察到的重点吧~
1)还记得Apple为了推销Apple Intelligence,将iPhone 全面升级到8GB以上吗?这仅仅是为了跑一个3B 参数的小模型而已。 现在,有人成功用一张 Nvidia RTX 6000 (48GB VRAM) 就可以跑动 DS 671bn 参数的大模型,而且这个模型还开源可以直接下载。
这代表什么意思?以后企业或个人要布建AI,可能买一台具有高阶显卡的计算机就做的到。 不用每个月花200USD订阅OpenAI、不用CSP租赁昂贵的AI server & 网络..... 在地端布署AI 变得简单&便宜许多。这两天已经有看到朋友的公司开始研究把AI模型的布建转为在地端执行的可能性。
2)各大厂纷纷投入:短短几天,可以看到微软、AWS、NVIDIA 都开始提供DS R1 模型的服务。由于对硬件的要求的确不高,百万token 输出的价格只要2.19美元(作为对比: OpenAI的输出价格爲60美元/百万Token),价差接近30倍。
NVIDIA 官方也有描述:在单个NVIDIA HGX H200系统上,完整版DeepSeek-R1 671B的处理速度可达3,872 Token/秒。仅需一个系统就可以完整运作DS R1 大模型。就算企业依然需要利用云端来布建AI,需要的系统&价格也比之前简化许多。
3)英伟达关键优势不再? 这两年来,我们持续提到NV产品在大模型与高运算力方面的优势,包括存储器的使用、NVlink多卡串联、Scale-up/out 的领先等等;在探讨下一代Rubin或更后面的产品,讨论的是一个机柜做到NVL 144/288 、如何处理这么大功耗的产品、系统架构该如何演进等等;
重点不仅仅是“教主产品做的比别人好”,而是“不用教主的产品就根本无法训练&使用这些大的模型”。
忽然间,这个必要性被打了一个大问号。
进而延伸的问题:HBM、CoWoS等等原本为了在空间体积功耗等等限制下塞进最多算力的技术,是不是仍然必要?还是有许多便宜的替代品可以用?