专栏名称: 纳指弹幕组
多聊市场的想法,少聊自己的想法.
目录
相关文章推荐
数据法盟  ·  国家公共数据资源登记平台今日上线运行 ·  昨天  
数据法盟  ·  国家公共数据资源登记平台今日上线运行 ·  昨天  
包头新闻网  ·  明天,这场全媒狂欢盛宴,即将启幕 ·  2 天前  
中国城市报  ·  生产总值超19万亿元!2024年国家高新区发 ... ·  4 天前  
中国城市报  ·  生产总值超19万亿元!2024年国家高新区发 ... ·  4 天前  
51好读  ›  专栏  ›  纳指弹幕组

产业视角: 推理对高带宽内存的依赖

纳指弹幕组  · 公众号  · 互联网安全 科技自媒体  · 2025-03-02 22:39

主要观点总结

文章主要讨论了产业对于推理过程中高带宽内存的依赖,相对于推理所需的算力,内存的重要性被更多关注。文章以DeepSeek-R1模型为例,详细说明了其对高带宽内存的需求和在推理过程中内存带宽的重要性。

关键观点总结

关键观点1: 产业更关注推理对高带宽内存的依赖

DeepSeek-R1模型运行需要大量内存,体现产业对高带宽内存的依赖。

关键观点2: DeepSeek-R1模型对内存的需求细节

整个模型运行需要671 GB的HBM,且即使模型中只有约370亿个参数处于活跃状态,其他部分(包括门控函数及权重)也需常驻内存,并保留额外缓存为生成“思考链”所用。

关键观点3: 内存带宽在推理过程中的重要性

芯片内的内存带宽在推理过程中至关重要,因为所有数据的读写都集中在单个芯片上进行。

关键观点4: 预训练阶段与测试时推理阶段的差异

预训练更侧重于大量数据和模型参数在多个芯片之间的传输,而测试时推理主要依赖单个芯片上高效的内存带宽,以支持“思考链”的生成和处理。

关键观点5: 提高推理性能的方法

为了提高推理性能,可以通过增大单卡的HBM容量或优化内存带宽利用率,如通过混合专家模型或直接在低级语言层面优化内核。


正文







请到「今天看啥」查看全文