专栏名称: 光大证券研究
发布光大证券研究所研究成果,沟通证券研究信息,交流证券研究经验。
目录
相关文章推荐
银行家杂志  ·  从初心到城心 ... ·  4 天前  
51好读  ›  专栏  ›  光大证券研究

【机械】探讨DeepSeek对人形机器人发展的影响——具身智能系列报告(一)(黄帅斌/陈佳宁/李佳琦)

光大证券研究  · 公众号  ·  · 2025-02-10 07:00

正文

点击上方“光大证券研究”可以订阅哦


点击注册小程序

查看完整报告

特别申明:

本订阅号中所涉及的证券研究信息由光大证券研究所编写,仅面向光大证券专业投资者客户,用作新媒体形势下研究信息和研究观点的沟通交流。非光大证券专业投资者客户,请勿订阅、接收或使用本订阅号中的任何信息。本订阅号难以设置访问权限,若给您造成不便,敬请谅解。光大证券研究所不会因关注、收到或阅读本订阅号推送内容而视相关人员为光大证券的客户。


报告摘要


2025年1月20日,DeepSeek发布开源推理模型DeepSeek-R1

大模型架构层面:DeepSeek在Transformer架构的基础上也做了很多创新,主要包括两个方面:(1)多头潜在注意力即MLA;(2)混合专家模型即MoE。


工程优化层面:分别从计算、存储、通信等多个层面实施了软硬协同的工程优化策略:比如混合精度训练、跨节点通信优化、双流水线机制、DualPipe算法等。


由此DeepSeek-R1产生效果与成本的双重优化:评测指标超越Claude Sonnet3.5、OpenAI GPT-4o等一众前沿闭源模型,且推理成本大幅降低,每百万输出tokens定价较OpenAI o1降低95%以上。


相比智能手机、IoT、PC等端侧设备,人形机器人需要的是语言、图像、动作结合的多模态大模型,因此DeepSeek-R1作为一款LLM(语言大模型),人形机器人并不能直接受益。但随着后续发展,人形机器人有望从两个方向受益:

1)从单模态到多模态,有望实现更好的“大脑”。目前,在主流的具身智能大模型中,普遍采用VLM(视觉语言大模型)作为骨干,承担“task planning”的任务,即所谓的“大脑”。一方面,在Deepseek R1发布后,北大联合香港科技大学团队基于自研框架align-anything,将Deepseek R1系列模型扩展至图文模态,并取得了优越的视觉理解表现。另一方面,Deepseek团队本身也开发了系列大模型,如DeepSeek-VL2,大型混合专家(MoE)视觉-语言模型系列,具备较好的视觉语义对话能力。


2)开源的模型提升“大脑”水平,降低门槛,推动更多力量向“小脑”集中。以往的闭源模型使得很多具身智能团队需从头开发“大脑”和“小脑”。整体来看,由于训练数据的缺失,“大脑”的“task planning”能力相对成熟,而小脑的“motion planning”则较弱。Deepseek团队的开源策略,有望在“大脑”层面降低行业门槛,推动更多的力量向更底层的运控集中。


风险分析: 1)产业化进程不及预期;(2)竞争加剧风险;(3)核心技术进步不及预期。


发布日期: 2025-02-09








请到「今天看啥」查看全文