DeepSeek 的热度,终究还是被车圈蹭上了。
就在这几天,当我们还在跟 DeepSeek 互喷服务器繁忙的时候, N 个国内的车企就跟商量好了似的,先是岚图,后是极氪,紧接着就是智己、宝骏和
昨天的比亚迪。
之后甚至人传人到了斑马智行和亿咖通这些做车机的企业,都一个接一个的表示,自家的产品已经和 DeepSeek 最新的 R1 模型合体了。
而就在脖子哥写稿的时候,这个名单还在变长。
不知道大伙咋想啊,反正我在看到这些消息的时候,脑子里就是一连串的问号:
把 DeepSeek 用在车上有啥意义?他们说的深度融合到底是个啥形式?车载版本的 DeepSeek 和网页版又有啥区别?
当然最重要的灵魂拷问是,
这些车企们,到底是不是只是为了营销的热度在硬蹭 DeepSeek ?
你别说,在狠狠研究了一番以后哥们已经有结论了。说人话就是, DeepSeek 的成功对汽车行业确实有用,但
压根不是上头这些车企这么用的。
至于为啥,我们慢慢来看。
首先第一个问题,车企们是怎么把 DeepSeek 放到车上的?
可以肯定的是,大家都没有选择在车机里装 app 这种最直给的方式。因为从各路新闻稿里可以看到,大家都提到了 DeepSeek-R1 模型和自有模型在底层算法上的融合,部份品牌还提到了
模型蒸馏
的技术。
再加上一家名叫
思必驰
的云端大模型服务公司,前一阵也官宣了自己在云端模型里融合了 DeepSeek 模型,给像是长城、比亚迪这样的车企提供云端 AI 助手的支持。
基本可以确定目前上车的 DeepSeek-R1 ,大概率会是以下
两种形式
之一:
一是通过 DeepSeek 的 MIT 开源协议,
在自家的服务器上布置满血版或是蒸馏后的 R1 模型
,然后通过微调融合,和自家原有的模型变成一整个大模型。车主呢,则是通过车机联网来使用这个大模型的交流功能。
第二种则是通过
蒸馏
的方式,把 R1
压缩成一个体积非常小的小模型然后更新到车端
,让车主就算不联网,也能用上 DeepSeek 的一部分功能。
这两种方式说到底,就是给这些车上原本的 AI 模型上了一个 DeepSeek 的 buff ,让它拥有一部分 R1 的能力。
那这些模型是用来干啥的呢?其实。。。
就是能让语音助手说起话来更有人味而已。
是不是觉得有点无聊,是的,因为类似的功能已经在很多新势力车型上实现了。
比如之前很火理想 MindGPT 和蔚来的 NomiGPT ,对话沟通啥的不仅比传统的语音助手更流畅,一些比较抽
象的问题
,比如 “ 凿壁偷光需要判几年 ” 这种弱智吧问题,能答上来的概率也能相对高点。
但要我说啊,
这种用法压根就没发挥出 DeepSeek-R1 模型的能力,改善用车体验啥的就更别指望了。
你问为啥?
要知道, DeepSeek 的 R1 模型之所以产生了这么大的轰动,开源是一方面,最重要的还是它在训练的时候,很 big 胆的使用了
强化学习 + 奖励模型
的方式,最终涌现出了超强的
推理能力
,非常适合解决困难的逻辑问题。
打个比方啊,高中班里有俩同学 A 和 B ,面对同一道数学题, A 的做法是循规蹈矩的用各种公式,一步步按部就班的解题。而 B 则是管你公式这那的,自己靠着之前做过的超多题目,
自己摸索出一个解法
。
而这个解法,很有可能就会比硬套公式来的高效的多。就跟咱们学了高等数学再回去做高中的题似的,直接就秒了。
久而久之,相比死记公式的 A , B 同学就更能理解问题和答案之间的逻辑关系,在面对没见过的复杂问题,
比如巨难的数学和编程问题的时候,也能更快、更准确的推理出正确的答案。
而这个 B 对应的,其实就是 DeepSeek-R1 的纯强化学习的训练模式。
不需要像以往的监管学习一样一直用规则来微调和修正,只靠着做对了就奖励,让 AI
自己领悟推导过程
。
这时候再回到车上的语音助手,问题就来了,因为咱们压根不会问它什么太复杂的问题,顶多就是问问天气放放歌啥的。
这些功能就算不是 DeepSeek 这种级别的大语言模型,其实也都能解决的七七八八。只要你不是开车开一半突然就问语音助手:
那在体验上大概率就不会和现有的车载大模型有太大的差别。
再加上经过蒸馏和融合之后的小模型,能力对比满血版有着不小的阉割,
对于自己本来就有自己的大模型的车企来说,再加一个 DeepSeek 着实没啥必要。
所以啊,那些着急喊出 DeepSeek 口号的车企们,我的评价是热点么肯定是想蹭的,
DeepSeek 上车的实际效果,肯定也远没有宣传里那么邪乎,大伙可以坐下了。
当然,如果车企本来在座舱 AI 上有短板,能靠着开源的 DeepSeek-R1 做做查缺补漏,让自家的模型追上一线新势力的水平,确实也不是什么坏事。
可就像我开头说的,
DeepSeek 如果只是拿来做语音助手的话,那属实是有点浪费了
。毕竟它更大的潜力,其实是在
智能驾驶
上。
就这么说吧,甭管是很火的端到端还是规则算法,如果能更多的用上 DeepSeek 的强化学习模式,或许就能让能力往上
提高一大截
。
真不是我吹啊,大伙还记得前头做题的同学 A 和 B 么,其实类似的道理在智能驾驶上也同样成立。
现在几乎所有的主流智能驾驶其实就是那个循规蹈矩的同学 A ,在训练模型的时候都是
模仿学习
为主。模仿嘛,顾名思义就是让智驾算法能跟专家的行为示范对应,也就是模仿人类开车。
比如特斯拉、比亚迪和华为,就都会从驾驶评分比较高的车主那收集驾驶数据,比如摄像头拍的视频喂给算法,
研究车主们怎么从 A 点开到 B 点
,再进行一个模仿。
很明显,这种思路到头来训练出的就是跟
人类开车水平持平
的智驾。但强化学习则完全不同,因为它学习的不是驾驶的过程,而是通过不断的试错,领悟出从 A 点开到 B 点最高效的路线。
而这个领悟的上限,可不就只是能让智驾开得像人了。
要知道智驾系统对于环境的感知能力,其实比我们人类司机强很多。当我们过路口的时候还在东张西望看前后左右有没有障碍物的时候,智驾通过车上各种的摄像头和雷达只要
一瞬间就能看个大概
。
当我们只能单线程的先观察、后打灯、再变道的时候,智驾也能在
同一时间用一个操作搞定。
理论上,只要学习和领悟到位,智驾就能推理、总结出许多比人类司机效率更高、
更能利用好各种车辆性能
的驾驶方式。很多咱们觉得很难、用模仿学习咋学都学不会的小众场景,强化学习可能分分钟就能搞定。
都说现在的智驾是刚拿驾照司机的水平,用上强化学习之后,指不定真就会变成有了
十几年驾龄的超绝老司机
。
当然了,理论终究是理论,想要在智驾训练里大规模的用上强化学习,依旧有不少难点和瓶颈。