专栏名称: 机器学习算法与Python实战
长期跟踪关注统计学、数据挖掘、机器学习算法、深度学习、人工智能技术与行业发展动态,分享Python、机器学习等技术文章。回复机器学习有惊喜资料。
目录
相关文章推荐
小米汽车  ·  #小米SU7Ultra#原型车今日现身小米科 ... ·  昨天  
小鹏汽车  ·  小鹏P7+答用户问(第11期) ·  2 天前  
高工智能汽车  ·  AI汽车新风向:「死磕」AI底盘,引爆线控底 ... ·  5 天前  
鹤城发布  ·  明确了,减免! ·  3 天前  
51好读  ›  专栏  ›  机器学习算法与Python实战

“CloseAI”在美国,“OpenAI”在中国

机器学习算法与Python实战  · 公众号  ·  · 2025-01-22 11:23

正文


大家好,我是章北海

今天中国版 OpenAI—— DeepSeek 开源了最新、最强悍 R1 系列大模型

  • DeepSeek-R1 推理大模型
  • DeepSeek-R1-Zero
  • R1 数据蒸馏的 Qwen、Llama 系列小模型

DeepSeek-R1 推理大模型,性能与 OpenAI-o1-1217 不相上下。

最惊艳的是 R1-Zero 模型(预训练模型直接 RL,不走 SFT)在思考过程中涌现了 “顿悟时刻”(aha moment) ,并自己学会为问题分配更多思考时间。

DeepSeek 团队开源了蒸馏的 Qwen 和 Llama 系列模型,蒸馏 14B 模型在推理基准测试中大幅超过了当前最先进的开源 QwQ-32B-Preview,而蒸馏的 32B 和 70B 模型在密集模型中树立了新的推理任务基准。

团队还把在实验过程中很多失败的尝试分享出来,防止后人踩坑。在过程奖励模型、蒙特卡洛树搜索算法上,DeepSeek 都没能获得进展。不过他们也强调,只是他们失败了,并不意味着这些方法无法开发出有效的推理模型。

也就是,过程奖励模型、蒙特卡洛树搜索算法可能此路不通,但也可能是我们不行。

运行 deepseek-r1

现在 ollama 一行代码

ollama run deepseek-r1:7b 即可跑起 deepseek-r1

70 亿参数版本的本地运行,我测了一下

模型大小 4.7GB

运行起来之后,显存占用只有5.4GB

实际对话,最明显的变化是可以看到它的思考过程

更大尺寸的版本,我还在下载中,如果感受不错,我可能要抛弃Qwen2.5了。

这一波开源,我看很多评论把 DeepSeek 成为真正的 OpenAI,仅看开源协议就属实真诚了

🏆 DeepSeek-R1 采用 MIT 许可证,免费商用 🔓 向社区开放,以便利用模型权重和输出 🛠️ API 输出可用于微调与蒸馏

MIT 许可证是源自美国麻省理工学院(Massachusetts Institute of Technology,MIT)的一种开源许可证。MIT 许可证是一种非常宽松的开源许可证,对软件的使用、修改和分发限制较少,给予了开发者极大的自由。

最后放一些列deepseek相关资源,共同学习:

  • 网页体验: https://chat.deepseek.com/






请到「今天看啥」查看全文