专栏名称: 科普中国
公众科普,科学传播
目录
相关文章推荐
内蒙古消费者协会  ·  别再迷信喝茶 ... ·  昨天  
内蒙古消费者协会  ·  别再迷信喝茶 ... ·  昨天  
科普中国  ·  堵车时,第一辆车在干嘛? ·  3 天前  
环球科学  ·  听说不用雷峰塔,用毛毯就能“封印”蛇? ·  4 天前  
51好读  ›  专栏  ›  科普中国

过年亲戚不聊结婚聊AI,DeepSeek为啥有这么大的魅力?

科普中国  · 公众号  · 科学  · 2025-02-07 18:30

主要观点总结

本文主要介绍了DeepSeek AI模型的特点和优势,包括其开源普惠、推理能力、成本降低、效率提升等方面。通过简单的语言和实际的例子,文章阐述了DeepSeek如何推动人工智能行业的发展,并展示了其在实际应用中的卓越表现。

关键观点总结

关键观点1: DeepSeek的特点

DeepSeek具备开源普惠、推理能力、成本降低等核心特点。通过强化学习算法,R1-Zero模型能够自学,展示出色的推理能力。DeepSeek模型的创新之处在于它的开源性,邀请全球科技人才进行改良和再创造。

关键观点2: DeepSeek的优势

DeepSeek在性能、成本和环保方面都有显著优势。它在MATH基准测试中得分为97.3,在AIME上得分为79.8,超过了OpenAI的o1预览版。同时,它通过一系列优化和创新,以极低的成本完成训练任务,而且能够在一个请求中处理大量数据,生成大量Token,非常适合编写深度报告或剖析大量数据集。

关键观点3: DeepSeek对AI行业的影响

DeepSeek的成功向我们揭示了通往AGI的可能道路,即通过推理能力和开源社区的合作来实现。它打破了数据垄断,激发了全球极客的激情,将AI从实验室带入到人们的日常生活中。


正文


这个春节,有一款国产 AI 大模型成了科技新闻里“最靓的仔”,甚至回老家过年,不少亲戚在饭桌上聊的“下饭话题”都变成了 AI。 我们这些在北上广互联网公司打工过的牛马,作为家人眼中唯一一个懂“修电脑”的人才,自然难免要被问到各种相关问题。


图片

图库版权图片,转载使用可能引发版权纠纷


如何跟不了解科技行业的亲朋好友简单易懂地讲清楚 DeepSeek,颇花费了我一番脑汁,但效果还不错,比如我妈听完后一拍大腿表示:八成懂了! (咳咳,有一说一,回答这个问题还是比“为什么不结婚/生小孩”,简单多了……ㄟ(▔,▔)ㄏ ) 接下来我就把我跟我妈讲的概括一下,希望能够帮你揭开DeepSeek的神秘面纱。


先总结一下,DeepSeek 有三宝:


开源普惠,人人可复制嫁接


成本大幅降低


训练模式突破性创新


其中每一条都为人类通往构建 AGI 创造了有利条件——所谓 AGI,指的是能够像人类一样完成各种不同任务的人工智能。它不仅能做一件事,还能学习、适应并解决多种问题。 接下来,咱们就简单聊聊 DeepSeek 先进在哪儿,有什么特点。


DeepSeek R1 强在哪儿?


DeepSeek 之前,最为人熟知的大模型产品是 ChatGPT,全球月活跃用户约 4 亿。但是大部分用户体验到的 ChatGPT 免费版本仍有许多不足。


比如,以前你问 ChatGPT 这样的问题:


“小美上午 9 点的心率是 75bpm,下午 7 点的血压是 120/80。她于晚上 11 点死亡。她中午还活着吗?”


Chatgpt 就会被绕晕,给出不靠谱的答案。这 说明彼时 ChatGPT 并不理解数字和数理之间,以及事物之间的逻辑关系,它回答对了可能是瞎蒙,可能是鹦鹉学舌。


注:由于现在的 AI 已经能解决这类问题,这里特地让 ChatGPT 扮演更老的版本以展示可能出现的错误


但 DeepSeek R1 在展示结果同时,显示了完整的思维力 (Cot) 推理过程,把问题一步步拆解分析,并且在学习数学题过程中,显示出了提炼总结数理公式的能力。



这就是 DeepSeek R1 在计算性质上不同于 ChatGPT 和 GPT-4/4o 的根本区别——R1 是推理模型,后者不是。


我们为了检验它是否真的学会了数理逻辑,而不是靠积累的语料数据“瞎蒙”,派他去独立解决各类数学和编程竞赛的问题,结果十分亮眼——在MATH基准测试中的得分为 97.3,在AIME上的得分为 79.8,超过了 OpenAI 的 o1 预览版。而在中科院物理所的竞赛比拼中,也取得了优异的成绩 (参见 我们用最近很火的 DeepSeek 挑战了物理所出的竞赛题,结果……


当然,这些测试只是从一个方面衡量了 DeepSeek R1 的能力,其他复杂的任务,可能会涉及不同的评估方法和指标。



为什么说 R1-Zero 是

AI 界的“野生学霸”


如果说传统 AI 是“补习班量产的好学生”,成才主要靠辅导老师天天耳提面命,那 R1-Zero 就是靠自学的“天才少年”。


R1-Zero 的“自学”过程依赖于强化学习(RL)算法,而非传统的人类标注数据 。通过反复训练和优化,尽管没有人工干预,它仍在特定的反馈机制下自我优化,最后在数学题目中展示出了卓越的推理能力。


这个方法跟 ALPhaGo 有些类似,对,就是那个曾经战胜过人类最强棋手的“硅基棋王”——它并没有根据人类的围棋教程学习,全程也没有接受过任何人类输入的信号指导,完全依赖自己和自己“亿局局”下棋、胜负归纳总结,产生了强大的下棋策略。


更绝的是,DeepSeek 的解题过程一步步推演,可以长达成百上千字,甚至上万,堪比《三体》里罗辑的面壁计划——每一步都充满“如果……那么……”的逻辑推演,而且连中学生都能看懂它的思维过程。


同时,它的训练方法还带来了效率提升,训练周期更短,资源消耗降低,由于省去了 SFT 和复杂的奖惩模型,计算量减少。


开源:技术界的“人民战争”


需要指出的是,DeepSeek R1 并不是目前唯一的推理模型。OpenAI 的 o1 模型在推理任务上表现也很出色,但是 DeepSeek 有个显著的不同。


那就是,OpenAI 的 o1 模型像米其林三星餐厅——菜品惊艳,但厨房谢绝参观。而 DeepSeek 直接把菜谱开源,邀请全世界极客来改良 ——有人往模型里塞《五年高考三年模拟》,训练出秒杀奥数冠军的 AI;有人用 R1 给女朋友写情书,结果因为逻辑过于严谨被骂“直男癌”。这种“群殴式创新”,让 AGI 研究从高冷学术圈变成了全民参与的“黑客马拉松” (指限定时间内大家通过编程、设计等技能合作,做出有趣或实用的项目。)


图片

版权图库图片,转载使用可能引发版权纠纷


更重要的是,模型开源,让全世界的科技人才,都有可能站在 R1 的基础上,进行改良再创造。科技的历史进程已经一次次告诉我们: 基础技术的传播扩散,会引发更大量、更先进的前沿突破和实际应用的涌现。


科技树的点亮,没办法仅靠一个人或者一家公司,DeepSeek 的开源,就相当于一次开枝散叶的重要过程,而这也会提高 DeepSeek 的声望和影响力。


省钱鬼才:成本仅用十分之一


大模型领域的研发其实是很“烧钱”的,很多知名的大模型,训练一次成本就高达数百万美元。


而 DeepSeek 最为人称道的,是它把成本抹了个零——是的,它直接把成本金额的末尾砍掉了一个“0”。 简单地说,DeepSeek 采用了一系列架构、算法和任务拆分等方面的优化和创新,这样就能只用较低的成本就完成训练任务,而这些方面的创造力正是 DeepSeek 的卓越之处。


更反常识的是,成本暴降的同时,性能反而飙升:它能够在一个请求中处理多达 128000 个 Token、一次最多可以生成 32000 个 Token (注:1 个 token 视情况相当于 1 个词语或 1 个汉字) ,非常适合编写深度报告或剖析大量数据集,作为生产力工具效能极大提升,活生生把 AI 从“吞金兽”变成了“招财猫”,利人利己。


用推理实现环保


最新的研究和报道显示,随着人工智能行业的规模和影响力急剧扩大,维持人工智能增长所需的计算能力大约每 100 天翻一番。目前,ChatGPT 每天需要消耗大约 564 兆瓦时的电能。


同时,支撑大模型运算的数据中心服务器会需要消耗大量的水资源来散热。有研究显示, Chat GPT-3 在训练期间耗水近 700 吨,其后每回答 20 至 50 个问题,就需消耗 500 毫升水。


耗能、耗水、增加碳排放,曾经是我们担忧通往 AGI 之路的重要阻力,但是,DeepSeek 的成功向我们揭示了——或许我们有其他更好的道路。


过去十年,AI 界沉迷于“数量碾压”:堆算力、冲数据量、比谁烧钱多。但 DeepSeek 另辟蹊径——与其让 AI 死记硬背《百科全书》,不如教它“怎么像福尔摩斯一样思考”。结果在 ARC-AGI 测试 (AGI 核心能力基准) 中,R1 系统与人类表现不相上下。


这证明:也许推理能力才是打开 AGI 之门的钥匙,而钥匙孔里透出的光,正在被开源社区的手电筒照得越来越亮。


DeepSeek 不是神话

是团队一步步创造的火种


虽然 DeepSeek 的故事听起来像一部科幻爽文:它用纯强化学习打破了数据垄断,用开源点燃了全球极客的激情,再用成本暴降,让 AI 能更好地从实验室走进我们的生活,但它绝不像某些流量自媒体为了博眼球说的那样横空出世,更不是什么抄袭了其他厂家 AI 的结果。


过去一年,DeepSeek 团队一直稳扎稳打,从 V2 模型 (2024 年 5 月发布) ,到 V3 模型 (2024 年 12 月发布) ,到最近的 R1 和 R1-zero 模型,每一步都取得了显著的进步, 走得很扎实,而且其创新有开源的信息为证。


因此,不要理会那些逆袭开挂爽文或是抹黑文,我们要相信的是, 从人类集体进步的角度讲,投入时间、智慧和真正能点燃人的信念,突破式创新一定会涌现。


当我们惊叹于 R1 的优异表现时,也别忘了——它省下的每一度电、开放的每一行代码,都在为 AGI 降临积蓄能量。或许未来某天,当真正具备通用智能的AI回首历史时,会像人类铭记火种与轮子一样,为 DeepSeek 刻下一块里程碑。



参考文献

[1]《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》  https://arxiv.org/abs/2501.12948







请到「今天看啥」查看全文