DeepSeek-R1 于上月推出,其能力与 o1 不相上下,可通过应用程序接口使用,成本仅为o1的一小部分 。
它和OpenAI模型的差别还在于它是“开放权重”
(open weight)
,也就是说即使它的训练数据没有公开,但任何人都能下载底层模型,并修改用于特定的科研项目。
R1“解锁了一个新范式”,让这个群体里——尤其是资源相对有限的人——也能构建专门的推理模型
,White说。
运行完整模型需要使用强大的计算芯片,这是很多专业学者所欠缺的。但香港中文大学
(深圳)
的计算机科学家王本友等研究人员正在构建能用单个机器运行或训练的版本。
和o1一样,DeepSeek-R1的强项是数学题和写代码。
但它对生成假说一类的任务也很在行,White说。这是因为DeepSeek选择公布该模型的完整“思维链”,
这能让研究人员更好地调整接下来的问题,最终优化模型的输出
,他说。这种透明性对于医疗诊断或许也是很重要的能力。王本友正在用实验锻炼R1——使用该模型类似推理的能力构建一个从患者评估到诊断和治疗建议的清晰、符合逻辑的途径。
DeepSeek-R1也有一些缺点。
这个模型好像有一个很长的“思维”过程,这会减慢它的速度
,使它在搜索信息或头脑风暴上的作用偏弱。
对于向其API和对话机器人输入数据的安全性担忧,导致一些政府禁止国家机构的工作人员使用这个对话机器人。DeepSeek也不像它的商业对手那样采取很多措施来防止模型生成伤害性的输出。添加过滤器来防止这类输出——如制作武器的步骤——需要时间和行动。虽然这肯定不是故意的,但缺少防护栏确实令人担忧,Simon说。
OpenAI还表示DeepSeek可能对其模型采取了“不适当的蒸馏”,这种方法是指用另一种算法的输出来训练模型,这在OpenAI的使用条件中是禁止的。
在本文发表前,我们无法联系到DeepSeek对这些评价作出回复。
一些研究人员认为这种蒸馏很正常,并且乐于使用R1,但也有人担心使用的工具未来可能有诉讼风险。
一旦使用该模型被认为有违期刊的伦理标准,使用R1的科研人员可能会被要求撤稿,EIT Manufacturing的AI法律律师Ana Catarina De Alencar表示。使用OpenAI和其他被指违反知识产权的公司的模型,也可能面临同样的处境,De Alencar说。新闻机构表示,这些公司是在未经允许的情况下使用新闻报道来训练它们的模型。