比 CoT 更先进的 Chain-of-Draft (CoD)技术来了,一种解决大型语言模型(LLM)推理延迟问题的全新策略。论文:Chain of Draft: Thinking Faster by Writing Less
1. 告别传统的Chain-of-Thought(CoT)推理方式,CoD 通过生成简洁、信息密集的推理步骤,大幅减少了冗长的中间推理过程,同时保持了强大的性能。
2. 在GSM8k数学问题上,CoD实现了91%的准确率,并且与CoT相比,减少了80%的响应Token数量。不仅如此,CoD在日期/体育理解和硬币翻转推理等任务上达到或超过了CoT的性能,显著降低了推理时间和成本。
3. 与CoT长篇累牍的输出不同,CoD要求模型为每个推理步骤生成简洁、密集的Token,这样做不但减少了80%的Token数量,还能在数学、常识等基准测试中依然保持了准确性。
4. 尽管使用的词汇更少,CoD仍然保持了核心逻辑的可见性,类似于人类做笔记时只记录关键点而不是完整解释。这样不仅保留了可解释性,便于调试,也确保了模型不依赖于“隐藏”的潜在推理。
CoD的出现为语言模型的推理效率和准确性提供了新的可能性,特别是在需要处理大量数据和快速响应的场景中展现出巨大的潜力。
访问:arxiv.org/abs/2502.18600
#ai创造营# #deepseek# #程序员#
1. 告别传统的Chain-of-Thought(CoT)推理方式,CoD 通过生成简洁、信息密集的推理步骤,大幅减少了冗长的中间推理过程,同时保持了强大的性能。
2. 在GSM8k数学问题上,CoD实现了91%的准确率,并且与CoT相比,减少了80%的响应Token数量。不仅如此,CoD在日期/体育理解和硬币翻转推理等任务上达到或超过了CoT的性能,显著降低了推理时间和成本。
3. 与CoT长篇累牍的输出不同,CoD要求模型为每个推理步骤生成简洁、密集的Token,这样做不但减少了80%的Token数量,还能在数学、常识等基准测试中依然保持了准确性。
4. 尽管使用的词汇更少,CoD仍然保持了核心逻辑的可见性,类似于人类做笔记时只记录关键点而不是完整解释。这样不仅保留了可解释性,便于调试,也确保了模型不依赖于“隐藏”的潜在推理。
CoD的出现为语言模型的推理效率和准确性提供了新的可能性,特别是在需要处理大量数据和快速响应的场景中展现出巨大的潜力。
访问:arxiv.org/abs/2502.18600
#ai创造营# #deepseek# #程序员#