专栏名称: LLM SPACE
每周高质量AI信息
目录
相关文章推荐
常观  ·  下架!彻底凉凉 ·  昨天  
常观  ·  下架!彻底凉凉 ·  昨天  
李楠或kkk  ·  如果 5080 比 4090 强不到 ... ·  昨天  
幸福东台  ·  你已被设置为平台紧急联系人! ·  3 天前  
幸福东台  ·  你已被设置为平台紧急联系人! ·  3 天前  
51好读  ›  专栏  ›  LLM SPACE

大模型日报(1月8日 学术篇)

LLM SPACE  · 公众号  · 互联网安全 科技自媒体  · 2025-01-08 20:29

主要观点总结

文章主要介绍了关于AI学习社群、语言模型评估、REINFORCE++算法等相关内容。包括搭建AI学习社群的目的,奇绩大模型日报的推广,《FACTS Grounding Leaderboard》论文关于语言模型评估的介绍,REINFORCE++算法的优化目标及其优势等。

关键观点总结

关键观点1: AI学习社群的搭建

文章提出了搭建AI学习社群的愿景,让大家能够学习到最前沿的知识,共建一个更好的社区生态。并推荐了通过飞书官方社区获取相关资讯的途径。

关键观点2: 语言模型评估的介绍

文章介绍了论文《FACTS Grounding》中的在线排行榜和相关基准,用于评估语言模型生成与用户提示中给定上下文相关的事实准确文本的能力。该论文通过两个阶段对模型进行评估,并维护了一个排行榜以允许外部参与。

关键观点3: REINFORCE++算法的优化

文章介绍了REINFORCE++算法,它是经典REINFORCE算法的增强版本,结合了PPO的关键优化技术,并消除了对批评者网络的需求。该算法实现了简单、增强训练稳定性和减少计算开销三个主要目标,并且比GRPO表现出更好的稳定性。


正文

我们希望能够搭建一个AI学习社群,让大家能够学习到最前沿的知识,大家共建一个更好的社区生态。

「奇绩大模型日报」知识库现已登陆飞书官方社区:

https://www.feishu.cn/community/article/wiki?id=7355065047338450972

点击「订阅社区精选」,即可在飞书每日收到《大模型日报》每日最新推送

学术分析报告:ResearchFlow -- 奇绩F23校友的开发的深度研究产品,PC端进入RFlow的分析报告,可直接点击节点右侧的小数字展开节点,登录后可在节点上直接“询问AI”,进一步探索深度信息

如果想和我们空间站日报读者和创作团队有更多交流,欢迎扫码。

信号

01

The FACTS Grounding Leaderboard: Benchmarking LLMs' Ability to Ground Responses to Long-Form Input

论文推出了 FACTS Grounding,这是一个在线排行榜和相关基准,用于评估语言模型生成与用户提示中给定上下文相关的事实准确文本的能力。在论文的基准中,每个提示都包含一个用户请求和一个完整文档,最大长度为 32k 个标记,需要长格式响应。长格式响应需要在满足用户请求的同时完全基于提供的上下文文档。使用自动判断模型分两个阶段对模型进行评估:(1) 如果响应不符合用户要求,则取消其资格;(2) 如果响应完全基于提供的文档,则判断其准确。根据保留的测试集对自动判断模型进行了全面评估,以选出最佳提示模板,最终的事实性分数是多个判断模型的总和,以减轻评估偏差。FACTS Grounding 排行榜将随着时间的推移得到积极维护,并包含公共和私人分割,以允许外部参与,同时保护排行榜的完整性。
https://arxiv.org/abs/2501.03200
ResearchFlow链接:https://rflow.ai/flow/798277b3-0b47-4d19-b9ca-0b475f5cd9f5
02

REINFORCE++: A Simple and Efficient Approach for Aligning Large Language Models

基于人类反馈的强化学习 (RLHF) 已成为将大型语言模型与人类偏好相结合的关键方法,并通过近端策略优化 (PPO)、直接偏好优化 (DPO)、REINFORCE 留一法 (RLOO)、ReMax 和组相对策略优化 (GRPO) 等方法见证了算法的快速发展。论文提出了 REINFORCE++,这是经典 REINFORCE 算法的增强版本,它结合了 PPO 的关键优化技术,同时消除了对批评者网络的需求。REINFORCE++ 实现了三个主要目标:(1) 简单 (2) 增强训练稳定性,(3) 减少计算开销。通过大量的实证评估,论文证明 REINFORCE++ 比 GRPO 表现出更好的稳定性,并且在保持可比性能的同时实现了比 PPO 更高的计算效率。
https://arxiv.org/abs/2501.03262
ResearchFlow链接:https://rflow.ai/flow/1c25a271-6735-42d5-b9be-e0f1167c3ae4

推荐阅读
  --- END ---
1.   The theory of LLMs|朱泽园ICML演讲整理

2.   「理论与实践」AIPM 张涛:关于Diffusion你应该了解的一切

3.   「奇绩潜空间」吕骋访谈笔记 | AI 硬件的深度思考与对话