专栏名称: 统计之都
专业、人本、正直的中国统计学门户网站
目录
相关文章推荐
中国交建  ·  5102株珊瑚大迁徙 ·  4 天前  
51好读  ›  专栏  ›  统计之都

7月20日会议介绍(一) | 第17届中国R会议 & 2024 X 智能大会 & 2024 数据科学国际论坛联合会议

统计之都  · 公众号  ·  · 2024-07-09 17:00

正文


第17届中国R会议 & 2024 X 智能大会 & 2024 数据科学国际论坛联合会议将于2024年7月20-22日在中国人民大学召开,本次会议由 中国人民大学应用统计科学研究中心、 中国人民大学统计学院、统计之都和中国商业统计学会人工智能分会(筹)主办,由中国人民大学统计学院数据科学与大数据统计系承办,得到宽德投资、明汯投资、和鲸科技、子博设计赞助支持。

参会报名

本次会议时间、地点及形式如下:

2024.7.20-21 (9:00-17:30) :

线下:中国人民大学逸夫楼、立德楼

线上:学说直播平台

2024.7.22(19:00-21:00):

线上:学说直播平台


线下 参会请扫描下方二维码报名:

截止日期 :7月16日

注意:1、自主投稿已截止,不再接收自由投稿

2、已报名者无需再次报名



线上 参会请扫描下方二维码并在相应时间加入会议室:




下面为您奉上本次中国R会议 & 2024 X 智能大会 & 2024 数据科学国际论坛联合会议7月20日的 基座大模型 专场、 通用大模型应用实践 专场、 大模型应用行业实践 专场和 大模型基础设施 专场介绍!

基座大模型专场

主席: 马诺(零一万物)


时间: 2024年7月20日下午 13:00-15:00


会议地点:

· 中国人民大学立德楼801

会场内容介绍


From Imitation to Emergence:
The Journey of Alignment for LLMs

阎栋

时间:

7月20日 13:00-13:25


个人简介:

阎栋,百川智能强化学习负责人。博士毕业于清华大学计算机系。主要从事决策算法/系统和大语言模型对齐方面的研究。在算法方面,提出了通过奖励分配机制连接无模型和基于模型的强化学习算法的求解框架。在系统方面,作为架构师设计的强化学习编程框架“天授”,在Github获得超过7.4k星标/1.1k二次开发。在ICLR、ICML、IJCAI、AAAI、JMLR、Pattern Recognition等会议/期刊发表论文十余篇。带领团队基于RLHF增强的大语言模型Baichuan3,在4月份的Superclue评测中荣获国内第一。


报告摘要:

大语言模型的对齐技术在过去两年中迅速发展。除了InstructGPT所采用的Supervised Fine Tuning和Reinforcement Learning with Human Feedback方式之外,Rejection Sampling、Direct Preference Optimization、Identity-Preference Optimization等方法纷纷涌现,为各种目标和条件下的行业落地提供了丰富的工具。但想要用好这些对齐工具,不仅需要对了解各种方法的底层数学原理,而且需要辅以坚实的工程支持。本次分享从对齐技术的理论图景开始,深入对齐技术的工程实践进行讨论,以展望对齐技术的未来收尾。通过对对齐技术全景式的回顾和讨论,帮助听众了解对齐技术的挑战并在业务场景落地。1. Theoretical Landscape of Alignment;2. Practical Data-Centric Process;3. Scaleable Oversight and Beyond。


高能力全透明开源双语大语言模型 MAP-Neo


张舸

时间:

7月20日 13:25-13:50


个人简介:

张舸,加拿大滑铁卢大学博士生,M-A-P社区发起人,COIG系列工作的发起人。


报告摘要:

第一个工业级的透明中英文双语大模型-Neo的开源,我们提供了全部的4.7T 预训练数据,训练pipeline,基于spark的预训练数据pipeline,OCR pipeline,以及复现deepseek-math提出的迭代地从预训练数据中召回高质量数据的直接可用的pipeline。我们的模型在7B大小,与OLMo和Amber相比,Neo作为基座的性能基本达到了可比工业级SOTA的水准。


大模型对齐的机理和高效对齐微调技术


吉嘉铭

时间:

7月20日 13:50-14:15


个人简介:

吉嘉铭,北京大学人工智能研究院博士生,导师是杨耀东助理教授,主要从事大模型的安全与价值对齐方面的研究,获得首批国家自然科学基金青年学生基础研究项目(博士研究生)资助,北京大学校长奖学金获得者,详见个人主页:jijiaming.com。

报告摘要:

围绕大模型的对齐机理和高效对齐微调技术展开汇报。从机理上探究:模型是否抗拒对齐,拒绝被改变,模型在预训练塑造的意图与价值是否能够在对齐阶段被修改。相比预训练阶段的数据量和参数更新次数,对齐所需的数据量和参数更新显著更少。即使是经过精细化对齐的模型也很容易被故意或无意地规避。本报告探讨了大模型参数中是否存在弹性,以及对齐是否真正改变了模型的内在特性,还是仅仅只是表面对齐,以及如何不通过RLHF实现高效的大模型对齐技术。


MiniCPM-V


余天予

时间:

7月20日 14:15-14:40


个人简介:

余天予,清华大学自然语言处理实验室博士生,主要从事多模态大模型相关工作。


报告摘要:

迈向实用多模态大模型的路上存在许多阻碍,MiniCPM-V系列模型通过 MiniCPM 高效 scaling law,VisCPM 跨语言泛化、RLHF-V 和 RLAIF-V 可信行为学习、LLaVA-UHD 高清图编码等技术在端侧实现了接近 GPT-4V 级别的效果。



Open-Compass的大模型评测实践


张松阳

时间

7月20日 14:40-15:05


个人简介

张松阳,上海人工智能实验室青年研究员,OpenCompass技术负责人。


报告摘要

评测是大模型研发的指南针,如何全面、科学、客观的评测大模型的能力是产学研各界都关心的重点问题。OpenCompass旨在从能力体系、工具链、评测数据和模型榜单多个维度对大模型评测进行体系建设和技术研发。本演进将介绍OpenCompass在大模型评测上的具体实践和相关思考。

通用大模型应用实践专场

主席 莫欣(agently)


时间: 2024年7月20日下午 15:30-17:30


会议地点:

· 中国人民大学立德楼801

会场内容介绍


让开发者文思泉涌:
一个好的AI应用开发框架应该为开发者提供的基本体验

莫欣

时间:

7月20日 15:30-16:00


个人简介:

莫欣,北京智体纪元科技有限公司创始人,Agently AI应用开发框架项目负责人,前光年之外开发者生态产品经理。


报告摘要:

从利用Agently开发框架开发的开源项目说起,带领开发者逐层拆解Agently AI应用开发框架在帮助开发者完成项目开发落地过程中,从模型单次请求的能力放大脚手架,到代码级工作流编排管理能力,这些不同的特性都将如何帮助开发者顺畅、高效将思路转化为高可用、高质量的业务代码的。


langchain-chatchat:

开源、可离线部署的检索增强生成(RAG)大模型知识库项目


黄志国

时间:

7月20日 16:00-16:30


个人简介:

黄志国,南开大学精算学博士,浙江大学科学技术研究院博士后,langchain-chatchat核心开发组成员。


报告摘要:

一种利用 langchain 思想实现的基于本地知识库的问答应用,目标期望建立一套对中文场景与开源模型支持友好、可离线运行的知识库问答解决方案。依托于本项目支持的开源 LLM 与 Embedding 模型,本项目可实现全部使用开源模型离线私有部署。与此同时,本项目也支持 OpenAI GPT API 的调用,并将在后续持续扩充对各类模型及模型 API 的接入。

⛓ 本项目实现原理如下图所示,过程包括加载文件 -> 读取文本 -> 文本分割 -> 文本向量化 -> 问句向量化 -> 在文本向量中匹配出与问句向量最相似的 top k个 -> 匹配出的文本作为上下文和问题一起添加到 prompt中 -> 提交给 LLM生成回答。


长文本应用如何推理加速


唐飞虎

时间:

7月20日 16:30-17:00


个人简介:

唐飞虎,月之暗面高级研发工程师、开发者关系负责人。

报告摘要:

推理性能是目前长文本大模型的瓶颈之一,本文介绍各种可利用在长文本模型中的推理加速技术,重点介绍目前在实践中使用将多的方法。在典型的 AI 工作流中,您可能会将相同的输入令牌反复传递给模型。使用上下文缓存功能,您可以将一些内容传递给模型一次,缓存输入令牌,然后引用缓存的令牌以用于后续请求。在某些数量下,使用缓存的令牌比重复传入同一语料库的令牌更低的费用(并且延迟更低)。


如何制造合成数据进行模型SFT


冯伟健

时间:

7月20日 17:00-17:30


个人简介:

冯伟健,为明教育集团AI部门负责人、明日知己教育科技CTO、香港中文大学大一休学。


报告摘要:

模型SFT是一个非常重要的工作,但通常受制于数据量的大小和质量会影响到SFT效果。本分享将重点介绍SFT数据的不同分类、如何合成可以使用的SFT数据、以及合成数据与真实数据的配比。

大模型应用行业实践专场

主席: 张源源(统计之都)


时间: 2024年7月20日下午 13:00-15:00


会议地点:

· 中国人民大学立德楼802

会场内容介绍


A IxEdu:超级应用的最佳赛道,迈向AGI的数学推理练兵场

孙一乔

时间:

7月20日 13:00-13:30


个人简介:

孙一乔,悉之智能创始人,致力于用AI革新教育行业,7年AI解题和讲解经验,AI教师大模型多次刷新行业SOTA,广泛应用于国内外,获得启明、经纬、真格、新东方等一线VC 3000万美元融资。

旗下北美产品用户超过百万,ARR超百万美金,积累千万题目数据,App Store评分4.8+,独有行业最高的解题率和多模态互动AI讲解功能。国内赋能教育公司AI升级,与新东方优编程合作开发U-shannon大模型,与紫光合作推出AI答疑普惠平台,致力于用AI实现真正的个性化、普惠教育。


报告摘要:

AGI的超级应用时代即将到来,中国的超级应用将引领全球。教育行业因其刚需性,是最有可能率先跑出超级应用的赛道之一。

数学推理能力是通向通用人工智能(AGI)的关键,而教育行业恰恰是LLM提升数理推理能力的最佳练兵场。

最重要的是,AI对教育的变革,非常契合并支持国家政策和发展方向,能够让每个孩子都拥有普惠的个性化AI教师。


Building For Fun Agents


胡修涵

时间:

7月20日 13:30-14:00


个人简介:

胡修涵,北京大学智能科学本科,哥伦比亚大学硕士,机器人实验室研究生。曾任Facebook视频产品Tech Lead,阿里巴巴研发团队负责人,特赞(上海)信息科技有限公司技术副总裁,系统性发布特赞内容数字资产管理系统(DAM)并带领团队完成产品收入过亿。2022年创办看见概念(上海)智能科技有限公司,打造AI驱动的幻想创作平台“捏Ta”。


报告摘要:

AGI时代的娱乐应用以For Fun Agents作为基础服务单元,而其中Agents的打造和建设可能需要大众广泛的参与。

如何通过系统性的建设角色内容框架和事件,构造出未来最值得与之互动和可以高效产出优质内容的Agents,是捏Ta这个平台的核心价值。


Agent in Action


Connor Wang

时间:

7月20日 14:00-14:30


个人简介:

Connor Wang,Founder & CEO @ Six AI.

报告摘要:

Action Agent 的实现与应用.;如何将基于AI 应用与移动互联网的产品和经济生态整合, 让 LLM 的“动脑”能力赋能 classic engineering 的“动手”能力, 让 AI 帮你做每天无聊又必须做的事情。


大模型时代下的AI数据库 Byzer 和 编程工具 Chat-Auto-Coder


祝海林

时间:

7月20日 14:30-15:00


个人简介:

祝海林,Byzer社区PMC/资深数据架构师/Kyligence技术合伙人,拥有15+年研发经验。一直专注在Data + AI 融合方向上,致力于帮助企业更好的落地 Data+AI。个人热衷于开源产品的设计和研发,Byzer/MLSQL 为其主要开源作品,最新产品 auto-coder 超越自动代码补全的编程工具,旨在帮助企业获得倍数级别研发效率提升。Byzer AI数据库 获得22年中国开源创新大赛二等奖,23年浦东新区人工智能创新大赛一等奖, 个人入选中国22年开源先锋33人,荣获23年全球人工智能开发者先锋大会「开发者先锋」称号。


报告摘要:

大模型是AI发展的一个里程碑,它正在改变社会的方方面面。Byzer AI数据库,使用 SQL 作为交互语言,创新性可以将主流大模型注册成UDF来使用,同时具备预训练,微调,部署大模型能力,帮助企业快速的在诸如ETL,数据分析,流式计算(风控)以及APP应用等各种场景中使用大模型。Chat-Auto-Coder 可以帮助用户实现对已有项目(包括SQL类项目)的阅读和迭代,用户甚至可以不打开编辑器即可完成对代码的修改和测试。

大模型基础设施专场

主席 张先轶(澎峰科技)


时间: 2024年7月20日下午 15:30-17:30


会议地点:

· 中国人民大学立德楼802

会场内容介绍


Modelscope-Agent开源框架:功能完备且生产可落地的Agent框架

吴智楷







请到「今天看啥」查看全文