AI大模型的科技探索与应用交流活动
举办时间
:10月24日13:30-17:30
地点
:秋苑-含晖楼二楼
注:如有变动,请以官网(https://ccf.org.cn/cncc2024)最终信息为准
大语言模型(LLMs)的快速发展,拓展了人工智能在医疗保健、金融、法律等各行业的应用边界。同时,业界普遍认为,通用大模型落地严谨产业,仍然面临着三个“能力短板”:领域知识相对缺乏、复杂决策难以胜任,以及对话交互不等于有效协同。
作为国内较早布局AI大模型,并在大模型落地上有一定实践成果的厂商,蚂蚁将联合浙大、西安交大、人大等多位专家和学者,从产学研多角度,共同探讨和解决大模型落地的挑战。
如何让大模型具备专家级的知识水平?
如何借鉴人类专家的思考方式,构建专业的推理和决策能力?
如何通过最新的技术,弥合通用语言处理与特定行业知识解释之间的差距?
活动将围绕以上问题带来分享,深入探讨行业的最新进展,还会从数据集整理、模型可解释性和伦理等角度展开讨论,同时关注合规和隐私问题,并与现场专业人士和从业者进行互动。
顺序
|
主题
|
主讲嘉宾
|
单位
|
1
|
大模型驱动的科研范式变革与实践
|
陈恩红
|
中国科学技术大学
|
2
|
浅谈大模型的知识增强与知识治理
|
陈华钧
|
浙江大学
|
3
|
垂直领域的大模型推理增强
|
师斌
|
西安交通大学
|
4
|
扩散模型前沿进展
|
李崇轩
|
中国人民大学
|
5
|
蚂蚁多模态大模型进展与展望
|
陈景东
|
蚂蚁集团
|
6
|
支付宝医疗大模型技术与应用
|
王剑
|
蚂蚁集团
|
主要研究方向包括大语言模型、图学习、知识图谱等,研发了蚂蚁集团的百灵大模型语言基座、工业图学习系统AGL、工业知识图谱平台知蛛等基础AI平台与技术。相关成果在NeurIPS、SIGKDD、VLDB等国际顶级会议期刊发表论文70余篇,授权发明专利40余项,获2020吴文俊人工智能科技进步一等奖和2022电子学会科技进步一等奖。
陈恩红
CCF会士,中国科学技术大学讲席教授、博士生导师,认知智能全国重点实验室副主任,IEEE Fellow,CAAI会士
中国科学技术大学讲席教授,博士生导师,认知智能全国重点实验室副主任,IEEE Fellow,CAAI会士,CCF会士,中国人工智能学会机器学习专委副主任,安徽省计算机学会理事长,大数据分析与应用安徽省重点实验室主任,国家级创新领军人才计划,国家杰出青年基金获得者,主持并承担了国家重点研发计划项目、国家自然科学基金重大仪器研制项目、国家自然科学基金杰出青年基金项目、国家自然科学基金区域联合重点项目等重大研究项目。陈恩红教授主要聚焦于情境数据挖掘等领域,相关研究成果发表CCF A类论文200余篇,谷歌引用3万余次,H指数87,获教育部高等学校自然科学一等奖、CCF科技成果奖自然科学一等奖,以及KDD、ICDM等顶级会议最佳论文/学生论文、2024 APWeb-WAIM Test of time等奖项。
陈华钧
浙江大学计算机学院教授/博导,浙江省数智科技研究会副会长,中文开放知识图谱OpenKG牵头发起人
浙江省有突出贡献中青年专家、浙江省科技创新领军人才、CCF杰出演讲者、中国人工智能学会知识工程专业委员会副主任、中国中文信息学会语言与知识计算专业委员会副主任。以一作或通讯作在Nature Machine Intelligence、Nature Communications、NeurIPS、ICML、ICLR、IJCAI、AAAI、ACL、EMNLP、KDD、VLDB、ICDE、WWW、SIGIR、Brief. in Bioinformatics、Nucleic Acids Res. 、Proc. IEEE等国际顶级会议或期刊上发表多篇论文。曾获国际语义网会议ISWC最佳论文奖、国际知识图谱联合会议IJCKG最佳论文奖、浙江省科技进步二等奖、教育部技术发明一等奖、中国中文信息学会钱伟长科技奖一等奖、阿里巴巴优秀学术合作奖、中国工信传媒出版集团优秀出版物一等奖、浙江大学首届优秀教材奖一等奖。
报告题目:浅谈大模型的知识增强与知识治理
摘要
:本演讲将探讨大型语言模型与知识图谱在知识表示与处理中的优势与挑战。大型语言模型以其广泛的知识覆盖和强大的语言理解能力见长,但在训练成本、可靠性和可控性方面面临着重大挑战。相比之下,知识图谱具有逻辑推理能力强、知识准确可靠的优势,但在规模扩展和泛化迁移方面存在困难。演讲将首先分析这两种知识表示手段的优缺点,然后详细探讨如何在大模型的预训练、提示指令、思维链、RAG(检索增强生成)和模型对齐等环节中引入符号知识,以增强其性能。此外,演讲还将介绍在幻觉检测、知识编辑和有毒知识去除等领域的最新研究进展,展示如何有效治理大模型中的知识。最后,我们将展望符号知识与大模型未来的融合发展趋势,为人工智能的发展提供新的思路和方向。这一融合有望在提高模型智能性与可靠性的同时,推动知识处理的创新与进步。
弗吉尼亚大学访问学者。隶属于郑庆华教授团队。兼任教育部“拔尖计划2.0”西安交通大学计算机拔尖班秘书,国家税务总局驻西安特派办-西安交通大学大学大数据分析联合创新中心主任,税友-西安交通大学税务大数据分析联合创新中心副主任,教育部“101计划”课程建设组专家,教育部“英才计划”指导老师等职务。曾获国家教学成果奖二等奖。
报告题目:垂直领域的大模型推理增强
摘要
:由于缺乏领域知识,通用大模型通常难以胜任垂直领域复杂任务,为解决该问题,本报告提出一套针对垂直领域的通用大模型推理增强框架。首先,在大模型微调阶段,提出一种面向少样本学习的大模型微调框架,自适应挑选出对当前大模型最具挑战的样本,实现在有限标注内训练收益最大化;其次,设计了一种基于大模型的伪标注算法,将模型结构化输出中子元组的交互关系建模为因子图,引导大模型对预测进行细粒度自检以提高伪标签可信性,极大降低领域微调的人工标注成本;最后,在大模型推理阶段,提出一种自举式的可信思维链增强框架,通过标签引导大模型生成可信思维链,同时逐步削减任务难度,采用迭代的方式生成所有样本的可信思维链,以此增强大模型的少样本推理能力。已有实验结果表明,在特定垂直领域的情感分析、关系抽取等任务上,本报告提出的算法可显著提升大模型的少样本微调效果和基于上下文学习的推理能力。
2010-2019年获清华大学学士和博士学位。主要研究机器学习、深度生成模型,代表性工作部署于DALL·E 2、Stable Diffusion、Vidu等生成式大模型。获国际会议ICLR杰出论文奖、吴文俊优秀青年奖、吴文俊人工智能自然科学一等奖、中国计算机学会优秀博士论文等。担任IEEE TPAMI 编委、软件学报编委和ICLR、NeurIPS等会议的领域主席。
报告题目:扩散模型前沿进展
摘要
:扩散概率模型逐步地对先验分布去噪恢复数据分布,可以有效地建模各类视觉数据。本次报告会介绍连续扩散模型的理论、方法与应用,包括高效采样、基础架构设计与训练、视频生成、三维物体生成与可控编辑等,并简单探讨离散扩散模型的前沿进展。