多模态大模型在NPU上的应用能否开创新的交互范式
举办时间
:10月26日13:30-17:30
地点
:夏苑-谐奇趣西角楼一楼
注:如有变动,请以官网(https://ccf.org.cn/cncc2024)最终信息为准
2022年11月,OpenAI发布了一款名为ChatGPT的实验性聊天机器人,带动起生成式人工智能、大模型热潮,成为人工智能应用普及的加速器、催化剂,提速了各行各业的智能化转型。全新的AI体验也将在智能终端加速落地。大模型技术将成为PC行业的分水岭,在未来五年带来PC产品体验的革命性提升和巨大的增长机遇。包括AI PC在内的智能终端设备是人工智能触达终端用户的终极载体之一,是真正意义上面向消费者的算力普慧。
数目繁多,快速迭代的大模型为人们带来了高效与便利,随着用户规模扩大,大模型的计算负载将逐渐由云端向边缘侧和端侧下沉,越来越多的人工智能的推理任务将会在边缘和设备端进行,为了支持更多生成式人工智能的应用,不仅需要提升云端的算力,在边缘和端侧也需要更强大算力的配合,形成“端-边-云”混合计算架构下更平衡的算力分配。但同时也带来了很现实的问题,例如如何满足端侧给用户提供更具特色的大模型服务,如何在端侧为大模型推理提供更强大且低功耗的算力解决方案,神经网络处理器(NPU)在这个方案中能够扮演什么角色,在神经网络处理单元之上,相应的模型推理部署软件栈和模型算法会有什么样的突破?这些课题已经成为业界前沿的研究方向。
探讨新的AI PC体系架构有哪些潜在的突破点和趋势?
终端设备如何更好的通过软件和硬件紧密结合,充分发挥CPU、图形处理单元(GPU)和神经网络处理器(NPU)的优势?
顺序
|
主题
|
主讲嘉宾
|
单位
|
1
|
人工智能自动设计处理器芯片
|
陈云霁
|
中国科学院计算技术研究所
|
2
|
面向多核处理器的图神经网络推理优化
|
李东升
|
国防科技大学
|
3
|
面向
AI2.0的高能效电路与系统设计
|
汪玉
|
清华大学
|
4
|
视觉感知与具身智能
|
鲁继文
|
清华大学
|
5
|
面向大算力的
SRAM存算芯片设计
|
司鑫
|
东南大学
|
6
|
基于
NPU的个人计算体系和交互创新
|
颜毅强
|
联想集团
|
主题
|
主讲嘉宾
|
单位
|
大模型和
NPU对智能终端创新的影响
|
陈云霁
|
中国科学院计算技术研究所
|
李东升
|
国防科技大学
|
司
鑫
|
东南大学
|
李
原
|
珠海市芯动力科技有限公司
|
颜毅强
|
联想集团
|
关超宇
|
清昴智能科技(北京)有限公司
|
清华大学计算机系教授,信息科学与技术国家研究中心副主任。CCF会士、ACM Fellow、IEEE Fellow、AAAS Fellow、欧洲科学院外籍院士。获2024年度IEEE电路与系统学会Charles A. Desoer技术成就奖和2023年ACM SIGMM技术成就奖。3次获国家自然科学二等奖。
联想研究院个人电脑与生态创新实验室负责人,智能无人系统产学研联盟副理事长。自2001年持续从事智能设备,柔性显示技术,智能零售,智慧教育等领域的研发工作,拥有专利160余项。主持研发的创新产品在CES,MWC, IFA三大展会获得150多项大奖,视觉算法在CVPR, ICCV, ECCV三大会议获得10余项竞赛冠军,并获得北京市科技进步奖一项和CCF科技进步奖一项。目前承担科技创新2030重大项目和国家重点研发计划重点专项各一项。
陈云霁
CCF体系结构专委会主任,中国科学院计算技术研究所副所长
中科院计算所副所长,处理器芯片全国重点实验室主任,CCF体系结构专委会主任。长期从事处理器芯片与人工智能的交叉研究,研制了国际首款深度学习处理器芯片(寒武纪1号),被Science杂志刊文评价为深度学习处理器的“先驱”和“引领者”。龙芯3号CPU的主架构师之一,2019年开设了国内首门智能计算系统课,2020年编写的《智能计算系统》教材已重印多次。 曾获国家自然科学二等奖、国家杰出青年科学基金、全国五一劳动奖章、中国青年五四奖章、何梁何利科技创新奖,被MIT技术评论评为全球35位杰出青年创新者。
报告题目:人工智能自动设计处理器芯片
报告摘要:图灵的博士导师阿隆佐•邱奇(Alonzo Church)在1957年提出了面向电路综合的邱奇问题(Church's Problem),即机器能否自动设计电路。这个问题被很多计算机和人工智能学者视为计算机科学的一个“圣杯”。但此前业界几十年的探索却一直没有突出的进展,机器只能设计一千个门的玩具电路。我们通过长期的研究,在此问题上取得了突破,形成了国际上首个由AI自动设计的CPU芯片“启蒙1号”。该芯片包含了超过4,000,000个逻辑门,被Nature新闻报道为“对中国芯片发展的好消息”。
李东升
CCF体系结构专委会副主任,国防科技大学计算机学院教授
CCF杰出会员
、大数据专委会委员。国防科技大学计算机学院教授、并行与分布计算全国重点实验室副主任。国家杰出青年基金、首批国家优秀青年基金、全国优博获得者,入选教育部新世纪优秀人才计划。主要从事并行与分布式计算、高性能数据中心、数据智能处理等方面研究工作,在《中国科学》、IEEE/ACM Transactions等学术期刊和会议上发表学术论文100 余篇,主持研制的系统在国家重要领域得到应用。获国家科技进步二等奖、军
事科技进步一等奖、湖南省自然科学一等奖、湖南省教学成果特等奖、中国青年科技奖、国务院政府特殊津贴等。
报告题目:面向多核处理器的图神经网络推理优化
报告摘要:近年来图神经网络(GNNs)受到了关注。图数据集规模越来越大以及图神经网络的图计算模式多样,给计算平台上图神经网络的推理带来了挑战。报告将分析图神经网络推理在多核CPU上的性能瓶颈,通过对图数据内存访问模式的优化,设计高效的负载均衡策略以及利用多核处理器的向量化指令重新构建图神经网络的核心算子,有效提高GNN在多核CPU上的推理性能。在Intel、AMD、ARM等多种架构的多核处理器上,该方法与当前主流的图神经网络框架DGL和PYG等相比,可显著提高图神经网络的推理性能。
清华大学电子工程系长聘教授、系主任,IEEE Fellow,国家自然科学基金杰出青年基金获得者,清华大学信息科学技术学院副院长,清华大学天津电子信息研究院院长。汪玉教授长期从事智能芯片、高能效电路与系统研究,发表IEEE/ACM期刊论文60余篇、会议论文270余篇,谷歌学术引用20,000余次。主持国家级以及企业联合项目多项,获CCF科学技术奖技术发明一等奖、国际设计自动化会议40岁以下创新者奖、CCF青竹奖等荣誉。曾获得4次国际学术会议最佳论文奖及12次最佳论文提名。2016年知识成果转化入股深鉴科技,打造世界一流的深度学习计算平台,2018年被业内龙头企业赛灵思(现AMD)收购。2023年推动成立无问芯穹,形成面向大模型的软硬件联合优化平台,在国内外十余种芯片上实现业界领先的大模型推理性能。
报告题目:面向AI2.0的高能效电路与系统设计
报告摘要:基于Transformer架构的大语言模型在多种应用上取得了优异的性能,标志着AI 2.0时代的来临。随着模型参数量的激增,大模型的计算、存储和访存开销相比传统深度学习模型增加了4-5个数量级,导致现有端侧硬件平台难以实现大语言模型的高效部署。本报告将首先聚焦大模型时代下软硬件系统方面的关键挑战和发展现状,介绍面向AI 2.0的高能效电路与系统设计方法,包括算法模型压缩、软件算子优化、到硬件架构设计等一系列软硬件协同优化方法。其次,本报告将介绍我们在AI PC场景下开展大模型软硬件协同优化的相关工作。最后,本报告将对AI PC上软件和硬件的未来发展趋势进行展望。
清华大学长聘教授,博士生导师,自动化系副主任,国家杰出青年科学基金获得者,IEEE/IAPR Fellow,国际期刊Pattern Recognition Letters主编,国家重点研发计划项目负责人,中国仿真学会视觉计算与仿真专业委员会主任,中国自动化学会专家咨询工作委员会副主任。长期从事计算机视觉、模式识别、具身智能等方面研究,发表IEEE汇刊论文140余篇(其中T-PAMI论文40篇),CVPR、ICCV、ECCV、NeurIPS论文160余篇,谷歌学术引用32000余次,获授权国家发明专利60余项,主持国家自然科学基金重点项目2项,获中国电子学会自然科学一等奖1项(排名1)和国家级教学成果奖二等奖1项
,担任T-IP、T-CSVT、T-BIOM、PR、自动化学报等期刊编委和ACCV2026、FG2023、ICME2022、VCIP2022、AVSS2021等会议大会主席/程序委员会主席。