编译器与AI芯片的协同设计
编译器在MLOps中的作用和集成
新一代AI框架的设计和实现
异构计算资源下的AI框架优化
大模型训练的分布式策略和性能优化
DataFun 特别策划了
DataFunSummit2024: AI基础软件架构峰会
,峰会含有四大重量级论坛,将聚集行业专家、学者及企业领袖,分享他们的研究成果和实践经验,探索 AI 基础软件架构的最新趋势与挑战。
感兴趣的小伙伴欢迎
识别二维码免费报名
,收看直播:
无论你是架构师、技术决策者,还是大数据与AI领域的从业者,这次峰会都将为你带来无与伦比的学习和交流机会。
扫描海报
二维码
或点击
「阅读原文」
即可免费报名,不要错过与AI技术专家一同探索未来的机会!
卞正达 北京潞晨科技有限公司 CTO
个人介绍:师从尤洋教授,毕业于新加坡国立大学,现任潞晨科技CTO。曾获NOIP一等奖、华为Code Craft大赛金奖等多项编码大,在全球超算最顶尖会议SC上发表一作论文。7年高性能AI系统经验,Colossal-AI系统核心开发者。
演讲题目:
Colossal-AI:AI大模型的挑战与系统优化
演讲介绍:深度学习技术在多个领域取得了突破性进展,但随着模型规模的不断扩大,对硬件资源的需求也日益增加。潞晨科技创造的Colossal-AI深度学习系统,通过集成高效的多维并行系统,异构内存管理系统和推理加速系统,帮助解决大模型大规模训练和推理中的效率和成本问题。Colossal-AI深度学习系统对主流开源模型如ViT, Stable Diffusion, Llama3等提供完善的支持和极致的加速。该系统已在自然语言处理、计算机视觉和生物信息学等领域得到广泛应用,并在ICML、NeurIPS等人工智能领域的顶级学术会议上获得了高度评价和广泛认可。
1. 了解AI发展的最新现状,遇到的问题和潜在的解决方案
2. 了解Colossal-AI和潞晨云的细节与使用方法
2. 高端显卡一卡难求,中小型创业者如何低门槛使用AI
秦续业 杭州未来速度科技有限公司 联合创始人
个人介绍:未来速度联合创始人 & CEO。公司核心产品 Xinference,提供了开源、企业版和云上版本的高性能大模型推理和部署平台。Xinference 目前已经取得了 5k+ 的 star,有超过 80 个来自全世界的贡献者。
演讲题目:
Xinference:企业级大模型推理和部署平台
1. 大模型如何高效的在企业中部署,如何结合 AI 开发的生态
蔡经纬 清华大学交叉信息研究院 博士研究生
个人介绍:主要研究方向为大算力多核/chiplet AI加速器的架构和编译器设计,在CCF-A计算机体系结构顶级会议ISCA、HPCA上以第一作者发表文章三篇,获得HPCA2024 Distinguished Artifact Award(1/410),国内首次,获得博士生青年托举项目支持,获得博士生国家奖学金。
演讲题目:
识别、探索和理解AI加速器的DRAM通信调度优化空间
演讲介绍:现代AI加速器配备了越来越大的片上缓冲区,以提供更多机会来缓解日益严重的DRAM带宽压力。然而,现有关于缓冲区使用的研究仍主要集中在单层数据流调度优化上。随着缓冲区足够大,可以容纳大多数网络中的单层权重,单层数据流优化对DRAM通信的影响显著降低。因此,开发新的范式以充分利用日益丰富的片上缓冲资源来减少DRAM访问变得尤为重要,但这仍然是一个亟待解决的挑战。
为此,我们提出了细粒度层融合技术,并结合预取和延迟发送两种优化策略,旨在尽可能降低DRAM访问,同时缓解DRAM通信的不平衡。通过全方位优化DRAM通信,我们实现了2.44倍的性能提升。
1. 目前片上buffer优化DRAM通讯的技术及局限性
1. 对于使用片上buffer优化DRAM通讯这个关键问题有更深认识
2. 理解细粒度层融合以及预取以及延迟发送两个优化技术
徐宗泽 DeepWisdom/MetaGPT 合伙人