专栏名称: AI前线
InfoQ十年沉淀,为千万技术人打造的专属AI公众号。追踪技术新趋势,跟踪头部科技企业发展和传统产业技术升级落地案例。囊括网站和近万人的机器学习知识交流社群。
目录
相关文章推荐
芯东西  ·  创历史!DeepSeek获16大国产AI芯片 ... ·  昨天  
芯东西  ·  创历史!DeepSeek获16大国产AI芯片 ... ·  昨天  
宝玉xp  ·  哈哈,自从 DeepSeek ... ·  昨天  
量子位  ·  热搜第一!DeepSeek百万年薪招AI人才 ... ·  3 天前  
新智元  ·  潞晨华为联手放大招!DeepSeek-R1推 ... ·  4 天前  
51好读  ›  专栏  ›  AI前线

Scaling Law,撞墙了吗?| 直播预告

AI前线  · 公众号  · AI  · 2024-11-19 09:28

正文

近期,关于大语言模型(LLM)在 Scaling Law 方面的瓶颈引发热议。据报道,OpenAI 新一代模型在性能提升上的表现未达预期,尤其在编程任务中的改进幅度有限。这是否意味着大模型的性能提升已进入收益递减阶段?国内外技术条件是否存在差异?

而在模型规模不断扩大的今天,“量变引起质变”的关键是什么?高质量训练数据的稀缺性、计算资源的限制会对模型的进一步突破产生多大影响?我们是否在追求极限的过程中忽视了现有技术的优化价值?

此外,大模型项目的“成功”又该如何定义?从业务收益到用户体验再到行业发展的长期贡献,不同视角下,评估标准各不相同。在有限资源下,如何平衡成本与收益,最大化模型的经济价值?

11 月 20 日晚上 20:00,我们邀请了来自百度、京东和中科大的三位专家,共同探讨这些关键问题。Scaling Law 是否真的“撞墙”?未来 LLM 该如何破局?一起在直播中探讨!

直播介绍
直播时间

11 月 20 日 晚上 20:00~21:30

直播主题

Scaling Law,撞墙了吗?

嘉宾阵容
  • 颜林, 百度 / 主任架构师,信息流推荐架构负责人。拥有近二十年互联网及 AI 领域经验,现担任百度 App 信息流推荐架构负责人。在大规模推荐系统架构、AI Native 应用架构、数据湖仓平台、AB 实验平台和机器学习服务方向有多年深厚积累。

  • 张泽华 ,现任京东集团算法总监、京东零售算法通道委员,IEEE 国际标准工作组副主席,并于中国计算机学会担任标准工委执行委员、大数据专委委员。专注广告算法领域在零售业务的研发实践,推动广告核心场景算法效率增长,带领团队自研大规模分布式生成式广告算法推理能力,取得数倍推理加速效果。

  • 王皓 ,中国科学技术大学特任副研究员。研究方向为数据挖掘与深度学习,主持国家自然科学基金青年基金、CCF- 腾讯犀牛鸟基金和阿里巴巴创新研究计划 (AIR) 等项目,在 KDD、NeurlPS、TKDE、TOIS 等高水平期刊和会议上发表论文 50 余篇,获中国科大“墨子杰出青年特资津贴”资助,担任如 KDD、NeurlPS、WWW 等国际程序委员会委员及 TKDE、TOIS 等高水平期刊审稿人,人工智能智能计算服务专委会委员,相关工作 Google 学术引用 1400 余次。

核心话题
  • Scaling Law 已撞收益递减墙?

  • LLM 性能提升是否已进入收益递减阶段?

  • 大模型从量变到质变的关键是什么?

  • 如何最大化模型的经济价值,平衡成本与收益?

直播亮点
  • 热点讨论:大语言模型在 Scaling Law 方面真的遇到瓶颈?







请到「今天看啥」查看全文