今天分享的是
AIGC专题系列
深度研究报告:《
AIGC专题:AIGC对光通信行业的影响
》
(报告出品方:
南京证券
)
报告共计:
33
页
摘要
本轮Al浪潮由ChatGPT掀起,并引发中外科技企业展开对大语言模型及生成式A!的追逐和对算力的军备竞赛,无论是传统龙头企业还是新进入者都在积极推出自家大模型,加大算力设备投资。展望2024年,多模态大模型与应用生态圈将成为AIGC的关键词,训练与推理需求的超预期增长将驱动算力硬件设备加速建设。
AI服务器及相关硬件直接受益于算力需求增长,数据通信需求提升驱动光模块容量、数量双增长。单体服务器方面,为满足下游算力需求,芯片龙头企业加速产品迭代抢占市场份额。各家旗舰算力产品中,算力芯片异构、显存带宽扩容驱动服务器数据吞吐需求提升,光模块传输速率从400G向800G升级势在必行。算力集群组网方面,无阻塞网络架构、算力网络GPU全互联、计算单元规模提升,使得组网所需要的光模块、交换机在数量上显著提升。
1.0 行业背景
本轮Al浪潮由chatGPT掀起,并引发中外科技企业展开对大语言模型及生成式A的追逐和对算力的军备竞赛。无论是传统互联网企业还是新进入者都在加大算力投资,积极推出大模型。
我们认为多模态大模型与应用生态圈将成为2024年生成式A1的关键词,生成式AI依然处于行业发展的初期,多模态大模型训练与推理需求双驱动加速算力基础设施建设。
多模态大模型,AI感知能力更加丰富
11月6日,0penAI公布GPT-4 Turbo,平台提供多模态功能,包括视觉、图像创造(DALL.E3)和文本转语音(TTS)口 12月7号,谷歌发布A1多模态模型Gemini1.0。Gemini1.0根据不同尺寸进行了优化,分别是Uitra、Pro和Nano。Gemini ultra适用于高度复杂的任务,Geminipro是通用版,而Gemini Nano则被用于各种客户端设备。Gemini 1.0可以同时理解并识别本文、图形、音频等。
伴随着大模型处理数据的类型持续扩展,多模态大模型(LMS)成为主流,这使得未来大模型参数与训练集规模将持续扩大。当前多模态系统主要处理文本、图片和语音。伴随行业发展,大模型将可以处理视频、音乐、30等内容。这也意味着大模型训练算力需求的增长将超预期。
应用生态圈趋于成熟,推理算力需求显著增长
0penA!发布了GPTs,让用户们无需代码,结合自己的需求、外部知识和能力创造自定义版本的GhatGPT,满足了用户的定制化需求。此外,0penAI在11月底上线GPT store,让开发者们能够分享、发布自己创建GPTS。GPTs和GPT Store的上线满足了客户的特色化需求,有望加速GPT应用生态建设,进一步提高用户黏性。
GPTs降低了制作大模型应用门槛,用户无需编程基础,用自然语言就能做出专属GPTS,从而加速大模型向个人用户和垂直行业渗透GPT应用量的增长,也意味着“杀手级”应用出现的可能性提升。大模型应用所带来的推理算力需求将会超出预期。