专栏名称: 调研纪要
机构调研、电话会议
目录
相关文章推荐
国家外汇管理局  ·  国家外汇管理局公布2025年主要统计数据发布时间表 ·  19 小时前  
闹闹每日星运  ·  今生不能错过的队友是TA ·  4 天前  
闹闹每日星运  ·  月运:闹闹12星座【2025.02月】运势 ·  6 天前  
闹闹每日星运  ·  超会赚钱的天蝎座 ·  6 天前  
闹闹每日星运  ·  星历0201:巨蟹拓展好友圈 水瓶适合整理家具 ·  6 天前  
51好读  ›  专栏  ›  调研纪要

关于ZJ传言

调研纪要  · 公众号  ·  · 2025-01-23 23:58

正文

事件:外媒报道字节Capex今年预算超1500亿元。

- 字节Capex今年预算超1500亿人民币,国内海外各50%

根据路透社报道,TikTok 的中国所有者字节跳动今年预算超过 1500 亿元人民币(206.4 亿美元)的资本支出,其中大部分将集中在人工智能上。计划国内和海外各50%,主要投入人工智能相关基础设施。

- 寒武纪、华为或成为此次资本支出最大受益方

根据路透社报道,此前字节跳动已经是英伟达 H20 AI 芯片的最大买家,此次1500亿资本支出的主要受益方为寒武纪、华为以及Nvidia,主要帮助字节跳动捍卫其在本土的 AI 领先地位。

- 豆包1月最新推理需求近百万张H20支撑,#国产算力有望开启规模化采购

根据火山引擎,截至1月20日,豆包最新日均Token使用量约6万亿,月增速50%,根据测算,推理所需算力达144.83 Eflops,转化为H20约需97.86万张。根据AI产品榜,豆包12月APP+WEB月活为1.03亿,相比11月增速达26.43%。我们认为2025年随着字节在AI的进一步发力,豆包等大模型的应用会进一步对推理算力的需求提升。


1、 公司 AI 投入及算力分配情况

公司计划在 2025 年对 AI 的投资将达到 1600 亿,这一数据真实且已被算入预算,这部分是不包括海外的 tiktok。这 1600 亿的算力采购包括了 CPU 和 GPU 两个部分,其中预计会有 62万到 65 万台的 CPU 机器,每台价格大约在八万到八万二三之间。因此,在 1600 亿的算力开支中,有大约 500 多亿是用于 CPU 的,剩下的 900 亿则主要用于 GPU,即 AI 的投入,严格意义上的 AI 投入是 900 亿。在 900 亿的 GPU 预算中,有 500 多亿是预留给海外 GPU 的,主要是英伟达的产品,包括 GB200,GB300 和 H100d 等。而剩下的预算则主要在国内进行采购,其中 60%的预算将用于采购国产芯片,如昇腾、寒武纪、昆仑和海光等,另外 40%则用于采购非国产芯片,如英伟达的芯片。

2、公司对未来算力的规划与布局

公司整体算力规划布局中,首先表达了对模型训练可持续性的信任,并计划在新加坡等海外区域开设更多算力资源集群,以进行模型训练和验证提升。目前,公司未看到模型训练资源迭代和提升的停滞,认为提升仍然相对明显。其次,公司正在与博通定制一款为模型专用的推理芯片,预计该芯片在 25 年有新进展,并在 26 年可能批量交付,这可能对英伟达造成一定影响,使其丢失部分推理处理份额。然而,公司仍然认为英伟达的训练卡是一个不错的芯片。此外,公司还讨论了与博通合作,表示不会缩减合作,因为该芯片在功耗和算力密度上有优势。

在算力规划方面,公司明确了国内和国际的策略。首先,在推理方面,公司会做更多的布局,并确认持续报收后再讨论投资。对于国内,公司不会将海外的超微芯片传递到国内使用,而是会严格遵守法规。如果美国商务部禁令没有大的变化,公司会在国内进一步寻找和测试所有可用的换芯片,并逐步将训练芯片资源向海外分布。当海外如新加坡的芯片上线并能很好商议后,公司会将训练的主要动作放在海外,而国内的芯片则对外出租,同时承接模型的基座推理和一部分算力对外出租。

在与国内算力供应链上游企业的合作方面,公司主要关注服务器和 GPU。对于 GPU 的上游,主要是英伟达一家,国内主要是昇腾,寒武纪,昆仑和海光。公司不会直接与服务器厂商买模组,而是与服务厂商谈资源框架,然后再与厂商进行价格谈判。公司会与上游固定厂商直接谈价格,要求他们把价格压低。此外,与不同服务器厂商的合作情况,如浪潮主要供应NV 和寒武纪的机器,华山主要是昆仑新的机器,昇腾主要是华昆振宇和超聚变,海光和中科曙光。公司一年可能采购大量服务器。

3、字节 IDC 和国内IDC 合作情况

字节之前不做IDC, 不是不想做,而是当下时间来不及,这几年算力供给不均衡的情况下,公司只能尽可能去拿更多的高价机柜来弥补算力缺口。目前阶段整体算力储备需要快速扩容,所以愿意给 IDC 高额溢价,持续时间要看算力的紧缺程度。长期看,IDC 的租赁价格的回归均值的时间,这也要和结合市场的情况去看,但是目前阶段用还是要用的,因为我们没得选。

近期公司也发出来很多标大家应该关注到,在很多区域,我们动辄可能几十亿,四五十亿或者七八十亿的预算,就整个的包就下去了,然后去在当地拿地是做建设,这些自建和我们目前和其他IDC合作也也不冲突,逻辑就是目前阶段整体算力储备需要快速扩容。IDC 中长期会有自建业务规划,可能需要 3 到 5 年时间。我们肯定也还是会把自身的一些资源逐步的做平移和切换。

国内的润泽,万国和东方国信都有合作,润泽在环北京周围有自己的算力集群,主要集中在廊坊等地。

东方国信在内蒙的IDC 项目和我们项目是一个地方,合作模式也有IDC 租赁,其他的看到的还有项目交付,私有云资源,专属资源这几块有合作。

这几个公司都是公司库能看到的,至于他们的具体合作订单金额没有特别详细的数据。

4、字节端侧算力芯片与云端计算策略

端侧计算的整体量不会特别大,目前字节在端侧的资源建设逻辑更多是以云端计算为主,端侧会做技术储备和预言性判断,但短时间内不需要特别多的端侧芯片去承接计算。此 外,字节对于端侧芯片定制进行了一些调研,但目前没有明确结论。字节在云端计算方 面的投入和规划,包括文本、语音、图像等多模态模型的迭代和更新,以及机器人模型 的训练和仿真模拟设备的研发。

5、字节模型迭代与多模态模型发展规划

字节在模型迭代和多模态模型发展方面的规划和节奏。首先,公司每个月都会有一些新的模型能力出来,包括文本模型,每个月都有版本发出,模型迭代是快速迭代的一个路径。后续文本迭代会有一些更强的能力增强,如数学解题和逻辑思维训练等,预计在春节后的二月份到二月中旬左右上线。语音端到端模型与轻感模型是一回事,后续在 25 年四五月份、五六月份左右还会有版本更新。图片生成、视频理解等模型的投入和规划,以及机器人模型的训练和仿真模拟设备的研发。全年的主线逻辑是各类不同模态的基膜都会沿着一个相对清晰的时间线往前做更新迭代,重点将放在融合多模态的文本、语音、图像等模型上,并在 25 年底推出一些世界多模态模型。

6、字节视频生成模型进度

视频生成模型计划在一月份面向企业和开发者开放,目前进度已经面向企业开发者进行批量邀测。该模型名为“海草”,目标是在视频生成模型领域做到工业界第一梯队,其效果可以媲美好莱坞的特效制作团队。模型的应用范围广泛,可以提高下游的视频经济、视频扩展的风格化等。在测试中,模型已经可以生成 720p、20 秒每帧的视频,时长在 5到 15 秒之间。模型的优势在于真实度和逼真度较高,色彩丰富,运动流畅且生动性强。此外,模型在垂直领域如动物、自然景观、人物肖像等方面的效果也较好,能够给用户带来惊喜。公司将继续投入并追求视觉视频模型本身的进步,商业化版本也已经在豆包剪映等平台上展开。

7、字节图像理解和视频理解模型的应用及计划

字节的图像理解和视频理解模型能够实时理解用户周边环境,有利于做交互。未来,豆包将支持视频通话功能,并在其他系应用中做上升展示。这些模型的核心诉求是提升用户的交互体验,通过优化交互体验来更好地服务用户。目前,公司已经上线了图像理解模型,目的是降低模型成本。图像理解和视频理解模型在医疗、法律、教育等严肃场景中能够展示更好的能力,通过视频交互方式读到更多用户真实意图。最终,智能引镜可能是图像理解模型最明确或受益最大的产品。公司认为图像理解模型能够增强场景端的交互,路径整体清晰。目前,图像理解模型的效果可以做到五秒或十秒的理解,但主要是抽帧处理。

8、字节未来应用端产品推出计划

公司未来在应用端的产品推出计划主要集中在C 端应用,如豆包、扣子等,以与用户产生直接联系。在 25 年的规模验证层面,公司会先做好这些C 端应用,并可能持续加深已有应用,如提升豆包的日活用户数。此外,公司也看好极梦等产品的用户规模增长和创作内容增加。在端侧应用方面,公司会将已有的场景能力和模型的研发进展高度匹配,推动模型的商业表现和数据表现。明年值得关注的点是代码工具,因为图像理解能力对于AI 程序员后代码构建至关重要。公司认为代码工具、情感交互以及豆包本身都有机会在 25 年成为爆款应用,这得益于公司的工程能力、投入以及不错的模型能力出口。

9、字节对于创新应用和成熟应用的策略

公司不必把所有注意力都放在创新应用上,也可以投一部分精力在相对成熟的应用上,如抖音、懂车帝、番茄头条等。公司认为,与其寄希望于找到所谓的“杀手应用”,不如做好现有应用,因为“杀手应用”本身也不一定真实存在。目前,真正能够给传统应用和模型创新应用带来夹角的可能只有爱搜索、情感陪伴包以及一些消费电子的硬件等。公司更关注类似于百度、腾讯等大公司在自然动作上的表现,尤其是在 C 端应用和交互体验上,腾讯做得非常好,是公司后续在应用对策上的一个大的竞争对手。







请到「今天看啥」查看全文