专栏名称: CDCC
数据中心标准、技术沟通交流平台
51好读  ›  专栏  ›  CDCC

万字长文解读 2025 年美国《人工智能扩散出口管控》

CDCC  · 公众号  ·  · 2025-01-16 12:57

正文

请到「今天看啥」查看全文



点击下方 卡片 ,关注“ 慢慢学AIGC


前言


涉及的主要内容:

  • 马来西亚的闲置产能

  • 西方超大规模计算优势

  • AI 加速器限制

  • 印度、巴西和中东的担忧

  • 主权 AI 战略受挫

  • VEU(验证最终用户)限制及其影响

  • 算力预算

  • 开源形成下限

  • 模型权重受控


美国政府通过其新的《人工智能扩散框架》发起了新技术冷战中最大规模的攻势。这些新的出口限制在范围和规模上都前所未有,许多人称这些努力过于激进或方向错误。该监管的核心目标是防止中国获得用于构建前沿模型的 AI 算力。

美国政府的主导理念是,AI 进展已变得如此迅速,未来几年内能否获得用于构建和改进这些模型的算力,将决定未来几十年的全球秩序走向。简而言之,政府认为 AI 将决定美国霸权是否持续,还是让位于中国。如果 AI 监管是合理的,但如果 AI 对世界经济产生任何有意义影响还需更长时间,那么这些监管就是短视的,从长远来看将损害美国的竞争力。

虽然半导体管控仍存在一些漏洞,但 AI 芯片管控却更像是"瑞士奶酪"(漏洞百出)。 到目前为止,虽然中国在获取 AI 算力方面受到限制,但这仅仅是纸面上的,实际上已经通过多种方法被规避 。在现实中,受限制的英伟达 GPU 只是被不法分子从未受限制的国家重新出口到中国,中国的各种云平台和市场上都能买到相当数量的 H100。此外,已经合法运往中国的、在现行法规边缘试探的中国特供加速器超过 100 万个,如英伟达 H20、B20、AMD MI308X 和英特尔 Gaudi HL-328 + HL-388。

字节跳动等中国公司通过各种云计算公司在其境外获得了不受限制的 GPU 使用权。此外,仅在马来西亚,根据我们对每个数据中心的追踪,在短短几年内就建成了约 3 吉瓦关键 IT 容量的数据中心。这相当于 Meta 在 2024 年初用于处理其所有全球流量的总容量。如此巨大的集中式数据中心容量,唯一的用途就是 AI。

我们的数据显示,中东、印度和巴西也在上演类似的情况。 美国政府意识到了这一点,因此认为对此进行监管是最高优先事项。

这些规则中存在大量负面的外部性,将极大地影响供应链、地缘政治以及 AI 的建设地点。对许多公司来说,这项规定影响很负面,但对少数特定公司来说却是利好。这些法规非常复杂,SemiAnalysis 的团队一直在不懈努力分析这些规则并量化其影响。我们将在下面深入探讨这些内容,但首先让我们看看这些限制措施的执行摘要以及主要影响。

执行摘要 + 高层要点


1 月 13 日,工业和安全局通过其《人工智能扩散框架》收紧了那些被创业业务部门和不法分子所利用的漏洞,同时可以说为受信任国家的海外部署以及少数受信任的美国超大规模计算提供商(微软、谷歌、亚马逊)和获批的海外供应商简化了获取芯片的途径。

为实现这一目标,《人工智能扩散框架》将世界分为三个等级的国家,在AI芯片访问权限和GPU购买严格限额方面有所不同:

  • 第一级:美国及其 18 个主要盟友和安全伙伴

  • 第三级:23 个武器禁运国家以及澳门

  • 第二级:所有其他国家 - 与美国关系程度不同:从可以购买 F35 战机的新加坡到轰炸美国油轮的也门均包含在内!

该框架建立了一个验证最终用户(VEU)体系,用于识别可以向各等级国家进口 AI 芯片的实体和公司,主要是这些美国超大规模计算提供商,同时也为非 VEU 设置了一些其他例外。

最后,它引入了对 AI 模型本身的出口管制,对非第一级国家的实体在训练需要大量算力的 AI 模型时实施全球性限制(目前设定为 1e26 训练浮点运算,是 Llama 405B 的 2 倍,但与最大开源权重模型的训练浮点运算挂钩),并禁止出口超过这一规模的闭源权重模型。

该框架毫不掩饰其民族主义色彩,从规则的精神和字面来看,很明显它旨在让谷歌、微软和亚马逊相对于外国供应商以及第二级国家的新兴云服务商获得显著优势。它重新洗牌了各个国家获取 AI 算力的机会,并使许多在第二级国家拥有大量 AI 数据中心产能管道的托管服务提供商的商业案例面临风险。

其新的全球许可制度使非法再出口变得更加困难,根据哪些提供商被批准为 VEU,这也可能显著限制中国等第三级国家的公司通过云服务获取 AI 算力,尽管存在一个我们将在下面讨论的重大漏洞。

如下图所示,现有和未来的 AI 数据中心产能主要集中在第一级国家而非第二级国家 - 主要在美国。唯一具有重要意义的第三级国家是中国(图中未显示)。虽然这些规则将重新配置并阻碍许多在第二级国家拥有大型管道的托管运营商的商业案例,可能影响到马来西亚柔佛、印度、巴西和中东等 AI 超级集群。

最终,由于第一级国家的建设增加以及 AI 芯片部署计划的重新配置,将它们转移到在海外运营的主要美国超大规模计算提供商手中,或将需求重新转移回美国,这可能不会显著限制 AI 芯片的总体出货量。大多数最大的新兴云服务商,如 Coreweave、G42、Nebius 等将不受影响,因为它们将继续在第一级国家扩张,并获得第二级国家的许可证。

需要明确的是,在中期内对英伟达的影响仍然很大,因为它减少了中国的 GPU 使用机会,这确实使市场规模缩小。问题在于西方需求是否能弥补这一点,答案可能是否定的,因为 H100 的价格正在暴跌。 虽然英伟达的 H20 和 B20 产量目标不断提高,但这些产品的利润率和平均售价都低于受管制的 H200 和 B200。

重要的是要注意,这个框架不仅仅是关于芯片的实际目的地,还涉及这些芯片最终用户的国籍。 公司的分级是基于公司最终母公司所在国。 例如, 就"瑞典"汽车制造商沃尔沃而言,由于中国汽车制造商吉利拥有其多数股权,并使用大量中国汽车零部件、电子设备、制造和设计,将被视为中国公司,其 GPU 使用受到限制。

该规则有着深远的影响,例如客户保密和机密计算实际上变得非法,因为云服务商现在必须追踪范围在 1 万多个 GPU 的集群在做什么,以确保它们没有为中国制作前沿模型。这与 GPU 限额的严格限制相叠加,极大地改变了格局,实际上是被微软、亚马逊和谷歌进行了监管俘获。

接下来我们将深入探讨这项新规则的细节,以及它对芯片设计和制造商、主要美国超大规模计算提供商、AI 新兴云服务商和数据中心托管服务提供商的影响。我们还将聚焦马来西亚柔佛、印度、巴西和中东,解释这项规则将如何决定性地重新洗牌数据中心市场,该市场已经看到了一些最雄心勃勃的 AI 数据中心建设计划 - 其中一些是为了迎合新规则所针对的需求。我们将深入探讨华为和中国将能够利用这一点在海外获得影响力的错误论点。我们将详细解释对模型训练和模型权重出口的新限制。我们将涵盖对英伟达、谷歌、微软、亚马逊、甲骨文、G42、Scala 等公司的影响。我们还将讨论 ASIC 与 GPU 的对比以及对云服务利润率的影响。最后,我们将讨论特朗普政府接下来应该做什么。

AI 芯片范围和总处理性能(TPP)框架


2023 年 10 月的出口限制引入了一些极其严格的规则,禁止向包括中国在内的多个受限国家运输或再出口最强大的芯片。总处理性能(TPP)和性能密度框架有效地阻止了 A100、H100、MI250X 和 MI300X,甚至包括 RTX4090 等游戏 GPU 在内的其他强大芯片向中国和其他受限国家出口。

回顾一下,TPP 的计算方法是将营销的 TFLOPS 乘以该营销 TFLOPS 吞吐量的位长度(即对于 H100 的 FP8 来说,这将是 1,978.9 x 8 = 15,831),而性能密度是 TPP 除以芯片面积(即对于 H100 来说,这将是 15,831 / 814mm² = 19.4)。2023 年 10 月规则中出口管制分类号(ECCN) 3A090.a 的范围修订禁止向受限国家出口 TPP 超过 4,800 或性能密度超过 5.92 的芯片,如下图中的黑色区域所示。

ECCN 3A090.b 涵盖的芯片性能比 3A090.a 低,前者 ECCN 下的出口可能在获得许可后允许。3A090.b 的范围(下图中的"灰色区域")包括 L40 和 MI210 等芯片,而 3A090.a("黑色区域")则涵盖了最受欢迎的芯片。注意这些规则并未对 3A090.b 芯片增加额外管控,它们仍可以自由出口到非武器管制国家或澳门。

实际上,向中国官方出口的 GPU 主要是英伟达 H20 和 AMD MI308X 等中国特供型号,这些产品的性能指标都低于 3A090.a 和 3A090.b 的两个性能阈值,属于下图中的"白色区域"。

下表列出了大多数当前和即将推出的前沿 AI 芯片,说明了 TPP 的计算方法,并指明这些芯片是否属于 ECCN 3A090.a 的范围,以及每种型号的出货量如何计入各种豁免额度,这些将在下面详细讨论。

注意到 1,700 个 H100 的上限很快变成了不到 500 个 GB300 GPU。值得注意的是,规制的一个积极方面是,Nvidia 和 AMD 可能最终会停止对其芯片发布的 FLOPS 进行上限设定,因为没有任何可行的方式可以在 H100 上达到 1979 TFLOPS,重复 GEMM 的最大值比这个要低 25% 以上。这可能促使 AMD 和 Nvidia 转向像 CPU 一样,公布一个广告的提升时钟和真实的基础时钟,这样 FLOPS 的数值就不会被夸大。

AI 扩散框架如何运作


首先,AI 扩散框架为 AI 芯片的出口创建了全球许可要求,并对这一许可要求给予豁免,从而有效地将世界分为三个层级的国家:

一级(Tier 1) :美国及18个安全和贸易伙伴或条约盟国,这些国家在战略技术控制方面与美国高度一致,并且拥有可靠的出口管制体系。根据《人工智能授权》(AIA)例外,GPU 可以被运送到这些国家,但进口 GPU 的实体必须总部位于或其最终母公司来自一级国家。

三级(Tier 3) :包括 23 个被实施武器禁运的国家(国家名单 D:5)以及澳门,这些地方的受控芯片出口实际上是被禁止的。包括中国、俄罗斯、叙利亚等国家。

二级(Tier 2) :这些国家包括所有不在三级和一级的其他国家。对这些国家的变化最大,可能会根据进口 AI 芯片的各方设立一套许可豁免,这些豁免规定了配额、限制和规则。我们将在本节后面详细说明各种豁免。 二级国家中一些值得注意的国家包括马来西亚、印度和新加坡 。值得注意的是,像也门这样攻击美国油轮的国家和像新加坡这样美国的重要战略伙伴国家都在同一层级,这反映出美国政府对 GPU 通过新加坡走私到中国的担忧。

下面的表格列出了一级和三级国家的完整列表,以及一些非详尽的二级国家的名单。特别值得注意的市场和国家已用浅红色突出显示。

AI 芯片出口到二级国家的三大类别


AI 芯片出口到二级国家的许可分为三大类别:

1. 向两类有效验证终端用户(VEUs)发货:

  • 通用验证终端用户(UVEUs) :这些公司总部或最终母公司位于一级国家,并能够满足各种安全和合规标准。公司需要申请成为 UVEU,我们认为像微软、亚马逊、谷歌和 Meta 等美国超大规模企业可能会符合这一类别的要求,并且我们预计申请过程将简化且不繁琐。UVEU 将能够顺利获得进口 GPU 到二级国家的许可证,只要它们满足以下要求:

    • UVEU 的 75% 受控计算能力必须位于一级国家。

    • 它们在单个二级国家内的受控计算能力不能超过 7%。

    • 如果 UVEU 来自美国,则该 UVEU 必须有 50% 的 AI 计算能力位于美国。根据我们的 AI 数据中心行业模型,未来几年,所有主要的美国超大规模企业的计算能力将在美国超过 50%,并且也会安全地超过 75% 的一级国家门槛。

    • UVEU 将受到严格的安全要求,包括模型权重、安全供应链(包括人员检查)和运输安全等方面的规定。这些安全措施将在后续部分详细介绍。

  • 国家验证终端用户(NVEUs) :NVEU 授权可以授予来自一级和二级国家的实体,这些实体能满足特定的安全要求,从而向单一指定国家(非三级国家)出口更多的加速器。这将涵盖诸如在二级国家总部的国家 AI冠军企业,它们希望在本国建立大型 AI 集群,但也可能希望在其他目的地国家建立集群——不过,NVEU 必须为每个额外想要建立集群的国家申请单独的 NVEU 授权。对于来自二级国家的公司,它们还需要获得 NVEU 授权才能在一级国家部署大量 GPU。

    NVEU 授权将为 NVEU 提供出口许可证,使其可以在已获得 NVEU 的目的地国家安装最多约 320,000 个 H100 等效体的计算设备,尽管安装基础的许可将根据下表逐步实施。为了获得 NVEU 授权,指定的目的地国家可能需要与美国提前达成政府间协议。

    NVEU 必须遵循与 UVEU 相同的严格安全要求,但在特定情况下会有附加要求。例如,UVEU 必须每半年向 BIS 提交报告,包括当前库存记录,但 NVEU 则必须披露当前客户的名单。


明确来说,这并不是一个庞大的下一代 GPU 数量。这将对 Nvidia 造成阻碍。

单个国家的计算配额(TPP)

对于除 1,699 个 H100 等效芯片外的 GPU 购买,以及不通过 VEU 的购买,每个二级国家从 2025 年到 2027 年将有一个最高的 AI 芯片安装基础配额,最多为 49,901 个 H100 等效芯片。这依然是基于总性能功率(TPP)计算的。因此,如果在 2025 年某个国家安装了 49,901 个 H100 等效芯片,那么在 2025 年到 2027 年之间将无法再通过配额运送更多的 GPU。请注意,低于 1,699 个 H100 等效芯片的 GPU 运输或通过 VEU 进行的运输不计入 49,901 个 GPU 安装基础的配额限制。

此外,与美国签署协议,以对齐出口管制和技术安全目标的二级国家政府,可以将此配额上限翻倍,最高可达 99,802 个 H100 等效芯片。因此,市场上缺乏 UVEU 或 NVEU 的国家,因而实际受限于这一配额的国家,在全球芯片能力发展过程中,实际上会被甩在后面,因为 TPP 框架定义上会冻结它们可用的 AI 计算总量。我们可以看到,这个上限很快会变得繁重,因为它实际上只相当于 13,166 个 GB300 等效芯片,这是一个非常低的数字,尤其是考虑到这种芯片将在 2025 年底开始出货,并且在 2025 年底和 2026 年底分别有 Rubin 和 Rubin Ultra 芯片进入市场时,实际可用的 AI 芯片数量将进一步减少。

漏洞:低处理性能(LPP)豁免

二级国家的实体还可以每个客户每年自由购买最多 26,900,000 TPP(1,699 个 H100 等效芯片)的受控计算能力,而无需任何许可要求,尽管买方需要通知 BIS。具有讽刺意味的是,这对于许多中东和中亚国家来说是放宽了出口管制,因为之前这些国家购买任何数量的 GPU 都需要出口许可。这是为了使二级国家的实体能够轻松获取适量的计算能力。

那些认为 AI 扩散框架不算过于繁重的人,指出大多数 GPU 运输都低于这一门槛——但这个论点是有两面性的——很多不法行为者可能以小批量的方式非法转口 GPU,并且将继续不受阻碍——尽管会有更多的纸面记录。

华为通过一个极为复杂的壳公司网络进行许多集成电路和半导体晶圆制造工具的采购,我们认为美国政府可能会措手不及,无法阻止这种行为。

单个云公司在今年部署一个 20,000 卡 GB200 集群或 13,000 卡 GB300 集群,可能会把一个国家的配额完全消耗掉。这相当于约 10 亿美元的投资……并不是一个极为庞大的 GPU 数量。

游戏 GPU 的豁免和 AI 训练的限制


对于游戏 GPU,AI 扩散框架提供了《先进计算授权许可证豁免》(ACA):这是针对受 3A090.a 条款覆盖,但并非为数据中心设计或销售的芯片(即消费类游戏 GPU)设立的豁免。ACA 许可证豁免仅适用于二级国家,并且 ACA 豁免不要求向 BIS 进行通知,实际上允许消费类游戏 GPU 自由地运送到这些市场。对于三级国家,处理更加严格,同样的产品需要获得 NAC(通知先进计算)许可证豁免,程序更加繁琐。NAC 许可证豁免要求向 BIS 申请出口并进行跨机构审查。因此, 像 RTX 4090 这样高端的游戏 GPU 实际上在中国和其他三级国家被禁运。这些游戏卡对一些用户来说可能非常受欢迎 ,因为 它们在某些推理工作负载中具有不错的性价比

在所有情况下,AI 扩散框架还会对前沿模型的训练施加限制,前沿模型定义为训练 FLOPS 大于 1e26 或者是市场上最大开源模型的训练 FLOPS,并且禁止出口该规模模型的封闭权重。我们将在后续部分详细解释 AI 模型训练和模型权重出口的限制。

AI 扩散框架生效日期和实施


1 月 13 日发布的初步最终规则(IFR)将于发布后的 120 天生效,适用的公司在 120 天之后才需要开始遵守这一规则。然而——1 月 13 日之后的发货将计入 LPP 和单个国家配额/上限中。但如何向 BIS 报告这些发货仍是一个开放问题,因为直到 120 天后才会有合规要求。可能的情况是,在公司第一次需要遵守新规则时才会集中报告——例如,如果它们订购了额外的 AI 芯片或申请 RMA,这将触发报告,使计数保持最新。

实施细节可能会为那些不确定是否会获得 UVEU 或 NVEU 状态的供应商带来困境。如果他们继续购买大量 AI 芯片,可能会迅速超过 LPP 下的年度配额,甚至是国家配额,但最终未能获得 UVEU/NVEU 状态。我们希望快速的申请流程能缓解任何潜在的 AI 芯片采购问题。

验证终端用户(VEU)框架对 AI 区域部署的影响


新框架要求所有愿意部署 GPU 的公司提交 VEU 授权申请——并涉及 19 项单独的认证和政策要求,以成为 UVEU 或 NVEU。

值得注意的是,这一过程需要 4 个不同机构的批准:商务部、国务院、国防部和能源部。跨 4 个不同机构的协调意味着处理申请的速度可能不会像一些人希望的那样快。

以下是成为 VEU 认证所需的要求:

  • 一般合规和证明的业绩记录 :VEU 必须证明其符合物理安全、网络安全和人员安全标准。

  • 没有外国军事和情报联系

  • 外国技术联系 ——包括,除了其他要求外,VEU 必须证明其已切断与三级国家制造的先进半导体和关键网络设备的供应链依赖。

  • 芯片转移

  • 公司内部转移通知

  • 地理配额

  • 先进 AI 训练

  • 模型权重存储

  • 禁止用途和人权保障

  • 芯片安装报告

  • 监控、记录和报告

  • 认证和 VEU


此外,还有以下安全要求:

  • VEU 的所有权安全

  • 芯片和数据的基础安全

  • AI 专用网络安全

  • 运输安全

  • 清理和处置程序

  • 人员安全标准和实践

  • 执行


最重要的要求涉及 AI 专用网络安全的严格要求,包括对与模型权重接口的设备进行速率限制,并且只能通过一个明确界定的狭窄 API 访问其他模型权重接口。其他考虑因素还包括具有防盗和防篡改措施的运输安全计划,并向 BIS 报告,以及对任何有访问 VEU 数据中心设施的人员进行更严格的审查。

对于 UVEU,主要的限制如下:至少 75% 的总 AI 计算能力位于一级国家,单个二级国家内的计算能力不得超过 7%,且对于美国总部的 UVEU,至少 50% 需要位于美国。

我们的数据表明,微软计划在马来西亚的投资将接近这一限制,因此他们无法有效填补那里的数据中心空缺,而甲骨文则远超这一限制。

UVEU 必须在跨国转移受控芯片以及在新地区建设数据中心的计划时提前 60 天通知 BIS。

AI 训练和推理的影响


对于美国或盟国的云服务提供商,有一些规则限制他们为中国(或其他三级国家相关国家)提供的特定工作负载。主要目标是防止训练新的前沿 AI模型,这些模型被定义为训练 FLOPS 大于 1e26 的模型。这与 2023 年 10 月发布的 AI 行政命令中的定义一致。作为参考,这比现有的最大模型 Gemini Ultra 大一个数量级,后者的训练 FLOPS 为 1e25。

在新的规则下,前沿 AI 模型只能在 Tier 1 国家进行训练,有限的微调操作仅限于这些国家之外,且不得超过原始训练操作的 25% 或 2e25 FLOP 的微调。允许提供 AI 模型的 API 访问或 AI 推理的 IaaS 访问。推理时间扩展等话题未涉及,但有关合成数据的条款有涉及。

AI 模型 FLOP 法规基于强大的开源


有大量的模型不受此法规的约束。 任何开源模型都不在此法规的范围内,除非它经过微调,且微调操作超过 2e25 FLOP或相当于原始预训练 FLOP 的 25% 。这意味着,对开源模型的显著微调可能会将其从不受管制的模型转变为受管制的模型(因此被视为封闭模型),具体取决于微调时使用的 FLOP 数量。根据上述情况,使用低于 1e26 FLOP 进行训练的模型也不在此法规的适用范围内。

除此之外,使用的 FLOP 数少于开发当前最佳公开可用模型所需的 FLOP 数的模型,也不受此法规约束。这需要自我分类,并且必须遵循 BIS 的建议或美国 AI 安全研究所和能源部的技术意见。

这意味着,未受管制的模型主要有三种分类:使用少于 1e26 FLOP 进行训练的模型、开源模型,以及使用少于训练最佳公开开源模型所需 FLOP 数的模型。

从长远来看,这意味着,如果有模型超过 1e26 FLOP 进行训练,则训练该开源模型所使用的 FLOP 数将作为受管制模型的下限。

目前,受此法规约束的模型是那些在预训练过程中使用超过 1e26 FLOP 的模型。然而,这个数字更应该被视为一个“计算预算”,因为不仅仅是预训练 FLOP 会计入这个预算。 如果使用合成数据,且这些数据由封闭源模型生成,且生成的合成数据占预训练操作的 10% 以上,那么生成这些数据所使用的操作数也会计入总体预算 。换句话说, 如果大量的预训练数据是合成数据,则这部分数据会减少用于训练模型的原始计算资源 。在这种情况下,“单一模型”可以是相同模型的变种(例如,经过微调或先前的检查点)。

如果使用了多个封闭源模型,并且它们的操作总数超过 10%,那么拥有最多数据的模型所产生的操作数将计入计算预算。

需要注意的是,计算“生成数据所进行的操作”并不是一个明确的任务。如前文所述,合成数据生成现在是一个复杂的过程,涉及许多步骤,包括生成和过滤(这些过程本身也由其他模型完成)。此法规在建模这一过程时表现不佳。( 扩展阅读: AI 扩展定律的演进 》)

这仅仅是一个很难缩小范围的问题。然而,考虑到生成文本所需的“操作”(即推理),这是一项极其复杂的任务,尚未有一种可靠的已建立方法来实现。例如,与训练不同,在推理过程中,很难确定 GPU 的确切模型浮点运算(MFU)利用率。因此,我们预计,如果生成的数据确实最终占据了模型预训练操作的 10% 以上,那么准确计算操作的数量在技术上最有可能具有挑战性,最糟糕的情况下甚至是不可行的。

请注意,以下表格中的所有各方必须遵守新规定的安全要求。

模型权重现在是出口管制物品


模型权重是经过训练后产生的模型的学习参数,始终受到管控,因为它们代表着模型本身,但现在对权重的存储、传输等方面实施了更多的控制。

除了对模型权重施加严格的安全控制外,属于新法规管辖范围的模型在向非一级国家出口模型权重时,还需遵守许可要求。GPU 提供商也面临限制,限制了谁能租用 GPU 以及他们能进行多大规模的训练。

例如,VEU 不能允许非一级国家训练前沿模型,而美国本土的提供商必须遵守“红旗指引”,该指引会在中国公司或其美国子公司在美国 GPU 上进行训练时触发,因为此时模型权重可能会被转移到受限国家。美国商务部(BIS)要求,对于任何计算预算超过 1e26 浮点运算的闭源模型,必须申请许可证才能出口、再出口或转让模型权重(即使是在同一国家内转移),如果目的地是一级国家,则可以享受许可证例外(但仍需符合安全要求)。该许可证的审批通常会面临拒绝的假定,并且在审批过程中将受到严格审查。前三大实验室已经建立了强大的安全基础设施,因此我们认为他们获取这些许可证时不会遇到重大问题。

无论当前国家配额如何,或是否存在 LPP,授权、许可证和安全要求仍然适用于训练前沿模型。

美国商务部加大了对模型权重的控制,并对模型权重实施了外国直接产品规则。这意味着,对于所有通过美国控制的硬件开发的模型,美国的出口管制和法规将适用,无论模型在哪个国家开发。如果最终模型是开源的,则此规则不适用,但对于任何计算预算超过 1e26 的模型将适用。这意味着需要获得适当的许可证并遵守模型权重的安全要求。

云服务提供商的附加要求也被增加。例如,美国商务部计划为美国本土的提供商实施“了解你的客户”和红旗指引。主要关注点仍然是模型权重。目标是让美国的云计算公司识别出是否由外国公司在其美国子公司进行训练。这是为了防止美国子公司使用超过规定阈值的计算资源,然后将模型权重转移给中国公司。实际上,如果客户正在进行一个足够大的计算任务(计算量或时间达到 1e26 浮点运算),云服务提供商应当清楚地知道这个客户是谁。

这些规定的一个常见批评是,中国公司如字节跳动依然能够从美国的云服务提供商处获取大量的 GPU。这是有意为之——目标并非完全切断中国使用 AI 的能力,而是确保美国对中国的依赖增加。 通过强大的美国依赖,一旦切断其与美国云服务提供商的联系,将相对容易

裸金属部署或租赁也可能发生巨大变化,因为提供商现在有动力安装监控代理,以确保客户不会训练受限模型。

与模型权重的接口还增加了大量的网络安全要求。例如,模型权重必须存储在专用设备上,且这些设备不能被其他组织使用(甚至不能托管其他组织的数据)。附加要求包括详细审查所有可能的直接和间接访问权重的方法,同时在持续监控下对这些设备的输出进行速率限制。

总体目标是严格控制和监控芯片和模型权重的物理位置,同时通过受控 API 允许访问模型。

美国商务部如何监控全球合规性


执行将需要一个多方面的方法,涉及多个不同的组织:自我报告、监控、遵守美国商务部规定以及从多个机构获得许可证,都是该过程的一部分。此外,技术层面还需要进行一些变更,这些变更必须在报告发布时显现出来,例如裸金属租赁中的 CPS 监控。与其他变更相比,这些变更可能会更容易实现,但例如如何计算一个模型用于生成训练另一个模型的数据的操作数(如果它占用了一个模型训练数据的 10% 以上),至少在技术上是非常困难的。

数据中心必须进行大量的执法工作,包括详细的日志记录、人员审查、供应链监控 。这些任务大多由数据中心自身承担,并需要定期向美国商务部报告。

总而言之,这一新规将显著影响全球的 AI 和数据中心领域,从数据中心的发展到设备公司、超大规模云计算公司(hyperscalers)和新兴云计算公司(Neolcouds)。虽然这对美国的超大规模云计算公司来说通常是一个积极的变化,但我们将解释为什么甲骨文(Oracle)可能会失去最多。

结果:地理顺序的变化


这些规定重新调整了许多国家在 AI 芯片可用性方面的格局。根据新规定,某些 中东和中亚国家的实体,如阿联酋或沙特阿拉伯,将面临一个更宽松的管制环境 。以前,这些国家购买任何数量的受控芯片都需要出口许可证,但现在他们可以在 LPP 和各国配额的范围内访问这些芯片,无需出口许可证。相反,像 马来西亚、新加坡和泰国等以前享有无限制芯片访问的国家,现在将被降级为二级国家 ,其非 VEU 提供商的 AI 芯片购买将受到限制。

该规定还将实现限制潜在恶意行为者利用某些司法管辖区宽松的规定,积累大量计算能力并将其物理再出口到三级国家的政策目标。 实际上,对于这种非法转运和再出口的发生程度,存在相当大的争议,但政策制定者已决定采取行动反对这种行为,无论如何。

全球数据中心的影响


该规定将对 AI 部署的地理分布产生关键影响。从全球角度来看,到 2027 年,我们预计在二级国家中,超过 5GW 的 IT 容量将直接由 AI 加速器的购买驱动。然而,并非所有这些都受到新规则的直接影响。以下是推动海外数据中心部署的力量:

  1. 主权 AI 计划

  2. 美国超大规模云计算公司(Hyperscalers)的大型数据中心

  3. 解决 AI 电力供需缺口的千兆瓦级数据中心

  4. 非美国超大规模云计算公司的大型数据中心


让我们从主权 AI 谈起。这个领域非常异质化,但通常涉及新兴云计算公司或超大规模云计算公司建立 GPU 集群,并将其计算能力以政府补贴的价格销售给本地生态系统。常见的最终客户包括科学研发、教育、医疗和军队——以及为初创公司提供孵化器的机构。

与传统的 CPU 云计算相比,GPU 即服务(GPU-as-a-service)业务的技术准入门槛显著较低。这鼓励本地公司崛起,成为国家 AI 云计算的代表,而非全球美国超大规模云计算公司。然而,尽管有很多头条新闻和新闻稿,这个市场在全球范围内并不显著。新一轮的出口规则将略微限制增长,但不会实质性地改变市场的发展轨迹。

接下来,我们来评估美国超大规模云计算公司(hyperscalers)的海外部署。虽然单个二级国家在一个给定 UVEU(受控计算能力单元)中的份额不能超过 7%,所有二级国家的总和也不能超过 25%,但我们下面展示的数据显示,这一风险极不可能实现。即使没有出口限制,美国在全球数据中心市场中依然处于绝对主导地位,未来两年内,将有超过 10 个千兆瓦规模的数据中心 campus 启动,此外还有多个 100MW 以上的集群。从基础模型构建者,到云服务,到数据中心,再到芯片设计公司,总部位于美国的公司主导着 AI 生态系统,并希望保持在美国境内运营。

在海外,生成式 AI 的部署主要受到推理和中小规模训练工作负载的推动。像印度以及在较小程度上巴西这样的国家,由于其庞大的人口,正在经历数字基础设施的快速增长,这一增长主要由美国超大规模云计算公司推动,并且与整体经济增长密切相关。

最近,一种新的海外部署类型正在出现。由于对 AI 计算的需求过于旺盛,已经逼近了电力设备、电力传输和发电等供应链的极限,美国的增长日益受到限制。海外的各类数据中心开发商已经识别到这一问题,并提出了建设大型数据中心园区作为解决方案。迄今为止,最引人注目的例子是巴西的“AI 城市”——由巴西开发商 Scala Data Centers 规划的一个 4.75GW 规模的园区!

虽然此类公告通常会受到怀疑,尤其是当这些项目位于美国之外时,但它们展示了海外部署的价值主张。这个特定的数据中心园区是在现有的 3GW 高压电力变电站旁边开发的,周围还有大量未使用的风能和水力资源。如果有人财力充足,它可能成为世界上最大的 AI 集群。

目前尚不清楚新规定将如何影响此类开发项目。我们认为,美国超大规模云计算公司在海外部署大规模基础设施的欲望可能会有所减弱。然而,各国政府很可能会与白宫合作,减少他们潜在美国超大规模客户所面临的监管不确定性。我们特别预计 中东地区将成为一个强大的推动力量,得益于相较于巴西等地区更低的政治成本,巴西等地区的政府稳定性仍然是一个障碍。

以下我们将讨论数据中心的赢家与输家、YTL 和马来西亚新兴云计算生态系统、该规定带来的大科技垄断问题、甲骨文(Oracle)面临的问题/疑问、英伟达(Nvidia)的失去的业务、云计算利润率、中国芯片生态系统及其在海外的渗透,以及特朗普政府在推进/改进这一规定方面的下一步措施。



扫描下方 二维码 ,关注“ 慢慢学AIGC









请到「今天看啥」查看全文