专栏名称: APPSO
让智能手机更好用的秘密。
目录
相关文章推荐
APPSO  ·  实测 GPT-4.5!全网都在喷的 ... ·  18 小时前  
小众软件  ·  EA开源30年前《命令与征服:红色警戒》系列 ... ·  19 小时前  
APPSO  ·  OpenAI 官宣,GPT-4.5 即将发布 ·  昨天  
小众软件  ·  另外两件事[250227] ·  昨天  
APPSO  ·  一文看懂 DeepSeek ... ·  3 天前  
51好读  ›  专栏  ›  APPSO

DeepSeek 开源周最后一天,重塑 AI 训练底层逻辑

APPSO  · 公众号  · app  · 2025-02-28 11:06

主要观点总结

文章介绍了开源周中的亮点项目——开源文件系统3FS。该系统是幻方AI自研的高速读写文件系统,重构了AI训练的底层逻辑。在开源版本中,它实现了质的飞跃,通过分解式架构、存算分离、FFRecord格式管理数据库等技术,提高了AI训练的效率。

关键观点总结

关键观点1: 开源文件系统3FS的介绍

3FS是幻方AI自研的高速读写文件系统,重构了AI训练的底层逻辑。它主要用于AI训练时计算节点中的模型批量读取样本数据,通过高速的计算存储交互加快模型训练。

关键观点2: 3FS的特点和优势

3FS采用分解式架构,实现了存算分离,提高了数据处理的灵活性。通过FFRecord格式管理数据库,将数百万小文件合并为逻辑大文件,通过索引文件记录样本偏移量,大大提高了数据处理的效率。此外,3FS还通过优化网络协议和分布式算法,实现了存储介质、网络协议、分布式算法的深度协同,让存储系统从“被动仓库”进化为“智能供血系统”。

关键观点3: 3FS的应用场景

3FS几乎只用在AI训练的场景上,特别是在需要同时调度数百个节点的大规模AI训练中,3FS能够显著提高数据处理的效率和速度。

关键观点4: 3FS的开源版本质的跃升

与早前的版本相比,开源版本的3FS在性能、功能、生态兼容性等方面都有了显著的改进。它采用全栈解耦、协议优化等技术,发展为通用型AI存储基座,适应了存储系统从专用设施向基础设施层的转型趋势。


正文

开源周来到第五天,迎来了一个许多人等待了两年的开源:3FS。作为开源周的压台之作,3FS 的意义不可小觑:它不仅仅在于性能参数,更在于重构了 AI 训练的底层逻辑。
3FS 是幻方 AI 自研的高速读写文件系统,早在 2022 年的时候,幻方官方就发布了技术概览。全称是萤火超算文件系统(Fire-Flyer File System),因为有三个连续的 F,因此被简称为 3FS。
在当年,它只是一个 内部专用 的技术,深度依赖幻方自研的超算集群硬件,需配合特定型号的交换机和网卡。而且采用传统目录树结构,百万级文件遍历耗时长。
今天我们看到的开源版本,已经有了质的跃升。
DeepSeek 开源周,APPSO 将持续带来最新动态和解读,往期回顾👇
Day1 : 一文看懂 DeepSeek 刚刚开源的 FlashMLA,这些细节值得注意
Day2 : 榨干每一块 GPU!DeepSeek 开源第二天,送上降本增效神器
Day3: 一文看懂 DeepSeek 开源项目第三弹,300 行代码揭示 V3/R1 推理效率背后的关键
Day 4: 一文看懂 DeepSeek 开源第四弹,梁文锋亲自下场开发
存储和计算,这次分家了
3FS 是一个比较特殊的文件系统,因为它几乎只用在 AI 训练时计算节点中的模型批量读取样本数据这个场景上, 通过高速的计算存储交互加快模型训练
2023 年前的 3FS 已采用分解式架构雏形,但受限于硬件绑定和功能范围;而当前版本通过全栈解耦、协议优化和生态兼容,将其发展为通用型 AI 存储基座。
这一演进印证了,存储系统从专用设施向基础设施层的转型趋势—— 从 closed ai 走向 open ai,怎么不算一种逆流而上
分解式架构就好像在城市上空架起 多维立交桥 。以前存储节点和计算节点就像固定搭配的收费站与服务区,当 AI 训练需要同时调度数百个节点时,数据只能在预设路径上「堵车」。
通过将存储节点与计算节点物理分离,让数据流动不再受物理位置限制。同时通过 FFRecord 格式管理数据库: 想象一个快递站,面对大量小包裹时,快递找货会找到崩溃。 3FS 的做法是按 FFRecord 格式)装进大集装箱并贴上索引标签,根据索引查找,速度直线上升。
这就是 FFRecord 格式的逻辑,将数百万小文件合并为逻辑大文件,通过索引文件记录样本偏移量。3FS 通过 6.6 TiB/s 的聚合读取吞吐,相当于每秒传输 1400 部 4K 电影,直接将 ImageNet 数据集加载耗时从 15 秒压缩到 0.29 秒。
重构「数据时空」
KVCache是一种用于优化大语言模型(LLM)推理过程的技术。它通过缓存解码层中先前token的key和value向量,避免了冗余计算。上方的图表展示了所有KVCache客户端的读取吞吐量,包括峰值和平均值,其中峰值吞吐量高达40 GiB/s。
大模型推理时,临时数据存 DRAM 内存(保险柜)太贵,存普通硬盘又太慢。3FS 想了个妙招:用平价高速仓库(SSD 硬盘)当缓存,成本只有 DRAM 的 1/10,但速度能达到 90%。再通过闪电取货通道(RDMA 网络),速度高达 40GB/s, 相当于 1 秒传完 80 部高清电影
下图展示了一个大型 3FS 集群的读压测吞吐情况。该集群由 180 个存储节点组成,每个存储节点配备 2×200Gbps InfiniBand 网卡和 16 个 14TiB NVMe SSD。大约 500+ 个客户端节点用于读压测,每个客户端节点配置 1x200Gbps InfiniBand 网卡。在训练作业的背景流量下,最终聚合读吞吐达到约 6.6 TiB/s。






请到「今天看啥」查看全文