专栏名称: 芝能汽车
本公众号是博主和汽车电子的行业的工程师们一起交流、探讨、思考的小结,以作为技术交流和沟通的桥梁
目录
相关文章推荐
大家车言论  ·  一个年款车型,可以有多用力? ·  1 周前  
电动车公社  ·  曾被狂喷技术落后的理想,赢麻了? ·  1 周前  
电动车公社  ·  曾被狂喷技术落后的理想,赢麻了? ·  1 周前  
北大纵横  ·  比贾跃亭还会忽悠的车企,IPO了 ·  1 周前  
北大纵横  ·  比贾跃亭还会忽悠的车企,IPO了 ·  1 周前  
51好读  ›  专栏  ›  芝能汽车

Cerebras Systems :以大为美的AI芯片冲刺IPO

芝能汽车  · 公众号  · 汽车  · 2024-10-08 09:29

正文

芝能智芯出品


人工智能(AI)技术的快速发展,尤其是生成式AI的兴起,AI芯片成了一个有力可图的市场。


Cerebras Systems是一家专注于研发AI训练和推理芯片的创新公司,最近已向美国证券交易委员会提交了IPO申请,准备在纳斯达克上市,股票代码定为“CBRS”。


自2016年成立以来,Cerebras因其独特的晶圆级引擎(WSE)技术而闻名,尤其是最新的WSE-3芯片,在性能上显著超越了市场上的其他产品,如NVIDIA的H100 GPU。


Cerebras的收入增长迅速,但公司目前仍处于亏损状态,IPO将为公司提供一个扩大市场影响力的机会。



芝能点评:Cerebras Systems的IPO上市标志着AI芯片的创新者具备了独立上市的可能性,致力于颠覆传统GPU架构的创新公司,Cerebras通过其晶圆级芯片技术,展示了推动AI计算能力极限的潜力。


在英伟达几乎垄断AI芯片市场的情况下,Cerebras的崛起为行业注入了新的竞争活力,并为AI训练和推理市场的未来格局带来了新的可能性。


Cerebras的上市有望成为测试市场对高性能计算需求的“试金石”,并可能促使更多创新芯片企业跟随其脚步,加速AI技术的变革与应用普及。



Part 1

技术飞跃:
全球最大的AI芯片WSE-3



Cerebras的WSE-3芯片是AI芯片领域的一大革新,拥有46225平方毫米的面积,内含超过4万亿个晶体管,是世界上最大的单芯片。


相较于市面上流行的NVIDIA H100 GPU,WSE-3在多个方面有着显著的优势,比如核心数达到了90万个,是H100的52倍;片上内存容量为44GB,是H100的880倍。


这样的设计不仅增强了计算能力,还解决了传统GPU在处理AI任务时遇到的内存带宽限制问题,能够将整个模型存储在芯片上,提高了训练和推理的速度。



Cerebras晶圆级芯片的优势主要体现在四个方面:大容量紧密集成的计算单元、高效的数据互联、巨大的片上存储及带宽、以及针对稀疏性的硬件加速。


这些特点让Cerebras在AI模型训练和推理方面拥有明显的优势。例如,使用Cerebras芯片的系统可以在相同的任务量下,比使用8个GPU的系统快10倍以上进行训练。而在推理速度上,Cerebras的方案同样比顶级GPU快10倍以上,这使其在AI芯片市场中占据了有利位置。


Cerebras的技术领先,但其财务状况仍然是一大挑战。


 从2022年到2023年,Cerebras累计收入为1亿美元,但净亏损达到了3亿美元。


● 进入2024年后,上半年的收入同比增长接近1500%,达到1.364亿美元,显示出了强烈的市场需求。不过,公司的净亏损依旧高达6661万美元。


这表明即使收入快速增长,Cerebras仍未能实现盈利。


未来,如何将技术优势转化为持续的盈利增长,将是IPO后Cerebras需要解决的关键问题。


Cerebras的客户分布也较为集中,其中83%的收入来源于单一客户——阿联酋的AI公司G42。这种高度依赖于单一客户的业务模式可能会给公司的业绩稳定性带来风险。


Cerebras需要努力拓宽客户基础,降低对单一客户的依赖,Cerebras通过其独特的晶圆级芯片技术,为AI计算提供了新的解决方案,特别是在AI推理领域展现出了显著的竞争优势。


例如,Cerebras的AI推理解决方案能够使Llama 3.1-8B模型的输出速度达到1800 token/s,比NVIDIA的GPU快约20倍,这预示着Cerebras在AI推理市场有广阔的发展前景。



Part 2

看看Andrew Feldman怎么说


在2024年8月的Gradient Dissent播客中,Feldman与主持人Lukas Biewald探讨了Cerebras Systems的最新进展及其在推理市场中的创新表现。


在AI芯片市场英伟达几乎垄断了市场份额,特别是在大模型预训练阶段,其他芯片制造商如AMD也在竞争,但英伟达凭借着其庞大的算力集群和不断优化的软件栈,已成功地验证并优化了数万块GPU芯片的性能。


Andrew Feldman,Cerebras Systems的联合创始人兼CEO表示,需要有创新的办法。Cerebras的AI推理方案,特别是在速度、准确性和成本效率方面,给市场带来了全新的基准。


Feldman认为,目前AI推理的应用仍处于一个相对初级的阶段,如同“拨号上网时代”。在这个阶段,由于速度缓慢,许多极具潜力的应用无法得以实现。


这种状况下,Cerebras的突破性AI芯片能够提供超高速度的推理性能,突破了当前GPU架构内存带宽的瓶颈,带来了前所未有的算力提升。


● 传统的GPU架构虽然在训练小模型时非常有效,但在面对需要数百甚至上千个GPU协同工作的大模型时,效率显著降低。


● 而Cerebras的巨型芯片不仅可以在处理大模型时保持高效,还在推理速度、准确性和成本方面实现了前所未有的突破。这些创新使得Cerebras在AI芯片市场中占据了独特的位置。


Feldman解释说,AI推理的需求与用户数量、使用频率和模型的规模直接相关,随着生成式AI的普及,对推理计算能力的需求将呈现爆炸式增长。


在这种情况下,Cerebras推理平台的优势将更加显著。Feldman认为,当前AI推理的市场份额约占生成式AI市场的40%,并预计未来推理市场的增长速度将超过训练市场。


在推理市场的竞争中,速度和吞吐量是关键因素。


 传统GPU架构允许增加用户数量,但每增加一个用户,推理速度就会变慢,这就造成了吞吐量与时延的权衡。


● 而Cerebras的架构设计消除了这种限制,不仅能保持极快的推理速度,还能同时支持大量用户,这使得其在推理业务中占据了显著优势。


Cerebras在某种程度上扮演着“挑战者”的角色,面对英伟达这样行业巨头的竞争,Cerebras的策略是通过创新的架构设计和强大的推理性能打破现有市场的格局。


他对行业领袖如英伟达CEO黄仁勋表现出极大的尊重,认为他们在过去十年中做出了非凡的成就。但他也相信,Cerebras已经制造出了比H100更具优势的产品,这为他们提供了更具竞争力的立足点。


对于Cerebras的未来发展,Feldman描绘了一幅充满希望的图景。


AI推理市场有着极大的潜力,随着推理速度的提高,许多新兴应用将得以实现。就像当年互联网速度提升推动了流媒体行业的爆发一样,Feldman相信AI推理的加速将推动生成式AI的广泛应用,甚至可能产生数十亿美元的新市场。


Cerebras的创新不仅仅局限于芯片设计,还体现在他们对市场的理解和战略布局上。


Feldman强调,推理市场的真正价值在于能否为用户提供更快、更准确的答案。在未来,随着AI推理需求的进一步增长,Cerebras将继续致力于提供更高效、更经济的解决方案,以满足不断增长的市场需求。



小结


Cerebras的IPO标志着AI芯片产业的一个重要转折点,一个旨在挑战行业巨头的新兴企业,Cerebras以其创新的晶圆级芯片技术在市场中脱颖而出。


面对亏损和客户集中度高的挑战,Cerebras有望借助IPO筹集的资金,进一步推动技术发展和市场拓展。特别是在AI推理领域,Cerebras的技术优势可能为其赢得更多机遇。如果Cerebras能有效降低成本、扩大客户群并实现盈利,那么它极有可能成为AI芯片市场的重要参与者。


这次IPO不仅是Cerebras成长道路上的一个重要标志,也可能预示着AI芯片市场未来的发展方向。