专栏名称: 企业存储技术
企业存储、服务器、SSD、灾备等领域技术分享,交流 | @唐僧_huangliang (新浪微博 )
目录
相关文章推荐
51好读  ›  专栏  ›  企业存储技术

Hot Chips 2024资料公开下载:聚焦AI芯片 & 散热

企业存储技术  · 公众号  · 科技自媒体  · 2024-12-07 08:30

主要观点总结

本文介绍了Hot Chips 2024会议资料的获取方式,包括微信公众号和链接下载。同时,文章还提到了微软和Meta的AI芯片分享,包括性能、功耗和内存速率等方面的信息。最后,文章对未来AI芯片和GPU的功耗进行了展望,并提供了相关扩展阅读。

关键观点总结

关键观点1: 会议资料获取方式

文章提供了Hot Chips 2024会议资料的下载链接和微信公众号获取方式。

关键观点2: 微软和Meta的AI芯片分享

文章提到了微软和Meta在AI芯片方面的分享,包括性能、功耗和内存速率等细节。

关键观点3: 未来AI芯片和GPU的功耗展望

文章对未来AI芯片和GPU的功耗进行了展望,并提供了相关扩展阅读,包括数字理想化、普及的服务器和机架功率密度等话题。


正文

说实话,在3个月之前 就拿到这些资料了,也看到有朋友、个别媒体在转发。尽管也曾有读者问我要,但那时还要付费注册才能下载,Hot Chips大会的惯例是在3个月之后免费公开演讲资料。所以8月份的会,要等到现在发才合适:)

Hot Chips 2024会议资料完整下载

链接: https://pan.baidu.com/s/11uSDiB_8CdAPrIUMLElGdA?pwd=dmkr

提取码: dmkr

大家也可以在关注本微信公众号之后,从后台对话框发消息 hc24 来获取下载链接。

官网来源 https://hc2024.hotchips.org/,演讲主题如我就不搬过来了,毕竟8月的会日程早就挂网上了。

微软分享:Inside Maia 100

其实这款AI芯片我在《 OCP峰会Keynote:Intel和AMD都在谈UALink和Ultra Ethernet 》中就提到过。

Maia的性能和TDP功耗可以留意下。

以下是来自Meta(Facebook)的分享: Next Gen MTIA - Recommendation Inference Accelerator

与前面的微软相比,Meta这芯片功率、性能、内存速率配置都相对不高,看样子是主打能耗比或者性价比。

一张PCIe Gen5 x16板卡上,2颗芯片等一共才220W功耗。

更详细一点的技术规格。不难发现每个MTIA ASIC搭配的4颗内存芯片,正好是前后左右4边各一颗。

上图交代不够完整,比如CPU、PCIe Switch用的哪家?Memory Expansion具体是如何实现。不过在10月 OCP峰会资料 Supporting Meta ML accelerators on the Grand Teton platform 》里详细讲了。如下图:

首先,CPU代号Genoa的就是AMD EPYC 9004系列(最新一代 EPYC 9005代号Turin ),PCIe Gen5 Switch用了Broadcom PEX89144。双CPU各自通过一个 PCIe







请到「今天看啥」查看全文