本文介绍了Hot Chips 2024会议资料的获取方式,包括微信公众号和链接下载。同时,文章还提到了微软和Meta的AI芯片分享,包括性能、功耗和内存速率等方面的信息。最后,文章对未来AI芯片和GPU的功耗进行了展望,并提供了相关扩展阅读。
文章对未来AI芯片和GPU的功耗进行了展望,并提供了相关扩展阅读,包括数字理想化、普及的服务器和机架功率密度等话题。
说实话,在3个月之前
我
就拿到这些资料了,也看到有朋友、个别媒体在转发。尽管也曾有读者问我要,但那时还要付费注册才能下载,Hot Chips大会的惯例是在3个月之后免费公开演讲资料。所以8月份的会,要等到现在发才合适:)
Hot Chips 2024会议资料完整下载
链接:
https://pan.baidu.com/s/11uSDiB_8CdAPrIUMLElGdA?pwd=dmkr
提取码: dmkr
大家也可以在关注本微信公众号之后,从后台对话框发消息
hc24
来获取下载链接。
官网来源 https://hc2024.hotchips.org/,演讲主题如我就不搬过来了,毕竟8月的会日程早就挂网上了。
微软分享:Inside Maia 100
其实这款AI芯片我在《
OCP峰会Keynote:Intel和AMD都在谈UALink和Ultra Ethernet
》中就提到过。
Maia的性能和TDP功耗可以留意下。
以下是来自Meta(Facebook)的分享:
Next Gen MTIA - Recommendation Inference Accelerator
与前面的微软相比,Meta这芯片功率、性能、内存速率配置都相对不高,看样子是主打能耗比或者性价比。
一张PCIe Gen5 x16板卡上,2颗芯片等一共才220W功耗。
更详细一点的技术规格。不难发现每个MTIA ASIC搭配的4颗内存芯片,正好是前后左右4边各一颗。
上图交代不够完整,比如CPU、PCIe Switch用的哪家?Memory Expansion具体是如何实现。不过在10月
OCP峰会资料
《
Supporting Meta ML accelerators on the Grand Teton platform
》里详细讲了。如下图:
首先,CPU代号Genoa的就是AMD EPYC 9004系列(最新一代
EPYC 9005代号Turin
),PCIe Gen5 Switch用了Broadcom PEX89144。双CPU各自通过一个
PCIe