专栏名称: 36氪
36氪是中国领先的新商业媒体,提供最新锐最具深度的商业报道。我们强调趋势与价值,我们的slogan是:让一部分人先看到未来。
目录
相关文章推荐
腾讯研究院  ·  腾讯研究院AI速递 20250206 ·  昨天  
新浪科技  ·  【#AMD苏姿丰称DeepSeek的出现是好 ... ·  昨天  
新浪科技  ·  【#谷歌CEO盛赞DeepSeek#:#谷歌 ... ·  昨天  
51好读  ›  专栏  ›  36氪

英特尔新款游戏显卡卖爆!24G大显存版也在路上,这下AI玩家也要抢?

36氪  · 公众号  · 科技媒体  · 2024-12-26 17:18

正文

数据中心、边缘机房、教育科研和个人开发者都在关注。


梦晨 金磊

来源| 量子位(ID:QbitAI)

着实有点Amazing啊。

这两天 GPU 圈子发生了个事儿,被网友们讨论地津津乐道—— 有一款显卡卖爆了。

火到什么程度呢?就是一进货就被抢光。

GPU供不应求其实已经司空见惯了,但之所以这次能被热议起来,是因为这款产品背后的厂家。

不是你以为的英伟达、AMD,而是…… 英特尔

为什么会如此?

从玩家们的讨论中不难得出答案—— 性价比够高 ,2000元价位就能在2K画质下畅玩3A游戏。

The Verge也非常“直给”地给予了一句评价:

英特尔终于在GPU上拿下了一次胜利。

而这款显卡,正是英特尔不久前发布的 第二代Arc B580 ,售价仅 249美元

要知道,英伟达299美元的RTX 4060和AMD269美元的RX 7600,仅配备了8GB的VRAM。

但英特尔的Arc B580不仅价格比它们低,还配备了 12GB的VRAM 和192bit的显存位宽。

即使是价格更低的Arc B570(219美元,下个月上市)也配备了10GB的VRAM。

除此之外,还有一个更有意思的事情。

虽然Arc是游戏显卡,但毕竟是GPU啊,于是……也有一部分人买来 开始搞AI了 。而这,可能会让它未来的销售再增三分热度。

这不,有人在Reddit上就分享了怎么在Arc B580上搞AI画图Comfy UI了:

不仅是个人用户的尝鲜,我们还打听到有些企业已经着手把英特尔的显卡塞进包括工作站和服务器在内的商用计算设备中了,具体搭配的“食谱”就是: 英特尔至强系列CPU+Arc显卡。

不过暂时用的还是英特尔上一代的 A770 ,作为上一代的旗舰型号,A770有着16G大显存,用在AI推理上,也算游刃有余。

据可靠的消息,如此组合最为抢眼的优势,同样是“性价比”三字。

而由此引发的,更值得讨论的一个话题应当是:

消费级显卡搞AI,到底行不行?

首先可以看出来,无论个人还是企业,买英特尔消费级显卡来搞AI,基本都是来做 AI推理 的。

实际上,推理算力需求正在飞速增长,大有超过训练算力需求之势。

一方面 ,随着行业热议的“预训练Scaling Law撞墙”了,像OpenAI o1/o3系列模型也开始依靠增加推理算力提高模型能力。

另一方面 ,AI应用落地的爆发也使得推理需求大幅增长,这些需求往往不强求算力的溢出甚至极致,即所谓硬需求不高,而是更加注重实现够用的性能(包括并发度和时延),以及与之同步的易获取、易部署、易使用和成本上是否够实惠。

那么做AI推理为什么选择英特尔游戏显卡? 正如前面分析,性价比肯定是一大考虑因素。

从硬件方面讲 ,即使是顶级的算力卡,单卡做AI推理在面对高并发等场景时,显存也会成为瓶颈,但升级到四卡、八卡成本又会飙升。此时,英特尔 A770这种2000元价位就有16G大显存的型号,就成了兼顾性能与成本之选。

从应用方面讲 ,很多场景其实对每秒token生成速度要求并不高,特别是有流式传输等优化手段,只要first token latency到位了,后面生成速度满足一定要求,体验就很好。

这是我们拿到的4张英特尔Arc A770显卡跑Qwen2.5 32B模型的演示Demo,来感受一下这个速度,是不是足够了?

看到这里可能有人要问了,用英特尔显卡跑AI, CUDA的问题怎么解决?

拿最流行的大模型推理框架之一 vLLM 来说,得益于开源软件的发展,其早已实现了高级别的抽象和封装,其实换用哪种硬件,用起来都没差太多。

再加上英特尔自己提供的开源 oneAPI ,就能做到很低的迁移成本。

可能还有人要问了, 那为什么不选专用AI推理加速器,比如风头正盛的Groq、Sambanova这些?

这就要说到, 多模态交互 是现在AI应用的一大趋势,无论是与AI视频对话、数字人,还是直播、短视频场景的一些应用,都 同时会用到视频解码或图形渲染能力 ,这就非得是 通用GPU 不可。

专用加速器虽然在特定任务上有优势,但在处理多样化需求时,通用GPU更具灵活性。

所以总结来看,用英特尔显卡搞AI推理,算力够用,大显存还有,可行性就有了,性价比也有了,对于现有业务来说,迁移成本更是理想。

后面能拿下多大市场,会不会成为一个趋势,就拭目以待了。

英特尔的曲线突围

英特尔消费级显卡被企业拿去搞AI推理了,英特尔自己是什么态度?

那肯定是乐见其成的,而且相当重视。

其实,英特尔在两年前刚推出Arc系列时就采取与友商不同的策略, 许可证方面明确不限制数据中心使用

为了方便大家用好AI,英特尔的软件团队一直没闲着,除了更新oneAPI,还在持续推出和更新一系列开源工具,吸粉不断。

例如加 速库IPEX-LLM ,可用于大模型的推理和微调,在GitHub上已经有6.8k star。

以及 低比特量化工具neural-compressor ,也获得2.3k star。

从IPEX-LLM也可以看出英特尔对中国市场的重视,针对中国主流的开源大模型ChatGLM、Qwen、MiniCPM等都提供了适配,中文文档和教程也做的比较完善。







请到「今天看啥」查看全文