专栏名称: ZOL中关村在线
看科技资讯、查产品报价,上中关村在线。
目录
相关文章推荐
EETOP  ·  FPGA 线上技术交流 ·  23 小时前  
EETOP  ·  HDMI 2.2 新规范抢先解读 ·  23 小时前  
ZOL中关村在线  ·  有哪些值得期待的变化?iPhone 17曝光全汇总 ·  昨天  
EETOP  ·  FPGA 线上技术交流 ·  2 天前  
EETOP  ·  官宣:英特尔迎来华人CEO!有救了! ·  2 天前  
51好读  ›  专栏  ›  ZOL中关村在线

错失移动,英特尔如何靠人工智能力挽狂澜?

ZOL中关村在线  · 公众号  · 硬件  · 2017-04-18 17:51

正文

曾经的芯片巨头,正在全面拥抱着人工智能的转型。但是前有老对手微软的压力,中有NVIDIA的截杀,后有谷歌等互联网新贵的追击,英特尔如何用人工智能照亮未来之路?

【有流量可直接看视频,时间:14分48秒】

【流量限制可看图文,2880字耗时约10分钟】

对于AI这件事,CPU和GPU谁更适合?

要回答这个问题,就要从CPU和GPU的架构说起。这是一个非常复杂且学术的问题,抛开一些技术关卡,这张图片能比较直观的让我们了解到CPU和GPU的不同。


CPU和GPU的架构示意图

图片中绿色的是计算单元,橙红色的是存储单元,橙黄色的是控制单元。GPU采用了数量众多的计算单元和超长的流水线,但只有非常简单的控制逻辑。而CPU有着复杂的控制逻辑和诸多优化电路,但计算能力只占很小一部分。因此, GPU更擅长大规模并发计算,适用于数据并行度高的计算密集型程序(相同算法不同数据重复计算)。而CPU对并行程度要求低,对数据的依赖性不高,适合处理多样的任务。

在2016年人工智能概念再次走向大众视野时, Alphago 的走红将深度学习概念迅速炒热,对于需要大量数据并行计算处理的深度学习,GPU的优势被直接放大,但是从人工智能的完整路径来看,CPU和GPU必须各司其职相互配合。

具体到一个完整的人工智能应用,前期的数据获取和最后的信息决策都是CPU擅长的,而中间大量的数据计算则是GPU更擅长完成的。“比如人脸识别应用,前期图像的采集、数据的存储在CPU上运行最好,随后GPU负责大量的并行识别计算,最后的识别结果需要关联其他信息做决策,或者跟其他传感器和渠道来做信息综合的时候,CPU则更擅长。” 英特尔中国研究院院长宋继强 在接受ZOL视频专访时举例道。


英特尔中国研究院院长宋继强

不过,GPU并不是并行计算的唯一平台。如果还没有明确的数据算法,需要大量实验确定哪种算法更适合的时候,GPU的效率会更高更灵活。但是 一旦算法固定了,GPU的工作将可以由一种专门针对人工智能AI优化的加速芯片来替代。

目前,英特尔拥有 FPGA Nervana 两种硬件加速芯片,不需要CPU的指令调度,可以直接针对硬件和算法优化,执行效率更高。这类专用的加速芯片能够解决计算密度、内存存储带宽等问题,将性能优化到最佳。“前端设备要考虑尺寸、功耗、价格等问题,专用加速芯片是最好的选择。加速芯片特别适合在前端设备里做计算机视觉应用,小规模的深度学习网络,所以会出现在无人机、人工智能摄像头上。”宋继强院长表示。

三个左右未来的收购

英特尔用专用加速芯片降低了并行计算的冲击,而这背后离不开三个关键性的收购。


英特尔167亿美元收购Altera

2015年6月2日,英特尔宣布以 167亿美元的现金收购可编程逻辑芯片巨头Altera ,这笔交易成为英特尔成立49年历史中金额最大的一笔并购 ,CEO科再奇都感叹“这笔并购案的金额实在太大了”。的确,彼时英特尔一个季度的营收才刚刚达到132亿美元。现在看来英特尔当时的破釜沉舟还是压对了宝,Altera的FPGA纳入到英特尔的产品线后,成为了英特尔开发专用加速芯片至关重要的砝码。英特尔并购副总裁文德尔·布鲁克斯在当时接受采访时曾表示,相对于传统的处理器和FPGA独立组件,FPGA和英特尔处理器封装的一体化芯片最初将带来30%-50%的性能提升,而最终的性能提升将达到2-3倍。







请到「今天看啥」查看全文