专栏名称: 集微网
集微网,半导体、手机行业专业信息服务平台,使用帮助请发送help。
目录
相关文章推荐
ZOL中关村在线  ·  独家揭秘!2024年最火的10款新能源车,速来围观 ·  昨天  
ZOL中关村在线  ·  何为新一代GPU能效之王?天玑9400图形性 ... ·  2 天前  
ZOL中关村在线  ·  苹果Ai国产化前路漫漫! ·  4 天前  
EETOP  ·  AMD股价跳水! ·  5 天前  
ZOL中关村在线  ·  国补直降2000元 联想YOGA Air ... ·  6 天前  
51好读  ›  专栏  ›  集微网

先进制程竞赛高通MTK暂休兵,苹果三星领风骚;周年庆听蔡明介讲述20年的艰辛与收获;CPU和GPU双低效,摩尔定律之后一万倍

集微网  · 公众号  · 硬件  · 2017-05-27 07:06

正文

1.先进制程竞赛高通MTK暂休兵,苹果三星领风骚;

2.联发科20周年庆!听蔡明介讲述20年的艰辛与收获;

3.CPU和GPU双低效,摩尔定律之后一万倍;

4.台积电16FFC拿下10个汽车电子客户 下一步用7nm拿下车联网;

5.拥抱数据洪流 英特尔的选择与转身



集微网推出集成电路微信公共号:“天天IC”,重大新闻即时发布,天天IC、天天集微网,积微成著!点击文章末端“阅读原文”或长按 laoyaoic 复制微信公共号搜索添加关注。




1.先进制程竞赛高通MTK暂休兵,苹果三星领风骚;



全球手机晶片双雄高通、联发科一路激战,从全球高阶手机芯片市场,2017年往下缠斗到中阶手机芯片领域,且不仅是拚战手机芯片,还包括手机芯片平台支援、连结性等应用设计,甚至连先进制程技术亦强力较劲,然经过一连串军备竞赛之后,却造成毛利率、营益率衰退隐忧,近期高通、联发科在7/10nm制程竞赛出现迟缓情况,相较于过去总是扮演先进制程领军角色,2017年恐改由自制芯片供应商苹果、三星电子独领风骚。

 

台系芯片业者指出,全球高阶手机市场几乎已被苹果、三星所寡占,且短期内几乎很难打破两强壁垒情况,高阶手机芯片市场商机已被自制手机芯片供应商所独吞,即便是高通亦难敌苹果、三星大军压境,近期开始将研发团队移往大陆手机内需、外销市场发展。

 

高通不断扩大对中阶手机芯片骁龙(Snapdragon)630、660芯片投资动作,意图将旗下芯片平台版图往下迁移的策略明显,这亦是近期高通、联发科再度陷入正面激战的关键,因为大家都希望争抢Oppo、Vivo、金立、魅族、小米等大陆手机品牌厂订单,毕竟这些客户订单在中、长期较具有成长性。

 

全球手机芯片双雄在高阶手机市场已明显争不过自制手机芯片供应商苹果、三星,面对高阶手机芯片解决方案投资额庞大,且获得效益又低又慢,近期高通、联发科在7/10nm等先进制程技术研发动作,似乎已有慢下来停、看、听的情况。

 

台系芯片业者表示,其实10nm制程技术所能提供高阶手机晶片的成本降低空间相当有限,充其量只是手机芯片运算时的功耗可以大幅下降,若手机芯片供应商无法抢到足够的订单量能,在10nm制程技术的投资回收期将会拖得非常长,7nm制程亦有类似问题,这也是至今坚定往7nm世代冲锋的芯片业者,只有自制手机芯片厂苹果及三星。

 

高通、联发科过去一直强调自家新世代手机芯片解决方案,都是采取最先进制程技术量产,2017年却出现截然不同的情境,转而寻求最适制程技术及最低成本结构。

 

联发科2017年将以16nm制程技术为主的Helio P系列手机晶片解决方案应战,高通Snapdragon 630、660系列芯片解决方案则采用14nm制程技术量产,对于10nm先进制程的关注反而略为降低,甚至联发科还打算采用台积电12nm制程技术,当作过渡期的制程。

 

半导体业者认为,全球手机芯片双雄对于最先进制程技术的偏好转变,主要是受制于全球高阶手机芯片市场大饼有限,能够从苹果、三星手中抢到的版图越来越小,在戮力投资却只有不多回报情况下,被迫先把不必要的军备竞赛暂停下来,是目前最好的辨法。DIGITIMES


2.联发科20周年庆!听蔡明介讲述20年的艰辛与收获;




集微网消息,历经二十载,联发科自1997年创立至今,已成长为具有全球影响力的无晶圆半导体的领导者。2016年,联发科董事长蔡明介表示,未来5年将投资超过2000亿元新台币,投入物联网、5G、工业4.0、车联网、虚拟实境(VR)/扩增实境(AR)、人工智能(AI)、软件与网络服务等七大新兴应用领域,通过不断精进和多元的技术,追求新一波的成长契机和成长动力。


今天上午,联发科举办20周年全球连线庆生会,与员工共同欢庆公司20岁生日。此次活动首度在联发科官方脸书平台上直播,以“Connecting the next billion-联发科技”为主题,充分展现出联发科经营阶层计划再战高峰、再创新高的愿景,也成为联发科高层改组后,董事长蔡明介的第一次公开讲话。

回想20年前,自联电芯片设计部门独立出来的联发科一度“不被看好”。联发科毅然决定切入全球光储存芯片市场,转进DVD播放机及TV等消费电子领域,再冲进全球移动芯片市场,一路从功能机时代一路升级到智能手机芯片的领先企业,联发科已然成为全球第三大IC设计公司,是坚持不断创新的结果。


秉持“提升及丰富大众生活”的企业使命,联发科技的产品涉及智能手机、智能电视、平板电脑、电视机顶盒、无线路由、可穿戴等多个领域。每年约有15亿台内建联发科技芯片的终端产品在全球各地上市, 让全球各地的普通消费者都能享受到科技带来的便利。


截至目前,联发科在全球共有约1.5万名员工,在欧、美、日、台湾、大陆及印度等11个国家和地区中设有研发中心。过去10年来,联发科对台湾晶圆代工与封装测试产业贡献逾5300亿元新台币,自2001年至今,累积发放的股利金额达到2100亿元新台币。


台湾电子时报评论道,“虽然比起20年前,联发科目前所遭遇的挑战及难关,几乎已是历史上的最高级,但机会及创新能量也同样存在,毕竟联发科一路走来,向来是关关难过、关关过,公司仍把困难、挑战视为创新动力的初衷,是联发科未来突破重重考验的关键因素。”






3.CPU和GPU双低效,摩尔定律之后一万倍;


原标题:CPU和GPU双低效,摩尔定律之后一万倍 ——写于TPU版AlphaGo重出江湖之际


本文来自计算机体系结构专家王逵。他认为,“摩尔定律结束之后,性能提升一万倍”不会是科幻,而是发生在我们眼前的事实。


2008年,《三体2:黑暗森林》里写到:


真的很难,你冬眠后不久,就有六个新一代超级计算机大型研究项目同时开始,其中三个是传统结构的,一个是非冯结构的,另外两个分别是量子和生物分子计算机研究项目。但两年后,这六个项目的首席科学家都对我说,我们要的计算能力根本不可能实现。量子计算机项目是最先中断的,现有的物理理论无法提供足够的支持,研究撞到了智子的墙壁上。紧接着生物分子计算机项目也下马了,他们说这只是一个幻想。最后停止的是非冯结构计算机,这种结构其实是对人类大脑的模拟,他们说我们这只蛋还没有形成,不可能有鸡的。最后只有三个传统结构计算机项目还在运作,但很长时间没有任何进展。


好在我们要的计算机还是出现了,它的性能是你冬眠时最强计算机的一万倍。传统结构?传统结构,能从摩尔定律这个柠檬里又榨出这么多汁来,计算机科学界都很吃惊。但这次,亲爱的,这次真的到头了


那是我读计算机体系结构专业博士的最后一年,当时我对此嗤之以鼻:摩尔定律怎么可能还有那么多油水可以榨。工艺极限近在眼前,不用智子出手,摩尔定律就会死翘翘了;传统结构更是没戏,CPU的架构已经被研究到头了,从2000年后,几乎没有捣鼓出啥新东西。


所以,这个“一万倍”,真的是好科幻好科幻啊。


回顾三体2出版之后的这九年,工艺进展步履维艰,微架构亮点寥寥,CPU的性能每一代都是挤牙膏。一切都好像在印证我悲观的预期——计算机硬件的性能,好像真的提升不上去了。


但是,从去年开始,“科幻”般的事件相继降临:


2016年3月,AlphaGo战胜李世石,它使用了1202个CPU和176个GPU


2016年4月,NVidia发布Pascal架构,峰值性能达到11TFLOPS/s,黄仁勋在接受新智元专访时表示,半导体技术迭代在放缓,但GPU Pascal架构比上一代性能在两年内提升了近十倍,因此可以说我们正处在一个“超级摩尔定律”时代。


今年5月11日,NVidia发布Volta架构,峰值性能达到120TFLOPS/s


今年5月11日,Google公布TPU二代,峰值性能达到180TFLOPS/s,且可以通过Google Cloud访问


今年5月23日AlphaGo重出江湖并且毫无悬念地战胜了柯洁;24日,DeepMind CEO 哈萨比斯和AlphaGo项目总负责人David Silver 在新闻发布会上接受媒体采访时表示,AlphaGo实际上是在谷歌云端的单一一台机器上运行的,此机器建立于二代TPU之上(据说这台机器使用了4块TPU)


在摩尔定律已经严重减速甚至失效的今天,我们实实在在地看到了算力的大幅度提升,而且这场算力的军备竞赛还在继续!


而我,也改变了自己悲观的预期,相信在不远的将来,“摩尔定律结束之后,性能提升一万倍”,将不会是科幻,而是发生在我们眼前的事实。


这是不是太疯狂了?设计计算机硬件的技术宅男们,凭什么做到这一点?凭TPU所代表的技术路线以及新的商业模式。且听我慢慢道来。


为什么CPU是低效的


在解释凭什么能做到“摩尔定律之后一万倍”之前,我们先聊聊为什么CPU和GPU无法担此重任。


如果你问我,CPU最大的特点是什么?我会说:它给程序员一个假象,让你感觉访问大容量的内存任何一个位置的延迟都是相同的,而且和做一次加法的延迟差不多,近乎为0。


制造这个假象非常困难。要知道CPU所采用的Logic生产线,同内存用的Memory生产线,有天壤之别。简单地说,由于某种底层的物理定律,Memory产线无法实现CPU所需要的高速度,Logic产线无法实现内存所需要的大容量。更糟糕的是,Memory制程相对于Logic制程还越来越慢,从1986年到2000年,Logic每年提速55%,而Memory只有10%。


何为“快”“慢”?口语中的“快”,可以指延迟小(从开始到结束间隔的时间短),也可以指带宽大(单位时间内通过的量大),说“高铁快”,指前者,说“网速快”,指后者。内存的带宽其实增长得还凑合,486时代CPU跑100MHz,SDRAM内存带宽为100MT/s;如今CPU达到2GHz~3GHz,DDR4内存带宽3200MT/s。虽然内存带宽有了几十倍的提升,但从发出读请求到内存条返回数据的延迟,这二十年来只减小了两倍多。


且不说外行人,很多初级程序员都不知道内存的延迟如此糟糕,即使是资深程序员,在大多数时候,也可以在编码中忽略它,为什么?这都是CPU的功劳。CPU使用了很多复杂的技术来隐藏内存的延迟,例如:


CPU使用非常大量的片上存储来做cache(缓存),把程序经常访问的数据放在片上,这样就不必访问内存了


CPU用复杂的技术猜测程序即将访问哪些数据,用预取的方式,提前把这些数据从内存中搬运到片上


当某一段程序由于等待内存数据而卡住无法执行时,CPU用乱序的方式,执行接下来的片段


使用超线程技术,当一个程序因为等待内存数据而卡住时,选择另外一个程序来执行


CPU的硅片上,绝大多数面积都是用来制造“内存访问近乎零延迟”这一假象的,真正用来做运算的逻辑,所占面积甚至不到1%——这就是它低效的根源。


CPU诞生于Logic和Memory的速度差不多的年代,那个时候,程序员就已经习惯于假设“内存访问近乎零延迟”,为了保证对软件的兼容,CPU多年来不惜一切代价维持这一假象。积重难返,时至今日,软件已经无法通过CPU来充分利用集成电路制造工艺所提供的澎湃动力。


为什么GPU是低效的


再用一句话来总结GPU最大的特点:它给程序员一个假象,让你感觉GPU上面有数十万个小程序在运行,彼此相安无事。


GPU的架构,简单地说,就是把类似CPU超线程的技术用到极致来隐藏内存访问的超长延迟。GPU里面有数千个小核心,每个都可以看成是个小CPU,与此同时,它同时运行最多数十万个小程序,大多数程序会因为等待访存而卡住,真正在小CPU上执行的程序只有数千个。


因为同时在工作的小核心有数千个,GPU比起CPU,单位时间内完成的运算量大多了。但它也有软肋,那就是:这数十万个小程序,彼此之间根本不可能相安无事,它们会抢存储带宽,抢得很凶。GPU要付出的管理代价相当高:


要做复杂的缓存,以备一块从显存取来的数据被很多小核心使用


访存接口只有8个,能发出访存请求的小核心确有数千个,必须分析它们发出的请求,把访问相邻地址的请求捏在一起作为一个请求送给显存


访存带宽必须做得远高于CPU,才能喂饱数千个小核心


数千个小核心上,每个时钟周期所运行的小程序都可能不一样,每个小程序的上下文都要保留,以备将来唤醒。为了存储上下文所付出的片上Memory的面积,堪比CPU上的庞大缓存


相对于CPU,GPU制造假象的能力稍逊一筹,稍有经验的GPU程序员,都明白要尽可能让GPU上并行跑的数十万小程序在访存时呈现一定的规律,否则GPU的效率会大打折扣。


GPU的定位,不单单是图形加速,而是所有的有海量数据并行运算的应用,因此它必须非常通用,不能对其上运行的数十万个小程序做限制。事实上,这数十万的小程序每个都可以任意访问到显存的所有位置,而且访问的位置各不相同,在这种情况下,GPU也要保证功能的正确性,哪怕跑得慢些。管理和组织这数十万个不受限制的小程序所付出的硅片面积代价和内存带宽的代价,是GPU低效的根源。


为什么FPGA只是过渡方案


CPU和GPU的架构都有非常沉重的历史包袱,体现在:


它们都有很强的通用性,不能仅仅只针对某个领域做优化


它们都有很强的兼容性,过去编写的程序必须能够运行


它们都有稳定而庞大的程序员队伍,这些程序员的思维方式不加改变的话,它们就不能放弃提供那些“假象”


这些也是非常伟大而甜蜜的包袱,正因为背负着它们,CPU和GPU厂商才能在它们既有的市场里呼风唤雨,并且把竞争者挡在门外。


如果扔掉这些包袱,设计全新的架构,就可以做到:


仅仅针对某个领域做优化


不考虑对过去软件的兼容


用全新的方式对其编程,不拘泥于之前的思维定势


这样设计出的架构,对其目标领域,性能指标会大幅度超越CPU和GPU这类通用架构。原因非常浅显易懂,通用性和最优化无法两全。历史上已有先例,当计算化学领域和天体物理领域对计算性能的需求无法被满足时,分别有科学家们为它们开发出了专用的Anton和Grape-DR计算机。只不过它们的专业性太强,不为大众所知。


如今,当CPU和GPU的架构已经无法满足人工智能应用对速度、功耗和成本的需求时,寻找新的架构成为了大家共同的选择。在寻找新架构的过程中,FPGA起到了开路先锋的作用。


FPGA是什么?如果说CPU和GPU是在架构级别做到“通用”的话,FPGA就是在更低一级的电路级做到了“通用”。通过硬件描述语言对FPGA编程后,它可以模拟任何一种芯片的架构,包括CPU和GPU的架构,通俗地说,FPGA是一种可编程的“万能芯片”。它非常适合探索性的、小批量的产品。


我们已经看到了很多的FPGA方案,实现了比GPU更好的速度、功耗或成本的指标。但是,FPGA依然无法摆脱“通用就无法最优”这一规律的制约。它之所以还能体现出相当的优势,是因为在一个软硬件系统中,算法的影响远大于硬件架构,而硬件架构的影响又远大于电路——在电路级别做“通用”付出的代价,比起在架构级别做“通用”的代价,还是小得多了。


一旦FPGA给某个专用架构趟出路来之后,它就会退居幕后,让位给更专用的ASIC。


TPU代表了未来的方向


这次同柯洁对阵的AlphaGo,采用了Google自研的第二代TPU。TPU的特点是:


仅仅针对线性代数做优化


不兼容CPU或GPU的程序


用全新的方式对其编程


用ASIC而非FPGA的方式来实现


深度学习所使用算法,绝大多数可以被映射为底层的线性代数运算。TPU(Tensor Processing Unit)中的Tensor,就是线性代数中的基本数据类型。线性代数运算有两大特点:Tensor的流动非常规整且可预期;计算密度很高,即每个数据都会历经非常多次的计算。这两大特点使得线性代数运算特别适合做硬件加速——所有用来制造“假象”的逻辑都不再必要,每个晶体管都可以用做有意义的运算或存储。


TPU上无法运行CPU上跑的Java或C++程序,也无法运行GPU上的CUDA程序。虽然尚未有公开信息,但它的编程方式非常可能是这样:TensorFlow把神经网络用一种中间格式表示出来,然后这种中间格式被编译器转换为TPU上独特的程序。这种中间格式被称为TensorFlow XLA,它也将是TensorFlow支持其它线性代数加速器的工具。


Google之所以选择ASIC而非FPGA,与其说是它的眼光好,不如说是它的魄力强。内行人都知道ASIC效能远超FPGA,但仍然有很多人不敢选择ASIC,为什么?自己做ASIC的风险太大:周期长,投入多,门槛高。一旦芯片做错,就和石头无异,落个血本无归。当年Apple决定自己做芯片时,并没有直接组建队伍,而是收购了P.A. Semi;这么多年后,成果赫赫,但依然不敢在Mac电脑中使用自研的CPU来淘汰Intel的芯片。而Google在短短几年内,组建了队伍,设计了合理的架构,做出了能work的芯片,并且敢于在自己的云上部署自己的产品,只能说一声“服!”


Google是一家伟大的公司,在它发布MapReduce、GFS和BigTable的论文之前,这些东西被普遍认为是不可能完成的。相信很多人在看到装备TPU的AlphaGo战胜柯洁之前,也会认为TPU是不可能完成的。历史证明,Google能做的事情,别人起码可以模仿个七八分。现在大家应该相信,在一个足够重要应用领域中,完全可以把优化和定制做到晶体管级别,而不是只做到某种现成的芯片架构的级别。这不但可行,而且必要,因为你不这么做,竞争对手也会这么做。


硬件的开源时代


摩尔定律的通俗表示是:每一美元所能买到的电脑性能,将每隔18-24个月翻一倍以上。过去三十年,拜摩尔定律所赐,我们见证了超过百万倍的性价比提升。未来我们所能看到的这一万倍,也应该按照“单位成本所能买到的电脑性能”来计算。


CPU和GPU这种通用架构,它们的历史包袱不仅仅导致了优化难以开展,还导致了:一、垄断导致的超额利润;二、过度复杂所带来的研发成本上升。于是,芯片的价格居高不下。


未来,当特定领域的定制芯片大行其道时,这些芯片的价格也将显著降低。原因在于:一、不再有垄断;二、没有历史包袱所带来的研发成本;三、开源所带来的研发成本降低。


硬件开源过去有过尝试,但无大成,原因是多种多样的。但从长远角度看,所有的基础设施,被广大厂商共享的,最终都会走向开源的路子。如果说Intel的CPU是大地(所有的优化不能做到比它更加底层),那么Linux、Python和PHP就是大地之上最底层的基础设施,它们是开源的;如果说GPU+CUDA是大地,那么各种深度学习的框架就是最底层的基础设施,它们也都是开源的。如果未来晶体管是大地,那么毫无疑问芯片的架构也会出现各种开源方案。


这一切才刚刚开始。这个月NVidia做了两件有趣的事:赞助了开源CPU架构RISCV在上海举办的workshop;宣布Xavier自动驾驶芯片中的针对线性代数的硬件加速模块DLA将开源。大厂支持开源,绝不是搞慈善,而是为了扼杀竞争对手,赢得业界事实标准的控制权。但开源的后果,必然是降低设计门槛,降低整个行业的研发成本。


我们的星辰大海:从应用到晶体管的全栈优化


对于从事计算机体系结构专业的同仁而言,这是最好的时代,半导体制造的先进工艺进展缓慢,但软件的各种应用需求还在不断涌现,软硬件接口逐渐模糊,成熟工艺的成本不断下降。为了优化特定应用,做深入到晶体管级的全栈优化成为一个现实的选项。只要正确地设计专用架构,使用成熟工艺也可以轻松超越GPU和CPU这种通用架构,哪怕它们采用最先进的制造工艺。


这是一个全新的世界,以往的利益格局和设计思想都将被打破,谁也无法预知将会发生怎样的兴衰变迁。但这就是我们的星辰大海,一起来探索和历险吧!


王逵,北京大学本硕博,自从大三读了Hennessy和Patterson的书之后,就掉进了计算机体系结构的坑,至今也没有爬出来。前后总共做了14年的CPU,从基础软件、芯片架构,到物理实现都攒了点经验。2016年加入比特大陆,从事人工智能加速芯片的设计和实现工作。



4.台积电16FFC拿下10个汽车电子客户 下一步用7nm拿下车联网;


台积电共同执行长魏哲家在技术论坛中指出,不但是看好四大应用领域行动装置、高效能运算、汽车电子、物联网的快速成长,更提出未来技术蓝图与客户共创双赢。

 

今年全球半导体产业营收值约3,830亿美元,年增率为7%,全年智慧型手机出货量为15.52亿支,年增率为6%,大陆品牌的智慧型手机出货量可成长10%,达到8.52亿支。

 

值得关注的焦点,包括苹果(Apple)iPhone8会有很多新的装置,还有人工智慧(AI)、AR/VR技术、车用电子会驱动半导体产业成长。

 

魏哲家表示,目前有400个客户,几乎每周都有一个客户加入,回顾半导体产业的创新影响很多行业,10~20年前若没有电脑,公司运作的效率不会这么好,今天若是没有手机,生活更大为不同。

 

再者,大数据的资讯收集、传输、分析有着极大的改变,加入人工智慧、机器学习后,搜集资讯的速度很快,且足够的分析也需要很好运算能力。

 

另一个重点式,物联网世界中,所有东西要能带着走,所以急需低功耗技术,需要很多搜集资讯要很多感测器,结合SOC技术。

 

魏哲家表示,会做到三大目标,包括持续投资先进制程技术、持续扩充产能、提供最佳的解决方案,协助客户强化竞争力。

 

魏哲家谈到未来世界,车联网发展到极致是无人车的世界,未来一出门就有一台计程车在门口迎接,我们只要用回答要到哪里?怎么付钱?走哪里?所有的指示都是透过语音辨识。

 

台积电在车联网技术上,首先是祭出16FFC制程,目前都已经完成开发,未来会转到7奈米制程上,会整个认证程序都搬过去,所有的IP都经过车厂的认证。台积电的16FFC制程在汽车电子领域拿下将近10个客户。

 

另外,无人车要测量汽车之间的距离,需要大量的感测器,很快能侦测到周边所有的环境,并且与旁边的汽车做沟通,因此要开发28HPC+制程RF技术。

 

再者,台积电的40奈米制程嵌入式记忆体已经在车用上通过认证,并且已经有客户采用。DIGITIMES 



5.拥抱数据洪流 英特尔的选择与转身



 2021年,最炫的汽车也许并不是从底特律开出来,而是从科技之都硅谷,数据洪流的爆发将赋予这个地方的创新者新的重任。


  可以看到,随着5G的即将到来,未来汽车成为了各大硅谷巨头公司的研究方向。有专家预测,未来自动驾驶汽车能达到十倍甚至千倍于人类的驾驶能力,换言之,也能带来海量的数据资源。这就不难理解为什么过往专注于单一领域的科技公司都在“跨界”。不同领域的数据爆发将滋生出无数的商业机会,前沿科技的引领者们显然不会放弃这个机会。

英特尔是其中的一家。

  正如英特尔CEO科再奇所说,智能、互联的物和机器设备产生的海量数据,将成为英特尔创新和增长的驱动因素。


  “面对万物智能互联、数据洪流、计算感知化和云的增值四大趋势以及由此迸发的新机遇,英特尔已制定清晰的数据战略,借助云和数据中心、物联网、存储、FPGA以及5G构成的增长的良性循环,驱动云计算和数以亿计的智能、互联计算设备。”科再奇说。


  科技巨头转身拥抱数据大潮的时代已经来临,或许,我们应该和“英特尔是家PC领域的芯片巨头”这样的旧观念说再见了。


  拥抱“数据石油”


  “英特尔已经成为一家数据公司。”这是今年以来这家全球最大的芯片生产商英特尔向外界传递出的关键信息。


  “虽然中国不是石油的大国,但是如果把数据比作是未来的石油,那么中国一定是数据的第一大国。”英特尔公司全球副总裁兼中国区总裁杨旭在近日的一场峰会上表示,到2020年,中国的数据总量将会达到8000EB。


事实上,从“人上网”到“物上网”,包括中国在内的经济体正迎来万物智能互联的新时代,由此而生的是数据量指数级爆炸。

  相关数据显示,2020年,540万件物联网设备将被投入到石油、天然气采矿,监控温度、湿度等居住环境的建筑物联网设备将达到7000万件,而在餐饮业,这个数字将高达3.1亿。


  数据的最高纪录将出现在卫生医疗行业,物联网智能设备投入将达到6.46亿件。目前,35%制造业业主已经采用智能传感到物联网设备,另有10%和8%的业主将在一年及三年内对制造设备进行智能物联网改造。


  “数据洪流已经来到我们生活中,数据就是新石油。”杨旭认为,在万物智能互联的新时代,面对数据洪流,智能化带来巨大增值空间,也只有增值才能实现产业转型升级。同时,驾驭数据洪流是实体经济转型的关键,“驾驭好数据洪流,使数据真正实现增值,让实体经济在增值过程中发展、创新和转型”。


  “今天处于所有产业融合的状态,这是几十年来没有遇见的现象。以前我们在自己行业里面做事,现在都是在更广阔的产业融合里面。真的没有‘界’了,所以我认为产业不是在跨界,而是在融合。”杨旭表示。


  数据时代的引领者


  和PC时代一样,英特尔在数据时代依然表现出了强大的领导力。


  早在三年前,英特尔就致力于业务重组,将业务的重心从PC上转移,积极布局人工智能、无人驾驶、5G、虚拟现实等领域。



  英特尔、宝马和Mobileye三方合作完成的宝马无人驾驶汽车首次亮相,把英特尔高性能计算、Mobileye的汽车级计算机视觉技术、德尔福在无人驾驶积累的专业技术,以及宝马行业领先的研究成果汇集到高度无人驾驶功能中 


  最近半年来,英特尔公司更是动作频频,从举办英特尔人工智能论坛,到成立人工智能产品事业部和人工智能应用实验室,从CES 2017上发布英特尔GOTM智能驾驶5G车载通信平台,到宣布将要收购Mobileye延伸无人驾驶技术布局,英特尔的转型速度之快也让外界看到了英特尔在数据战略上的野心。


  据悉,目前包括物联网、数据中心、游戏、车联网和无人机在内的业务在收入和盈利方面已经占到了英特尔整体业务的一半左右。这些新兴的业务增速已经大幅超过传统的PC业务。英特尔CEO科再奇在一季度财报发布后曾预计,这部分业务今年的收入将会呈两位数增长,规模达到300亿美元左右。


  以无人驾驶领域为例,不同于其他厂商,英特尔的优势在于对不同数据类型的处理能力和技术部署。无人驾驶汽车的复杂性和计算能力需要多个高端至强处理器、高性能FPGA、内存、高带宽连接等能力的支持,这都是英特尔所擅长的。


  目前,英特尔能够为无人驾驶协作提供广泛的资源,比如说车内计算以及强大的云和一套机器学习解决方案。还有高带宽、低延迟的5G连接系统,以及强大的内存和FPGA技术,人机接口以及安全技术。英特尔甚至在今年1月推出横跨汽车、连接和云的全新汽车解决方案品牌——英特尔GO,多个开发工具包能够支持业内首个5G就绪的无人驾驶开发平台。


  同时,英特尔的制造能力也保证了英特尔在数据洪流时代的领先优势。目前英特尔比竞争对手当前一代的制程技术领先三年,如果照这个轨迹发展,即使竞争对手兑现其10纳米规划之后,英特尔也将在制程技术上继续保持三年的领先优势。 一财网


集微网推出集成电路微信公共号:“天天IC”,重大新闻即时发布,天天IC、天天集微网,积微成著!点击文章末端“阅读原文”或长按 laoyaoic 复制微信公共号搜索添加关注。






点击⬇️阅读原文关注“天天IC”个人微信号