来源:内容来自数位时代,谢谢。
日前,Intel 宣布要与Facebook合作,推出首款专为机器学习设计的「Nervana」神经网络处理(NNP)系列芯片,是一款专为人工智慧所设计的快速芯片,提供高效率的AI运算,预计在今年年底就能出货。
「我们很兴奋在向市场分享这款新世代AI硬体时,能跟Facebook 密切合作,共同分享技术见解。」Intel 执行长布莱恩‧科再奇(Brian Krzanich)在《华尔街日报》举办的WSJDLive全球科技会议上,宣布与Facebook 合作推出首款神经网络处理系列芯片,且将在今年年底前出货,并表示Intel 有信心能够超越去年设定的目标,在2020 年时让AI 效能提高100 倍。
科再奇认为透过「Nervana」神经网络处理器,可以为许多产业带来高效率的AI 运算能力,他也列举了四项例子,像是在医疗保健AI 可以让早期诊断提高精准度、增进癌症、帕金森病研究;社群媒体可以为客户提供更个人化的服务;无人车未来能在汽车产业更快实现;AI 也能帮助研究人员掌握风速、水温数据,可以有效预测飓风轨迹。
加快深度学习,Facebook:改变对AI 软硬体建构的策略
去年八月,Intel 以3.5亿美元收购深度学习新创业者Nervana Systems,这次打造的首款基于神经网络处理的AI 芯片,采用标准缓存层次结构,并使用软体来管理芯片上的内存,如此一来便能加快深度学习模型训练时间。
跟PC芯片不同,Nervana 神经网络处理芯片是一款特殊的集成电路,是为训练和执行深度学习演算法所打造,Intel 缩小了Nervana 神经网络芯片的电路尺寸来减少运算时的耗能,将使用可处理大量数据的「Flexpoint」格式达到「大规模双向数据传输」,意思是如果将大量的芯片连接在一起,就可成为一个巨大的虚拟芯片,能达到更大规模的深度学习模型,此架构目标,是要打造出能弹性应付深度学习的处理器,当处理高强度运算要求时,可以更有效率。
科再奇在WSJ D.Live 科技会议上透露,Facebook 在试用过Nervana 神经网络处理芯片后,认为这可以改变公司对AI 软硬体建构的策略。
挑战NVIDIA,Intel 曾推出自我学习型芯片Loihi
NVIDIA 过去一直在AI 硬体发展遥遥领先,目前多数AI 系统都以CPU (中央处理器)运作处理为基础,但在NVIDIA 的推动下,许多深度学习应用都将GPU(图形处理器) 列为主要加速应用的基础,CPU 只用来作为指令运作或系统控制等需求使用。
为了因应产业以GPU为AI系统发展的趋势,今年九月Intel 推出一款具备自我学习能力的处理器芯片「Loihi」,这款芯片采用14纳米制程技术,由13万组类神经元及超过1.3亿组类神经网络系统组成,每组类神经元具备学习引擎,能够彼此沟通,模拟人类的大脑运作,达到自我学习的效果,不用再额外提供学习数据,只需持续运作就能应付各种不同的运算模式。
Loihi 芯片预计在2018 年上半年与部分大学与研究机构合作,来推动未来AI 发展。
今天是《半导体行业观察》为您分享的第1430期内容,欢迎关注。
关注微信公众号
半导体行业观察
,后台回复关键词获取更多内容
回复
科普
,看更多半导体行业科普类的文章
回复
DRAM
,看更多DRAM的文章
回复
光刻
,看更多光刻技术相关的文章
回复
英特尔
,看更多与英特尔公司相关的文章
回复
全面屏
,看更多全面屏相关的文章
回复
双摄
,看更多关于手机双摄像头的文章
回复
中芯
,看更多与中芯国际相关的文章
回复
台积电
,看更多与台积电相关的文章
回复
展会
,看《2017最新半导体展会会议日历》
回复
投稿
,看《如何成为“半导体行业观察”的一员 》
回复
搜索
,还能轻松找到其他你感兴趣的文章!
点击阅读原文加入摩尔精英