2017年3月,英特尔在其于2016年末收购的人工智能公司Nervana的基础上,成立人工智能产品事业部(AIPG),着眼于整合英特尔内部众多AI产品,也充分展示了其为行业提供完整AI平台的决心。
为了探寻英特尔在AI方向的具体布局,以及即将面世的Lake Crest芯片,CSDN记者专门采访到英特尔AIPG数据科学部主任,刘茵茵博士。刘茵茵就AIPG组织布局、英特尔Nervana技术、 以及其个人在人工智能研究道路上的感悟做了非常详尽的阐述。另外,作为业内为数不多的女性科学家,刘茵茵博士展现出的理性与感性的糅合,令记者印象深刻。采访过程中,刘茵茵的回答精准且富有逻辑,以下为采访实录。
刘茵茵博士,英特尔人工智能产品事业部(AIPG)数据科学部主任,与数据科学部团队将深度学习和英特尔 Nervana 技术运用到不同行业领域的商业应用中,并推动 Nervana 平台的设计和发展。
刘茵茵和英特尔 Nervana 团队开发了开源深度学习框架, Neon和 Intel Nervana Graph,并将图像识别、图像定位、自然语言处理领域的最前沿模型应用到深度学 习框架和解决方案中。
同时,刘茵茵在计算机视觉、神经形态计算和机器人领域有丰富经验。
✎
记者 | 王艺 [email protected]
英特尔成立AIPG的目的是?
英特尔成立AIPG是在今年三月的时候。英特尔一直在致力于为各个行业提供一个完整的AI的平台,通过这次成立AIPG,我们也强烈地显示了一下这个决心。其实在英特尔内部有很多AI的产品,包括硬件、软件、算法。AIPG的出现意在整合这些在不同的层面上的人工智能相关的工作,希望把很多分散的小产品整合到一个更加连贯、关系更加紧密的平台上,形成一个生态环境。这样一来,对于用户来说,就算你不了解英特尔AI产品线的内部结构,你也可以通过我们平台的入口使用我们的AI技术服务,你可以从一个上层的软件接口来选择具体的任务,比如图像、声音、语言的问题。因为这些问题都已经包含在平台里面,用户就可以通过把这些小的部件组合,来非常灵活地做出属于用户自己的应用。
Nervana和AIPG的关系是?
AIPG是以Nervana为基础成立的,但是因为目前AIPG只成立了两个多月,人员的部署还在不断地优化调整中。Nervana Systems的CEO和CTO也是现在AIPG的CEO和CTO。产品方面刚才我也提到了,我们希望建立一个生态系统,分为软件、硬件、数据科学等几层。除了Nervana产品线,以前英特尔其他部门做的小的AI产品,我们也在逐步地了解各个产品的优势,将不同的产品放在不同的层。其实英特尔之前在语音处理、自然语言处理、情感分析、环境理解、算法功能等方面都有不同程度的努力。只不过以前是分散的,或者说是通过不同的渠道支持用户,现在我们希望将这些小产品综合到比较连贯的系统里。除了整合英特尔的产品之外,AIPG还希望能够在AI的演变中起到更多的领导作用。这就需要在AIPG内部成立一个研究小组,主要专注于展望AI的发展趋势、在未来三到五年的发展前景、不同技术的趋势反映到在硬件和软件上的需求,这样一来,AIPG未来的硬件和软件设计能够更加具有前瞻性。
您所说的Nervana产品线包括什么?
我们对Nervana的基本构想是做端到端的AI平台,包括硬件芯片以及软件平台。考虑到目前深度学习和AI方面有很多算法和工作量,需要一个专门的芯片支持非常好的运算策略,以及在芯片技术的基础上,还需要一些软件的架构来为用户提供一个方便使用的平台。因为英特尔本身是一个非常大的芯片厂商,通过英特尔的资源,Nervana的芯片产品能够快速完善设计,并推向市场。今年在和英特尔的流程整合之后,我们是希望在年底的时候推出一个限量产品,以便收集到一些性能和使用方面的反馈,很快地再完善一下版设计,希望在明年可以量产。
在硬件基础上我们也推出开源的软件平台,在Github上,这个平台为用户提供简单易上手的入口。这样一来,算法以及数据科学从业者可以很快地建造自己想要的模型,然后通过这个平台的作用,而把整个模型流程优化到可以在不同的硬件上运行。用户可以通过上层的接口访问下层的资源,也就是英特尔不同的硬件可供用户选择。因为平台是开源的,所以能够给很多AI学习者提供一个学习、使用、理解AI的工具。很多在学校的学生和刚开始学习AI的人都可以通过使用我们的平台了解AI最新的模型、哪些模型更有用、作为英特尔哪些模型在我们的考量之中、不管是软件和硬件方面英特尔会做哪些工作。这个平台可以支持很多种硬件,包括为现在英特尔已有的至强和至强融核都提供了各种接口,所以好多已有的硬件都可以通过我们的平台来使用。如果在我们下一代产品出来的时候会有一个新的接口,这样用户已有的一些算法和方案方面的工作,并不需要做任何改变,只是需要更新一下软件就可以直接使用新的硬件。
英特尔产品线上的不同芯片针对深度学习中训练及推理两个不同阶段,Nervana是针对哪个阶段进行设计的?
最主要是针对训练,希望能取得最短的训练时间。在Lake Crest出现之前,英特尔能够有效提升训练阶段速率的产品包括至强融核系列的KNL以及KNM,Lake Crest与现有的至强以及至强融核芯片相比,是完全针对深度学习中涉及到的运算和工作量考虑的。对于深度学习来说,现有的各种芯片有很多瓶颈,比如数据提取方面的瓶颈。因此这一次我们进行全新的设计,在硬件架构上和很多已有的硬件有一些不同。同时我们也考虑到运算强度、存储带宽、运算的利用率以及功耗等方面。希望能够真正地将计算、存储和功耗融合在一起,做一个专门为深度学习打造的芯片,以有效解决深度学习在其他芯片上的瓶颈问题,以及在做分布式计算的时候出现的瓶颈问题。
这种提升有数字进行量化吗?
现在对芯片的量化维度完全的Teraflops上,在这个维度上Lake Crest还是属于比较领先的。更重要的是我们希望在Teraflops这个衡量标准之外,有一个能够反映到AI模型以及最终用户体验方面的量化标准,针对不同模型以及工作量进行比较。当然除了硬件模型,我们整个的AI平台都在做端到端的优化过程,在软件的提升方面我们也做了很多工作。之前在英特尔优化TensorFlow的经验上,大家也都能看到,在一些软件上的优化甚至可以达到百分之几百的速度提升,这还只是在软件方面优化。所以很多东西都是在不断地进行当中,希望最终给用户的时候能有更优的性能体现。
这个软件平台的架构包括哪几层?
最底层的,芯片之上,是Nervana Graph框架,Nervana Graph作为不同硬件的接口,在内部对芯片做一些软件的优化。你可以把它理解成Tensorflow类似的深度学习框架,提供比较细致的运算方法。Nervana Graph之上是Neon,Neon为用户提供最高层的API,用户的入口很多时候是Neon,支持用户用很少的代码实现一个模型。另外,除了与Neon接口之外,Nervana Graph还有一个作用是它可以为其他的前端深度学习框架提供接口,比如大家常用的Caffe、TensorFlow,尤其是Caffe2、TensorFlow、MXNET。因为很多用户在自己做研究和数据科学的时候,会更偏爱某一框架,在他已经熟悉的情况下,可以不用改变日常的工作方式。我们的Nervana Graph会提供一个翻译机制,将他们所使用的熟悉的环境中的运算翻译成Nervana Graph中的运算。通过Nervana Graph,用户得到了更多硬件选择,又不用改变他们日常的工作流程。还有就是,用户也可以通过Nervana Graph进行大规模分布式训练,根据用户的需求,可以分布到四个点或八个点。从Nervana Graph内部来看,有一个很大的运算图谱,把这个图谱分割成若干块,把每一块分配到不同的硬件节点上进行运算,这样能够大大缩短整个训练的时间。
说到计算,我们还有一层叫做Nervana Cloud,它其实对于数据科学家是一个非常有用的工具。当然直接用Neon和Nervana Graph也可以做数据科学,那么用Nervana Cloud有什么意义呢?首先有很多客户他本身并没有太多的计算资源,非常希望我们能够为他建立一个计算基础,给他们一个搭建好的平台,这样的话他可以马上进行一些数据科学的实验。因为在这个层面上,我们有很多不同工业领域中的客户,他们在人工智能上可能不那么擅长。他们抛给我们问题,我们提供数据科学的帮助。比如有来自金融界的客户,金融界需要读的文档太多,有得时候想做一些金融决策,很难从文档中理解和抽取信息,这个时候我们会帮助他们将他们的领域问题与我们现有的AI算法进行衔接,为他们分析问题,比如建议某个AI模型对你们的问题非常有用,我们可以给你建立一个概念。在这个层面上我们有很多客户。Nervana在作为创业公司的阶段以及过去这十个月作为英特尔的一部分的阶段,都有很多客户与我们保持联系。客户有自己的数据,我们帮助这些数据产生价值,最终帮助他们用AI解决自己的问题。
Lake Crest相比于市场上其他人工智能解决方案芯片,优势在哪里?
市场上确实有很多硬件选择,每个公司也都有自己的设计方案。我们的专注点在于通过我们的经验来理解AI到底有什么样的需求,并把这种经验集合到我们硬件设计当中。
AIPG团队在未来一年有何规划?
首先是Lake Crest的硬件发布,其次在软件方面,我们希望能够提供更完善的端到端接口,包括与硬件的,与Tensorflow、Neon这种前端模型的,以确保这些非常重要的AI模型都能够在在我们的平台上运行,并且体现出我们期待的优势。另外在过去的几年当中,我们和很多不同的工业领域的客户有广泛的合作,还是希望合作会继续进行下去,能够把AI的算法价值推送到更多的领域中去。
以您在AI领域的多年经验,您看到了什么?