专栏名称: 机器学习研究会
机器学习研究会是北京大学大数据与机器学习创新中心旗下的学生组织,旨在构建一个机器学习从事者交流的平台。除了及时分享领域资讯外,协会还会举办各种业界巨头/学术神牛讲座、学术大牛沙龙分享会、real data 创新竞赛等活动。
目录
相关文章推荐
宝玉xp  ·  1. ... ·  昨天  
量子位  ·  Ilya宣判:预训练即将终结!NeurIPS ... ·  2 天前  
黄建同学  ·  AI ... ·  3 天前  
宝玉xp  ·  claude.ai 的Artifacts ... ·  3 天前  
黄建同学  ·  7 种最流行的 RAG ... ·  4 天前  
51好读  ›  专栏  ›  机器学习研究会

北大 AI 公开课第二讲:余凯&雷鸣漫谈嵌入式AI(附课程精彩回放)

机器学习研究会  · 公众号  · AI  · 2017-03-02 20:34

正文





“北大 AI 公开课”系列第二讲《嵌入式人工智能:从边缘开始的革命》于周二晚上结束,北大人工智能创新中心主任,百度创始七剑客之一雷鸣和前 IDL 创始人、现地平线创始人兼CEO余凯一起漫谈嵌入式AI。下面新智元为不能亲临现场的读者带来本次课程最完整实录。


2017年2月的最后一天,北京大学“人工智能前沿与产业趋势”研究生课的第二讲如约和大家见面。课程依旧由北大人工智能创新中心主任、百度七剑客之一、酷我音乐创始人雷鸣老师坐镇,而邀请的嘉宾则是“千人计划”国家特聘专家、原百度 IDL 常务副院长、地平线机器人创始人兼CEO余凯老师。本节课将围绕的主题是嵌入式人工智能,涉及了嵌入式人工智能的本质特征、软硬件结合联合优化、应由场景及未来的发展机会等等,亮点颇多。


余凯老师首先以“人工智能的边缘机会”为切入点,做了时长50分钟的演讲。之后雷鸣老师登台,和余凯老师就“人工智能的专用性和通性”、“在软硬件联合优化的过程中如何良好同步”等问题展开了对话和讨论。下面是最完整课程实录。


余凯在北大AI公开课演讲


余凯演讲实录


谢谢雷鸣,我的老朋友,好哥们儿。其实雷鸣老师是我们所有百度人的前辈,百度的七剑客之一。今天我也非常感动,能来到北大和在座的老师和同学们分享一些关于人工智能的看法。我记得很早之前也来北大做过深度学习的讲座,距离现在也有些时间了,这期间我个人的身份也发生了一些转变。

 

在过去的两年间,人工智能变成了一个非常 sexy 的话题。那么,What’s the hype? 这里面是否真正有一些实在的因素在推动?我昨天到今天一直在非常认真地在准备今天这个讲座,因为这也是雷鸣老师给我布置的一个作业。在座的从事人工智能相关学习或研究的有不少。我记得我自己大学一、二年级的时候是在学习用 FORTUNE,C 语言编程,而今日来找我请教的大一、大二的同学会跟我探讨如何建模去识别女孩子饰品这类的问题,所以说 computing science 在过去讲的是 computing,而如今关注的是 data science,变成了 data-driven 的 computingscience,统计的、大数据的、计算的建模越来越多。过去是 Bigdata, big model, big computing 这三个因素在推动学术研究和产业发展。所有的计算从 PC 到移动设备有一种聚合的趋势,聚合到云计算、数据中心。但是天下之事,分久必合合久必分,在未来的十到二十年,我认为很多计算会到互联网的边缘,会到我们的 device 端,甚至有些还是在不联网或无线联网环境下,依赖电池或本地的动力支持如发动机去进行本地的计算。

 

今天我想跟大家更多地分享一下我个人关于产业向前发展的思考,一些“干货”。我今天提出一个新的类别,叫做嵌入式人工智能,意为不是在云计算或数据中心而是在互联网的边缘。我认为从现在开始,我们会看到从边缘开始的一种革命,正如从2012开始深度学习所引起的革命,一般来说,革命都是从边缘开始的。2012年4月我在西安一次会议上作了一个关于深度学习的讲座,那时深度学习还是一个处于边缘的课题,而如今已发展为风暴的中心。当今人工智能的计算大多数都在 BAT 的数据中心,在云上面,但我们会发现,有一个巨大的机会远离数据中心,在互联网的边缘。

 

我这个想法是从哪里来的呢?先从我个人的经历谈起,我自己在深度学习这个领域工作了二十多年,之前在美国硅谷的NEC Labs领导一个计算机视觉小组,也是世界上第一个做相关项目的小组。我的小组在2010年第一届ImageNet Challenge上拿到全球第一名。2012年回国加入百度,创立了业界首个人工智能中心 IDL Center,如今已是业界最具影响力的人工智能中心,我至今还认为它非常出色,汇聚了很多优秀的人才,包括百度的自动驾驶团队,中国最早的自动驾驶项目。虽然我博士毕业以来一直在工业领域发展,但我与学术界一直保持着紧密的联系。分享一个小片段,2009年参与 ICML(International Conference of Machine Learning,)时我和几位朋友共同组织了一个关于深度学习的 workshop,日后这几位朋友分别加入了 APPLE、Google、Facebook 这样的大企业去建立人工智能中心,可以看到这样一个现象,就是深度学习在很短的时间内迅速影响了世界上最伟大的高科技公司。2014年我也引荐 Andrew Ng,也是我多年的朋友,加入了百度,这是首次有全球知名的 technical leader 加入中国公司,在国内外都引发巨大震动,我至今都引以为傲。我个人认为未来原创技术改变世界的创举一定会从中国发生,这也是我加入百度的原因,我初到百度做自我介绍时谈过,我希望未来大家谈到人工智能领域的顶级公司不仅只想到 Google,也会谈到百度。我想这点在今日应该已经实现了,中国人工智能领域处于前沿位置的公司就是百度。

 

今天我们不谈深度学习的算法,而是去探讨一个正在发生或是下一个发生的风暴是什么。我从2013年年底开始思考未来,认为未来有三大趋势,第一个我称之为新摩尔定律。摩尔定律在过去的二三十年推动整个全球科技界在向前发展。摩尔定律指每十八至二十四个月,计算机的成本会下降一半,性能则会提升一倍,使计算和应用不断发展,按此规律推算,到2045年,每1000美元可以买到的计算资源几乎就等同于今天人脑的计算能力,即目前天河二号的计算能力,天河二号的功耗为1000万瓦,而人脑只有20瓦。到2045年是不是会这样呢?Intel 已经于去年正式宣布摩尔定律已经守不住了,速度已经放缓。那么到底是什么因素会去推动整个计算向前发展呢?整个摩尔定律已经在按另外一个轨道在发展,已经不是每个单位面积上晶体管的数目,而是架构的改进,使得计算由逻辑运算向人工智能运算演进。那么人工智能运算是提升 CPU 工艺向前发展,还是设计一个新架构,这是个问题。

 

让我们来看一下人脑是怎样工作的。我们的人脑是 general 的、像 CPU 一样的 computer,还是一个 special purpose 的 computer?人脑是一个特殊硬件还是一个通用计算的硬件?认为是通用计算的请举手(不少同学都举起手来)。还是有不少同学这么认为。人脑确实很发达,有很强的计算能力,但如果你认为这样人脑就是通用计算的硬件了,那我来问一下,你看你能回答这个问题吗?(PPT 上显示:1729×568=?)  你会发现,面对这样一个简单的问题,你会觉得如此的无奈。你会发现,人脑不是无所不能的,它的能力明显有边限。当然人脑有它擅长的东西,比如这个(PPT 上出现了一段在一定程度上打乱了顺序的文字,现场观众惊讶地发现,这并不影响阅读,甚至有人都没有发现顺序被打乱了)。我们发现,原来大脑是这么奇妙,这么特殊,它的机制可能和现在显示器的逐行扫描、顺序扫描是完全不同的机制。它对图像是并行处理的,因此对顺序是不敏感的。但是背后又有一个 language model,还有一个类似于 recurrent neural net 的东西在进行 correct。我们发现,原来人脑是有所长、有所短的。在漫长的进化过程中,人在不断地发展和自己生存有关的能力,而和生存无关的能力,发展则是不足的。所以说,人脑是一个特殊设计的硬件。同时人脑还有很多个不同的子系统,比如有一部分是专门对听觉优化的,有一部分是专门对视觉优化的,前几年有一个获得诺贝尔奖的发现,发现人脑中有一块是专门负责定位的,相当于 GPS。

 

我们看到,如果我们做通用处理器,做 CPU,那么它可能非常 flexible,因为它可以做很多任务。但它整个 efficiency 并不高。但如果针对每个人物做专门的优化,会把 efficiency 提高两到三个数量级。

 

给大家讲一个我自己经历的故事。2011年,谷歌大脑的项目,当时都是用 CPU 来做的计算。当时我们加入百度,开始在百度做深度学习计算,用的是 GPU。我们私下里不断的比较,比较 CPU 跟 GPU 的效率。2012年的 GPU 比 CPU 效率大概要快四十倍左右,但是 Google 的一些人告诉我们,他们的 CPU 优化的非常好,据说能达到 CPU 跟 GPU 只是六倍的difference。但是我们觉得很难相信,这一点就跟我们的数据太不一样了。我们觉得 GPU 做深度神经网络的性能明显要更高嘛。不管怎么说,我们开始 launch 我们的系统,大规模使用 GPU 来做计算,到后来证明我们是对的。Google 后来也开始大规模地使用GPU。所以实际上,百度比 Google 更早使用 GPU。所以 Andrew 在2014年5月份加入百度,他接受采访时说,当时加入百度的原因,当然除了余凯,另外还有一个原因,就是可以随便买 GPU。

 

到了14年,广告系统上线跟语音系统上线都需要实时计算,并且它的流量特别大,特别是广告,这种情况下 CPU 跟 GPU 其实都扛不住,所以我们当时用 FPGA 去做专门的硬件加速。这时我们更加清醒地认识到,硬件对计算力有多么重要。

 

好,我们现在看另外一个趋势,这个趋势就是从中心到边缘。

 

我们可以看到从 PC 互联网到移动互联网到 internet of smart things,实际上对 AI 的要求越来越高。对 PC 互联网来说,对 AI 的要求其实没有那么高,但在移动互联网上,这种要求出现了。比如说最近我们看到今日头条的新闻,它跟百度一个很不一样的地方是百度是即搜即得,而今日头条是不搜即得。这个“不搜即得”,在移动设备上,因为它有一个主动去做推荐的机制,使得人机交和信息的获取更加智能更加的高效。未来,这些移动设备上,会有越来越强的AI需求。我们有很多的计算,会从数据中心往这些移动设备上去转移。在这些设备上,做 perception,做人机交互,还有决策等事情。

 

这些计算要求 low latency,没有延迟,并且是实时的,low power,low cost,并且是 privacy protect 的。那我们看到,就是说在汽车上面的话呢,就说这是一个很大的一个应用场景。不可能前面有小孩子突然横穿马路,你还要把数据传上数据中心,处理完了以后再传回来,这是不可想象的。所以一定要本地计算,要实时处理没有延迟。很多移动设备,比如 Amazon 的 Echo,就是把很多计算往边缘设备上去推,使得它整个的用户体验会更好,这也是未来的一个趋势。又比如监控摄像头,中国去年一共部署了一亿个。监控摄像头的资料,其实存3个月就扔掉了。未来,对于所有这些摄像头,都会有专门的处理器,去处理实时的视频,这是一个大的趋势。孙正义认为,很多计算未来会在边缘进行,边缘的这些设备上的计算,使得这些设备变成了机器人。他认为,15年以后,机器人的数目会超过人类,达到一百亿个。孙正义基正是基于这样一个逻辑,他以极高的溢价收购了英国的 ARM,300多亿美金。所以这是以 VC 的思维去做几百亿美金的巨型并购。

 

第三个趋势,是在边缘的竞赛,就是更快更高更强。比如今天的每辆车,有1个摄像头,就是倒车的摄像头,但未来的自动驾驶是平均8到12个摄像头。Tesla 的新车上,已经有8个摄像头了。然后每个摄像头,会从720P的解析度到1080P的解析度,到高清的4k,因为解析度越高,你可以看得更远。另外一点,未来的10到20年时间,因为自动驾驶技术的发展,会使得高速公路上的汽车的平均的速度从100公里每小时到接近它的物理的极限——200公里每小时,速度会越来越快,这是一个 global trend,这要求处理的数据量持续增长,所以在边缘上,计算会持续的追求更快更高更强,这是一个新的竞赛。


未来的5到10年,最具颠覆性的产业机会是什么?我跟大家分享一下我的思考。通常来讲,产业机会分成两个阶段,通常的话,我们会看到,首先是一波2B的机会。2B的机会,就是 Enabling Technology,公司就是做 technology 本身的。它是提供枪炮弹药的,给谁提供呢?给第二波的机会提供。第二波的机会是什么呢?就是 Technology-enabled Business。当然这些都是2C的。2B就是给 Enterprise 提供服务。这些 Enterprise 再去捕捉 consumer-orient 的机会。这个 pattern确实在历史上反复发生。举一个例子,当年 PC 互联网刚出现的时候,时间是在90年代末,那时没有一家互联网公司是挣钱的,大家都看到了这里面存在机会,但在这个阶段,首先要做的工作是把架构、网络给做起来吧?  所以 CISCO 这样的公司会表现得更好。另外也会有一些2B的培训师等等,这个阶段整体上属于为B端造枪造炮提供弹药的阶段,这算是一种曲线救国吧。然后才有2C的大的互联网公司的出现,比如 Google。再比如移动互联网,首先要有 CDMA 这样的软件算法,放在芯片里面,使每个移动设备 stay connected。然后才是 Apple 这样的公司的崛起。中国的大部分投资者、创业者和企业家,他们看重的就是这样一波机会。


在我们进入这个市场的时候,美国人把这些基础技术已经做完了,从2000年开始到今天,我们是在享受上个世纪八九十年代科技成长的所带来的的一个环境,然后我们去做了这些用户导向的企业。但今天我们去看这个整个这个创业环境,2C的这种创新其实代价已经非常的高昂,比如嘀嘀融了上百亿美元,美团也有几十亿美元,这个投资其实越来越沉重。其实你想想看,当时 Google 只融了两千万美元就上市了,百度差不多也就是千万美元,腾讯也是如此。在那个时候其实有大把的机会去捕捉。但是现在的话呢?八九十年代技术创新所带来的这些能力其实已经被发掘的差不多了,所以我们会发现创新越来越沉重。


好,然后我们来看一下未来的机会。过去的12个月里,大概近半年的时间里,我们看到整个高科技行业有一个机会,今天所有的这个二级市场投资者都开始研究它、关注他,这个让他们觉得很 surprised。因为在整个高科技市场比较低迷的时候,有一只股票是 NVIDIA,从20块钱到现在涨到差不多100块钱,曾经一度到119块,在过去一年多的时间里成长了5倍,是整个高科技市场成长速度最快的一个机会。这里面核心的逻辑其实很简单,他就是造枪造炮嘛。现在很多企业,无论大小,即使不知道深度学习用来干什么,怎么挣钱,大家都要去抢购 GPU 这些。所以我们也非常看重这点,希望做一个深度神经网络的这种处理器,让大家能够利用这些软硬件结合的解决方案。


我们从一个更大的尺度来看,这是今年市值排名前20名的高科技公司,我们可以看到里面有8家是互联网公司,还有8家是半导体公司。大家不要只看互联网公司,其中有非常非常硬的科技公司,他们是很赚钱很赚钱的。八家硬科技公司里面成长得最快的两家,一家是 NVIDIA,一家是 AMD。我们做深度学习的处理器也是因为看到了这种趋势,就是软件算法跟人工智能和半导体的结合会催生爆发式的成长。我们的关注点是加速 inference 的效率,打造低功耗高性能的解决方案,让很多 device 端也具有人工智能的能力。

 

如果把我们去和硬件厂商相比较,他们去优化的是 number of operation per cost,但我们去优化的是什么呢?我们不是一个传统的硬件厂商,我们实际上是软硬结合的2B的生意,我们优化的是 performance per cost。我们首先从系统的角度来做优化,我们会设计专门软件算法的实验过程,然后根据这个软件算法来设计一个硬件的架构,然后再用这个硬件架构,去优化我们的软件,最后通过 compiler 和 runtimelibrary 使软硬件之间的差距更小。还有一个理念很重要,就是不要关注笼统的问题,而是要解决具体的任务,否则复杂程度会让你难以驾驭。通过软硬件优化,我们可以把性能提升两到三个数量级。

 

我为什么认为这个非常重要?跟大家分享我自己的亲身经历,这是当时百度第一辆自动驾驶汽车,把这个后备箱打开,可以看到里面全是机器,最早里面有好多飞线,现在已经做得很好了。但是散热问题还没有解决。到今天为止,无论是百度还是 Google 的无人驾驶汽车,这些自动驾驶的车每开两个小时就要停下来散热,因为里面热得受不了。冬天完全不需要开空调暖风。这个问题为什么难解决?功耗为什么降不下来?因为你没有从系统级的层面来优化整个东西。软件框架不断往前迭代,硬件架构也需要相应迭代,感知能力极大提升。自动驾驶继续发展的话,会发现感知能力不是最主要的,最主要的问题变成决策。自动决策方面的复杂程度超出想象。我们的目标是打造一款芯片,功耗和成本只有目前市面上顶尖处理器的几十分之一,但性能为其两三倍。在下个月德国柏林的 BCW 会议上我们也会分享我们在自动驾驶方面软件算法和处理器架构的进展。乔布斯在手机上实现了去掉键盘和鼠标操控,在平板上去掉了书写笔,而我们的目标就是用五年的时间把所有遥控工具全部去掉,完全实现人体感知,想要实现这一年就需要完全重构软件和硬件,让处理器和真个系统的功耗足够低,体积足够小。我们不仅仅是做软件算法,我们专注于自动驾驶,智能家居和公共安全这三个垂直市场,未来几年这三个市场都会爆炸式的增长。

 

最后我想分享一下,人工智能改变世界,真正改变人工智能,改变世界的是人才。人工智能目前最缺的就是人才。这是我第一次在业界发表我的判断和看法,我相信跟你们在媒体上看到的都很不一样,我愿意分享的原因就是我觉得雷鸣老师做的这一个研究中心非常有意义,因为我们缺乏的就是人才。我在斯坦福教课的时候有个学生,目前几家全球前五十的人工智能公司都提到他做的公司。其实他这个公司初始的一个想法是当时上我课的时候完成的一个项目。他当时设计了一个简易的机器人来自动识别蔬菜地的杂草并用生态的方式除草,本意是希望解决加州菜农雇佣大批墨西哥非法移民除杂草的社会问题,同时获实现无污染的蔬菜种植。基于此想法,他日后真的做成了一个公司,今日美国有10%的生菜地都在使用他的机器人除草。能通过我与学生的交流帮助一些年轻人做成一些事情,对此我也感到很骄傲。

 

我过去还带过两个学生,一个后来在密歇根大学做教授,另一个目前是深度学习领域的旗手。杨健朝是我当年带过两年的实习生,当时我们俩合著的计算机视觉的论文在 CVPR 引用次数达到两千多次,在这次会议中全球引用率最高。另一个实习生周曦,目前是中国最好的一家人脸识别公司云从科技的 CEO。贾杨清的导师推荐他来跟我做深度学习,今天他开发的Caffe 在业界已经如雷贯耳。李沐是我当初招募的百度 IDL 少帅学者,他开发的 MXNET 是亚马逊云计算的官方深度学习平台,影响世界的年轻人,非常了不起。另有两名百度少帅学者李磊,今日头条实验室主任,和顾嘉唯,麻省理工学院全球TR35创新者。


所以我鼓励年轻人来地平线实习和工作,我相信地平线现在所做的事情是站在时代前沿,提供足够激动人心的成长和学习机会。

 

我们做的事情从软件到硬件,到编译器,到操作系统,去改变驾驶,改变机器人,去应用到未来的方方面面。我觉得我也愿意去跟大家一起去成长。我们对于增量性的创新没有兴趣,我们要做的是颠覆性的创新。这就是我今天的分享。谢谢!


这里,我们特别拈出“嵌入式人工智能——从边缘开始的革命”这一话题,为读者呈现当日课程的精彩片段。


雷鸣对话余凯:人工智能的边缘机会


边缘机会将会是未来的风暴


宣讲一开始,余凯老师首先表示,他是来讲干货的。当你刚以为他要走技术路线,他却又说,今天他也不谈深度学习、生成对抗网络等等。他希望和大家分享的是他的“思考”。这一思考的对象,就是嵌入式人工智能。他认为目前嵌入式人工智能不在数据中心,不在云上面,而是处在互联网的边缘。“革命往往从边缘开始,”余凯老师说,“星星之火,可以燎原。”他举了农村包围城市的例子。“深度学习几年前还处在一个边缘的地位,而今已经成为风暴的中心。今天我们的人工智能计算,大部分都在BAT的数据中心,在云上面,而我今天要向大家展示的,正是这样一个边缘机会,它远离BAT,远离云,却是一个正在形成的风暴。”

 

对于这个形成中的风暴,余凯老师从两个角度进行了表述,或者说论证,首先是商业的角度。余凯老师认为,从人工智能当前的发展情况看,应用的场景首先是to B,然后才是to C。这一路径在PC互联网的崛起和移动互联网的崛起过程中都看得很清楚。

 

“比如90年代末,那时没有一家互联网公司是挣钱的,大家都看到了这里面存在机会,但在这个阶段,首先要做的工作是把架构、网络给做起来吧?  所以 CISCO 这样的公司会表现得更好。然后才有to C的大的互联网公司的出现,比如 Google。再比如移动互联网,首先要有 CDMA 这样的创新,高通把这样的软件算法放在芯片里面做to B的生意,然后才是 Apple 这样的to C公司的再次崛起。中国的大部分投资者、创业者和企业家都是2000年以来成长起来,只看到这样一波to C的机会,而不太了熟悉美国80-90年代核心技术突破而导致的to B的巨大机会。”


什么才是“边缘机会”


“我们从一个更大的尺度来看,这是今年市值排名前20名的高科技公司,我们可以看到里面有8家是互联网公司,还有8家是半导体公司。大家不要只看互联网公司啊,其中有非常非常硬的科技公司,他们是很赚钱很赚钱的!”


余凯老师点明了他认为的“边缘机会”:“如果把我们去和硬件处理器厂商相比较,他们去优化的是什么?是单位成本下的计算性能,但我们去优化的是什么呢,我们不是一个传统的硬件厂商,我们实际上是软硬结合的toB的生意,我们从系统的角度来做优化,我们会设计专门软件算法的实验过程,然后根据这个软件算法来设计一个硬件的架构,然后再用这个硬件架构,去优化我们的软件。”


正如前文所说,余凯老师认为的边缘机会,是人工智能领域to B的系统优化服务,具体来说,可以表述为嵌入式专用人工智能系统,其物理形式,可能是一个小小的芯片。但其中蕴含了软硬件结合联合优化的复杂过程。


“我为什么认为这个非常重要?跟大家分享我自己的亲身经历,这是当时百度第一辆自动驾驶汽车,把这个后备箱打开,可以看到里面全是机器,最早里面有好多黑线,当然现在已经做得很好了。但是散热问题还没有解决。到今天为止,无论是百度还是 Google 的无人驾驶汽车,这些自动驾驶的车每开两个小时就要停下来散热,因为里面热得受不了。冬天完全不需要开空调暖风。这个问题为什么难解决?功耗为什么降不下来?因为你没有从系统级的层面来优化整个东西。软件框架不断往前迭代,硬件框架需要相应迭代,这个架构的优化是非常复杂的,复杂到超出想象。”


 寻找出路:软硬件的联合优化


 “如何定义嵌入式系统和通用计算系统?你现在的项目,是一种非常专用的小芯片,还是有很大的通用性?” 雷鸣老师的问题一开始波澜不惊。


余凯老师回应:“随着新的摩尔定律的出现,我们会看见越来越多的专用架构设计,因为它必须针对特殊的任务去做专门的优化,比如我们有专门的视觉神经网络,它的结构跟听觉神经网络其实是很不一样的,跟我们负责定位的大脑部分其实也很不一样。当你的计算能力很难继续突破的时候,比如说量子计算还没有实现的时候,只有进行专门的优化,我们才能够继续往前奔跑,去实现特定场景下面的摩尔定律。所以,我认为我们会朝特殊定制化这个方向去走,但是这种特殊定制化的任务其实也没有太多,比如我们的大脑功能,也就是基本的视觉、听觉、三维感知等。所以说专门化是嵌入式的一个本质特征。另外一点,就是低功耗,一定要低!无人机本来可以飞个两个小时,结果只能飞3分钟。再比如汽车,因为的新能源汽车其实都是烧电池的,跑5百公里和只能跑50公里,这是很不一样的。所以这方面如果不去做这种专门的优化,未来的电动车也很难往前发展。另外我认为这里需要软件跟硬件的联合优化,联合优化是什么意思呢?本质上来讲,应该是一个软件,比如地平线本质上是一个软件公司,但我们只不过是把一部分东西给硬件化了而已。所以我基本上总结了3个方面。第一,专业化,使摩尔定律继续往前;第二,低功耗,低功耗,低功耗!第三,软硬结合。”

 

如何看待理想和现实的矛盾


“专业化过程中需要解决问题,比如解决听觉方面的问题。解决完之后,我们又进行软硬结合,但现在算法迭代,速度非常快,那么硬件化之后,新的算法怎么办?会不会我们这批东西出来以后,过了半年,其实它的性能比起新的东西,已经差了很多。这个矛盾在实际过程中是怎么去应付的?”


余凯老师回应:对,这是做硬件的一个很大的风险。软件算法不断的每3个月往前去迭代,3个月以后的最好的算法跟现在比又很不一样,所以硬件投入的话资金成本很高,一个处理器从投入到最后形成战斗力要3年时间,这个时间跟你投多少钱没关系,因为你必须得一步一步从架构到设计,然后到验证到后端到封装等等。还包括软件,包括系统软件,所以这个迭代的速度非常的慢,这很难驾驭。像我们的话,实际上,都是软件跑到前面,我们基本上把很多软件算法的研发都已经跑到明年了,我觉得创业就是要赌。如果什么东西都看到,完全放在桌面上,你才去做的话,那不叫创业,那叫工作。”

 

雷鸣老师谈了自己的想法:“我谈谈我自己的一点想法,刚才看到你说了新的架构,我们从性能到成本,再到所谓的效果上来看,我刚才算了一下,你在性能上能取得很大提升对吧?我们说摩尔定律基本上一两年也就翻一翻,所以我觉得,感觉上如果你做专用的东西,比起通用的,其实在很多地方,一两年的时间还是有的,这是做这件事的优势。第二点,我在想,如果说你有通用计算加软件优势的话,硬件其实大家都是一样的。所以,你比别人先做,那你就是有优势的。“


余凯老师表示认同:“对,推动解决方案,比起单独的专用硬件,一个明显的困难是在执行层面。困难在于节奏感,要是一下错位了,成本跟时间的投入就让创业者一下子万劫不复。这本来就很难,创业本来就是在刀锋上面行走。”


雷鸣老师则继续指出这一边缘机会的另一优势:“我觉得好在,也许你在这个这个路上走的时候并没有那么多人跟你竞争,所以,中间的话我觉得还能让我们去犯一些错误。而如果现在在做移动互联网时犯任何一个小错,机会就没有了。”


以上是两位老师的干货分享。更多精彩内容,请收看课堂的视频录像。

课程回放链接:http://www.iqiyi.com/w_19rtza2dh9.html

点击文章左下角“阅读原文”即可观看精彩课程内容



课程介绍


“人工智能前沿与产业趋势”课程由北京大学开设,并面向公众开放。课程由人工智能创新中心主任雷鸣老师主持,共14节,每节课邀请一位人工智能领域顶级专家和行业大咖作为主讲嘉宾,就人工智能和一个具体行业的结合深度探讨,分析相应技术的发展,如何影响产业,现状及未来趋势、对应挑战和与机遇。所有课程相关信息、通知都会在文末的公众号发布。



课程参与方式


扫描下方二维码,关注公众号


扫码福利:

⊙   直播、录播课程地址

课程精华文字版

人工智能交流群入群方式

⊙   群内每日精选AI内容更新

⊙ 参与群内活动并有神秘大咖进群交流互动




本文来源:新智元