原创: 丛末 AI科技评论
这或许是 2019 年年末,国内对人工智能最后也是最大的一次把脉。
2019 年 12 月 20 日,由鹏城实验室、新一代人工智能产业技术创新战略联盟主办的为期两天的「新一代人工智能院士高峰论坛」在深圳开幕。
这次会议延续去年强大的院士阵容,今年邀请了多达 10 位院士以及诸多人工智能领域学术和企业界的顶级专家,
从各自的领域深度剖析了人工智能领域的发展现状和未来值得探索的方向
。
AI 科技评论从第一现场撷取部分学者和专家观点,以飨读者!由于内容较多,本文先呈现部分内容,更多信息敬请关注 「AI 科技评论」随后的报道。
1、蒲慕明院士:
脑科学与类脑智能研究
作为大会的第一位报告嘉宾,中国科学院院士、美国科学院外籍院士蒲慕明带来了主题为《脑科学与类脑智能研究》的报告。
中国科学院院士、美国科学院外籍院士蒲慕明
蒲慕明院士谈到:「
我认为下一代人工智能的一个很重要的发展方向就是,脑启发的新型人工智能。我们国家在未来 10 年将启动的重大项目叫做脑科学与类脑研究,整体框架为『一体两翼』,主体是脑认知功能的神经基础,做全脑神经连接图谱,两翼则是指研究内容分为脑重大疾病诊断和干预、脑机智能技术研发两个方向。
」
他指出理解大脑需要从三个层面上的神经连接图谱分析:
第一个是
宏观图谱
。通过核磁成像的技术可以看到毫米级的神经束,每个神经束都有成千上万的细胞纤维,传导方向是双向,但只了解神经束的走向对于理解脑功能并没有太大贡献。
第二个是
介观图谱
,空间分辨率要达到微米级别。用特殊方法来标记不同的神经元种类,了解不同神经元的功能。介观神经连接图谱是目前神经科学的主要方向。
第三个是
微观图谱
,空间分辨率要达到纳米级别。在微观层面对神经元轴突和树突的分布以及突触产生规律的研究可以得到很多有用信息的。
进一步,他认为类脑智能研究中要考虑三个层次的认知:
第一个层次是对外界的认知,包括感知觉、多感觉整合和注意、分类等,是许多动物都拥有的认知能力,对此可以从动物模型中寻找一些信息和启发;
第二个层次是对自我和非我的认知,包括自我意识、共情心和理解他者能力,但可能只有灵长类动物才有,因此只能基于灵长类动物进行研究,而这是我国未来在基础神经科学研究中最有优势的领域;
第三个层次是对语言的认知,这是只有人类才具有的句法、文法以及无限开放式的语言结构,对于研究人类语言的神经机制和演化起源,构建非人灵长类转基因动物的模型是必要的。
对于这些脑网络特性,人工智能未来研究中有可以借鉴但目前还没有借鉴地方呢?蒲慕明院士认为有五个重要的点:
第一,神经元很简单
,有不同性质和种类的神经元,例如抑制性神经元(信息反转)、兴奋性和抑制性神经元亚型(不同放电特性);
第二,神经网络有顺向、逆向侧向和的联接
,现在主要是正向的,而加入反向的联接会带来好处,而侧向联接尤其重要,并且也是有序的。
第三,神经突触的可塑性
。这个方面除了传递效率的增强和削弱(LTP 和 LTD)的功能可塑性,突触的新生和修剪的结构可塑性也非常有用。
第四,记忆的贮存、提取和消退也非常关键
,网络中特定突触群的效率和结构修饰便是记忆的储存,记忆提出是指电活动的再现于储存记忆的突触群,而记忆消退则是指突触功能与结构修饰随时间消退。另外根据输出对学习相关的突触群修饰,可进行强化学习。
第五,赫伯神经元集群概念的应用
,包括细胞群的建立、多模态信息的整合,不同信息的捆绑、同步的信息震荡、时间相位差以及输入信息的图谱结构等等都可以借鉴
最后,他更是对新型人工网络架构和机器学习算法提出了四点建议:
一是要摆脱深度学习网络(DNN)的诱惑;
二是要以高效、节能、半监督和无监督学习为目标,建立全新的人工智能模型和算法;
三是以脉冲神经网络(SNN)为基础,加入传递延迟,强调时序信息的重要性;
四是,从简单的(少数层)的网络为基础,每次加入一个自然神经网络的特性产生新的架构,然后用新的机器学习和算法来检测效果。
除此之外, 他认为 AI 界应该提出一个新的机器人或智能标准,从语言和感知觉能力的整合、团队合作等更多维度去尝试建立「新图灵测试」。
2、高文院士:数字视网膜与云视觉系统演进
本次论坛的又一位院士——中国工程院院士、鹏城实验室主任高文接着蒲慕明院士对神经网络的相关介绍,重点分享了如何利用对神经网络的理解来改进包括城市大脑或智慧城市系统等现有云视觉系统方面存在的一些问题,他的报告主题是《数字视网膜与云视觉系统演进》。
中国工程院院士、鹏城实验室主任高文
首先,他指出了云视觉系统目前存在的两大主要的挑战:
第一,虽然视频数据非常多,但是能够对其进行规范并能够从中挖掘出规律的大数据却并不多。
第二,这些视频数据中绝大多数都是正常视频,而敏感视频比较少,因而产生的价值并不大。
而深究到底,这两大问题
其实是整个视觉感知系统架构造成的直接后果。
对此,高文院士等人从高级生命体视觉系统的进化历史中寻找灵感,在设计新的第二代城市大脑或者说云视觉系统时,在中间的视觉神经通道做工作。他们将这一想法称之为数字视网膜。
他进一步介绍,数字视网膜的定义包括八个基本要素,按照特征或功能可分为以下三组:
第一组特征是全局统一的时空 ID,包括全网统一的时间以及精确的地理位置两个基本要素;
第二组特征是多层次视网膜表示,包括视频编码、特征编码、联合优化三个基本要素;
第三组是模型可更新、可调节、可定义,即将模型可更新、注意力可调节以及软件可定义三个基本元素组合到一起。
不同于传统的摄像头只有一个流,即一个视频压缩流或一个识别结果流,
这种数字视网膜存在三个流,即视频编码流,特征编码流,模型编码流,三者各自有分工
,有的是在前端可以实时控制调节,有的是通过云端反馈出来进行调节和控制的。
在过去两三年中,高文院士等人对此也开展了大量工作,重点实现了以下四个使能技术方面的重要进展:
第一个使能技术是高效视频编码技术,其中他们提出的场景编码技术成为中国学者对世界所做出的的一大贡献,将编码效率提升到了一个新的水平;
第二个使能技术是是特征编码技术,其中就包括他们与国际专家一同完成的两个国际标准 CDVS 和 CDVA,而 CDVA 更是为满足支持深度网络而建立的标准。
第三个使能技术是视频和特征联合编码技术,这是由于视频编码和特征编码使用的优化模型不一样,视频编码使用的是 2D 优化模型,而特征编码联合使用的是 R-A 模型,两个模型的曲线方向完全是不一样的,对此他们提出了联合优化模型,将 R-A 和 2D 变成一个目标函数,通过求最优解就可实现联合优化。
第四个使能技术是 CNN 模型编码技术,能够实现多模型重用、模型压缩(差分编码)和模型更新等优势。
最后,高文院士总结到,现在的云视觉系统不是太有效,对此我们可以通过类似于像数字视网膜的新的概念和技术来使其变得更加有效,包括降低码率、减少延迟、提高准确率、降低云计算成本以及让低价值的视频数据转化为大数据等。
随着数字视网膜已实现 1.0 版本,下一步该如何走向 2.0 版本呢?答案是:
采用脉冲神经网络的思路来做数字视网膜 2.0。
3、汤晓鸥:
人工智能,创新应用
两位重量级院士的精彩报告后,商汤科技创始人、香港中文大学教授汤晓鸥以一如既往幽默的演讲风格为大家带来了主题为《人工智能,创新应用》的报告。
商汤科技创始人、香港中文大学教授汤晓鸥
「我现在都不知道怎么做演讲了,
大家往往只记得我讲的笑话,其实我也提到了一些深奥的人生哲理。
」
台下非常「应景」地发出一阵欢笑声。
呼应主题,汤晓鸥教授首先分享了他对于「创新应用」的理解:
创新,
便是做别人没有做过的事情
,带来的结果是花钱,所以从这个意义上来说,创新的主要目的就是把钱花出去,这似乎是大学的功能;
应用,
则是要把创新落地到产品中,然后把产品卖出去,核心是赚钱,这是公司应该做的事情。
然而创新和应用这两个看似矛盾的点如何并存于公司呢?他指出,对于于世界上绝大多数公司尤其是创业公司而言,根本无法像谷歌等大公司通过已经成熟的业务应用来赚取大量的收入,从而为每年用于创新所投入巨额的研发费用买单。那该如何找到自己的生存模式 ?
商汤便通过与各行各业进行合作,以 AI+赋能来找到平衡创新和应用的方法论。他进一步以上班族「从早上八点到晚上十点」一天的日常需求,如驾车上班、楼宇办公、午餐、外出开会、游戏娱乐、就医问诊、休闲购物等生活场景,介绍了商汤与相关行业在自动驾驶、智慧园区、室内导航、智慧零售等各应用领域的合作与开发成果。
基于自身的实践经验,汤晓鸥教授也针对「创新 or 应用」这一两难的议题给出了自己的经验和思考:我们最初理解的创新一般都是出论文,做研究,在实验室里做别人没有做过的东西,然而这样的创新一旦放到市场上往往是不被接受的。
因此,他认为最终的创新其实不仅仅是技术的创新,还应该包括公司中工程的创新、产品的创新甚至是商务模式的创新、销售模式的创新、合作伙伴合作方式的创新以及整个公司管理模型的创新在内的综合性创新。
「这样我们才能够在残酷的市场环境中生存下来,才能在无比强大的竞争对手面前找到自己的一块生存空间。而前面,包括商汤科技在内的很多公司前面,还有很长的路要走。」
4、王海峰:自然语言处理前沿
百度首席技术官、深度学习技术及应用国家工程实验室主任王海峰博士带来主题为《自然语言处理前沿》的报告,分享了他研究近 30 年的心得与观点。
百度首席技术官、深度学习技术及应用国家工程实验室主任王海峰
「自然语言处理是人工智能非常重要,也是非常热门的方向。」王海峰博士表示,自然语言处理是用计算机来模拟、延伸及拓展人类语言能力的理论、技术及方法,在国家《新一代人工智能发展规划》中也被列为共性关键技术。
接着王海峰博士
回顾了从基于人工规则到基于深度学习模型的自然语言处理的研究发展历史
:
基于人工规则的自然语言处理需要领域专家、领域知识,并把这些知识建模到计算机系统中去,开发和迁移成本都非常高;
到了基于统计的自然语言处理时期,一定程度上可以实现自动训练、模型选择,
当时也出现了很多特征工程师专门去建设各种特征
;另一方面,大量的统计机器学习的模型在不同的应用中会取得不同效果,所以模型本身的选择具有一定的局限性。
到了深度学习时代,自然语言处理变得更简单、更标准化和自动化,一套模型针对不同的数据就可以得到比较好的结果,所以说深度学习跟以前的机器学习模型相比,一个很重要的特点就是有一套可以适用于不同领域、不同应用的方法,这与人脑很像。
他进一步指出,算力、算法和数据是驱动自然语言处理技术突破的三大要素,
而随着自然语言处理技术的飞速发展,该研究领域也呈现出很多新的变化
,如从传统 NLP 进行层级式结构分析,演变到直接的端到端语义表示;从过去局限于理解句子,发展到现在多文本、跨模态的内容理解;机器翻译实现了质量飞跃、从科幻理想落地现实应用等。
随后,王海峰系统梳理了百度在预训练语言模型、机器阅读理解、多模态深度语义理解、机器翻译等自然语言处理技术发展,及开源开放、推动产业应用的丰硕成果。
5、五大院士把脉:人工智能的发展现状以及未来能够做哪些尝试
在上午场的Pannel环节,
蒲慕明
院士
、
高文
院士
,与美国工程院院士、南方科技大学学术副校长兼教务长
张东晓
,中国工程院院士、北京航空航天大学学术委员会主任
赵沁平
,中国工程院院士
吴建平
一同登台,就「人工智能的发展现状以及未来能够做哪些尝试」这一议题表达自己的观点。
吴建平院士:互联网与人工智能
之间是相通的
吴建平院士:我虽然研究的是互联网,不是做人工智能的技术人员,但互联网作为人工智能发展依赖的技术之一,我也谈谈我的看法。
今年是互联网的 50 周年,是我们算机科学界是非常重大的纪念节日,而实际上在互联网的发展历程中,我们能够找到人工智能的明显痕迹。现在很多通信手段都要在互联网高层的协调下才能工作起来,如果没有互联网,通信系统便都是独立的,那不可能有开发人工智能的重大机会。因而,
除了算力和摩尔定律,我认为互联网同样是人工智能发展的巨大因素之一。
与此同时,
人工智能对于互联网也意义重大
,比如从 3 年前到现在,互联网仍然使用的两个著名路由控制:OSPF 和 BGP。二者都在 80 年代末期成为国际标准,其中涵盖的机理大量采用了人工智能,其中以 OSPF 为典型,在任何图谱结构都能实现最优的路由控制,不管采用什么方式都能达到最优。
这其实就表明了,很多技术之间都是相通以及相互支援的:这一点值得我们深思。
赵沁平院士
:
为什么现在的人工智能都是弱人工智能?
赵沁平院士:我从 90 年代初期就开始做人工智能,当时人工智能还处于基于符号推理、知识处理的阶段,当然也有神经网络,但神经网络数据还比较少,还比较弱势。而现在,神经网络的取得了突破性的进展,并且得到了很深刻的应用。
脑科学是人工智能的研究方向之一,然而在人工智能中,人脑其实可以看做一个「黑箱」,而神经网络的研究将这个「黑箱」打开了一点,能够看到视觉神经,这是从脑科学角度比较初步地研究人工智能。
蒲慕明院士在演讲中提到绘制人脑的图谱非常复杂,我对此有两个建议:
一个建议是不直接绘制成人的脑图谱,而是绘制从胚胎开始一直到成人的脑图谱
,因为这体现了人脑图谱的发展过程。与此同时,我们还要绘制到低级动物到高级动物的脑图谱,不仅是静态的,也要是动态的,当然这是需要全世界的脑科学家们共同长期努力的结果;
另一个建议是把人脑当成「黑箱」,不断地吸取脑科学研究的成果
,并将这些成果及时地引入到人工智能算法等此类研究上。不止是脑科学,还要借鉴行为学研究、认知科学等学科,当然这是从更宏观的层面来看。
除此之外,我还有两个思考:
第一个思考是,
为什么现在的人工智能都是弱人工智能?
很多做人工智能的人的回答都是算法不够通用、算法不够强大。这当然是一个因素,包括人也是一样,人再能干也是有行业之分,更何况是计算机和算法。虽然不存在完全通用的算法,但是可能存在相对通用的,其中的关键在哪?在于知识的学习和积累。
比如一个小孩子从一开始只会吃奶到后来会用筷子,他学习和打通的是什么?可能是信息通路和脑的组合,这是值得研究的方向。
而在知识的积累方面,尤其是现在神经网络面临数据欠缺的问题,这也会成为重要的研究方向,包括如何组织知识,如何将领域知识变成语言知识以及如何通过神经网络和深度学习来将这些知识「为 AI 所用」,这都是值得研究的。
第二个思考是,
人工智能能不能达到像人一样的智能水平,能够将知识逐渐通过自己的学习和演化组织成人脑那样的一辈子可用的知识?
目前还有很多我们可以研究的方向,我希望领域内的研究者不要一哄而上研究热门方向,而是要选择相对冷的方向,我相信整个人工智能领域应该是波浪式的发展、螺旋式的发展,而这需要我们所有人从各个方面和各个领域来一起为这个目标努力。
张东晓院士:人工智能的未来是「AI+X」,还是「X+AI」?
张东晓院士:我虽然不是人工智能的专家,但我对机器学习还比较熟悉。
今天非常高兴看到 AI 在各行各业的应用,「AI+X」中的「X」的可以是交通、能源、交融、教育等各行各业,有的应用已经非常成熟了,有的应用现在还刚刚开始。
无论是将人工智能视作工具还是平台,我都觉得它应该不能包治百病,不能解决所有的问题,就像刚刚赵院士讲到的,当年计算机语言也是一个工具和平台。
人工智能将来的应用应该是「AI+X」,还是「X+AI」?我觉得这是值得我们考虑和深思的问题。
比如我现在从事的能源行业,机器学习等人工智能技术还需要很强的行业背景和行业知识,而如果使用现有的机器学习算法来做学习和预测,效果可能就不是那么好了,甚至会出现很多非物理的答案。比如说浓度可以是负的,压力也是可以超过正常的范围。而一旦加上行业的知识,比如说物理原理+专家的知识+工程控制条件,算法得到的学习效果就非常好,比如说在可解释性、可拓展性,迁移学习等各个方面都会取得非常好的效果。
现在可能我们需要像商汤、百度这样的公司,但是我觉得更需要一些行业的、专业的公司,这样才能更好地推动推动 AI 在不同行业中的应用,才能改变整个应用的前景。
蒲慕明院士:绝大多数做脑科学/AI 的科学家都是游客
蒲慕明院士:我先回答一下赵院士的问题和提出的建议,假设人类大脑结构搞清楚了,不光是成年人的结构,还包括结构怎么形成,每个人有不同的网络、不同的能力、不同的创造力是怎么形成?这其实是无尽的科学问题,下个世纪可能都解决不了,但是是大家努力的方向。