转自 蓝海长青智库 军民融合科技创新资讯平台
AlphaGo再战柯洁,AI继续成为国内外热议的话题,当下AI近乎显学,路人皆知,“名人辈出”。这种情况下,我们也希望能够“回归学界”,与学术界的科研人员聊一下大家关心的AI话题,希望获得一些新的认知收获。
近期,我们拜访了北大林作铨教授。他现为北大数学学院信息科学系一级教授,曾任信息科学系系主任。林教授从事AI研究30年,连续讲授AI课近20年,带博士研究生做AI问题的研究,见证了人工智能60年历史的后半程。
林教授表示愿意从教学角度去做这次分享讨论,因为从教学上老师需要了解不同研究和应用的最新进展,不会受自己研究偏好的影响,能更好讲授知识。
林作铨:
战前大家已普遍预测AlphaGo会战胜柯洁。在围棋上,一旦机器取胜,这个人机大战游戏也就结束了,就象当年的国际象棋一样。我想可简单说一下这个道理。
围棋是完美信息的博弈,即对弈双方都看得见棋盘和走子变化。计算机围棋的基础算法是搜索,模拟人下棋的过程,如果将下棋的每一步看做搜索的一个决策点,搜索过程形成一颗树,树展开每个可能的走子,从中寻找最佳的走法,获取使对方不利己方有利的胜算。
这样搜索的空间是很庞大的,寻找最佳走法所需花的时间是很长的,比如,即使把全世界的计算机都拿来算一万年也不可能穷尽整个搜索空间,换句话说,不管有多大的计算能力都不能穷尽搜索空间,这是所谓的难解问题。如果搜索树很小,比如五子棋,可在很短时间内考虑到所有的情况,这样对弈双方都能找到最佳走法,不管是人还是机器原则上双方都会和棋了。因此,搜索算法研究的关键就是要想办法减少搜索空间,通过启发式方法来把搜索树中一些不值得考虑的分枝剪掉,人下棋所谓靠直觉或经验,实质上也是收缩搜索空间,因为人下棋有一些章法或定式使得我们可以较快下手,不会走明显的无用的俗手,这就是所谓的剪枝法,AI最初取得的重大突破之一。
既然不能穷尽搜索,剪枝有可能会剪错了,这是一种近似优化的方法,就可应用概率模型,在每一个决策点寻找下一个节点时,把它变为一个随机模拟的过程,如果模拟得到最大期望效用的话就用这个决策点的走子,否则就剪枝,这就是蒙特卡罗树搜索算法,这时,计算机围棋可以达到业余棋手的水平,但离职业棋手水平还有一段距离,普遍估计还得10年。
AlphaGo取得了重大突破,把下围棋走子过程看成识别问题,每下一子棋盘的变化容易被识别,这样就可以用深度学习方法,简单点说,AlphaGo中所谓的价值网络和决策网络是用强化深度学习把搜索空间大大地减少,减少到用合理的计算资源可在较短时间找到最优的搜索树的路径,相当于该考虑的决策点都考虑到了,下一步棋先看了几十步棋,不严格地说,近似穷尽了整个搜索空间,算法就“几乎”不出错,或出错的概率远比人小,人经常会下恶手,这时候人就再也下不过机器了。
如果有人想继续研究计算机围棋,必须寻找比AlphaGo更好的算法才有意义,若只是重复AlphaGo的算法,即使性能提高了,这种做法基本上是浪费资源,不如做计算机辅助的围棋教学。
人机大战是想挑战人类下围棋这种智能水平,从而想表明机器具有这种智能水平。柯洁若想赢,一种可能的方式应该和AlphaGo研发人员合作,他们知道程序的缺陷可能在哪里,柯洁与他们一起研究战胜机器的策略,这反过来挑战AlphaGo,对AI的发展有帮助。但估计也比较难有结果,因为深度学习不能“理解”下棋的过程,所训练出来的神经网络参数也不能解释。
AlphaGo战胜柯洁没关系,AI中还有很多这种战胜人类的比赛,只是围棋是一种中国文化,由于搜索空间最大难度也是棋类游戏中最难的,大家比较关注,但大家很快会习以为常,20年前国际象棋的人机大战就是这样。可以预想,今后所有游戏比赛AI都可能战胜人类,这就涉及到了人类与机器如何共处,大家该下棋打牌照样如常。
AI研究选择类似围棋和定理证明这些代表人类智能活动的领域进行研究,其本意是想找到能解决广泛一类问题的通用智能原理,如搜索的剪枝算法就是一个智能的基本原理,它能解决广泛一类问题,而不只是下棋。AlphaGo对深度学习中的无监督学习有很大的贡献,但想发展成通用AI技术很难,除非深度学习就能发展成通用AI,取代AI中其它研究,但这在我看来是不可能的。
林作铨:
这背后关系到对智能的定义,人类的智能是无法精确定义的。AI依赖于计算模型,如图灵机这些计算模型给出了计算的数学定义,但找不到定义智能的模型。智能是一个直观、主观的概念,从图灵测试提出开始,AI研究者希望通过计算机模拟人类的智能,找到智能的基本原理,就像当年模仿鸟飞行制造出飞机,找到空气动力学等原理,用空气动力学反过来可解释鸟的飞行,潜水艇模仿鱼儿,都是这个道理。因此,AI研究肇始就选择如下棋等比较典型反映人类智能水平的领域进行研究,并希望通过比赛战胜人类,希望寻找到某种通用智能的机制,时至今日,如AlphaGo还只能表明在下棋方面找到某种方法,AlphaGo算法可容易复制到如中国象棋这类完美信息的游戏,但想推广到更广泛一类问题的解决就是新的研究问题了,比如推广来打麻将或桥牌。
AI想达到的智能就是人类级别的智能。那么到底什么是人类级别的智能?问题在于人的智能是一个相对的概念,计算器比小孩做算术做得快,也可以说有智能,那并不是人类共同体的智能,AlphaGo战胜人类,肯定是有智能的,但AlphaGo不能做其它,比如不能证明定理。
早在50年前,学术界就讨论这个问题,并提出了 AI需要更高的标准来衡量智能。30年前AI已将很多问题思考透彻了,知道了AI的难度很大,很多地方难于突破。首先,象人类一样,AI需要拥有知识,并运用知识去解决问题,知识体现智能。AI研究中,除了目前的深度学习,还有一些通过自动控制做的机器人之外,AI的主体都是基于知识的系统。AI实践表明,精确的专门的知识能够处理,但人的常识难于处理,人类并没有将全部常识写出来,人们在交谈时也不需要把常识都说出来,否则言语行为将无从进行,常识通常是只可意会不可言传的。AI学者普遍认为,应以常识作为衡量AI是否达到人类级别的智能水平的标准。
深度学习带来了一定的进步,可以解决很多识别问题,如语音、图像和对象的识别,这些是对外界环境的感知方面的常识,还有更多的常识问题,如有关人的心智状态的推理,就不是深度学习所能解决的。
AI追求通用智能,所谓的强AI,但还停留在专用智能上面,能做到类似AlphaGo能下围棋,所谓的弱AI,从应用看,弱AI已经很成功很有价值了。相对来说,只是简单地应用某项AI技术,不能看成AI,如果是能在某方面达到了人类级别的智能程度就可以看成AI。
林作铨:
深度学习适于解决识别问题,如语音和语言文本,图像和对象等,只要能把某类问题看成识别,如AlphaGo识别棋盘,一些AI医疗系统通过识别人的皮肤变化和医疗图像诊断疾病,具有广泛的应用前景。但是,深度学习并不能拿来解决所有的AI问题,比如,AlphaGo算法不能发展来证明定理。
有人以为,靠深度学习单一算法,有可能解决AI的所有问题,做到通用AI,其实不切实际。历史上,每一个AI算法做得好的时候,都有人想将其变成单一的通用算法,但很快都失败了。这种情况在哲学中的各种单一论已屡见不鲜了。
深度学习是人工神经网络研究的第三次高潮,从2006年算起已经发展了十年。有高潮就有低潮,前两次人工神经网络的低潮都是被证明了它的局限性。深度学习的优点很突出,它以一种表征学习的方法,通过在神经网络中逐层加深,以识别从低级到高级的特征,自动抽取特征,这种识别问题以前应用数学和传统的模式识别也在做,但抽取特征需要人工的帮助,以语音和文本识别为例,深度学习比传统方法,包括应用数学和统计学习都做得好,把识别准确率提高一个数量级,如从85%提高到95%,这种进步是很大的。以应用数学一些方法来比,数学方法虽然更优雅,可毕竟是要解决同样的问题,既然比不够深度学习,那就是问题了。现在深度学习框架已搭到一千多层,实际应用经验验证确实是层次越深效果越好,从理论上,也可证明深度是有意义的。
深度学习也有局限性。首先,深度学习是对神经网络的权重参数进行优化,用数学表示为损失函数,简单地说就是减少误差,误差减少是有极限的,换句话说,到一定深度就没有意义了,这时它所能解决问题的局限会表现出来,因此,暴力地一味加多层次的蛮干并不见得是好办法。
其次,在实际应用中,以语音识别为例,即使做到99.99%的准确率也不见得可比拟人,我们听一个有口音的人讲普通话识准确率不高,有些听不懂的地方,但不影响我们交流,因为人在听时是有理解的,而深度学习对神经网络的参数不能解释,因此就不能理解,这是为什么深度学习对语音识别的准确率超过人类,像手机想用语音去取代触摸屏输入还是做不到。
再者,深度学习现在做成熟的主要是监督学习,用大数据集做算法的训练来优化参数,有现成的数学方法来建立相应的模型,如卷积函数对应卷积神经网络,进一步发展的无监督学习更有用,但所需优化的非线性函数在数学上同样是问题,如果数学上没有找到所需的函数形式,这需要有所突破,这种突破从数学上也是很重大的,现在无监督深度学习只能应用一般的强化学习方法,如AlphaGo所做的应该就是这样子。
最后,深度学习不等于机器学习,机器学习只是AI的一个方面,深度学习之外的AI技术没有一项是深度学习能做的,如推理这种反映人类高级智能的能力,深度学习做不了最基本的数学中的演绎推理。
林作铨:
由于深度学习的火热似乎AI的其它研究方向显得不重要了,其实不然。AI是属于计算机科学的一个分支,旨在用计算机模拟人的智能,希望找出人的智能原理,并把计算机做得具有智能,让人使用更方便。
以深度学习为代表的AI研究某种意义上已偏离了AI的方向,一来,深度神经网络本来想借鉴神经科学中对大脑神经网络的了解来建立模拟网络,但花样百出的人工神经网络已跟大脑神经网络不相干;二来,通过人工神经网络模拟智能,想促进对大脑神经网络原理的认识,也无从谈起了。学习是人类智能的基本特点之一,学习很复杂,基本上有两种形式,一种是象婴儿学习,没有先验知识,从观察示例开始,这方面可以说深度学习模拟得最好;另一种,人成长过程,更多的是基于知识的学习,有其它机器学习方法就是研究知识中的学习,这是深度学习做不了的,因为深度学习不能运用知识。
深度学习之外的AI研究方向很多,举个例子,知识图谱是深度学习外的另一个时下热门。谷歌收购了Freebase后提出知识图谱名称,并不是新东西,微软称为概念图谱,都是要建造本体库,也就是一种知识库,可应用到各种知识系统,例如,在Web搜索中可通过知识图谱理解一些网页的知识,建立一些知识卡片,使得搜索引擎更加智能化。这是下一代Web的目标,W3C组织早在近20年前就提出语义Web作为下一代Web,并提出现在知识图谱常用的RDF等本体表示语言和标准。再往前看,语义Web和知识图谱想解决的语义网络早再30年前AI就研究清楚了,甚至再过几年知识图谱仍达不到当时AI理论上已搞清楚的能力。学术研究总是超前的,知识图谱可看成AI这方面研究开始落地生根了。知识图谱应用范围和影响力将不比深度学习差,也能改进机器学习方法。
AI还有一个当下的热点,就是会话式AI系统。自从苹果iPhone Siri以来,到现在以亚马逊Echo/Alex音箱为代表的所谓智能音箱,会话式AI具有广泛的应用场景,很多企业都涌入这个领域。会话式AI其实很难的,属于自然语言理解领域,几十年来对自然语言理解研究进展不大,因此AI主要进行各种语音和文本语言处理,前段时间主要采用概率统计的方法,现在深度学习不仅在语音识别上获得成功,也开始用到文本信息处理,如机器翻译,用深度学习比用统计学习效果要好。
关于自然语言理解,有理论派和经验派之争。理论派以乔姆斯基提出的文法理论为代表,机器学习就是经验派的代表,50年前就发现用机器学习根本学不出一些基本的语法,更别说更复杂的语义和语用,因此理论派甚至认为,人一出生大脑就对语言有某种天然的结构能理解语言,后天才能很自然地学习并运用自然语言,AI学者坚持认为通过软件可以逐步理解自然语言。40年前,蒙塔格(Richard Montague)企图形式化英语,若自然语言(如英语)能被形式化,就可转化为形式语言,可作为类似程序语言来使用,虽然蒙塔格达不到目的,由此以来,在自然语言理解方面积累了很多深奥的理论,这些理论远比现有的各种自然语言处理系统理解得深远,但还未能被应用。
自然语言理解几乎包含了AI研究各方面的内容,可以说,如果自然语言理解问题解决了,AI问题也就解决了,用自然语言进行达到人类程度的人机交互是个梦想,还很遥远。
回过头来说深度学习,现在监督深度学习技术已经比较成熟,有很多开源的开发平台,甚至设计专用芯片从硬件上直接提高计算性能。AI发展中一些相对成熟的技术,未能带来对AI的进一步发展,就会归入计算机科学其它分支,现在做深度学习大多是技术的应用,做出来的水平也差不多,已有这种趋向。
林作铨:
AI各个研究方向都在继续发展,我常跟学生说,任何研究领域都时热时冷,AI由于其研究智能这个问题的特殊性命运更是大起大落,看潮起潮落,AI研究者要保持恒温。
若要我挑一个下一步AI学术研究方向,我想很可能是:“逻辑+概率+神经元”。
先讲下逻辑,按教科书的定义,逻辑学是研究人的思维,换言之,逻辑是研究智能的,可看成人类两千多年来对智能研究的学科,直至上世纪初,发展到数理逻辑,逻辑成为数学基础,已偏离了原始目标,逻辑进一步发展成为计算机科学基础,也自然成为AI的基础,因为数理逻辑仍是至今最好的工具来表示知识,AI逻辑进一步发展从数学中走出来回到逻辑的原始目标,解决思维即智能的问题。逻辑在AI研究的作用主要体现在模拟人类拥有知识,并运用知识去解决问题,这方面研究是AI中的知识表示,命题逻辑表达能力不够,一阶逻辑具有强大的表达能力,但不能表达常识,也难于实现。深度学习之前上一个AI研究热点就是扩展一阶逻辑来解决常识推理问题。逻辑在AI中有很多应用,如逻辑程序设计语言Prolog,只是大众不知道而已,再之前,AI逻辑中的归结方法能做定理机器证明,这在当时引起的轰动不下于阿尔法围棋,因为数学定理证明也是一个体现高级智能行为的领域,数学定理所代表的这部分知识可称为理性知识,也是AI要面对的,以深度学习为代表的机器学习方法对这种理性知识或定理证明显然无能为力了。
接下来简单点讲概率。概率论是古老的数学工具,AI实践表明,概率仍然是处理不确定知识最好的工具,AI发展的概率图模型有很多应用。实际上,很多应用领域缺乏工具时,都可用概率统计来解决问题。概率从基础上看是从公理出发来定义的,跟逻辑有关,但概率只能表达相当于命题逻辑的知识,不能表达一阶逻辑的句子,“逻辑+概率”已有一些研究结果,如一阶概率逻辑和统计关系学习,可把逻辑和概率的能力互补。
最后讲神经元。1943年McColluch和Pitts发表神经元的数学模型的论文,主要就是要证明神经元组成的网络具有命题逻辑的表达能力。1951年数理逻辑学家Kleene基于神经元模型,发展出正则表达式和有限自动机,并证明了其等价性,因此人工神经网络由于等价于有限自动机可作为一种计算模型,象正则表达式在程序语言和自然语言处理中随处可见,深度学习用来进行如机器翻译这种文本处理是有理论根源的。从根本上说,神经网络并不完全是所谓的连接主义方法,并不与逻辑和概率所代表的符号主义截然分开。1969年Minsky和Papert证明了人工神经网络连命题逻辑中“异或”这种表达式都表达不了,这刺破了神经网络的泡沫,导致神经网络研究的第一次低潮。从另一方面看,深度学习所代表的神经网络能很好地解决识别问题,比如语音识别,对于这种识别问题逻辑是毫无用武之处的,只有经过深度神经网络学习获得并变成知识才能进一步用逻辑来做推理。深度学习仍有许多处理不了的问题,甚至还没有命题逻辑的表达能力,这些问题现有最好的方法仍是用各种概率模型,而一些深度神经网络早就结合了概率模型。深度学习本质上是归纳学习,归纳学习哲学上称为归纳推理,从逻辑上把归纳学习看成归纳推理,可在学习过程中用到知识。
总之,从技术上,逻辑如知识图谱为代表的工作表现为图形式,概率已有各种图模型,深度神经网络也是图模型并与一些概率图模型很密切的关系,假设能以图模型把三者结合在同一框架中,那是很了不起的工作,可获得现在AI所能看到的最好的结果。当然,“逻辑+概率+神经元”不是简单的集成,那是没有学术意义的,需要新的突破。不仅学术研究,现在AI学术界与工业界有紧密的互动,这种新方向的研究成果也有可能从一些公司中产生。
说到这里,这个研究方向有我的个人偏好,不一定是正确的方向,只是我感兴趣的问题。
林作铨:
这个问题涉及太多,不是短时间能说清楚的,简要聊聊。AI在企业中应用,有一个商业模式问题。现在很多AI初创公司都赶深度学习这趟车,如语音人脸识别等等,所用技术都一样,性能差不多,显然这些公司大多数终将倒闭。基于AI的商业模式设计比较难把握,要能把AI技术贯穿到整个商业活动中,看到盈利可行性。例如,汽车出行模式就较好用到AI技术,而共享单车模式显得简单粗暴,不如十几年前有过的能够基于AI技术的分时资源共享系统。
更多企业应用AI到产品,智能产品模式是由iPhone为标志,是一个革命性的工业产品,普遍接受相对于以黑莓为代表的功能手机,iPhone称得上智能手机。原来预测,下一个代表性的智能产品可能是智能电视,但现在市场上的所谓智能电视都不是真正的智能电视。家电市场几十年来经过充分的市场竞争,为了寻找卖点占有市场一直是很新潮的,从20年前的信息家电到现在的互联网/物联网家电,无所不用其新,但现在的电视机是智能电视吗?显然不是,只是能上互联网,把智能手机的做法几乎照搬到电视机上,电视机企业并不清楚作为一种电视服务如何设计智能电视产品模式,不清楚客厅人机交互如何象iPhone那样做到革命性的突破,不能用AI技术使得电视服务变聪明,让用户获得好的体验。这个问题没搞好,显得非常可惜。至于各种其它家电产品,如智能冰箱、智能电饭煲等等,由于其应用场景不够复杂到需要智能,称为智能家电纯属噱头。现在大家最关注的是智能音箱和智能汽车,智能音箱有自然语言理解问题,跟聊天机器人有关,在比较狭窄的特定领域可以做得很好,如亚马逊的智能音箱。至于智能汽车,由于不需涉及太多的知识处理,主要用深度学习和计算机视觉技术等机器人技术反而可行,但涉及更多包括立法等社会问题,智能车不象十年内就能满大街跑。
企业智能化上有政府各种计划,下有企业竞争需求,尤其是传统企业,如制造业,这是一个很现实的问题。对比企业信息化的发展,20年前对企业信息化还有争议,认为企业搞信息化是个黑洞,很烧钱,产出难于衡量,但是,现在搞得又大又强的企业都是信息化搞得好,就无争议了。很多企业信息化还没搞完,又要搞智能化,信息化是智能化的基础,但又不能等传统的信息化做完了再搞智能化,那竞争又落后了,可以预见,今后智能化做得好的企业更有竞争力。另一方面,现有的企业管理软件产品都缺乏AI技术,特别是一些大型软件几乎不可能基于AI重新构架开发,只能为了市场营销需要做了一些智能化功能,不能满足企业智能化的需要。此外,许多初创公司做的智能化管理软件需要更多在企业中应用完善,传统企业可能不敢被当试验品。总的来说,跟企业信息化一样,很多企业可能要走弯路、甚至碰壁,付出不菲成本。
企业搞智能化首先是一个战略和规划的问题,企业内部若没有相应的人才,只能找咨询公司要方案,而咨询公司也缺少AI人才和经验,这样一来,企业智能化首要的问题是先找到既有信息化经验又懂AI还能结合企业经营管理做好战略规划的人才。无论如何,市场竞争使然,总有一些企业会先搞起智能化,并最终获得成功。
来源:程序员内参