AI科技评论按:
2017年11月25日,由中国中文信息学会主办,哈尔滨工业大学(深圳)承办的中国中文信息学会2017学术年会暨理事会在深圳大梅沙雅兰斯丽比迪酒店隆重召开,AI科技评论也赶赴现场为大家带来报导。
此次会议邀请到学界和业界的多位知名专家,会议首日,美国伊利诺伊大学香槟分校(UIUC)计算机系教授翟成祥、中国科学院心理研究所所长傅小兰、京东硅谷研究院主任研究员李维、清华大学医学院生物医学工程系宋森、今日头条人工智能实验室主任李航为大家带来了五场精彩纷呈的特邀报告,横跨心理学、计算机科学、神经科学等多个领域。
对于为什么涵盖这么多的领域,中国中文信息学会理事长方滨兴院士表示,中文信息处理能扩展到各种信息处理方面,如语音处理等,这种宽泛性表示了一种跨领域的属性,往往为创新提供了更多契机。
翟成祥教授:TextScope: Enhance Human Perception via Text Mining
在上午的第一场特邀报告上,翟成祥教授带来了题为《TextScope: Enhance Human Perception via Text Mining》的主题报告,报告伊始,他表示,TextScope是一个形象的比喻,他将从大数据的角度分析文本数据存在的价值。“文本数据到处都有,这可以看作人对世界感知以后的数据,和传感器、温度计等没有很大的区别,这些都是对世界的感知和观察。 通过对文本数据的分析,既可以观察到观察者眼中的世界,也可以分析到观察者的想法,这是带给我们的机遇。”他如是说道。
之后,他强调了利用文本数据可以进行的相关研究,如从文本数据考察语言知识,用来预测现实世界的几乎所有变量,将来的趋势等。“文本数据包含了世界的很多知识,另外,利用文本数据在分析文本时能提供语境。”
对于如何让文本产生更大的价值,他提出了如下观点:多个文本数据拼凑在一起会产生极大的价值,将非文本与文本结合在一起,也有很多进行研究的空间。
在演讲中,他做了一个形象的比喻,将显微镜和望远镜结合在一起,可以扩宽我们的感知,让人看到更多的东西,TextScope是一个采用文本数据作为支持,用自然语言理解、信息检索、数据挖掘、机器学习来构造的交互式系统,也可以扩宽我们对世界的感知,与显微镜和望远镜相比,它能让我们看到更为复杂的知识和内在动向。
他们希望能构造文本分析、机器决策的通用工具,在主题分析方面可以满足个性化的需求。对于具体应用,他首先提到了医院的医疗系统,如预测、诊断、治疗等,系统会通过数据挖掘,研究药物的副作用,进而提供给医学研究人员作进一步考察。此外还有商业智能方面的用途,可以通过用户对产品的评论来进行分析,分析评论者是对价格更看重还是对服务更看重,从而进一步细化分值,对用户进行个性化推荐。最后他提到股市预测,通过分析股票新闻与文本新闻之间的关系,挖掘出有用信息。
他强调,在这一过程中,人和机器的合作很重要。他表示,TextScope只是一个设想,这个系统前景很大,最终目标是研究人和计算机如何优化合作,将来的方向有通用系统、决策系统、预测系统等 。他也说到,目前的系统如chatbot等只能从与人的对话中学习,不能超越人类,而将来的系统都是向智能agent方向发展 ,要能学会探索。在未来,也存在很多很大的挑战,例如怎么让人机合作(心理学部分很重要),如何解决系统的操作,如何应对鲁棒挑战等。
傅小兰研究员:感知、记忆和判断的认知计算模型(PMJ模型)
在翟成祥教授的报告结束之后,傅小兰研究员带来了题为《感知、记忆和判断的认知计算模型(PMJ模型)》的报告。对于为什么要提出PMJ模型,她表示,“认知即计算”已成为认知科学的主流观念,计算机科学不仅关注数值计算,更重视解决现实世界的问题 ,人类作为智能生物对复杂环境信息的高效加工方式,值得计算机科学借鉴。她进一步阐述了什么是认知计算,“认知计算是以人为中心的计算,要解决计算问题,更要解决认知问题,要利用认知神经科学成果对计算模型提出生物学意义的具体约束,要利用脑功能连接组学成果对大脑神经网络进行建模和仿真。”
那么PMJ模型的核心思想是什么呢?傅小兰研究员提到如下三点:一是认知加工过程主要由感知、记忆和判断组成 ;二是认知加工通路大致分为快速加工、精细加工和反馈加工 ;三是认知过程的感知、记忆和判断对应于计算流程的分析、建模和决策。接下来,她还进一步解释了三种不同的加工通路,“快速加工通路类比于大细胞通路及其关联的皮层通路,这是一种“快而糙”的算法,精细加工通路类比于小细胞通路及其关联的皮层通路,则是一种“慢而精”的算法 ,而反馈通路是指自上而下的反馈。”
之后,她细致描述了PMJ模型中的五个假设以及这五个假设的指导意义。这五个假设分别是:1) PMJ各阶段的输入输出可量化计算;2) PMJ各通路协同完成认知加工;3) 视觉显著特征自动捕获注意;4) 意图和先验知识自上而下地引导注意;5) 判断的输出可预测感知输入。
除此之外,她也介绍了大量相关的研究工作,如基于PMJ的图像情感预测和图像颜色修改。
在报告的最后,她说道,“在网络化、云计算和大数据时代,随着智能手机和穿戴式终端的普及、智能家居和物联网的兴起,智能计算必将逐渐渗透到当今社会的每个角落,为人们更方便、更舒适、更健康地生活和工作提供全方位服务。”
而在她的报告结束之后,对于这一研究领域,大家也进行了踊跃的提问,诸如目前是否有方法能追踪人脑思维信号,心理学与计算机科学之间的联系等。
李维博士:Deep-Parsing Chinese
傅小兰研究员的演讲结束之后,李维博士作为上午最后一位演讲嘉宾,一出场就引发了一阵拍照狂潮。他的报告主题是《Deep-Parsing Chinese》,主要为现场观众带来了如下四个方面的知识,一是自然语言处理的架构解析,二是中文语言解析的挑战和迷失,三是如何应对这些挑战,四是如何落地和应用。
演讲伊始,他抛出了自己的核心观点:自然语言的核心是怎么去理解它,怎么去进行深度解析,他为大家展示了一张自然语言处理框架图。“我们需要把碎片化的情报进一步挖掘,然后再延伸到应用层。浅层工作做完之后,需要研究怎么深入到深层去,深度解析是自然语言的核武器。”
他表示,深度解析实际上已经到了比较成熟的领域,自然语言虽然很难,但从大数据的角度来看,目前到了足以提供应用的阶段。自然语言的深度解析现在已经达到robust,可以处理混杂的语言对象,传统指标F-score已经达到接近人的程度。
他也提出汉语句法分析时常见的问题,比如说我喜欢烤红薯,那么到底是喜欢烤,还是喜欢红薯呢?另外还有其他常见的问题,比如不用标点符号、出现错别字、省略很多小词、词序混乱等。很多人认为汉语词序是固定的,对于这种看法,他提出了不同意见,他表示,词序并不固定的,例如“我鸡吃了”和“鸡我吃了”这两句话。
提到中文语言解析的挑战和迷失,他表示一共有三点:第一点是在很多大会上都会有人说中文很独特,有很多难点,事实上不是这样的,每种语言都需要tokenization;第二是POS tagging,从理论上说没有必要去做POS tagging,另外对于深度解析,不要去用别人的POS tagging,这样做之后,后续会永无止境的需要调节。第三个迷失是不应该认为自然语言的本质是循环,他认为Chomsky的思想割裂了汉语的两面性。
如何突破Chomsky的围墙,他表示,CFG的典型算法是把东西一锅烩去做句法分析器,现在主张用 软件工程的办法把任务一层一层变小,FSA解决了recursion的问题,不过可能有人批判会出现错误放大。
至此,上午的主题报告结束。
宋森教授:语义处理的神经机制及神经符号主义系统