互联网时代下的大数据高速累积,数据量将超过内存和处理器的承载上限。计算力无法匹配将极大限制人工智能的发展和应用。新型计算方式有望提供更强的计算能力和全新的计算模式,进而推动人工智能向强人工智能甚至超级人工智能发展。
近年来,人工智能进入新一轮的高速发展时期。人工智能已被认为是继互联网之后新一代革命性技术及应用方向。量子计算、光子计算、DNA计算、纳米计算、生物计算等新型计算方式有望加速人工智能从单一设备到通用性设备、单一场景到复杂场景,逐步走向通用人工智能或者超级人工智能。
从智能手表、智能手环等可穿戴设备,到服务机器人、无人驾驶、虚拟现实等热门产品或概念,人工智能已成为新一代信息技术革命的急先锋。2016年以来,人工智能又进入高速发展的阶段,16年3月份,人工智能程序AlphaGo以4:1的成绩击败了代表人类的世界冠军李世石九段,再一次掀起了人工智能的热潮;9个月后,AlphaGo的升级版——谷歌Master(大师)在30秒快棋测试中,以60胜0负1和的成绩,横扫数十位世界围棋顶级高手;11月5日,谷歌DeepMind宣布与暴雪合作在游戏“星际争霸2”中开发和人类玩家具有相同视角和权限的AI机器人;11月15日,在第三次世界互联网大会期间,18辆百度“云骁”亮相乌镇子夜路实现自主驾驶。可以说,人工智能时代正在开启。
人工智能(Artificial Intelligence, AI),是一门综合计算机科学、生理学、哲学的交叉学科,其本质是对人的意识、思维的信息过程的模拟。人工智能的研究领域包括机器人、图像识别、自然语言处理和专家系统等。通常认为人工智能包含以下几种能力:一是感知能力,即对外界情况的感受与认知;二是记忆与思维能力,即对感知到的外界信息进行存储以及对信息或知识认识的过程;三是学习与自适应能力,即通过学习和自适应进行智能思维能力进化;四是决策与行为能力,即通过对信息或知识判别后,进行主观决策与行动。
根据应用范围的不同,人工智能可以分为专用人工智能、通用人工智能、超级人工智能三类。同时,这三个类别也对应于人工智能的不同发展层次。
专用人工智能,是通过感知以及记忆存储来实现特定领域或者功能为主的人工智能,如计算机视觉、语音识别、智能搜索、智能排序等以单方面或多个专门的领域和功能为主。通常专用人工智能也称作为弱人工智能,目前正处于高速发展阶段,并已经取得较为丰富的成果。
通用人工智能,也称为强人工智能,是基于认知学习与决策执行的能力,可实现多领域的综合智能,在许多方面都能和人类比肩。有专家认为,这样的人工智能应具有知觉和一定的自我意识。此时,计算机能够真正理解人类的语言,感知人类的情绪。目前已有或研究中的各项人工智能,还远远未达到真正能推理和解决一般性问题的通用人工智能的程度。
超人工智能具有完整的自我意识,包括独立自主的价值观、世界观。有专家认为,超人工智能在包括创新、创造、创意等各个领域均有望超越人类。超人工智能的基础是人类对信息科学和生命科学全面深入的理解,目前仅存在于一些影视文学作品中。
技术突破正带动人工智能产业的快速发展。人工智能产业是指以人工智能关键技术为核心,由基础技术层、技术应用层、方案集成层和运营服务层等四个层次组成,覆盖领域非常广阔的产业。据市场研究机构Tractica预测,2016年全球人工智能产业收入达6.437亿美元,到2025年将增长至368亿美元。中国人工智能产业起步相对较晚,但随着科技、制造等业界巨头公司的布局深入,人工智能产业规模将持续扩大。据互联网市场研究机构iiMedia Research数据显示,中国人工智能产业规模预计2017年增长率将提高至51.2%。
专用人工智能将逐步延伸到通用人工智能。人工智能的长期目标是实现达到或超越人类智力水平的人工智能,单个技术或者能力的突破不能够构成真正意义上的人工智能,需要多个学科领域交叉融合才能支撑。当前专用人工智能在一些特定领域已经具备超越人脑的能力,而未来随着计算机运算能力的提高和人工智能核心算法的突破性发展,人工智能将由单一设备到通用性设备、单一场景到复杂场景,逐步走向通用人工智能。
2005年以来,新算法模型的提出、计算能力的增强以及数据量的上涨是人工智能发展获得突破的三大原因。其中以深度学习为代表的算法模型方面的突破是关键因素,计算能力的提升、大数据的积累是基础条件。
深度学习推动人工智能迈上新台阶。深度学习源于人工神经网络的研究,由Hinton等人在2006年提出,其主要机理是通过深层神经网络算法来模拟人的大脑学习过程,希望借鉴人脑的多层抽象机制来实现对现实对象或数据的机器化语言表达。深度学习需要大量的简单神经元,每层的神经元接受更低层神经元的输入,通过输入与输出的非线性关系将低层特征组合成更高层的抽象表示,直至完成输出。深度学习提出一种让计算机自动学习出模式特征的方法,并将特征学习融入到建立模型的过程中,从而减小人为设计特征造成的不完备性。深度学习的提出、应用与发展,将人工智能带上了一个新的台阶。
大数据积累助推人工智能取得突破。当前人工智能所采用的深度学习是利用机器算法模拟人脑对历史的知识学习、吸收与理解并掌握运用的训练过程,因此数据量的丰富程度决定了是否有充足数据对神经网络进行训练,进而使人工智能系统经过深度学习等方式训练后达到通用人工智能的水平。近年来,随着移动终端设备渗透率的提升,全球数据在数量和种类上都高速增长。据国际数据量资讯公司GlobalPulse预测,全球数据量2020年将达到44ZB(人均5200GB)。在大数据的支撑下,人工智能应用将更加广泛。
计算能力提高为智能发展奠定计算基础。英特尔创始人之一摩尔于1975年提出摩尔定律:当价格不变时,集成电路上可容纳的晶体管数目约每18个月增加一倍,性能也提升一倍。计算成本下降也为人工智能加速发展提供可能。世界上第一台计算机ENIAC的运算速度只有5000次每秒。谷歌围棋程序AlphaGo的运行速度可达到每秒3千万亿次。而目前最快的超级计算机、中国的天河二号,每秒能进行3.4亿亿次运算。根据谷歌工程师Kurzweil的观点,当1000美元能买到人脑级别的1亿亿次运算能力的时候,强人工智能就有可能成为生活中的一部分。
在深度学习模型中,矢量化编程是提高算法运行速度的一种有效方法。深层模型的算法,如BP,Auto-Encoder,CNN等,都可以写成矢量化的形式。然而,在单个CPU上执行时,矢量运算会被展开成循环的形式,本质上还是串行执行,并不能很好地满足科学家对于并行计算能力的需求,而GPU众核体系结构包含几千个流处理器,可将矢量运算并行化执行,大幅缩短计算时间。程序在GPU上运行速度相较于单核CPU可获得数量级上的明显提升。GPU已经成为目前在深度学习模型训练方面的首选解决方案。
计算技术自身原理、模式、架构的不断演进是计算机科学持续发展的根本动力。近年来,量子计算、光子计算、分子生物计算、神经网络计算等新型计算技术层出不穷;石墨烯等新材料的出现,也对以硅基半导体技术为支撑的传统计算机产业发起强有力的挑战。
一是量子计算机
。量子计算机是利用量子相干叠加原理的新型计算方式,以一对处于纠缠态的微观粒子形成量子位物理系统作为信息编码和存储的基本单元,一个量子位可同时代表0和1两个状态,N个量子位可存储2^N个数据,量子计算机操作一次相当于电子计算机进行2^N次操作的效果,在计算架构上实现了高度的并行化。因此至少在求解某些特定问题方面,量子计算无论是在存储能力还是计算能力上,均实现了对经典电子计算机的极大超越。
近年来,海内外科技巨头纷纷加紧布局量子计算,以期在未来占领计算制高点。如Google从2009年就开始使用D-wave公司的超导量子计算机开展实验,目前拥有9个量子位的计算能力;IBM使用超导金属,目前拥有5个量子位能力,且于2016年开放该量子计算接口云平台,供用户体验。光量子计算机属于量子计算机多种发展技术路线之一,2017年5月3日,中国科学院研究团队宣布成功构建世界上首台光量子计算机,其采用光子纠缠作为量子位来实现量子计算,实验测试表明其比世界上第一台电子管计算机(ENIAC)和第一台晶体管计算机(TRADIC)运行速度快10-100倍,是历史上第一台超越早期经典计算机的基于单光子的量子模拟机,这也标志着我国进入量子计算机研究的前列。
二是光子计算机
。光子计算不产生任何热量,与光速一样快,而且不限于解决二元问题,可以更多更快地处理数据,因此光子计算长期被寄予厚望。2016年11月份,美国普林斯顿大学的科研团队研制出全球首枚光子神经网络片,并证明其能以超快速度计算。其制造出的光学设备采用波分复用的技术将各个节点的光送入激光器并将光输出反馈回节点,创造出一个拥有非线性特征的反馈电路,而光学设备中的每个节点都拥有神经元一样的响应特性。这些节点采用微型圆波导的形式,被蚀刻进一个光可在其中循环的硅基座内。以光子代替电子、光运算代替点运算的光子计算机,具有很强的并行处理能力、很高的与运算速度、很低的能量消耗和一定的容错性,有望在技术进一步突破后得到广泛应用。
第三是DNA计算机。
脱氧核糖核酸(DNA)能够携带和编码生物体的大量基因信息,可能成为完成计算的一种理想材料。DNA计算机尚处于早期研究阶段,其工作原理是以瞬间发生的化学反应为基础,先合成代表要求解问题、具有特定序列的DNA分子,再通过和酶的相互作用,将发生过程进行编码,把二进制翻译成遗传密码的片段,每一个片段构成双螺旋的一个链,然后对问题以新的编码形式加以解答。和普通的电脑相比,DNA电脑的优点是体积小,可同时容纳1万亿个此类计算机于一支试管中;运算快,每秒可以达到10亿次;并且耗能仅相当于普通电脑的10亿分之一。2004年,中国在以色列威兹曼研究所DNA计算机的基础上改进完成我国第一台DNA计算机,可一定程度上完成模拟电子计算机处理0、1信号的功能。2011年10月,英国研制出模块化的生物逻辑门,朝着建立更复杂生物处理器的方向又前进了一步。
四是纳米计算机。
纳米计算机是将纳米技术用于计算机领域研制出的一种新型计算机。采用纳米技术生产芯片,不需要建设超洁净生产线,也不需要昂贵的实验设备和庞大的生产队伍,只需将实验室里设计好的分子器件组合在一起,就可以造出芯片,大大降低成本。2013年9月,斯坦福大学宣布,人类首台基于碳纳米管技术的计算机已成功测试运行。这是有史以来人类利用碳纳米管生产出的最复杂的电子设备,虽然它实际只包括了178个碳纳米管,并运行只支持计数和排列等简单功能的操作系统,但证明了人类有望在将来使用纳米技术代替硅晶体技术来生产新型电脑设备。
五是生物计算
。生物计算也称仿生计算,主要是以生物电子元件取代半导体硅片上的集成电路构建的计算机。它利用蛋白质有开关特性,用蛋白质做元件从而制成的生物芯片。其性能是由元件与元件之间电流启闭的开关速度来决定的。用蛋白质制成的计算机芯片,它的一个存储点只有一个分子大小,在运算速度、能量消耗、并行处理能力和存储信息所占空间方面,都展现出诱人的前景。
互联网时代下的大数据高速累积,数据量将超过内存和处理器的承载上限。计算力无法匹配将极大限制人工智能的发展和应用。新型计算方式有望提供更强的计算能力和全新的计算模式,进而推动人工智能向强人工智能甚至是超级人工智能发展。
解决经典计算的单一维度问题,突破计算力瓶颈。人工智能的三大基础:算法、数据和硬件算力,其中“算力”一直以来都是重要的制约因素。人工智能要运用到大量的数据接收和处理,但0和1的经典计算却始终只能实现单一向计算,对于其他结构或非结构化数据的处理方面,无论CPU还是GPU可能都无法满足人工智能的进一步发展和应用,这给人工智能的深度变革带来巨大不便。而新型计算的方式下,系统能够通过并行计算来不断学习,从而更好地处理之前从未遇到的新数据,相较于传统计算力有数亿倍的提升,有望为人工智能带来革命性的算力提升。
实现人工智能系统的小型化
。现在的人工智能系统使用的是成百上千个GPU来提升计算能力,使得处理学习的能力得到较大增强,然而这套系统一般需要配套庞大的硬件机柜和机房,这对人工智能的发展是一个重要限制。而随着数据的指数级增长,基于CPU或者GPU云计算的数据中心或许将无法迎接数据爆发的挑战。各类新型计算在运算能力上的提升和设备尺寸上的缩减,将使人工智能不再依赖于大型服务器机群或庞大的云计算中心。
实现人工智能系统的移动化。
现阶段人工智能基本只能依靠集中处理的方式实现相关功能和应用,也即通过云计算的方式,手机、汽车、穿戴设备等终端很难加载人工智能需要的运算处理器,而是始终需要联网。新型计算芯片的大数据处理能力将实现人工智能的移动化。移动设备可以通过自身携带的计算系统,在本地处理大量的数据,这样可以节省上传和下载数据的大量时间,得到及时响应。当芯片计算能力满足人工智能对运算能力的需求,人工智能将不再依赖于大型服务器集群。通过新型计算,来实现AI设备的集成化和迷你化,可能是人工智能走进普通生活的最佳选择。
当然我们也要清醒地认识到,通用意义上的人工智能的实现依然是一个漫长而复杂的过程。因此,应加大在新型计算方面的研发与投入,以期能够早日突破通用人工智能的发展瓶颈,为人工智能发展提供强有力的支撑。
主编圈点:从当前的实际情况来看人工智能走进普通人的生活仍然有一断很长的路要走,通过对新型计算机的研发和投入来突破人工智能发展的瓶颈是未来对人工智能商业化应用的一条捷径。
往期精彩回顾
1.
全球两大人工智能团队联合发布论文,共同应对人工智能对于未来的威胁
2.
伽利略的“时间”
3.
数学系和物理系的学生有什么差别?
4.
你知道到底是什么导致我们近视的吗?
5.
300年后的人类,看完直接目瞪口呆!
6.
没有牛顿、爱因斯坦,物理学将会怎样?
7.
你问探索太空有何用