回顾人工智能的发展史,从1956年的达特茅斯会议算起,到2016年以来的云计算和算力爆发,一个甲子的两端,分别代表了人工智能第一次浪潮的起点,和第三次浪潮的涌现。
但三次波峰,也意味着出现了两次低谷。这或许对于当下的生成式AI浪潮,也有一定指导意义”。
为计算机科学和人工智能领域的先驱,图灵在1950年发表的著名论文:《Computing Machinery and Intelligence》中,开放性地讨论了“机器能否拥有智能”这一问题。他虽然并未能给出明确定义,但文中提出的“图灵测试”,已经开启了人类探索机器智能的先河。
1956年的达特茅斯会议上,约翰·麦卡锡、马文·明斯基等科学家,在会议上正式定义了何为“人工智能”——“研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门技术科学。通过了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,人工智能可以对人的意识、思维的信息过程进行模拟。人工智能不是人的智能,但能像人那样思考、也可能超过人的智能。智能涉及到诸如意识、自我、思维、心理、记忆等等问题。”
这一定义的提出,标志着“人工智能”作为独立学科的正式诞生。
但在当时,人工智能的实现条件远比现在困难。其一是硬件条件的限制。在会议召开的时间点,电子计算机仍然是32K内存的晶体管计算机。1962年,当时就职于IBM的阿瑟·萨缪尔在IBM 7090晶体管计算机上研制出了西洋跳棋(Checkers)AI程序,并击败了当时全美最强的西洋棋选手之一的罗伯特·尼雷。
在跳棋AI程序的研发过程中,他第一次提出了“机器学习”的概念,即不需要显式地编程,让机器具有学习的能力。因此,阿瑟·萨缪尔被称为机器学习之父。西洋跳棋AI程序的核心技术,是通过自我对弈来学习评价函数。无论是此后的AlphaGo围棋AI算法和当今深度学习领域非常火爆的生成式对抗网络(GAN)都采用了类似的思想。
这股浪潮一直持续到1970年代,虽然这个时候已经出现了集成电路的电子计算机,但凭借当时已经很强,现在来看十分羸弱的内存和运行速度,并不足以解决任何实际的问题。虽然当时数据库的概念和初期产品已经诞生,但它并不足以支撑人工智能运行所需。而随着计算复杂程度的增加,同样也超出了当年的机能限制——这导致了第一波人工智能浪潮的衰退。
第二次浪潮的兴起,则在5年后——随着拥有大量内存的计算机的出现,知识密集型应用的开发成为可能,以Marvin Minskyzai 1975年提出的框架理论为标志,人工智能开始以框架为单位整合知识,进而实现认知推理。一年后,Randall Davis构建和维护的大规模知识库,让以专家系统为代表的人工智能技术路线,开始大规模涌现。
这一时期的主要特点,则是将知识工程和专家经验,编码到计算机系统中,同时以规则和逻辑推理,来模拟人类专家的决策过程。AI也从偏学术领域转向实际应用。
卡内基梅隆大学的约翰·麦克德莫特于1980年1月提出了第一个专家系统XCON(eXpert CONfigurer)。XCON被数字设备公司(DEC)用于简化其VAX计算机的配置过程。到1987年,XCON处理了大量订单,展示了其影响力和有效性。
这一时期,AI小组的成功案例激增,让很多当时的科技公司跟风成立了AI小组,而个人电脑等终端设备的兴起,也让普通人开始拥有接触并了解AI的机会。直到1985年,共有150家公司在内部AI小组上花费了10亿美元。
1986年,美国AI相关硬件和软件的销售额达到了4.25亿美元,成立了40家新公司,总投资额为3亿美元。这一时期,AI相关的软硬件,主要在称为LISP机器的微型计算机上,运行LISP的相关程序。
第二次AI寒冬的到来,相较第一次更具戏剧性。首先是学术界以外的“无关人士”的疯狂涌入——1980年,美国人工智能协会的首次会议吸引了大约一千名研究人员,而到1985年,随着记者、风投机构、行业猎头和企业家们的涌入,AAAI和IJCAI的联合会议的出席人数接近六千,氛围从休闲装变成了正式装。
其次是硬件系统的替代导致的原有硬件市场崩溃。以第一代 UNIX 计算机工作站和服务器为代表,这些通用工作站对LISP机器构成了不小的挑战。再后来,Apple和IBM的桌面计算机出现了更简单的架构来运行LISP应用程序,原有的专家机器开始变得过时,原来价值五亿的行业,在一年时间里被迅速取代。
不过,即便这些更先进的硬件更新了LISP程序的运行环境,最终也只起到了“续命”的作用,到20世纪90年代初,大多数商业LISP公司,包括Symbolics和Lucid Inc.,都失败了,德州仪器和施乐公司也退出了这个领域。而“专家系统”一词和独立AI系统的概念,也在IT教材中,变成了过眼云烟。
跟第二次拥有诸多相似之处,第三次人工智能浪潮,同样基于神经网络技术的发展。有所不同的是,第三次人工智能浪潮,更多是多层神经网络的成功。
2006年,Hinton教授提出的深度信念网络,标志着深度学习算法的诞生,它通过构建多层神经网络,使机器能够从大量数据中自动学习特征;强化学习算法,则通过与环境的交互来学习策略,以达到最大化累积奖励;
2012年,AlexNet在ImageNet在大规模视觉识别竞赛中取得显著成绩,标志着深度学习在图像识别领域的突破;
2016年,Google旗下DeepMind开发的AlphaGo人工智能机器人战胜世界围棋冠军李世石,进一步展示了人工智能在复杂策略游戏中的能力。以这些重要突破为历史节点,推荐算法、图像识别、自然语言处理等“识别式”AI,开始占据AI的主流赛道。
与此同时,Apple、Microsoft及Google等国际知名IT企业,都投入大量人力物力财力开展深度学习的研究。例如Apple Siri的语音识别,Microsoft搜索引擎Bing的影像搜寻等等,而Google的深度学习项目也已超过1500项。
当然,以Chatgpt为代表的生成式AI,某种程度上也是第三次AI浪潮的延续。我们并不能妄下断言说这一次浪潮,势必会像前两次有所回落,但它们呈现出来的某些“不可调和性矛盾”,仍然值得去正视与警惕,并进行最大程度的“战术规避”。