1982年,有物理学背景的理论生物学家Hopfield提出了一种网络,将虚拟神经元之间的连接描述为物理力[1]。它将模式存储为网络的低能状态,可以在接收到类似的输入时再现存储的模式。这一结构被称为联想记忆,因为它的“回忆”方式类似于大脑根据相关信息记住一个词或一种概念的方式。
计算机科学家Hinton利用统计物理学(描述包含太多部件、无法单独追踪的系统)原理,进一步发展了“Hopfield网络”。通过在网络的分层版本中引入概率,Hinton创建了一种新工具,可以识别和分类图像,或生成其训练类型的新示例[2]。
这些流程不同于此前较早的计算方式,因为网络能够从示例包括复杂数据中学习。这对于依赖逐步计算的传统软件来说是很难的。
这些网络是“极度理想化的模型,与现实生物神经网络的差别就像苹果和星球”,Hinton 2000年在《自然-神经科学》的一篇文章中写道。但它们被证明很有用并得到了广泛应用。模仿人类学习的神经网络成为了诸多最先进的AI工具的基石,从大型语言模型(LLM)到能够分析海量数据的机器学习算法,包括蛋白质结构预测模型AlphaFold。
在宣布获奖时,Hinton在电话里说,得知自己获诺贝尔奖“始料未及”。他说:“我惊呆了,完全没想过这会发生。”他补充说,机器学习的进步“将产生巨大影响,堪比工业革命。但它超越的不是人类的身体力量,而将是人的智力水平”。
近年来,Hinton已成为对人工智能采取安全措施的最有力呼吁者之一。他表示,去年他确信数字计算已经超越了人脑,因为它能够通过并行运行的多个算法副本共享学习成果。“在那之前我花了50年时间想,要是能让它更像大脑会让它变得更好。”他在5月31日于瑞士日内瓦 AI for Good全球峰会上在线发言时说。“这让我觉得(这些系统)会以超乎想象的速度变得比我们更智能。”