人工智能可能与自然智能有不同的原理,但两者可以相互启发,其理解可能需要建立新的数学与物理基础。本次读书会将由中山大学物理学院教授、“物理,机器与智能”实验室(PMI Lab)创建者黄海平老师首先介绍机器学习的统计物理方面的主要方向和挑战性课题,如表示学习、泛化、鲁棒性等;以及主要的统计物理方法如复本方法、平均场、随机矩阵等。之后硕士生王士摄将介绍通过循环神经网络建模高维神经动力学的最新研究,这种计算模型对大脑动力学和计算智能具有重要影响。
为了探讨统计物理学的前沿进展,集智俱乐部联合西湖大学理学院及交叉科学中心讲席教授汤雷翰、纽约州立大学石溪分校化学和物理学系教授汪劲、德累斯顿系统生物学中心博士后研究员梁师翎、香港浸会大学物理系助理教授唐乾元,以及多位国内外知名学者共同发起
「非平衡统计物理」读书会
。读书会从12月12日开始,计划每周四晚20:00-22:00进行,持续时间预计12~15周。欢迎感兴趣的朋友一起讨论交流!
高维神经动力学支持多种认知功能,如规划、决策和工作记忆。神经动力学的内在结构引起诸多领域的广泛研究兴趣。这些动力学通过循环神经网络进行计算建模。循环神经网络也是设计机器学习算法的强大工具,甚至被用来解释意识。因此,这种计算模型对大脑动力学和进一步的计算智能具有重要影响。
高维动力学在脑功能、生态系统和神经启发的机器学习中起着至关重要的作用。然而,这些动力学在相空间中哪里以及如何被限制的,仍然是一个具有挑战性的问题。我们最近的工作指出,当神经动力学表现出多样性时,其限制区域呈现出“M”形:有两个尖锐的边界,中间是平坦的低密度区域。即使增大突触强度,该形状定性上仍保持不变,但左边界会持续向外推移。然而,在深度混沌区域中,会逐渐形成拱形的限制区域。这一解析理论为解决高维非平衡动力学的基本问题提供了一种几何的视角。
机器学习,Machine Learning
高维神经动力学,High Dimensional Neural Dynamics
循环神经网络,Recurrent Neural Network
复本方法,Replica Method
Franz-Parisi 势,Franz-Parisi Potential
黄海平
,中山大学物理学院教授。本科毕业于中山大学理工学院,博士毕业于中国科学院理论物理研究所,随后在香港科技大学物理系、东京工业大学计算智能系 (2012年获日本学术振兴会资助) 以及日本理化学研究所(RIKEN) 脑科学中心从事统计物理与机器学习、 神经计算交叉的基础理论研究,2017年因在无监督学习方面的研究获得 RIKEN 杰出研究奖。于2018年入选中山大学百人计划,在物理学院组建了“物理、机器与智能” (PMI)研究小组,专注于各种神经计算的理论基础,长期目标是使用基于物理的近似来揭示机器及大脑智能的基本原理。
PMI Lab:https://www.labxing.com/hphuang2018
王士摄
,中山大学物理学院“物理,机器与智能”实验室(PMI Lab)硕士生,导师为黄海平教授。研究方向是神经网络的统计物理。
时间:
2025年1月9日(周四)晚20:00-22:00
斑图链接:https://pattern.swarma.org/study_group_issue/824
扫码参与
「非平衡统计物理」读书会
,加入群聊,获取系列读书会回看权限,加入统计物理社区,与社区的一线科研工作者沟通交流,共同推动这一前沿领域的发展。