噪声通常被认为会影响从时间序列中提取有效的动力学模型,因此传统方法通常需要减轻噪声对学习动力学的影响。另一方面,噪声有驱动稳定态之间随机转移的作用。为了从数据中捕捉和预测噪音诱导的随机转移,作者首先尝试应用当下流行的机器学习方法 SINDy、FORCE,但发现即使对于最简单的白噪音双稳态系统这些方法也不准确。因此,作者推广了另一类机器学习模型,储备池计算,并通过重点关注一个控制时间尺度的超参数,设计了可以学习随机转移的新方法。这种方法在一系列例子中展现出良好效果,比如对蛋白质折叠的实验,从仅含有几次状态转移的数据中便能学习到准确的转变动力学。这项研究表面预测噪声诱导的现象还有广泛的探索空间,需要系统地推广主流的机器学习方法。
具体而言,噪声诱导的转变在自然界中普遍存在,并且发生在具有多稳态的各种系统中。例如,电路中不同电压和电流状态之间的切换、噪声驱动的基因开关、噪声诱导的早期生命自我复制体的生物手性、蛋白质折叠态转变[1]、以及具有多稳态概率分布的化学反应。学习噪声诱导的转变对于理解这些系统的关键现象至关重要。在许多情况下,只有时间序列可用,而事先并不知道数学方程。为了有效地从时间序列中学习和预测噪声诱导的转变,有必要区分慢时间尺度和快时间尺度:在不同稳定状态周围的快速弛豫和它们之间的慢速转变,其中快速时间尺度的信号通常被视为噪声。从时间序列中学习随机转移仍然是一个难题。
近年来,有许多机器学习方法致力于从数据中学习动力学。一种方法使用稀疏识别非线性动力学
(SINDy)
来识别非线性动力学、对时间序列数据去噪并从数据中参数化噪声概率分布。由于优化问题的非凸性,该方法可能难以稳健地处理大型函数库的回归。另一类方法则采用物理启发神经网络进行数据驱动的偏微分方程求解和发现,或从数据中提取Koopman特征函数。然而,这些方法需要大量的数据来训练深度神经网络,并对网络进行精细调整。
尽管上述方法具有广泛的应用,但它们尚未被用于研究噪声诱导的转变。为了学习噪声诱导的转变,作者首先利用SINDy [2, 3] 和循环神经网络
(RNN)
[4] 对含有噪声的数据进行处理。作者发现,即使在具有高斯白噪声的一维双稳系统中,SINDy和RNN也无法准确预测随机转移。作者还对数据应用了滤波器 [5, 6],获得平滑的时间序列,然后使用SINDy 处理滤波后的数据,但这种方法仍未能准确捕捉噪声诱导的转变。同样,First-Order, Reduced, and Controlled Error (FORCE) 学习方法 [7],包括其各种版本如full-FORCE和尖峰神经元模型 [8],在实验数据中也未能完全捕捉随机转移,并且需要相对较高的计算成本。这些尝试表明,这些传统方法主要设计用于对噪声数据进行去噪,以学习确定性动力学,而非捕捉噪声诱导的现象。因此,需要开发一种新方法来预测随机转移。
作者注意到一种机器学习架构——储备池计算 (RC) [9-11],可能适合这一任务。储备池计算的训练只需要线性回归,这比需要反向传播的神经网络在计算上更为快速。研究发现,储备池计算在学习动力系统方面效果显著,包括混沌系统。此前曾有一个工作尝试使用RC来处理噪声诱导的转变 [12],但依赖于事先知道确定性动力学方程的假设,这在实际问题中过强。实际上,确定性动力学的先验知识往往缺乏,有时甚至无法通过方程直接描述。那么能否仅基于数据,在没有任何确定性方程的先验知识的情况下预测噪声诱导的转变呢?
[1] R. Tapia-Rojo, M. Mora, S. Board, J. Walker, R. Boujemaa-Paterski, O. Medalia, and S. Garcia-Manyes, Enhanced statistical sampling reveals microscopic complexity in the talin mechanosensor folding energy landscape, Nat. Phys. 19, 52 (2023).
[2] S. L. Brunton, J. L. Proctor, and J. N. Kutz, Discovering governing equations from data by sparse identification of nonlinear dynamical systems, Proc. Natl. Acad. Sci. 113, 3932 (2016).
[3] K. Kaheman, S. L. Brunton, and J. N. Kutz, Automatic differentiation to simultaneously identify nonlinear dynamics and extract noise probability distributions from data, Mach. Learn.: Sci. Technol. 3, 015031 (2022).
[4] S. Hochreiter and J. Schmidhuber, Long short-term memory, Neural Comput. 9, 1735 (1997).
[5] R. R. Labbe, Filterpy documentation (2018).
[6] P. Virtanen, R. Gommers, T. E. Oliphant, M. Haberland, T. Reddy, D. Cournapeau, E. Burovski, P. Peterson, W. Weckesser, J. Bright, et al., Scipy 1.0: fundamental algorithms for scientific computing in python, Nat. Methods 17, 261 (2020).
[7] D. Sussillo and L. F. Abbott, Generating coherent patterns of activity from chaotic neural networks, Neuron 63, 544 (2009).
[8] L. B. Liu, A. Losonczy, and Z. Liao, tension: A python package for force learning, PLOS Comput. Biol. 18, e1010722 (2022).
[9] H. Jaeger, The “echo state” approach to analysing and training recurrent neural networks-with an erratum note, Bonn, Germany: German National Research Center for Information Technology GMD Technical Report 148, 13 (2001).
[10] J. Pathak, B. Hunt, M. Girvan, Z. Lu, and E. Ott, Model-free prediction of large spatiotemporally chaotic systems from data: A reservoir computing approach, Phys. Rev. Lett. 120, 024102 (2018).
[11] T. L. Carroll, Using reservoir computers to distinguish chaotic signals, Phys. Rev. E 98, 052209 (2018).
[12] S. H. Lim, L. Theo Giorgini, W. Moon, and J. S. Wettlaufer, Predicting critical transitions in multiscale dynamical systems using reservoir computing, Chaos 30, 123126 (2020).
[13] G. Tanaka, T. Matsumori, H. Yoshida, and K. Aihara, Reservoir computing with diverse timescales for prediction of multiscale dynamics, Phys. Rev. Res. 4, L032014 (2022).