麻省理工学院计算机科学与人工智能实验室(CSAIL)的研究人员开发了一种新型人工智能模型,该模型受大脑神经振荡的启发,旨在显著改进机器学习算法处理长序列数据的能力。
人工智能在分析长时间展开的复杂信息(如气候趋势、生物信号或金融数据)时常常面临挑战。一种名为“状态空间模型”的新型AI模型被专门设计用于更有效地理解此类序列模式,但现有模型在处理长数据序列时常出现不稳定或需要大量计算资源的问题。
为解决这些难题,CSAIL研究人员T. Konstantin Rusch和Daniela Rus开发了“线性振荡状态空间模型”(LinOSS),该方法利用受迫谐振子原理——这一概念深深植根于物理学并广泛存在于生物神经网络中。LinOSS在不对模型参数施加过度限制的条件下,提供了稳定、表达力强且计算高效的预测能力。
Rusch解释道:“我们的目标是捕捉生物神经系统中的稳定性和效率,并将这些原理转化为机器学习框架。借助LinOSS,我们现在能可靠地学习长距离交互,即使面对跨越数十万个数据点的超长序列。”
LinOSS模型的独特之处在于其确保预测稳定性的同时,所需设计限制远少于先前方法。研究人员还严格证明了该模型的通用逼近能力,即它能逼近任何与输入输出序列相关的连续因果函数。
实证测试显示,LinOSS在各类高难度序列分类与预测任务中持续优于现有最先进模型。尤其在极端长度序列任务中,其性能比广泛应用的Mamba模型高出近两倍。
鉴于其重要性,该研究被选为ICLR 2025会议口头报告——这一荣誉仅授予前1%的投稿。麻省理工学院研究人员认为,LinOSS将对医疗保健分析、气候科学、自动驾驶及金融预测等依赖精准长期预测的领域产生重大影响。
Rus表示:“这项工作展现了数学严谨性如何驱动性能突破与广泛应用。通过LinOSS,我们为科学界提供了理解与预测复杂系统的强大工具,弥合了生物启发与计算创新之间的鸿沟。”
研究团队预计,LinOSS这类新范式将吸引机器学习实践者在此基础上进一步开发。未来,研究人员计划将该模型应用于更广泛的数据模态,同时指出LinOSS可能为神经科学提供宝贵洞见,从而深化人类对大脑工作机制的理解。
该研究得到了瑞士国家科学基金会、Schmidt AI2050计划及美国空军人工智能加速器的支持。
【全文结束】


