摘要
本发明涉及大数据建模技术领域,公开了一种神经常微分方程的固定时间稳定学习框架,该框架基于固定时间稳定的李雅普诺夫函数设计了损失(FxTS‑loss),鼓励动态推理在用户定义的固定时间内收敛到正确预测的状态。本发明提出了一种利用训练过程中的监督信息构造李雅普诺夫函数的方法,该方法可以适应不同任务和网络结构的要求。为了优化FxTS‑Loss,本发明还提供了一种学习算法,包括在关键区域捕获样本点来近似FxTS‑Loss,这有利于李雅普诺夫条件的局部‑全局结构。本发明证明了最小化FxTS‑loss不仅保证了动力学的固定时间稳定行为,而且保证了输入扰动的鲁棒性。实验结果表明,FxTS‑Net具有更好的预测性能、更快的推理动态收敛速度和更好的对抗鲁棒性。
技术关键词
李雅普诺夫函数
大数据建模技术
学习算法
鲁棒性
框架
网络结构
鲁棒控制
采样方法
动力系统
动态
定义
轨迹
理论
样本
数值
参数
速度