谷歌研究院近日在人工智能持續學習領域取得重要突破,針對大語言模型普遍存在的“災難性遺忘”問題,提出名為“嵌套學習”(Nested Learning)的創新范式。該研究已發表于NeurIPS 2025學術會議,相關技術成果通過概念驗證模型“Hope”得到實證。
傳統AI模型在吸收新知識時,常因直接覆蓋原有參數導致舊任務性能斷崖式下降。這種現象與人類大腦的神經可塑性形成鮮明對比——人腦能夠通過調整神經連接持續學習新技能,同時保留已有認知。谷歌團隊通過重構機器學習底層架構,首次將模型架構設計與優化算法進行深度耦合,構建出包含多層級優化問題的嵌套結構。
研究核心包含兩項技術突破:其一為“深度優化器”,該組件將優化過程本身轉化為可學習模塊,通過改進目標函數增強對噪聲數據的抗干擾能力;其二為“連續體內存系統”(CMS),通過模擬人類記憶的分層機制,將模型內存分解為不同更新頻率的模塊群,形成從短期到長期的平滑過渡體系。
基于上述理論構建的Hope模型采用自修改循環網絡架構,深度整合CMS系統。該模型通過自我參照機制優化內存結構,在實驗中展現出突破性表現:在標準語言建模任務中,其困惑度指標較傳統循環網絡降低37%,常識推理準確率提升29%。特別是在“大海撈針”(NIAH)長文本測試中,Hope成功從百萬級token的文本中精準定位關鍵信息,驗證了CMS系統處理超長序列的能力。
NIAH測試作為評估模型長程依賴能力的黃金標準,要求系統從相當于整部《戰爭與和平》長度的文本中提取特定信息。實驗數據顯示,Hope模型在128K token長度下的信息檢索準確率達到92%,較標準Transformer模型提升41個百分點。這項突破為開發具備終身學習能力的通用人工智能奠定了技術基礎。











