在人工智能研究領域,持續學習與知識鞏固的難題長期困擾著科學家。傳統大模型在預訓練階段雖能吸收海量信息,卻在后續學習新內容時面臨“災難性遺忘”困境——新知識的學習往往導致舊技能衰退,如同用新磁帶覆蓋舊錄音。這一核心矛盾推動Google Research團隊提出突破性理論框架,試圖從底層重構AI學習機制。
研究團隊在論文《嵌套學習:深度學習架構的幻覺》中指出,當前技術路徑的局限源于架構與算法的割裂。過去研究者分兩條路線探索:一類通過設計記憶模塊優化模型結構,另一類通過調整參數更新規則改進算法,但兩者始終作為獨立組件發展。這種碎片化模式導致模型如同靜態知識庫,難以實現動態知識積累。
嵌套學習理論的核心突破在于重新定義學習本質。該理論認為,復雜機器學習模型本質是嵌套運行的優化問題集合。研究團隊類比人類記憶系統:瞬時記憶更新迅速,短期記憶次之,而世界觀等長期知識需長期沉淀。基于此,他們提出“更新頻率”概念——模型組件(如權重參數、優化器動量項)以不同速度迭代,形成天然層級結構。
以梯度下降為例,傳統視角下它僅是參數更新工具,但在嵌套框架中,外層參數優化是慢速過程,而內層權重更新規則本身構成快速優化問題。高級優化器(如Adam)的動量項更被視為微型記憶模塊,通過梯度壓縮存儲歷史信息。這種視角轉換首次將架構設計與優化算法統一為動態學習系統。
基于統一框架,研究團隊提出三大技術路徑:深度優化器用小型神經網絡替代傳統優化器,形成“深度動量梯度下降”,顯著提升歷史梯度利用效率;自修改架構使模型具備動態調整學習策略的能力,例如在序列任務中自主優化注意力機制;連續記憶系統則打破短期/長期記憶的二元劃分,通過多速率神經網絡塊實現知識光譜式存儲——高頻塊處理即時上下文,中頻塊整合階段知識,低頻塊沉淀抽象認知。
融合三大技術的HOPE架構(持久嵌入混合優化器)將理論轉化為實踐。與傳統Transformer靜態前饋網絡不同,HOPE為每個記憶層級配備專屬前饋模塊,形成動態知識系統。實驗數據顯示,在語言建模和常識推理任務中,340M至1.3B參數規模的HOPE模型均超越對比模型,尤其在長上下文“針尖海草”任務中展現高效內存管理,驗證了連續記憶系統的優勢。
這項研究為機器人、自動駕駛等需要終身學習的領域開辟新路徑。傳統AI系統依賴高成本再訓練,而嵌套學習框架使模型能像人類一樣在保留知識基礎上持續進化。盡管當前研究尚未涉及睡眠式離線整理機制,但其通過更新頻率分層實現的知識動態管理,已為構建通用人工智能提供關鍵理論支撐。











