三星高級AI研究院近日在人工智能領域投下一枚重磅炸彈——其研發的微型遞歸模型(TRM)以僅700萬參數的極簡架構,在結構化推理任務中展現出與萬倍規模大模型抗衡的實力。該成果由研究院高級研究員Alexia Jolicoeur-Martineau團隊完成,相關代碼、訓練腳本及數據集已通過MIT許可證在GitHub平臺全面開源。
與傳統依賴龐大參數堆砌的AI模型不同,TRM通過"遞歸推理"機制實現了效率革命。該模型摒棄了分層推理模型(HRM)的雙網絡架構,轉而采用僅含兩層神經元的精簡結構。其核心邏輯在于讓模型對自身輸出進行持續迭代修正——每次預測后,系統會檢查前序步驟的潛在誤差,并通過循環反饋機制逐步逼近最優解。這種"以遞歸替代規模"的設計,使TRM在保持高性能的同時,將計算資源消耗降低至傳統大模型的百分之一以下。
在針對性測試中,TRM的表現令人矚目:在極限數獨(Sudoku-Extreme)任務中取得87.4%的準確率,困難迷宮(Maze-Hard)測試達85%,抽象推理能力評估(ARC-AGI)中收獲45%的準確率,其進階版本ARC-AGI-2則達到8%。這些數據與DeepSeek R1、Gemini 2.5 Pro及o3-mini等頂尖模型相比,不僅毫不遜色,部分指標甚至實現超越。值得注意的是,TRM的參數量不足這些大模型的0.01%,卻能在特定領域達成"四兩撥千斤"的效果。
研究團隊指出,TRM的成功源于對"極簡主義"的極致追求。實驗表明,當模型層數或參數規模超過臨界點時,反而會因小數據集過擬合導致性能衰退。其雙層結構與遞歸深度的巧妙結合,恰好實現了復雜推理需求與計算效率的最優平衡。不過研發者也強調,該模型專為結構化網格類問題設計,在數獨、迷宮等規則明確的封閉場景中表現優異,但并不適用于開放式語言生成任務。
目前,TRM的完整技術資料已向全球開發者開放。企業和研究機構可自由獲取代碼進行二次開發,甚至將修改后的版本用于商業用途。這種開放策略或將推動AI領域向"小而精"的方向加速演進,為資源受限場景下的智能應用開辟新路徑。





