人工智能領域迎來一項突破性進展:OpenAI悄然開源一款僅有0.4億參數的全新模型,其核心創新在于通過極端稀疏化設計,使99.9%的權重矩陣元素歸零。這項被命名為Circuit Sparsity的技術,試圖通過重構模型內部連接方式,破解傳統大語言模型難以解釋的"黑箱"困境。
傳統Transformer架構的神經網絡如同糾纏的線團,每個決策都由數以億計的參數共同作用產生。研究團隊反其道而行之,在GPT-2架構基礎上引入嚴格約束條件,訓練過程中強制將權重矩陣的L0范數壓縮至極小值。這種設計使得模型最終僅保留0.1%的有效連接,形成類似電路圖的清晰計算路徑。實驗表明,在預訓練損失相當的情況下,新模型的任務專屬電路規模僅為稠密模型的1/16。
以Python代碼引號閉合任務為例,該模型僅需2個多層感知機神經元和1個注意力頭即可構建核心處理電路。這個微型網絡包含專門的引號檢測模塊和類型分類模塊,每個組件如同電路元件般各司其職。當研究人員移除任意節點時,模型立即喪失對應功能,驗證了其模塊設計的必要性與充分性。這種精確的機制拆解能力,使得模型決策過程首次具備可追蹤性。
當前主流的混合專家模型(MoE)采用分治策略,通過門控網絡將任務分配給不同專家子模塊。但這種架構存在根本性缺陷:專家間知識冗余度高,特征流形被人為割裂,且功能邊界模糊。研究指出,MoE模型依賴復雜的負載均衡算法維持穩定,不同專家對同一概念的處理往往分散在多個節點,形成信息干擾。相比之下,Circuit Sparsity通過超高維度特征投影與嚴格激活限制,從設計層面確保每個特征的單義性和正交性。
這項創新并非完美無缺。極端稀疏化導致訓練和推理的計算量激增至傳統模型的100-1000倍,當前性能尚未達到頂尖大模型水平。反觀MoE架構,其算力效率與模型性能的平衡已趨成熟,短期內仍將是工業界主流選擇。研究團隊承認,新模型目前更適用于需要嚴格可解釋性的特定場景,而非通用大模型競爭。
為突破效率瓶頸,研究人員探索出兩條優化路徑:其一是從現有稠密模型中提取稀疏電路,通過復用基礎框架降低訓練成本;其二是改進原生稀疏模型的訓練機制,在保持可解釋性的同時提升計算效率。實驗數據顯示,從稠密模型遷移的稀疏電路在特定任務上已展現出成本優勢,但功能完整性仍需驗證。
這項研究引發學界對模型架構本質的重新思考。傳統觀點認為,模型規模與性能存在正相關,但Circuit Sparsity證明,通過結構化約束實現的功能解耦,可能比單純增加參數更接近人工智能的本質。隨著可解釋性需求日益增長,這種"少即是多"的設計理念,或將推動下一代模型架構的范式轉變。











