近期,科技界傳來一則令人矚目的新聞,谷歌DeepMind團隊攜手約翰·開普勒林茨大學的LIT AI實驗室,在人工智能領域取得了突破性進展。他們通過引入強化學習微調(RLFT)技術,顯著提升了語言模型的決策能力。
這一創新基于一個核心觀察:雖然當前的語言模型,通過海量互聯網數據的訓練,已經展現出了超越文本處理的潛力,能夠在交互環境中依據內部知識推理做出行動選擇,但其決策過程仍面臨諸多挑戰。具體而言,這些模型往往能夠推導出正確的策略,但在實際執行時卻力不從心,即所謂的“知道卻做不到”的困境。它們還傾向于過度追求短期的高回報,而對于較小的模型來說,它們往往會機械地重復一些常見的動作。
傳統的強化學習方法,如UCB算法,雖然在平衡探索與利用方面表現出色,但在解決模型內在的推理與行動脫節問題上卻顯得力不從心。面對這一難題,DeepMind團隊提出了一種全新的解決方案——強化學習微調技術。該技術以模型自生成的思維鏈為訓練信號,通過評估每個推理步驟對應的行動獎勵,引導模型選擇那些既邏輯自洽又實際高效的行動方案。
在實施過程中,模型會根據輸入的指令和行動-獎勵歷史,生成一個包含推理過程與動作的序列。然后,通過蒙特卡洛基線評估和廣義優勢估計對這些序列進行優化。對于無效的動作,系統會觸發懲罰機制。同時,獎勵塑造技術不僅確保了輸出格式的規范性,還為模型保留了足夠的探索空間。
為了驗證這一技術的有效性,研究人員進行了一系列實驗。在多臂老虎機測試中,面對10臂和20臂的情況,模型的動作覆蓋率均得到了顯著提升。特別是在面對10臂時,2B參數模型的動作覆蓋率提高了12個百分點。而在井字棋實驗中,模型對陣隨機對手的勝率更是提升了5倍。與最優蒙特卡洛樹搜索代理的對戰中,模型的平均回報也從-0.95歸零。
尤為在井字棋實驗中,一個27B的大模型在生成正確推理的概率上達到了87%。然而,在未進行微調之前,僅有21%的情況下該模型會執行最優動作。這一強化學習微調技術的引入,有效地縮小了這一差距,展現了其在實際應用中的巨大潛力。
這一突破性進展不僅為人工智能領域帶來了新的希望,也為未來智能系統的開發提供了全新的思路。隨著技術的不斷進步,我們有理由相信,未來的智能系統將在決策能力上實現質的飛躍,為人類社會的發展貢獻更多的力量。