蘋果公司與俄亥俄州立大學的研究團隊共同發布了一項突破性成果——一種名為“少步離散流匹配”(FS-DFM)的新型語言模型。該模型通過創新設計,在長文本生成領域實現了效率與質量的雙重提升,僅需8輪迭代即可達到傳統模型上千輪迭代的效果,生成速度較同類模型提升最高達128倍。
作為擴散模型的變體,FS-DFM采用三階段策略優化生成流程。第一階段通過動態訓練使模型適應不同迭代次數,增強靈活性;第二階段引入“教師”模型作為引導,確保每次更新精準無誤;第三階段優化迭代機制,大幅減少生成所需步驟。這種設計既保證了生成質量,又顯著提升了效率。
在性能對比實驗中,FS-DFM以1.7億至17億的參數量,與70億參數的Dream模型和80億參數的LLaDA模型展開較量。結果顯示,FS-DFM在困惑度和熵兩項核心指標上均表現突出,生成的文本不僅準確度更高,且穩定性更強。這一成果表明,通過算法優化,小參數量模型同樣能實現高性能輸出。
研究團隊指出,FS-DFM的核心優勢在于其“少步高效”的特性。傳統模型需通過大量迭代逐步優化文本,而FS-DFM通過離散流匹配技術,在極少的迭代次數內即可完成高質量生成。這種技術不僅降低了計算成本,還為實時文本生成應用提供了可能,例如動態對話系統或快速內容創作工具。











