OpenAI近期在緊湊型推理模型o4-mini上引入了強化微調(diào)技術(shù)(RFT),為開發(fā)者提供了一種全新的工具,旨在幫助他們將基礎(chǔ)模型定制化以適應特定任務需求。這一技術(shù)的推出,標志著OpenAI在模型微調(diào)領(lǐng)域邁出了重要一步。
RFT技術(shù)巧妙地將強化學習原理應用于語言模型的微調(diào)過程中,打破了傳統(tǒng)微調(diào)模式的局限。以往,開發(fā)者主要依賴標注數(shù)據(jù)來調(diào)整模型,而現(xiàn)在,他們可以通過設(shè)計任務特定的評分函數(shù)來評估模型輸出。這些評分函數(shù)基于自定義標準,如準確性、格式或語氣,為模型表現(xiàn)打分。模型則通過優(yōu)化獎勵信號,逐步學習并生成符合期望的行為。
o4-mini是OpenAI于今年4月發(fā)布的一款緊湊型推理模型,具備文本和圖像輸入功能,尤其擅長結(jié)構(gòu)化推理和鏈式思維提示。RFT技術(shù)在o4-mini上的應用,為開發(fā)者提供了一個既輕量又強大的基礎(chǔ)模型,非常適合處理高風險、領(lǐng)域特定的推理任務。其高效的計算能力和快速的響應速度,使得o4-mini在實時應用場景中表現(xiàn)出色。
使用RFT技術(shù)需要經(jīng)歷四個關(guān)鍵步驟:首先,開發(fā)者需要設(shè)計評分函數(shù);其次,準備高質(zhì)量的數(shù)據(jù)集;然后,通過OpenAI API啟動訓練任務;最后,持續(xù)評估和優(yōu)化模型表現(xiàn)。這一流程使得RFT技術(shù)在處理復雜任務時尤為有效,尤其是在那些難以定義標準答案的領(lǐng)域,如醫(yī)療和法律等。
在醫(yī)療領(lǐng)域,開發(fā)者可以通過程序評估解釋的清晰度和完整性,從而指導模型不斷改進。同樣,在法律和代碼生成等領(lǐng)域,RFT技術(shù)也展現(xiàn)出了其定制化優(yōu)勢。多家早期采用者已經(jīng)成功在o4-mini上應用了RFT技術(shù),并取得了顯著成果。
目前,RFT技術(shù)已經(jīng)向認證組織開放。訓練費用為每小時100美元,若使用GPT-4o等模型作為評分工具,則還需按標準推理費率額外計費。為了鼓勵數(shù)據(jù)共享,OpenAI還推出了激勵措施。同意共享數(shù)據(jù)集用于研究的組織,可以享受50%的訓練費用折扣。這一舉措不僅降低了使用RFT技術(shù)的成本,還促進了學術(shù)界和工業(yè)界的合作與交流。