在人工智能領(lǐng)域持續(xù)創(chuàng)新的浪潮中,微博近日正式推出自主研發(fā)的開源大模型Vibe Thinker,以15億參數(shù)的精巧設(shè)計(jì)在國際頂級數(shù)學(xué)競賽基準(zhǔn)測試中脫穎而出,成功超越擁有6710億參數(shù)的DeepSeek R1模型。這一突破不僅體現(xiàn)在準(zhǔn)確率上的領(lǐng)先,更在于其單次“后訓(xùn)練”成本僅需7800美元,相較于DeepSeek-R1和MiniMax-M1等同類模型,成本降低了數(shù)十倍,展現(xiàn)了高效能與低成本并重的顯著優(yōu)勢。
Vibe Thinker的核心競爭力在于其采用的輕量化MoE(混合專家)架構(gòu)與多輪知識蒸餾技術(shù)。這一創(chuàng)新設(shè)計(jì)使得模型在處理數(shù)學(xué)問題時,僅需5GB以下的數(shù)學(xué)語料即可完成高效微調(diào),極大地降低了訓(xùn)練資源的需求。同時,微博官方宣布,該模型支持通過Hugging Face平臺一鍵下載,并提供了商用許可,為開發(fā)者提供了便捷的接入途徑。據(jù)微博技術(shù)團(tuán)隊(duì)透露,在AIME 2025、HMMT等國際知名數(shù)學(xué)競賽題庫中,Vibe Thinker的平均得分較DeepSeek R1提升了3.4%,推理延遲時間更是降低了42%,這一性能提升使其在教育、金融等對實(shí)時性要求較高的場景中展現(xiàn)出巨大的應(yīng)用潛力。
為了進(jìn)一步推動技術(shù)的普及與應(yīng)用,微博在開源版本中提供了PyTorch與GGUF兩種格式,確保模型能夠在不同硬件環(huán)境下靈活部署。特別值得一提的是,Vibe Thinker的最低運(yùn)行要求僅為單張RTX4090顯卡,這一低門檻設(shè)計(jì)使得更多研究機(jī)構(gòu)和開發(fā)者能夠輕松上手,進(jìn)行模型的二次開發(fā)與優(yōu)化。微博還同步開放了訓(xùn)練腳本與數(shù)據(jù)配比方案,為社區(qū)貢獻(xiàn)了寶貴的技術(shù)資源。
展望未來,微博計(jì)劃于12月推出Vibe Thinker-Math專用數(shù)學(xué)增強(qiáng)版,這一版本將針對數(shù)學(xué)領(lǐng)域的特定需求進(jìn)行深度優(yōu)化,進(jìn)一步提升模型在數(shù)學(xué)問題解決上的能力。與此同時,微博還將聯(lián)合多所高校舉辦“輕量級數(shù)學(xué)挑戰(zhàn)賽”,旨在通過競賽的形式激發(fā)創(chuàng)新活力,推動低成本、高精度AI技術(shù)的廣泛應(yīng)用,為人工智能領(lǐng)域的發(fā)展注入新的動力。






