日本精品一区二区三区高清 久久

ITBear旗下自媒體矩陣:

小紅書首次開源大模型,1420億參數媲美阿里Qwen3,AI版圖再擴張

   時間:2025-06-10 09:47:16 來源:ITBEAR編輯:快訊團隊 IP:北京 發表評論無障礙通道

近日,社交平臺小紅書在其一向低調的AI領域邁出了重要一步,宣布開源了其首個自研的大型語言模型。

小紅書的人文智能實驗室(hi lab)在GitHub和Hugging Face等平臺發布了名為dots.llm1的開源文本大模型。此次開源不僅包括了基礎的base模型和instruct模型,還涵蓋了微調后的Instruct模型、長文base模型、多個退火階段的base模型、超參數以及每1萬億個token的中間訓練checkpoint等詳盡的訓練信息。

據了解,dots.llm1模型在6月9日進行了更新,主要修復了停止符號的配置,屬于模型維護的常規操作。dots.llm1在性能上表現不俗,大部分性能與阿里的Qwen 2.5模型相當,部分性能甚至與Qwen 3模型持平。

dots.llm1采用了混合專家模型(MoE)架構,擁有1420億參數,但在推理過程中僅激活140億參數,從而在保證高性能的同時,大幅降低了訓練和推理成本。該模型使用了11.2萬億token的高質量訓練數據,這些數據經過了人工校驗和實驗驗證,其質量顯著優于開源的TxT360數據。

在預訓練階段,dots.llm1經歷了兩階段的監督微調(SFT)訓練,最終得到了base模型和instruct模型。其中,base模型是“基座模型”,完成了預訓練階段;而instruct模型則是在base模型的基礎上,通過指令微調得到的,便于直接部署和使用。

在激活140億參數的情況下,dots.llm1.inst在中英文通用場景、數學、代碼以及對齊任務上均展現出了出色的表現。與阿里的通義Qwen2.5-32B/72B-Instruct相比,dots.llm1具備競爭力;同時,在中英文、數學以及對齊任務上,dots.llm1的表現與阿里的Qwen3-32B相當或更優。與DeepSeek相比,dots.llm1的整體性能高于DeepSeek的V2模型,但略低于V3模型。

在中文性能上,dots.llm1.inst展現出了顯著優勢。在CLUEWSC上,dots.llm1.inst取得了92.6分,在中文語義理解方面達到了業界領先水平。在C-eval上,dots.llm1.inst取得了92.2分,超越了包括DeepSeek-V3在內的所有模型。

小紅書自2013年成立以來,一直是移動互聯網創業浪潮中的佼佼者,也是少數未上市的企業之一。自2016年初起,小紅書將原本人工運營的內容改為了機器分發的形式,通過大數據和AI技術,將社區中的內容精準地匹配給感興趣的用戶。隨著2022年底ChatGPT熱潮的爆發,小紅書在2023年加大了對大模型的研發投入。

近年來,小紅書加快了AI技術的落地步伐,推出了一款名為“點點”的AI搜索應用,并在小紅書內置了“問一問”功能,幫助用戶在平臺上查找信息。小紅書的估值也在不斷攀升。據金沙江創投旗下的股份交易文件顯示,截至2025年3月底,小紅書的估值已從200億美元大幅躍升至260億美元,遠超B站、知乎等上市公司的市值。

隨著阿里、騰訊、字節等大廠紛紛發力AI大模型領域,小紅書也不甘落后,瞄準了AI技術,致力于大語言模型的落地。小紅書hi lab的目標是訓練一個更強大的模型,計劃在訓練和推理效率之間取得最佳平衡,集成更高效的架構設計,并探索使用更稀疏的混合專家(MoE)層來提升計算效率。hi lab還將加深對最佳訓練數據的理解,探索實現更接近人類學習效率的方法。

小紅書hi lab團隊還表示,他們將為社區貢獻更多更優的全模態大模型,這意味著小紅書在AI領域的探索和發展還將持續深入。

舉報 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內容
網站首頁  |  關于我們  |  聯系方式  |  版權聲明  |  RSS訂閱  |  開放轉載  |  滾動資訊  |  爭議稿件處理  |  English Version
 
主站蜘蛛池模板: 荥阳市| 邯郸县| 通海县| 朝阳市| 石首市| 靖宇县| 宜昌市| 平阴县| 海宁市| 武威市| 会泽县| 咸宁市| 沁阳市| 铁力市| 古蔺县| 荣成市| 乡城县| 江西省| 延庆县| 庄浪县| 永吉县| 靖宇县| 喜德县| 潞西市| 鹤岗市| 壶关县| 蒙阴县| 怀远县| 天台县| 阿拉善右旗| 山阳县| 延长县| 比如县| 永康市| 怀化市| 宝应县| 天水市| 汕尾市| 安西县| 高雄市| 吉水县|