12月2日消息,位于美國的AI初創公司Arcee AI今天宣布推出Trinity系列的前兩款模型——Trinity Mini與Trinity Nano Preview。它們均為開源權重Mixture-of-Experts(MoE)架構模型,在美國本土基礎設施從零開始訓練,并采用企業友好的Apache 2.0協議。
開發者可立即通過Hugging Face、chat.arcee.ai和OpenRouter獲取模型權重、部署或修改,并支持商業使用、微調和自托管。
Arcee 的 CTO Lucas Atkins坦言:“我們想補齊美國開源AI版圖中缺失的那一塊。”
2025年,阿里千問、DeepSeek等中國公司接管了開源權重前沿,推出多個大規模MoE模型。
而Arcee這次選擇了從底層重構路線:流程全線自主,開展完整預訓練,以長上下文、推理性能和本地化企業部署為核心目標,嘗試追趕中國的步伐。
Trinity Mini為26B參數MoE模型,Trinity Nano為6B模型。盡管規模不及OpenAI、Qwen或DeepSeek的旗艦版本,但基準測試顯示,它們在推理與函數調用能力上表現接近甚至超過更大的同類開源模型。其第三款模型 Trinity Large(420B參數)已在訓練中,預計2026年1月發布。
Arcee為Trinity打造了新的Attention-First Mixture-of-Experts(AFMoE)架構,通過改進路由機制、注意力分配以及稀疏化方式,實現了模型穩定性與吞吐效率的平衡:
128 Experts,8 active per token
131K上下文窗口支持
200+ tokens/s實時生成速度
sub-3s端到端響應延遲
官方稱,Trinity Mini在MMLU Zero-shot、BFCL V3等測試中表現強勁,能夠為企業級工具調用、代碼與數學推理場景提供支持。
Arcee AI 的數據與訓練基礎設施來自兩個關鍵合作伙伴:
DatologyAI:負責構建10T高質量訓練語料,以及Trinity Large的20T數據集(合成 + web精篩)
Prime Intellect:提供美國境內GPU集群與訓練堆棧,包括512 H200和2048 B300集群
與許多開源模型依托海外資源訓練不同,Trinity強調的是本地算力、本地數據和可審計的供應鏈。Arcee認為下一代企業AI不只是模型性能競賽,而是模型主權(Model Sovereignty),即擁有訓練流程與數據;可審計、可控制、可本地部署;不依賴閉源生態與海外供應鏈,這與傳統“基于別人的基礎模型做微調”的方式形成了鮮明對比。
Trinity Large將于明年1月上線,一旦成功,它將成為少數真正全棧美國本土訓練的開源權重超大模型之一,或將給千問,DeepSeek等公司帶來壓力。(鞭牛士、AI普瑞斯編譯)











