在AI競技場上,一款名為Kimi K2的開源模型近日掀起了一場不小的風波。據最新消息,Kimi K2在激烈的競爭中脫穎而出,成功超越了DeepSeek,榮登全球開源模型榜首,同時躋身總榜第五,與馬斯克旗下的頂尖閉源模型Grok 4并駕齊驅。
這一消息迅速在國際網絡上引發熱議,評論區瞬間變成了贊美與打卡的海洋。網友們紛紛對Kimi K2的出色表現表示驚嘆,并對其未來的發展寄予厚望。而競技場也適時更新了Kimi K2的排名情況,讓這一壯舉得以正式確認。
Kimi K2不僅在綜合排名上表現出色,其在各項單項能力上同樣不容小覷。在多輪對話能力測試中,它與一眾閉源模型平分秋色,并列第一;在編程能力上,它緊隨GPT 4.5和Grok 4之后,位居第二;在應對復雜提示詞的能力上,它也展現出強大的實力,與o3、4o等模型處于同一梯隊。
值得注意的是,Kimi K2并非孤軍奮戰。在總榜TOP 10中,另外一款來自中國的開源模型DeepSeek R1也占據了一席之地,位列第八。這兩款國產開源模型的崛起,無疑為全球AI領域注入了新的活力。
Kimi K2的熱度在過去一周內持續攀升。據公開數據顯示,該模型在GitHub上獲得了5.6K的標星,在Hugging Face平臺上的下載量更是接近10萬。AI搜索引擎明星創企Perplexity的CEO也親自為Kimi K2站臺,并透露該模型在內部評估中表現出色,Perplexity計劃基于K2模型進行后續訓練。
然而,隨著Kimi K2的走紅,關于其是否采用了DeepSeek V3架構的質疑聲也隨之而來。對此,Kimi團隊成員給出了明確回應。他們表示,Kimi K2確實繼承了DeepSeek V3的架構,但在此基礎上進行了一系列參數調整,以更好地適應自身需求。
具體來說,Kimi K2在結構參數上進行了四點改動:增加了專家數量,以在激活參數量不變的情況下降低loss;將注意力頭head數減半,以節省成本;只保留第一層的Dense結構,其余層均采用MoE結構,對推理幾乎無影響;專家無分組,通過自由路由和動態重排來應對負載不均衡問題,同時提高模型的靈活性和能力。
經過這些調整,Kimi K2在相同專家數量下,雖然總參數增大到1.5倍,但理論上的prefill和decode耗時都更小。即使考慮與通信overlap等復雜因素,這一方案也不會比V3有顯著的成本增加??梢哉f,這是一種既精打細算又高效的結構調優。
隨著Kimi K2的崛起,開源模型與閉源模型之間的界限變得越來越模糊。以往,“開源=性能弱”的刻板印象正在被打破。如今,開源模型在榜單上的整體排名不斷上升,與閉源模型的分數差距也越來越小。在TOP 10榜單中,開源模型和閉源模型的總分均超過了1400分,幾乎站在了同一起跑線上。
而Kimi K2作為開源模型的佼佼者,其總分已經非常接近Grok 4、GPT 4.5等頂尖閉源模型。這一趨勢表明,隨著開源力量的不斷崛起,我們或許將不再需要在模型能力和成本之間做出取舍。越來越多的行業人士也開始認同這一觀點,認為開源模型將在全球AI能力的擴散中扮演越來越重要的角色。