美國(guó)AI芯片領(lǐng)域迎來(lái)一則重磅消息:AI芯片獨(dú)角獸企業(yè)Cerebras Systems宣布完成11億美元G輪融資,此次融資獲得超額認(rèn)購(gòu),投后估值高達(dá)81億美元。這筆資金將被用于擴(kuò)展前沿技術(shù)組合,在AI芯片設(shè)計(jì)、封裝、系統(tǒng)設(shè)計(jì)以及AI超級(jí)計(jì)算機(jī)領(lǐng)域持續(xù)創(chuàng)新,同時(shí)擴(kuò)大美國(guó)本土的制造能力和數(shù)據(jù)中心容量,以應(yīng)對(duì)市場(chǎng)對(duì)其產(chǎn)品和服務(wù)快速增長(zhǎng)的需求。
Cerebras Systems成立于2016年,自詡為“業(yè)界速度最快的AI基礎(chǔ)設(shè)施制造商”和“全球最快的推理提供商”。其核心產(chǎn)品晶圓級(jí)引擎3(WSE-3)堪稱全球最大的AI芯片,采用5nm制程工藝,面積達(dá)46225平方毫米,集成4萬(wàn)億顆晶體管,通過(guò)90萬(wàn)個(gè)AI優(yōu)化核心提供125PFLOPS的AI算力。與英偉達(dá)B200相比,其晶體管數(shù)量是后者的19倍,AI算力更是達(dá)到28倍。
在內(nèi)存性能方面,WSE-3同樣表現(xiàn)卓越。它配備44GB片上SRAM,內(nèi)存帶寬高達(dá)21PB/s,徹底消除了傳統(tǒng)架構(gòu)的內(nèi)存瓶頸。其晶圓級(jí)結(jié)構(gòu)提供每秒27PB/s的內(nèi)部帶寬,是新一代NVLink帶寬的206倍。這種設(shè)計(jì)使得晶圓級(jí)引擎可相互連接,擴(kuò)展至2048個(gè)系統(tǒng),總AI算力達(dá)256EFLOPS。通過(guò)權(quán)重流編程模型,AI開(kāi)發(fā)者能夠訓(xùn)練擁有24萬(wàn)億個(gè)參數(shù)的模型,無(wú)需面對(duì)多GPU編排和并行化策略的復(fù)雜挑戰(zhàn)。
自2024年底推出推理服務(wù)以來(lái),Cerebras的發(fā)展勢(shì)頭迅猛。其運(yùn)行開(kāi)源和閉源模型的速度通常比英偉達(dá)GPU快20倍以上。第三方獨(dú)立基準(zhǔn)測(cè)試公司Artificial Analysis的測(cè)試結(jié)果顯示,在正面比較中,Cerebras在每個(gè)領(lǐng)先的開(kāi)源模型上的表現(xiàn)均比英偉達(dá)GPU高出幾個(gè)數(shù)量級(jí)。該公司CEO Micah Hill-Smith表示:“自成立以來(lái),我們已經(jīng)在數(shù)百種模型中測(cè)試了每個(gè)AI推理提供商。Cerebras始終是最快的。”
目前,Cerebras每月在其自有云平臺(tái)、客戶本地以及合作伙伴平臺(tái)上提供數(shù)萬(wàn)億個(gè)token的服務(wù)。2025年,其客戶群體進(jìn)一步擴(kuò)大,涵蓋AWS、meta、IBM、Mistral、Cognition、AlphaSense、Notion等數(shù)百家AI企業(yè),同時(shí)吸引了許多個(gè)人開(kāi)發(fā)者。在全球最大的AI開(kāi)源平臺(tái)Hugging Face上,Cerebras已成為排名第一的推理提供商,每月處理超過(guò)500萬(wàn)個(gè)請(qǐng)求。











