谷歌TPU正以全新姿態(tài)向英偉達(dá)的AI硬件霸主地位發(fā)起沖擊。隨著Gemini 3模型的成功,這款專為人工智能設(shè)計(jì)的芯片引發(fā)行業(yè)高度關(guān)注,資本市場(chǎng)也隨之波動(dòng)——谷歌股價(jià)的攀升讓"TPU能否挑戰(zhàn)英偉達(dá)GPU"的討論再度升溫。
科技研究機(jī)構(gòu)SemiAnalysis最新發(fā)布的深度分析指出,TPUv7標(biāo)志著谷歌首次向英偉達(dá)發(fā)起實(shí)質(zhì)性挑戰(zhàn)。這篇由12位作者聯(lián)合撰寫的報(bào)告顯示,谷歌已打破長(zhǎng)期內(nèi)部自用的傳統(tǒng),開始向Anthropic等外部客戶大規(guī)模供應(yīng)TPU硬件及算力服務(wù)。據(jù)披露,Anthropic部署的TPU集群規(guī)模已超過1GW,這成為TPU商業(yè)化進(jìn)程的重要里程碑。
在性能對(duì)比中,TPUv7雖在單芯片理論參數(shù)上未必超越英偉達(dá),但谷歌通過系統(tǒng)級(jí)工程創(chuàng)新實(shí)現(xiàn)了彎道超車。其自主研發(fā)的ICI互聯(lián)架構(gòu)與光路交換技術(shù),使實(shí)際模型算力利用率(MFU)達(dá)到行業(yè)領(lǐng)先水平。更關(guān)鍵的是,TPU系統(tǒng)的總體擁有成本(TCO)較英偉達(dá)GB200方案低30%-40%,這對(duì)成本敏感的大型AI實(shí)驗(yàn)室構(gòu)成強(qiáng)烈吸引。
軟件生態(tài)的突破成為另一關(guān)鍵戰(zhàn)場(chǎng)。谷歌正全力補(bǔ)強(qiáng)TPU的軟件短板,通過支持PyTorch原生環(huán)境和vLLM等開源框架,逐步瓦解英偉達(dá)CUDA生態(tài)的護(hù)城河。這種策略已顯現(xiàn)成效——OpenAI雖未實(shí)際部署TPU,但僅憑"可能轉(zhuǎn)向TPU"的談判籌碼,就從英偉達(dá)處獲得約30%的成本優(yōu)惠。
追溯發(fā)展歷程,谷歌的AI芯片戰(zhàn)略始于2006年的初步構(gòu)想,2013年正式立項(xiàng)研發(fā),2016年首款TPU投入生產(chǎn)。與亞馬遜同期啟動(dòng)的Nitro芯片計(jì)劃形成呼應(yīng),但谷歌直到近期才加速商業(yè)化進(jìn)程。這種遲來的轉(zhuǎn)型正收獲回報(bào):除Anthropic外,meta、xAI等企業(yè)均已成為TPU客戶,推動(dòng)谷歌市值逼近4萬(wàn)億美元關(guān)口。
面對(duì)挑戰(zhàn),英偉達(dá)采取雙重應(yīng)對(duì)策略。一方面通過官方渠道強(qiáng)調(diào)自身"領(lǐng)先一代"的技術(shù)優(yōu)勢(shì),宣稱其GPU在性能、通用性和可替代性方面仍具壓倒性優(yōu)勢(shì);另一方面被質(zhì)疑通過"循環(huán)經(jīng)濟(jì)"模式制造AI泡沫,即通過投資AI初創(chuàng)公司形成資金閉環(huán)。對(duì)此,分析人士認(rèn)為英偉達(dá)更可能通過股權(quán)投資而非降價(jià)來維護(hù)市場(chǎng)地位,避免毛利率下滑引發(fā)投資者恐慌。
技術(shù)細(xì)節(jié)對(duì)比顯示,TPUv7(Ironwood)在微架構(gòu)層面已接近英偉達(dá)Blackwell旗艦芯片。雖然谷歌在設(shè)計(jì)理念上長(zhǎng)期偏向保守,注重硬件可靠性和可用性,但最新兩代TPU顯著提升了算力規(guī)格。TPUv6的FLOPs性能已接近H100,TPUv7則進(jìn)一步縮小了與Blackwell在內(nèi)存帶寬等關(guān)鍵指標(biāo)上的差距,盡管上市時(shí)間落后約一年。
Anthropic的選擇頗具代表性。該機(jī)構(gòu)不僅看中TPU的單位算力成本優(yōu)勢(shì),更依賴其強(qiáng)大的工程團(tuán)隊(duì)開發(fā)自定義內(nèi)核,從而在模型FLOPs利用率(MFU)和每PFLOP成本等核心指標(biāo)上超越商用GPU方案。這種深度優(yōu)化能力,使得TPU在實(shí)際部署中展現(xiàn)出超越理論參數(shù)的競(jìng)爭(zhēng)力。
谷歌的軟件戰(zhàn)略轉(zhuǎn)型同樣值得關(guān)注。過去封閉的TPU生態(tài)正逐步開放:PyTorch原生支持項(xiàng)目獲得重點(diǎn)投入,vLLM推理框架的代碼貢獻(xiàn)量自3月起顯著增長(zhǎng),5月更推出官方統(tǒng)一后端。但分析指出,XLA編譯器等核心組件仍未開源,這在一定程度上制約了開發(fā)者生態(tài)的擴(kuò)張速度。











