在今日于武漢盛大舉行的百度Create開發(fā)者大會(huì)上,百度創(chuàng)始人兼首席執(zhí)行官李彥宏向業(yè)界揭開了兩款全新大模型的神秘面紗——文心大模型4.5 Turbo與文心大模型X1 Turbo。這一重大發(fā)布,標(biāo)志著百度在人工智能領(lǐng)域的又一里程碑式進(jìn)展。
李彥宏指出,當(dāng)前市場(chǎng)上諸如DeepSeek等模型雖備受矚目,但仍面臨模態(tài)局限、幻覺率高、運(yùn)行速度慢及成本高昂等挑戰(zhàn)。為應(yīng)對(duì)這些難題,百度精心打造了這兩款Turbo版大模型,旨在以更強(qiáng)大的性能滿足開發(fā)者需求。
在演講中,李彥宏分享了AI行業(yè)的最新動(dòng)態(tài),提到DeepSeek的崛起促使MCP(模型上下文協(xié)議)逐漸成為行業(yè)標(biāo)準(zhǔn),代碼智能體、通用智能體等多智能體協(xié)作產(chǎn)品也日益受到關(guān)注。然而,隨著模型迭代加速,開發(fā)者群體中也彌漫著焦慮情緒。他們擔(dān)心自己基于大模型開發(fā)的應(yīng)用迅速過時(shí),失去市場(chǎng)競(jìng)爭(zhēng)力。李彥宏坦言,這種擔(dān)憂并不無道理,因?yàn)榇竽P皖I(lǐng)域的競(jìng)爭(zhēng)異常激烈,幾乎每周都有新產(chǎn)品發(fā)布。
“開發(fā)者們正面臨一把雙刃劍?!崩顝┖陱?qiáng)調(diào),“一方面,他們需要緊跟技術(shù)趨勢(shì),避免陷入大模型發(fā)展的盲區(qū);另一方面,日益強(qiáng)大的模型能力也為開發(fā)者提供了更多選擇,關(guān)鍵在于找準(zhǔn)應(yīng)用場(chǎng)景,選擇合適的基礎(chǔ)模型?!彼M(jìn)一步指出,AI應(yīng)用才是創(chuàng)造真正價(jià)值的所在,沒有應(yīng)用,模型和芯片都將失去意義。
回顧李彥宏過往的言論,他曾多次批評(píng)中國(guó)大模型數(shù)量過多但使用量有限,認(rèn)為“百模大戰(zhàn)”是對(duì)社會(huì)資源的極大浪費(fèi),應(yīng)更多關(guān)注超級(jí)應(yīng)用的開發(fā)。他還指出,包括百度在內(nèi)的大公司在面對(duì)快速變化的市場(chǎng)時(shí)反應(yīng)遲鈍,生產(chǎn)力落后。對(duì)于開源與閉源模型的爭(zhēng)議,李彥宏態(tài)度鮮明,認(rèn)為開源模型在商業(yè)領(lǐng)域沒有優(yōu)勢(shì),閉源模型如ChatGPT和文心一言等更為強(qiáng)大且成本更低。
在此次大會(huì)上,李彥宏詳細(xì)介紹了全新發(fā)布的文心大模型4.5 Turbo和文心大模型X1 Turbo。相較于文心4.5,Turbo版在速度上有了顯著提升,價(jià)格更是下降了80%。具體而言,每百萬tokens的輸入價(jià)格僅為0.8元,輸出價(jià)格為3.2元,僅為DeepSeek-V3的40%。而文心大模型X1 Turbo的價(jià)格更為親民,輸入價(jià)格為1元/百萬tokens,輸出價(jià)格為4元/百萬tokens,僅為DeepSeek R1調(diào)用價(jià)格的25%。
百度還展示了基于昆侖芯三代P800的中國(guó)首個(gè)全自研3萬卡集群。李彥宏自豪地表示,該集群能夠同時(shí)承載多個(gè)千億參數(shù)大模型進(jìn)行全量訓(xùn)練,并支持1000個(gè)客戶進(jìn)行百億參數(shù)大模型的精調(diào)。
演講接近尾聲時(shí),李彥宏滿懷信心地表示:“現(xiàn)在,在中國(guó)開發(fā)應(yīng)用,我們有底氣。我堅(jiān)信,應(yīng)用創(chuàng)造未來,開發(fā)者創(chuàng)造未來?!边@一番話,無疑為在場(chǎng)的開發(fā)者們注入了強(qiáng)大的信心和動(dòng)力。