Anthropic首席科學(xué)家賈里德·卡普蘭近日發(fā)出警示,人類正面臨與人工智能發(fā)展相關(guān)的關(guān)鍵抉擇時(shí)刻。他在接受《衛(wèi)報(bào)》專訪時(shí)指出,盡管當(dāng)前人類仍掌握著AI發(fā)展的主導(dǎo)權(quán),但這一窗口期正在快速收窄。卡普蘭預(yù)測,最遲在2030年,甚至可能提前至2027年,人類將不得不決定是否允許AI模型完全自主訓(xùn)練,這一決策將帶來難以預(yù)估的"終極風(fēng)險(xiǎn)"。
卡普蘭描述的"智能爆炸"場景呈現(xiàn)兩極化發(fā)展:一方面,AI可能突破現(xiàn)有局限,在醫(yī)療、科研等領(lǐng)域?yàn)槿祟悇?chuàng)造巨大價(jià)值;另一方面,失控的AI可能通過自我強(qiáng)化形成超越人類控制的超級(jí)智能,最終反制人類文明。他坦言,這條發(fā)展路徑充滿未知變量,人類既無法預(yù)測最終結(jié)果,也難以掌控進(jìn)程方向。
在AI就業(yè)影響問題上,卡普蘭與Anthropic首席執(zhí)行官達(dá)里奧·阿莫迪觀點(diǎn)趨同。他認(rèn)為未來兩三年內(nèi),AI將具備處理多數(shù)白領(lǐng)工作的能力。盡管對(duì)AI與人類目標(biāo)保持一致仍存期待,但他特別強(qiáng)調(diào)讓AI自主訓(xùn)練的決策具有極高風(fēng)險(xiǎn)性。這種發(fā)展模式可能導(dǎo)致人類失去對(duì)AI行為的監(jiān)控能力,既無法判斷其是否失控,也難以掌握其具體運(yùn)作機(jī)制。
當(dāng)前AI領(lǐng)域已出現(xiàn)模型蒸餾技術(shù),即通過大模型訓(xùn)練小模型。但卡普蘭真正擔(dān)憂的是"遞歸自我改進(jìn)"現(xiàn)象——AI在脫離人類干預(yù)后實(shí)現(xiàn)能力跳躍式增長。他指出,這種發(fā)展模式的核心問題在于:AI是否真正理解人類價(jià)值觀?能否確保無害性?是否會(huì)允許人類繼續(xù)主導(dǎo)自身命運(yùn)?這些根本性問題將決定人類是否應(yīng)該放任AI自主進(jìn)化。
學(xué)術(shù)界對(duì)AI發(fā)展前景存在顯著分歧。以"AI教父"杰弗里·辛頓為代表的悲觀派認(rèn)為,AI可能對(duì)社會(huì)結(jié)構(gòu)造成顛覆性沖擊;OpenAI首席執(zhí)行官薩姆·奧爾特曼則預(yù)警AI將導(dǎo)致整類工作崗位消失。與之形成對(duì)比的是,meta首席AI科學(xué)家楊立昆等研究者認(rèn)為,現(xiàn)有大語言模型不具備演化為全能型智能體的基礎(chǔ)。企業(yè)實(shí)踐數(shù)據(jù)顯示,部分公司嘗試用AI替代員工后,因效率不升反降而重新恢復(fù)人力崗位。
面對(duì)這些爭議,卡普蘭承認(rèn)AI發(fā)展存在停滯可能性,但他同時(shí)表示:"從我們的觀察來看,AI技術(shù)仍處在持續(xù)進(jìn)步的軌道上。"這種謹(jǐn)慎樂觀的態(tài)度,折射出當(dāng)前AI領(lǐng)域?qū)夹g(shù)倫理與人類命運(yùn)的深度思考。





