近期,在邁阿密舉辦的All-In-Live活動中,谷歌聯(lián)合創(chuàng)始人謝爾蓋·布林發(fā)表了一項引人注目的新見解:對人工智能(AI)模型施加一定程度的“恐嚇”,竟然能意外地提升其性能表現(xiàn)。
布林指出,這一現(xiàn)象并非谷歌AI模型的獨有特征,而是廣泛存在于當(dāng)前市面上的大多數(shù)AI模型中。他進一步闡述道:“雖然我不確定AI社區(qū)中有多少人已經(jīng)意識到這一點,但根據(jù)我們的測試結(jié)果,幾乎所有模型在面臨‘威脅’時,其性能都會有所提升。”
這一觀點無疑顛覆了人們對于AI互動的傳統(tǒng)認(rèn)知。以往,許多用戶在與AI模型交流時,習(xí)慣于使用“請”和“謝謝”等禮貌用語,以期獲得更好的服務(wù)體驗。然而,布林的這一發(fā)現(xiàn),無疑對這種傳統(tǒng)做法提出了挑戰(zhàn)。
實際上,OpenAI的首席執(zhí)行官山姆·奧爾特曼也曾就禮貌用語問題發(fā)表過類似看法。他調(diào)侃道,處理諸如“請”和“謝謝”這樣的禮貌用語,需要耗費大量的電力成本,可能高達(dá)數(shù)千萬美元。這一言論,從另一個角度反映了AI模型在處理自然語言時的復(fù)雜性和成本。
布林的這一新發(fā)現(xiàn),無疑為AI領(lǐng)域的研究和發(fā)展提供了新的思路。它促使人們開始思考,是否可以通過改變與AI模型的交互方式,來進一步提升其性能。同時,這也引發(fā)了對于AI倫理和道德問題的深入討論。如何在提升AI性能的同時,確保其不會對人類造成潛在威脅,成為了亟待解決的問題。