近期,科技領域傳來一則引人深思的報道,指出以Perplexity為代表的先進AI搜索工具在初期展現出了超越傳統搜索引擎如谷歌的潛力,其搜索結果的精確度一度備受贊譽。然而,隨著時間的推移,這些AI搜索工具的表現卻出現了令人擔憂的下滑趨勢。
這一問題并非僅限于Perplexity,主流AI搜索工具普遍存在類似問題,搜索結果中夾雜著“可疑”信息。這引發了業界對AI搜索質量下降的廣泛關注。據報道,AI搜索質量下滑的根源在于“模型崩潰”現象,即AI系統在依賴自身輸出進行訓練的過程中,逐漸喪失了準確性、多樣性和可靠性。
導致模型崩潰的主要因素包括錯誤累積、稀有數據丟失以及反饋循環。錯誤累積使得每一代AI模型都會繼承并放大前代的缺陷;稀有數據的丟失則導致罕見事件和概念在模型中逐漸模糊;而反饋循環則強化了狹窄的模式,使得AI的輸出內容趨于重復或帶有偏見。
為了提升AI的表現,業界廣泛采用了檢索增強生成(RAG)技術,通過讓大型語言模型(LLMs)從外部數據庫提取信息,以減少“幻覺”現象的發生。然而,即便是采用了RAG技術的AI模型,在處理有害提示時仍可能輸出錯誤結果。據彭博社研究,包括GPT-4o、Claude-3.5-Sonnet等在內的11個領先模型在處理5000多個有害提示時,均出現了錯誤輸出。
更令人擔憂的是,RAG技術的引入還增加了泄露客戶隱私數據、生成誤導性市場分析及偏見投資建議的風險。這一發現無疑給AI搜索工具的發展蒙上了一層陰影。
隨著AI模型崩潰現象的加速顯現,用戶和企業越來越傾向于依賴AI生成內容,而非投入人力創作高質量內容。從學生作業到科研論文,甚至虛構小說的創作,AI的“垃圾輸入、垃圾輸出”(GIGO)現象無處不在,這無疑對信息的真實性和可靠性構成了嚴峻挑戰。