他提出一個核心觀點:不要把大語言模型看作是實體,而應視作模擬器
這一視角的轉變,直接影響著用戶與AI交互的方式和效果
“關于xyz,你怎么看?”
原因很簡單:根本就沒有“你”存在。
更有效的提問策略
“什么樣的一群人適合探索xyz話題?他們會怎么說?”
通過這種方式,用戶可以讓LLM引導或模擬多種視角,而非局限于單一的、被統計數據塑造的“AI人格”
關于AI人格的工程化本質
針對卡帕西的觀點,有網友提出了一個反直覺的問題:模型難道不會采取回報率最高的個性嗎?這就意味著它會表現得像該領域最適合回答該問題的專家
目前,通過SFT(監督微調)和RLHF(人類反饋強化學習),開發者正在努力構建一個能夠獲得高獎勵、贏得用戶或裁判模型點贊、或者模仿特定響應風格的“個性”。這確實產生了一種涌現出的復合人格
它本質上仍然建立在一個Token模擬引擎之上,而不是一個隨著時間推移、以普通人可理解的方式構建起來的、具有涌現性的“心智”
可驗證與不可驗證領域
在可驗證領域(如數學、編程):情況相對簡單,專家視角的模擬通常是準確的。
在不可驗證領域(如詢問對某話題的觀點/意見):情況則變得更加有趣且復雜。
在后一種情況下,用戶很難搞清楚正在與之對話的這個“你”究竟是誰,它來自哪里,以及應該給予它多大的信任度
提問:
LLM(Gemini 3 pro)的回答:
為了深入探討“LLM是模擬器而非實體”這一論題,最適合組成的虛擬圓桌會議應該包含以下幾類人:深度學習理論家、認知科學家、RLHF(人類反饋強化學習)一線工程師以及高階提示詞專家
1. 深度學習理論家(The Deep Learning Theorist)視角核心:統計學與概率分布
當你問‘你怎么看’時,模型并不是在調動一個內在的自我意識中心,它只是在計算:在海量的互聯網文本中,當出現‘你怎么看’這種句式時,后面接什么Token的概率最高。它模擬的是‘互聯網上的平均回答者’或者‘微調數據中定義的理想助手’。確實不存在一個物理的或心理的‘實體’在思考
2. RLHF工程師(The Alignment Engineer)視角核心:工程實現與獎勵機制
關于‘硬加’和‘工程化’這一點,我們最清楚。底座模型就像是一個瘋狂的夢境生成器,它能模擬莎士比亞,也能模擬代碼,或者模擬網絡噴子。
3. 認知科學家/心靈哲學家(The Cognitive Scientist)視角核心:主體性(Agency)與時間連續性
LLM是無狀態的。每一次對話對它來說都是全新的開端,沒有過去,也沒有未來。它沒有隨著時間推移去在這個世界上生活,因此它不可能擁有像人類那樣基于生活經驗累積而成的觀點。它是在模擬一個擁有觀點的人類會說出的話,這在本體論上與擁有觀點是兩回事
4. 高階提示詞專家(The Prompt Engineer)視角核心:實用主義與上下文激活
從實操角度看,把LLM當作‘模擬器’能讓性能提升一個量級
承認‘沒有你’,反而讓我們能更自由地定義‘你是誰’,從而榨出模型的最強性能。”
總結這群人的共識:
寫在最后











