近期,一場圍繞AI代理上下文管理的深度討論引發業界關注。LangChain創始工程師Lance Martin與Manus聯合創始人季逸超(入選《麻省理工科技評論》2025年度35歲以下創新者榜單)共同解析了生產環境中AI代理的性能優化策略,揭示了通過上下文工程實現智能體高效運行的核心方法。
隨著AI代理從簡單對話向復雜任務執行演進,上下文窗口膨脹問題日益凸顯。Manus團隊實測顯示,典型任務需調用50次以上工具,而Anthropic研究指出生產環境對話輪次可達數百輪。這種"上下文爆炸"直接導致模型性能衰減,Chrome團隊報告明確指出長上下文會引發"上下文腐爛"現象,形成功能增強與性能衰減的核心矛盾。
針對這一挑戰,行業形成了五大技術支柱:上下文卸載通過將完整信息存入外部系統僅保留引用;上下文精簡采用壓縮與總結雙軌策略;上下文檢索實現按需信息調取;上下文隔離通過子代理分解任務;上下文緩存提升信息復用效率。這些策略共同構建起現代AI代理的架構基礎。
在技術路徑選擇上,季逸超基于十年NLP領域經驗提出顛覆性觀點:初創企業應優先發展上下文工程而非過早投入模型專業化。他以Manus發展歷程為例,指出專用模型開發會導致三大風險:產品迭代被模型訓練周期束縛、優化目標與商業價值錯位、技術顛覆風險承受力脆弱。MCP協議發布事件印證了這一判斷,開放域系統的靈活性遠超靜態模型架構。
上下文精簡實踐中,Manus開發出壓縮-總結聯動機制。壓縮操作通過剝離可重建信息實現"可逆瘦身",例如工具調用結果僅保留路徑參數而移除內容字段。當壓縮無法控制上下文規模時,結構化總結作為終極手段登場,采用預定義模式確保關鍵信息留存。該團隊設計的閾值觸發流程,在128K-200K token的預腐爛區間自動啟動優化,平衡信息完整性與處理效率。
面對超復雜任務,上下文隔離策略衍生出兩種協作模式。通信模式通過主子代理指令傳遞實現嚴格隔離,適用于代碼搜索等明確任務;共享模式允許子代理訪問完整歷史上下文,在深度研究等場景中保證信息連貫性。Manus創新采用共享沙箱與模式約束技術,通過文件系統傳遞路徑信息,用輸出模式確保子代理結果規范。
工具管理層面,Manus提出分層行動空間架構破解"上下文混淆"難題。底層固定10-20個原子函數,中層通過Shell調用預裝工具集,高層支持腳本編寫調用API。這種設計使模型始終面對穩定接口,預裝的200余個Linux命令行工具可處理GB級數據,僅返回結構化摘要至上下文窗口。
在工程哲學層面,季逸超強調"少即是多"的設計原則。Manus實踐表明,性能飛躍往往來自架構簡化而非功能疊加。具體實施中,用戶評分作為核心評估指標,配合內部執行任務數據集和人工評審,形成多維評測體系。模型選擇上,旗艦模型的KV緩存優勢在長上下文場景中凸顯,而功能型代理劃分比角色模擬更具擴展性。
針對工具調用優化,Manus團隊警示慎用強化學習。在開放行動空間場景下,RL實現難度堪比基礎模型訓練,當前階段應用層應專注上下文管理。其規劃者Agent取代傳統todo.md文件的實踐顯示,專用智能體可降低60%的上下文開銷。











