Copyright 2012-2025 家電庫 版權所有 京ICP備20132067號-1
在最近 AI 領域內,智能體(Agent)的研究和應用越來越多,原生多智能體工作的基礎模型也已開始出現。
作為一個能夠推理、規劃和行動的系統,智能體正逐漸成為現實世界人工智能應用的常見范式。從編程助手到私人健康教練,AI 應用正從單次問答轉向持續的多步驟交互。盡管研究人員長期以來一直利用既定指標來優化傳統機器學習模型的準確性,但 AI 智能體引入了新的復雜性。
與孤立的預測不同,AI 智能體必須應對持續的多步驟交互,其中單個錯誤可能會在整個工作流程中引發連鎖反應。這種轉變促使我們超越標準的準確性進行思考:究竟該如何設計這些系統才能實現最佳性能?
在實踐上,我們常常依賴啟發式方法,例如「智能體越多越好」的假設,認為增加專業智能體就能持續提升結果。論文《More Agents Is All You Need》指出,大語言模型(LLM)的性能會隨著智能體數量的增加而提升,而《Scaling Large Language Model-based Multi-Agent Collaboration》發現,多智能體協作「…… 通常通過集體推理超越單個智能體的性能」。
在 Google DeepMind 的新論文中,研究人員對這一假設提出了挑戰。通過對 180 種智能體配置進行大規模受控評估,DeepMind 推導出了智能體系統的首個定量規模化原則,揭示了「增加智能體數量」的方法往往會遇到瓶頸,如果與任務的具體屬性不匹配,甚至會降低性能。
