SCALING LARGE LANGUAGE MODEL-BASED MULTI-AGENT COLLABORATION
基本信息 标题: Scaling Large Language Model-Based Multi-Agent Collaboration 作者: Chen Qian*, Zihao Xie*, YiFei Wang* 等(Zhiyuan Liu 与 Maosong Sun 为通讯作者) 作者单位: Tsinghua University (清华大学), Peng Cheng Laboratory 期刊/会议: ICLR 2025 发表年份: 2025.03.17 DOI: 2406.07155 开源地址: Github 关键词: Multi-Agent Collaboration, Scaling Law, MACNET, Directed Acyclic Graphs 研究问题 (Research Questions) 受到“神经缩放定律(Neural Scaling Law)”的启发,探究在推理阶段不断增加智能体(Agent)的数量,是否也能像增加神经元那样,带来性能的持续提升? 研究背景 (Background) 神经缩放定律出自OpenAI 2020年发表的一篇论文《Scaling Laws for Neural Language Models》,提出了一个规律:随着模型变大、数据更多、算力更强,模型的Loss会按照幂律下降。而现在单个模型在进行封闭式推理时有局限性,特别是面对那些超出其文本训练边界的复杂情况时 。而且,它们往往是“快思考”(直觉反应),缺乏深度反思。多智能体协作被证明通常优于单个智能体,通过让智能体在互动环境中进行多轮对话,实际上是迫使它们进行“慢思考” (Slow Thinking),也就是不断地反思和修正。虽然大家都知道多智能体好,但目前的绝大多数研究,智能体数量都非常少(通常少于10个,极少数能达到几十个)。 核心贡献 (Key Contributions) 提出了MACNET框架(Multi-Agent Collaboration Network),一个基于有向无环图 (DAG) 的多智能体协作框架,专门用于组织和编排大量的智能体进行任务求解。它将智能体分为两类:节点上的 Actor (执行者) 负责生成内容,边上的 Critic (批评者) 负责提供修改建议,通过这种分工实现高效协作。 发现了“协作缩放定律” (Collaborative Scaling Law),类似于神经网络的缩放定律,作者发现随着智能体数量的增加,任务完成质量呈现Logistic增长(S形曲线)。这证明了在推理阶段增加智能体数量(Scale up)是提升性能的一条有效路径,而且这种“协作涌现”比传统的神经元涌现发生得更早(不需要达到亿级参数那种规模)。 论文对比了链式、树状、网状等多种结构,发现 不规则的拓扑结构(如随机连接) 往往比规则结构(如全连接网状)效果更好。这是因为随机连接能像“小世界网络”一样,在保持高效沟通的同时,避免信息过载。 为了防止 1000 个智能体聊天导致上下文过长,作者设计了一种记忆控制机制:智能体之间只传递最终的“产物 (Artifact)”,而不传递之前的对话历史。这使得上下文长度的增长从平方级 $O(n^2)$ 降低到了线性级 $O(n)$,从而真正实现了大规模扩展。 MULTI-AGENT COLLABORATION NETWORK(MACNET) Network Construction 作者借鉴了图的概念,使用了有向无环图的定义...