第三节|最强模型?不如最会协作的组合
对话中,一个不太被外界注意的高频词是:Orchestration(编排)。
扎克伯格说:“第一代AI产品,是一个模型对应一个任务;但现在,我们进入了多模型协作的阶段。”
纳德拉补充:“你不再需要一个超级模型什么都做,而是多个专业模型互相交谈,各自完成子任务。”
这不是术语上的精细化,而是下一代AI平台的根本分歧:
第一代:以模型为中心,“一个大脑搞定一切”
第二代:以编排为中心,“多个模型各司其职”
多模型系统,才是真正的“代理操作系统”
过去我们理解的AI应用,往往是ChatGPT/DeepSeek那样的“一问一答”,本质上是封装了一个通用模型的接口。而在这场对话中,扎克伯格与纳德拉给出了另一个未来蓝图:每个 AI 应用都将是一个‘编排系统’:前台看起来是一个对话界面,后台是多个模型在默默协作。
纳德拉举了微软最新在做的一件事:将 Copilot 从一个“代码生成器”升级为“任务编排器”:
— 模型A负责理解意图;
— 模型B负责数据检索与结构化;
— 模型C负责编码实现;
— 然后调用安全模型验证结果,最后通过API调用部署。
扎克伯格也提到 Meta 内部的“蒸馏工厂”实验—— 他们已经不再试图把所有智能压缩进一个庞大模型,而是通过多个模块化模型协作,以实现更高效的部署和控制。
简单说,我们不是在构建一个 AI,而是在构建一个 AI 联盟。
MCP、A2、LoRA……是下一代开发者的新“语法”
为了支撑这种多模型结构,背后需要的是新一代的协议层与调用结构。
在这场对话中,纳德拉重点提到了两项:
— MCP(Multi-agent Coordination Protocol): 用于调度多个模型之间的对话、数据传递与任务分发;
— A2协议(Agent to Agent): 定义模型如何互相调用、响应、确认结果,避免“任务断层”或“认知冲突”。
这类协议,就像早期的 HTTP 之于网页浏览,正在成为AI 世界的基础设施语言。
只是我们所有人才刚刚进入这个阶段,就像1996年的网络协议一样,没人看得懂,但它正在搭平台。
这意味着未来的开发者,不再需要自己训练一个万能模型,而是需要懂得如何编排多个开源、闭源、专用模型协作,完成更复杂、更真实的任务。
模型之间,正在建立“角色分工”和“对话能力”
扎克伯格透露,在 Meta 的 Llama 系列模型内部,正在尝试一个实验性架构:让多个模型扮演不同的“角色”——有的负责推理,有的负责判断,有的负责生成;
然后在一个统一调度环境中,通过“角色分工”完成复杂决策。
“AI 不只是会说话,更要能开会。” ——Mark Zuckerberg
他补充说,这种结构与人类组织高度相似:有人提议,有人执行,有人校验,有人负责善后,而当前多模型 AI 正在接近这种“系统性思维”的早期雏形。
模型调度,将成为新平台战争的关键变量
在这场技术路线对比中,两位 CEO 的判断惊人一致:未来不属于拥有最大模型的公司,而属于能最优调用多个模型的公司。
这背后的转变逻辑是:
— 模型参数规模,正在趋于边际收益递减;
— 编排能力,才决定真正的落地效率、成本控制与安全治理;
— 而“会调度”本身,就是新的竞争力。
换句话说,AI世界将不再有一个“最强模型”,而将出现“最强组合”。