第四节|开源不是免费,而是可控

扎克伯格在LlamaCon上说了一句意味深长的话:“Llama最大的意义,不是开源本身,而是它能被蒸馏,被适配,被每个开发者‘驯化’成自己的AI。”

这是他在对话中反复强调的一点:真正让开源模型变得强大的,不是自由下载的权利,而是它的可定制性、可嵌入性,以及可调教性。

蒸馏工厂”不是比喻,而是AI工程体系的范式革命

扎克伯格首次系统性地解释了Meta内部的“蒸馏工厂”概念:
— 起点是一个多模态大型模型(如Behemoth、Maverick);
— 经过预训练与后训练,提取出稳定结构;
— 再通过多轮蒸馏,生成不同规模、不同用途、不同架构的模型;
— 最终形态,是适配各种环境(移动端、边缘设备、本地企业服务)的轻量模型。

换句话说,他们不是拿着一个几千亿参数的模型去解决所有问题,而是把它拆成一系列能落地的小模型。

这不是“弱化模型”,而是“结构重构”。

Meta 的目标,不是让 Llama 变成一个新神,而是让它变成千千万万用户手中“自己的助手”。

微软的定位:为蒸馏生态提供“工厂级基础设施”

纳德拉对此表示高度认同。他指出,Azure 正在做的一件重要工作,就是把“蒸馏”变成一种平台能力:“你可以在 Azure 上选择一个基础模型,然后一键生成自己的版本;加上你的数据、你的任务、你的指令集,生成一个属于你的 LLM Agent。”

他甚至提出了一个场景:“未来 Microsoft 365 的每个企业用户,都能在后台部署自己的蒸馏模型,让它服务特定场景,甚至变成内部 Copilot 系统的子模块。”

在他看来,开源模型的优势不是“共享”,而是“分布”。

真正有生命力的,是那些可以被用户用低成本、高定制方式进行再训练、再部署的模型。

这就是“驯化”的真正含义。

闭源的性能封顶,开源的结构红利刚开始

过去几年,闭源模型的强势,一度让人以为“AI壁垒=参数规模”。但正如这场对谈所揭示的,结构红利和生态适配力,才是AI落地的决定因素。

扎克伯格指出:“我们已经不把模型的‘大’当作评估标准,而是看它能否快速蒸馏、部署、调用。”

Meta 内部的“小 Llama”项目,正是围绕这一战略展开:
— 在保持一定能力的前提下,压缩模型尺寸;
— 降低推理成本,让其运行于消费级设备或小型企业服务器;
— 让未来的开发者,不必再依赖“云端调用”,而能本地构建自己的 AI 助手。

真正的“开源优势”:不靠发布,而靠组合

纳德拉一语中的:“开源模型的真正价值,不在于你能不能下下来,而在于你能不能调起来。”

他强调,Azure 的价值主张不是对抗封闭模型,而是为开源生态提供调度基础设施和工具链支持:
— 用最强的 GPU 集群,支持模型训练;
— 提供模块化模型注册、推理路由、Agent API 等中间件服务;
— 支持用户自建蒸馏工厂,也支持低代码/无代码平台进行调用。

他总结说:“我们过去构建的是操作系统、浏览器、办公套件;现在我们要构建的是:模型工厂、代理调度层、任务执行链。”

    

    © 2025 加国生活网life416