撰文:Ada,Deep Tide TechFlow
庞若明在 Meta 工作站都还没坐热,就离开了。

2025年7月,扎克伯格用一份总价值超过2亿美元的多年薪酬方案,从苹果挖来了这位 AI 基础设施领域最炙手可热的华人工程师。庞若明被安排到 Meta 超级智能实验室,负责构建下一代 AI 模型的基础设施。
七个月后,OpenAI 把他挖走了。
根据 The Information 报道,OpenAI 对庞若明发起了长达数月的招募攻势。尽管庞若明曾告诉同事自己"在 Meta 工作非常愉快",但他最终还是选择了离开。彭博社报道称,他在 Meta 的薪酬方案与里程碑挂钩,提前离职意味着放弃大部分未兑现的股票期权。
2亿美元,买不到七个月的忠诚。
这不是一个简单的跳槽故事。
庞若明不是第一个离开的人。
上周,Meta 超级智能实验室开发者平台产品负责人 Mat Velloso 也宣布离职。他去年7月从 Google DeepMind 加入 Meta,待了不到八个月。再往前推,2025年11月,在 Meta 工作12年的图灵奖得主、首席 AI 科学家 Yann LeCun 宣布离职创业,研究他长期倡导的"世界模型"。Geoffrey Hinton 的得意门生、Meta 生成式 AI 研究副总裁 Russ Salakhutdinov 最近也宣布离职。
要理解 Meta AI 的人才流失,必须先理解 Llama 4 到底有多致命。
2025年4月,Meta 高调发布了 Llama 4 系列的 Scout 和 Maverick 模型。官方数据非常亮眼,声称在 MATH-500、GPQA Diamond 等核心基准测试中全面超越 GPT-4.5 和 Claude Sonnet 3.7。
然而,这个承载 Meta 野心的旗舰模型,很快在开源社区第三方机构的独立盲测中露出了原形,实际的泛化能力和推理能力远不及宣传的性能。面对社区的强烈质疑,首席 AI 科学家 Yann LeCun 最终承认,团队"在测试阶段使用不同的模型版本运行不同的测试集,以优化最终分数"。
在严谨的 AI 学术界和工程界,这触碰了一条不可原谅的红线。换句话说,团队把 Llama 4 训练成了一个只会做往年考题的"小镇做题家",而不是一个真正具备前沿智能的"尖子生"。就像给你看一张数学考卷和一张编程考卷——每份单独测试看起来都很强,但它们实际上不是同一个模型。
在 AI 学术界,这叫"cherry picking"(挑选数据),在应试教育里,这叫"替考"。
对于一直标榜自己是"开源灯塔"的 Meta 来说,这场风波直接摧毁了它在开发者生态中最宝贵的信任资产。它的直接代价是,扎克伯格"彻底失去了信心"对原 GenAI 团队工程基础的信任,从而为后续的高层空降和核心基础设施部门边缘化埋下了伏笔。
他花费143亿至150亿美元收购了数据标注公司 Scale AI 49% 的股份,将28岁的 Scale AI CEO Alexandr Wang 空降为 Meta 首席 AI 官,并成立 Meta 超级智能实验室(MSL)。图灵奖得主 LeCun 在新架构中需要向这位28岁的年轻人汇报。10月,Meta 在 MSL 裁员约600人,包括 LeCun 创立的 FAIR 研究部门成员。
原定于2025年夏季发布的旗舰模型 Llama 4 Behemoth 被反复推迟,从夏季推到秋季,最终无限期搁置。
Meta 转而专注于开发代号为"Avocado"的下一代文本模型和代号为"Mango"的图像/视频模型。据报道,Avocado 旨在与 GPT-5 和 Gemini 3 Ultra 竞争。原定于2025年底发布,由于性能测试和训练优化不理想而推迟到2026年第一季度。Meta 正考虑以闭源方式发布,放弃 Llama 系列的开源传统。
Meta 在 AI 模型上犯了两个致命错误。第一,伪造基准数据,直接摧毁了开发者社区的信任。第二,把 Fair 这种需要十年磨一剑的基础研究部门,塞进一个以季度 KPI 为导向的产品组织。这两件事叠加,正是它现在人才流失的根源。
人才在流失,芯片也出了问题。
根据 The Information 报道,Meta 上周取消了内部正在开发的最先进 AI 训练芯片项目。
Meta 的自研芯片项目叫 MTIA(Meta Training and Inference Accelerator)。公司最初的路线图雄心勃勃:代号"Santa Barbara"的 MTIA v4、代号"Olympus"的 v5 和代号"Universal Core"的 v6,计划在2026年至2028年间交付。其中,Olympus 被设计为 Meta 首款基于2nm 芯粒架构的芯片,旨在同时覆盖高端模型训练和实时推理,并最终取代 NVIDIA 在 Meta 训练集群中的角色。
现在,这款最先进的训练芯片被砍掉了。
Meta 并非毫无进展;MTIA 在推理方面取得了一些成功。代号"Iris"的 MTIA v3 推理芯片已在 Meta 数据中心大规模部署,主要用于 Facebook Reels 和 Instagram 的推荐系统,据称总拥有成本降低了40%至44%。然而,推理和训练是两回事。推理是运行模型,训练是练习模型。Meta 可以自己做推理芯片,但做不出能直接与 Nvidia 竞争的训练芯片。
这不是历史上第一次。2022年,Meta 曾尝试开发自己的推理芯片,但在小规模部署失败后放弃了该项目,转而向 Nvidia 下了大额订单。
自研芯片的受挫,直接加速了 Meta 的疯狂采购潮。
2026年1月,Meta 宣布当年的资本支出预算在1150亿至1350亿美元之间,几乎是去年722亿美元的两倍。这笔钱的大部分将花在芯片上。
10天之内,三笔大单陆续敲定:
2月17日,Meta 与 NVIDIA 签署了一份多年跨代战略合作协议。Meta 将部署"数百万"颗 NVIDIA Blackwell 和下一代 Vera Rubin GPU,外加 Grace 独立 CPU。分析师估计这笔交易价值数百亿美元,使 Meta 成为全球首个大规模部署 NVIDIA Grace 独立 CPU 的超算客户。
2月24日,Meta 与 AMD 签署了价值600亿至1000亿美元的多年芯片协议。Meta 将购买 AMD 最新的 MI450 系列 GPU 和第六代 EPYC CPU。作为交易的一部分,AMD 向 Meta 发行了最多1.6亿股普通股的认股权证,约占 AMD 股份的10%,基于交付里程碑分批以每股0.01美元的价格归属。
2月26日,The Information 报道称,Meta 与 Google 签署了一份价值数十亿美元的多年协议,从 Google Cloud 租赁 TPU 芯片来训练和运行其下一代大型语言模型。两家公司还在讨论 Meta 从2027年开始直接购买 TPU 并部署在自己的数据中心。
一家社交媒体公司在10天内向三家芯片供应商下单,潜在总额超过1000亿美元。
这不是多元化。这是恐慌性采购。
Meta 为什么这么急?
首先,自研芯片已不再是选项。取消最先进训练芯片项目意味着,Meta 在可预见的未来将不得不依赖外部采购来满足其 AI 训练需求。虽然用于推理的 MTIA 芯片可以处理推荐系统等成熟应用,但训练 Avocado 这种对标 GPT-5 的前沿模型,需要 NVIDIA 或同等硬件。
其次,竞争对手不会等待。OpenAI 已经从微软、软银和阿联酋主权财富基金那里获得了大量资源。Anthropic 从 Google 和亚马逊各获得了100万颗 TPU 和 Trainium 芯片的供应。Google 的 Gemini 3 完全在 TPU 上训练。如果 Meta 无法获得足够的算力,它甚至无法确保自己的参赛资格。
第三,也许是最根本的,扎克伯格需要用"购买力"来弥补"研发能力"的不足。Llama 4 的惨败、关键人才的流失、自研芯片的受挫——这三件事叠加,已经让 Meta 的 AI 叙事在华尔街眼中变得脆弱。此时与 Nvidia、AMD 和 Google 签署大单,至少传递出一个信号:我们有钱,我们在买,我们没有放弃。
Meta 现在的策略是,软件问题解决不了就投硬件,人才留不住就买芯片。但 AI 竞赛不是一场简单地开支票就能赢的游戏。算力是必要条件,但不是充分条件。如果没有顶级的模型团队和清晰的技术路线图,再多的芯片也只会变成仓库里昂贵的库存。
回顾 Meta 在2月的三笔交易,一个有趣的细节被大多数人忽略了。
Meta 从 Nvidia 买了当前的 Blackwell 和未来的 Vera Rubin;在与 AMD 的交易中,它买了 MI450 和未来的 MI455X;它从 Google 租赁了当前的 Ironwood TPU,并计划明年直接购买。
三家供应商,三套完全不同的硬件架构和软件生态系统。
这意味着 Meta 将不得不在三套完全不同的底层生态系统之间游走:NVIDIA 的 CUDA、AMD 的 ROCm 和 Google 的 XLA/JAX。虽然多供应商策略可以缓解供应链风险并降低硬件采购溢价,但它也会导致工程复杂性呈指数级增长。
这恰恰是 Meta 最致命的弱点。要让一个拥有万亿参数的模型在这三套完全不同的底层编程模型的不同硬件上高效训练,不仅需要懂 CUDA 的工程师,还需要能够从零开始构建跨平台训练框架的架构师。
全世界这样的人大概不超过100个。庞若明就是其中之一。
花费1000亿美元购买全球最复杂的硬件组合,同时失去能够驾驭它的大脑——这是扎克伯格这场赌博最超现实的一面。
拉远看,扎克伯格在过去18个月对 AI 的处理方式,与他多年前全力探索元宇宙的策略惊人相似:
看到趋势,大举投资,大量招人;遇到挫折,突然战略转向,再次大举投资。
2021年至2023年是元宇宙,结果每年亏损数百亿美元,股价最终从380美元跌至88美元。2024年至2026年是 AI,同样不计成本地花钱,频繁的组织重组,以及同样的"相信我,我有远见"的叙事。
不同的是,这次 AI 趋势确实比元宇宙更具体得多。而 Meta 则有大量现金可烧;其广告业务产生了大量现金流。2025年第四季度,Meta 的收入达到599亿美元,同比增长24%。
问题是:钱可以买到芯片、算力,甚至可以买到坐在工作站前的人,但它买不到留下来的人。
庞若明选择了 OpenAI,Russ Salakhutdinov 选择了离开,LeCun 选择了创业。
扎克伯格现在的赌注是,只要他买足够多的芯片,建造足够多的数据中心,花足够多的钱,他最终能找到或培养出能够使用这些资源的人。
这个赌注可能成立。毕竟,Meta 是全球最富有的科技公司之一,超过1000亿美元的运营现金流是其最强的竞争优势。从 OpenAI 到 Anthropic,从 Google 到其他竞争对手,Meta 一直在不断挖人。据 Qubit 报道,Meta 超级智能团队44名成员中,近40%来自 OpenAI。
然而,AI 竞赛的残酷现实是,算力储备、人才名单和模型性能都是公开信息。Llama 4 基准测试造假事件证明,在这个行业,你无法通过依赖 PPT 演示和公关来保持领先地位。
最终,市场只认一件事:你的模型有多好。
随着 AI 军备竞赛进入2026年,食物链的顺序已经开始变得清晰:
顶部是 OpenAI 和 Google。OpenAI 拥有最强的模型、最大的用户群和最激进的融资。Google 拥有自己的芯片、模型和云基础设施的完整垂直整合。Anthropic 紧随其后,凭借其 Claude 模型的产品实力以及来自 Google 和亚马逊的双重算力供应,牢牢占据第一梯队的位置。
Meta 花了最多的钱,签了最多的芯片合同,重组最频繁,但到目前为止,它还没有拿出一个能够说服市场的前沿模型。
Meta 的 AI 故事有点像2005年的 Yahoo。当时,Yahoo 是互联网上最富有的公司之一,积极收购和花钱,但就是做不出像 Google 那样的搜索引擎。钱不是万能的。扎克伯格需要弄清楚 Meta 究竟想用 AI 做什么,而不是只是购买流行的东西。
当然,现在为 Meta 写讣告还为时过早。35.8亿月活跃用户、599亿美元的季度收入和全球最大的社交数据集是任何竞争对手都无法轻易复制的资产。
如果代号 Avocado 的下一代模型能够在2026年如期交付并重返顶级梯队,扎克伯格的所有支出和重组都将被包装成"扭转局面的战略胆识"。但如果再次令人失望,那么这1350亿美元只会换来一排排发热的硅晶圆仓库。
毕竟,硅谷的 AI 军备竞赛从来不缺挥舞支票的超级买家。它缺少的是那些知道如何利用算力打造未来的人。


