登录

大模型打不赢,马斯克换条思路做AI了?


速读:
2026年05月07日 16:24

【TechWeb】5月7日消息, 2026年5月7日凌晨,马斯克投下了一枚重磅炸弹:他于2023年一手创立的大模型企业xAI将被正式解散。 未来,xAI及其旗舰大语言模型Grok将不再作为独立实体运营,而是整体并入SpaceX,成为这家太空巨头旗下的一个子产品。从此,世间再无xAI,只有“SpaceXAI”。

这个消息来得突然,却又似乎早有预兆。回过头看,过去半年里,马斯克的AI棋局早已暗流涌动,连续发生了几件足以定义其战略转向的大事。

第一件,是“超级算力帝国”的拱手让人。 就在xAI解散消息公布前不久,科技媒体爆出,马斯克在田纳西州孟菲斯苦心打造的超级计算集群Colossus 1已经被他几乎全盘租给了Anthropic,租用量高达22万张英伟达顶级GPU。讽刺的是,Anthropic正是他曾在自家社交平台X上痛骂为“邪恶”“反人类”的死对头。一个自研大模型的公司,把最核心的算力基础设施租给了竞品,这个动作本身就足以让外界重新审视马斯克的真实意图。

第二件,是创始团队的全员出走。 从2024年底到2025年3月,xAI的联合创始人一个接一个地离开。最后两位Manuel Kroiss和Ross Nordeen也在3月底打包走人。至此,xAI创始团队全军覆没。而填补人才空缺的,不是从OpenAI或DeepMind挖来的顶尖科学家,而是从租用其GPU的客户Cursor那里“收割”来的产品工程高管。人员结构的根本性改变,透露出一个清晰的信号:这家公司不再需要从零探索AGI的“梦想家”,而是需要能把算力变成现金流的“生意人”。

公司解散、算力出租、人才清盘,xAI这三件事叠加在一起几乎指向同一个结论:曾经高喊“要造最强大模型”的马斯克,似乎收回了叩向通用人工智能圣杯的手。

马斯克是放弃做AI了吗?硅谷的AI叙事正在悄然改写。

从模型公司到“算力地主”的急转弯

xAI在田纳西州孟菲斯建设的“Colossus”数据中心堪称基建奇迹,只用了122天便拔地而起,塞进了10万张英伟达H100 GPU。到2025年底,其GPU总量已突破55万张,涵盖最新的Blackwell GB200。马斯克甚至画下“五年内拥有5000万张等效GPU”的大饼,这个数字让OpenAI、谷歌、微软等玩家都相形见绌。

坐拥史无前例的算力储备,但xAI旗下Grok模型的表现却令人尴尬。据The Information报道,Colossus 1集群的算力利用率只有可怜的11%,远低于行业40%的平均水平。这意味着绝大多数GPU都在空转烧钱。面对无底洞般的运维成本,马斯克做出了一个令业界哗然的决定:把GPU租出去,而且一租就是天量。

AI编程新贵Cursor成为第一个大客户,租下数万张GPU来训练其模型Composer 2.5。

更具戏剧性的是,马斯克将Colossus 1几乎全部算力高达22万张顶级GPU打包租给了Anthropic,这家公司不久前还被他本人在X平台上痛斥为“邪恶”。Anthropic正因Claude订阅暴增而面临严重的算力饥渴,马斯克的现货GPU几乎是市场上唯一能即时上架的救命稻草。

这个转身像极了硅谷熟悉的“卖铲子”逻辑,但马斯克的野心远非如此。他正在化身AI界的“算力地主”,而这一身份,很容易让人联想到近几年崛起的GPU云服务商,比如CoreWeave、Lambda Labs和Together AI。

CoreWeave是最典型的参照物。这家原本名不见经传的加密货币挖矿公司,在AI浪潮中囤积数万张英伟达GPU,向模型公司出售按小时计费的算力,迅速成长为估值数百亿美元的巨头,并于2024年筹备上市。它的商业模式就是纯粹的“算力二房东”,从英伟达拿卡,搭建集群,再加价租给AI开发者。从表面看,xAI出租Colossus的行为与CoreWeave如出一辙。

但马斯克的版本显然要庞大得多,也复杂得多。CoreWeave的集群规模在十万卡级别已算顶级,而xAI手握50万卡以上,且要扩张到千万卡级别,这已经不是一个商业算力服务商的体量,而是国家级基础设施的尺度。

更关键的是,CoreWeave的GPU全部来自英伟达,赚取的是微薄的差价。马斯克则计划用自研芯片逐步“换血”,一旦特斯拉的Dojo超级计算机成熟,他完全可以摆脱英伟达的钳制,把算力成本压低到竞争对手难以企及的程度。出租算力只是现金流手段,真正的终局是他要定义算力的底层硬件标准。

垂直整合靠谱吗?

这里就不得不谈谈马斯克的自研芯片了。

2025年4月,马斯克高调晒出AI5处理器的首枚样品,这颗不到400平方毫米的芯片,性能竟然比上一代AI4提升了40倍,内存带宽高达1.5TB/s。马斯克在财报会上直言,解决AI5的问题是特斯拉“存在级”的任务,甚至连续数月每周六亲自下场盯芯片团队。

紧接着,曾一度被搁置的Dojo 3超级计算机项目正式重启,并与下一代AI6芯片共享同一套架构。这意味着,特斯拉将拥有一款既能装进汽车和机器人做实时推理,又能堆进数据中心做大规模训练的融合芯片。

马斯克想要打造的这种端云一体、软硬协同的垂直整合模式,在全球范围内都找不出完全对应的第二家。最接近的是谷歌。

谷歌早在2015年就推出自研的TPU,用于内部训练和推理,并通过Google Cloud对外提供算力服务。TPU的成功为后来亚马逊的Trainium、微软传闻中的自研芯片铺了路。然而,谷歌的TPU主要停留在云端,虽然在Pixel手机上也有应用,但规模远不能与特斯拉数以百万计的车辆相比。

另一个比较的对象是苹果。苹果的A系列和M系列芯片实现了从手机、平板到电脑的端侧AI加速,生态控制力极强。但苹果不做公有云,也不做训练集群,自家大模型训练仍然依赖外部云平台。

马斯克要走的,或许是苹果式的终端芯片统治力加谷歌式的云端自研能力,再用超级工厂般的规模整合到一起。

如果成功,这无疑将是科技史上从未有过的垂直整合深度。

不玩大模型了?

那么,马斯克究竟放弃自研大模型了吗?表面看,xAI已被解散。但我们或许应该调换一个视角:马斯克不是在放弃AI,而是在放弃那种“单模型决定胜负”的硅谷创业范式。

硅谷传统AI模型公司的路径很清晰:招顶尖研究员、融巨资、买算力、卷参数,OpenAI、Anthropic和谷歌DeepMind走的都是这条路。这条路极为烧钱,且赢家通吃,技术壁垒却容易被开源社区快速追平。

马斯克也许看得很清楚,继续在纯模型赛道与OpenAI硬刚,即便Grok做到顶尖,也难以迅速转化为稳固的商业模式。而他把重兵部署在芯片和基础设施上,就等于控制了所有模型玩家的命脉。无论未来哪家公司的模型称王,只要它需要训练、推理,就需要海量算力,而拥有最低成本、最大规模算力的马斯克,永远是收租的人。

再进一步,当特斯拉的机器人和汽车成为真正的出货终端,他还能把算力直接“送到”用户身边,完成从生产到消费的完整闭环。

从“造模型”到“卖算力”,从独立AI公司到SpaceX生态的算力支柱,马斯克换了一条思路,也换了一座山头。

主题:马斯克