海外研选|高盛:企业AI加速落地2030年服务器市场规模将翻倍
海外研选 | 高盛:企业AI加速落地 2030年服务器市场规模将翻倍
2026年04月08日 19:35
高盛 在最新研报中预测称,随着企业加速采用 人工智能 (AI),将带动企业服务器与网络收入大增。
以Katherine Murphy为首的 高盛 分析师团队4月7日发布报告,深入探讨了企业对本地(On-premise)及混合AI硬件解决方案的需求趋势。
高盛 表示,企业正从AI的“概念验证(PoC)”阶段转向未来12-24个月的正式系统部署,这主要由两项新技术推动,分别是以OpenClaw为代表的自主AI代理(Autonomous AI agents),以及谷歌TurboQuant内存压缩算法。
作为能够提高AI推理效率的数据压缩技术,TurboQuant降低了使用门槛并可能增加使用频率。
这将带来两大需求:传统 数据中心 升级和新增AI算力投资。尽管短期内将导致成本上升和IT支出前置, 但在AI需求的支撑下,企业服务器、存储、网络收入将在2026至2027年持续增长 。
企业采用AI现状
报告称,截至2026年3月, 约18.9%的美国企业已采用AI 。预计在自动化潜力大的行业(如信息技术、专业科学、 教育 、金融)普及率更高。研究表明,采用AI可使生产力平均提高23%。
(美国企业AI采用情况)
企业采用AI主要有两大动机,即降本增效和创造新增收入。现阶段的发展趋势是向Agentic AI(自主智能体)演进,并使复杂业务流程自动化。
企业通常倾向于混合多云(Hybrid Multi-Cloud),即结合云端的灵活性与本地的受控性。2025年已有约70%企业采用该模式。
云端(IaaS/API服务)适合快速原型设计、实验及应对波峰负载,其优势在于灵活和无前期投入,缺点是 数据安全 和成本长期较高。
本地(On-premise)适用于稳定、高频任务,以及受严格法规监管的行业(如金融、医疗)。其优点是长期成本更低、数据完全控制且更易合规,但不足之处在于前期投入高、扩展性差。
与云服务(按2080亿Token的API调用量计算)相比,本地化部署在27个月后更具成本效益。本地LLM推理成本仅为云端的1/2,这一成本拐点是决定基础设施投资时机的关键。
分析师得出结论称,企业 综合 对灵活性和成本的考虑, 最终会倾向于选择云端结合本地的混合模式 。
80%的企业认为数据限制是AI扩展最大障碍。
许多AI项目失败是因为数据架构未统一组织,无法支持Agentic AI所需的实时决策。
此外,企业对AI能带来的实际价值和 数据安全 仍存疑虑。
截至2025年,仅7%的企业完成了全公司范围的AI整合。这表明企业AI仍处于早期阶段,2026年重点仍是数据准备。
硬件需求与市场预测
本地AI推理需要对整个IT栈进行升级。在硬件层面,企业需要采购GPU/CPU服务器、扩展型NAS存储、高带宽低延迟网络、AI PC及边缘设备;在软件层,则需要PyTorch、NeMo等框架,以及NVIDIA AI Enterprise等管理平台。
根据高盛的预测, 预计2026年企业服务器收入增长20%,2027年增长26%,到2030年将达到1100亿美元,相较于2025年的530亿美元翻倍 。
(高盛对企业服务器收入的预测)
数据中心 网络收入预计在2026和2027年分别增长47%和26%,其中AI网络增长将超过100%。
非结构化数据存储(AI首选)在2020-25年间的年复合增长率为10%,2026至2027年将延续温和增长势头,营收增加约6%。
竞争格局与受益供应商
高盛认为,企业会更倾向于继续采购“传统IT供应商”,主要原因包括长期信任(可靠性)、完整产品组合和渠道能力。
分析师对比了两种销售方式,分别是单独卖服务器/交换机,和提供整套方案,即所谓“AI工厂”(AI Factory)模式。
“AI工厂”是一种将原始数据持续转化为智能产出的运营模型。在这一模式下,硬件供应商不仅卖单台服务器,还提供预先验证的全栈解决方案。
销售完整的“AI工厂”解决方案利润率高达约20% ,远高于单台GPU服务器的8-10%。
高盛给予以下硬件厂商“买入”评级,认为它们凭借强大的销售渠道和可靠性记录在AI浪潮中占据先机。
戴尔: 拥有庞大的直销团队(约是超微SMCI的70倍)及完整的AI工厂方案。
惠与科技: 拥有强劲的渠道伙伴关系,通过GreenLake提供灵活的消费模式。
NetApp: 在AI所需的非结构化数据存储领域表现强劲。
Penguin Solutions: 其OriginAI方案在工厂内完成预配置,部署速度快。
报告也列出了一些核心风险, 包括传统IT支出疲软、组件成本上涨压低毛利、白牌厂商竞争、宏观经济波动以及AI需求不及预期 。
(文章来源:财联社)