于英涛:算力热潮中的新华三,踏实做好AI底座

在风口上,但不抢风口;少造概念,精耕务实,做AI发展的筑基者
文| 吴俊宇
2026 年,整个算力产业链上下游都处于供不应求的状态。芯片、存储、内存、高速交换机、云资源几乎都是如此。市场对算力的饥渴,到了近四年间的高点。
原因是市场当下的重点已转向“用好 AI” ,基础模型加速迭代,智能体快速普及, Token 消耗指数级增长,这直接驱动算力基础设施建设大干快上,对 AI 算力产业链相关硬件的需求随之激增。
据我们的不完全统计, 2025 年 12 月 1 日 -2026 年 4 月 24 日,全球 11 家主流模型公司, 144 天内至少发布或迭代了 53 款模型,每 2.7 天就会有一款模型发布或迭代。
国际市场调研机构 IDC 2026 年预测,全球活跃 Agent (智能体)数量将从 2025 年的 2860 万,增长至 2030 年的 22.16 亿。五年后,活跃 Agent 数量将是目前的近 80 倍。
国家数据局 3 月 24 日显示,截至今年 3 月,中国日均 Token (词元)调用量已超过 140 万亿,相比 2024 年初的 1000 亿增长了 1400 倍。
新华三是中国少数具备全栈 AI 基础设施能力的厂商之一,也是这一轮 AI 基础设施建设的重要参与者。它直接受益于这一轮算力风口。
新华三 2025 年营收 759.81 亿元,同比增长 37.96% ;净利润达到 31.51 亿元,同比增长 12.30% 。进入 2026 年,高增长势头延续:一季度营收 221.89 亿元,同比增长 45.08% ;净利润 9.49 亿元,同比增长 28.16% 。
高增长背后,亢奋和焦虑也暗涌如潮。 5 月 8 日, NAVIGATE 2026 领航者峰会演讲中,新华三集团总裁兼首席执行官于英涛提到,他和产业链上下游一轮又一轮深聊后,感受到亢奋和焦虑的情绪同时弥漫。
一方面,新概念、新技术层出不穷。全球 AI 基础设施已投入超万亿美元。大模型从实验室走向百行百业。每一家企业都在喊 “All in AI” 。美国纳斯达克和中国的 AI 概念股,连创历史上从未触达的新高。
另一方面,算力投入巨大,但 ROI (投资回报率)依然模糊。部分数据中心 GPU (图形处理器)利用率不足六成。芯片断供的阴影挥之不去,内存价格翻了数倍还难以正常供货。企业家担心公司被 AI 颠覆,职场人担心岗位被 AI 替代,政府官员担心 AI 带来治理挑战。
面对亢奋和焦虑并存的市场情绪,在一场小规模沟通中,于英涛分享了新华三的战略路径思考:
新华三是中国少数几家具备全栈 AI 基础设施的厂商之一,也是少数能够帮客户真正落地 AI 的企业之一。新华三在风口上,但不抢风口。新华三的基因是 AI 基础设施,我们希望聚焦、聚焦,再聚焦,专注自身基因做擅长的事。计算、存储、网络、云、安全、运维这些基本业务,要做好、做深、做透,做到最前沿。
于英涛认为,把产品做到极致,把解决方案做到最优,这是新华三应该做的事情。不造概念,精耕务实,做 AI 发展的筑基者。
把 Token 成本打下来
“ Token 经济”是英伟达创始人黄仁勋今年 3 月在 GTC 2026 上提出的概念。
Token 正在成为计量算力的最小单位,不仅成了很多公司 AI 转型的“北极星指标”,也成一些算力公司的核心销售指标。
过去,企业采购 AI 基础设施时,更关注 GPU 数量与模型参数等指标。但在今天,企业越来越关心,同样的预算到底能生成多少有效 Token 。
于英涛谈到一个细节,在和很多政企客户交流时,他们更关注 AI 到底能否解决业务问题,而对 GPU 、交换机等硬件本身并不敏感。
但问题在于,今天的 Token 成本依然高昂。
过去三年,单位 Token 成本已经降低了 90% 以上。不过,随着大模型与智能体快速普及,企业整体 Token 消耗量正在以百倍速度增长。每一个 Token 背后,又都对应着芯片、网络、存储、调度与电力资源的消耗。因此,企业的算力综合成本也在持续攀升。
因此, AI 基础设施的竞争,现在比拼的不只是芯片性能、模型参数,更多是系统效率。
在于英涛看来, AI 的瓶颈在系统,而不在单点。计算、存储、网络、云、安全、运维这六个重点环节,最终都会影响单位 Token 成本。
这也正是新华三今天在 AI 产业中的位置:它不做模型、不直接卖 Token ,但它在不断深度优化 AI 基础设施,直接影响 Token 生成的成本与效率。
降低单位 Token 成本,已经是新华三当前 AI 基础设施能力建设的重要方向。算力与调度,是其中两个关键环节。
芯片性能是决定 Token 成本的核心因素。中国市场在先进 GPU 长期紧缺、单卡性能相对不足的背景下,正在采取超节点这种解决方案。
超节点,指的是把成百上千枚 AI 芯片集成在一个算力机柜中,常见规格包括 32 卡、 64 卡、 128 卡、 256 卡、 512 卡乃至 1024 卡。它的核心并非简单堆叠芯片数量,而是用更大集群规模、更快的带宽网络、更高的调度系统,把芯片组织成一个高效运行的整体。这可以减少因通信、散热等造成的损耗,进而提升整体有效算力。
新华三推出的 UniPoD S80000 系列超节点解决方案,支持万亿参数大模型的训练与推理,据新华三披露,该平台可将大模型训练性能提升 70% ,推理性能提升 3 倍;同时采取液冷散热方案,降低大规模集群运行过程中的能源消耗。
在当下国内算力市场开始把超节点的纸面规模和参数过度营销的背景下,于英涛强调,新华三希望为客户提供真正可交付、可运行的超节点,而不是造概念。目前,新华三的超节点解决方案已经成功交付给多家互联网公司及政企机构。
除了芯片性能本身,云的调度能力也是直接影响单位 Token 成本的关键因素。
新华三也推出了相应的产品方案。新华三披露的信息显示,它推出的新一代 AI 智能云支持 100 多种 AI 芯片统一纳管,提供 100 多种 MaaS (模型服务)能力。在理想环境下的模型浮点运算利用率( Model FLOPs Utilization , MFU )上限可达到 82% 。
一位服务多家政企机构的算力基础设施技术人士对我们表示,买不到芯片会滞后。买到却浪费,会一直落后。过去大家对芯片、模型关注度更多。对云这种系统工程关注少。
他进一步解释,今天的调度、适配与系统协同能力的重要性正在快速提升。做好这些工作,有可能将同样的芯片、同样的模型发挥出数倍甚至数十倍的 Token 吞吐性能。