英伟达携手合作伙伴将在变电站旁建微型数据中心
AI 数据中心耗电量激增,行业开始想方设法解决供电难题。最新方案是:在 变电站 旁边建 微型数据中心 ,根据电网负荷动态调度算力。
英伟达 与合作伙伴计划在今年下半年启动试点:在美国 5 家公用事业公司范围内,共建25 个 微型数据中心 ,单站功率 5–20 兆瓦。某 变电站 负荷过高或断电时,算力自动迁移到供电充裕的邻近站点。
合作方包括:数据中心建设商 InfraPartners、地产服务商 Prologis、电力研究机构 EPR(原电力研究院)。
项目目标
验证弹性算力 + 电网协同新模式,快速获取电网零散富余电力 —— 这在当下愈发珍贵。
EPRI 智能 AI 架构主管 Ben Sooter:“单个 变电站 富余功率约 5 兆瓦、最高 20 兆瓦,规模太小难建传统数据中心,但多个微站协同就能凑成可用算力,还能把电网可用容量翻倍。美国约 5.5 万座变电站,富余电力总量惊人。”
英伟达 能源高级总监 Marc Spieler:“AI 推理负荷可随电走,是大势所趋。”
电网困局与解法
数据中心用电激增:预计 2030 年美国数据中心耗电占全国9%–17%,较现在翻倍。AI 训练中心能耗达吉瓦级,堪比中型城市。
传统方案周期长、成本高:
电网扩容审批可达十年;
自建燃气电厂、投资核聚变、修高压线路。
新机会:美国电网平均利用率仅 53%,尖峰负荷(年 < 200 小时)之外,大量电力闲置。
尼古拉斯研究所测算:数据中心仅 0.25% 时间限电,即可释放76 吉瓦富余电力(约峰值 10%)。
微站优势
建设快:无需新建电厂,直接接入变电站现有线路;
成本低:复用变电站电网、光纤、配套设施;
弹性高:负荷动态迁移,适配推理类任务。
训练 vs 推理:算力调度差异
AI 训练:需要数万 GPU 高速互联(NVLink/InfiniBand),不可拆分;
AI 推理:单次请求、低延迟、可分布式调度。
Mod42 战略副总裁 Valerie Crafton:“推理是唯一能‘跟着电走’的算力,这正是 微型数据中心 兴起的原因。”
项目进展
英伟达 + EPRI 的分布式推理试点:2026 年底前开工,预计仅0.1% 时间需要迁移算力。
EPRI 的 Sooter:“第一轮算力浪潮是超大型数据中心(5 吉瓦级);第二轮是推理专用微型集群,2027 年推理需求将爆发。”
主题:英伟达