DeepSeek R 1 AI测试:英伟达Blackwell每兆瓦吞吐量是Hopper的50倍
IT之家 2 月 18 日消息,英伟达于 2 月 16 日发布博文,宣布其 Blackwell Ultra AI 架构(GB300 NVL72)在能效与成本上实现显著突破,通过 DeepSeek-R1 模型测试 ,相比前代 Hopper GPU,其每兆瓦吞吐量提升 50 倍,百万 tokens 成本降低至 35 分之一。
此外,英伟达还预告了下一代 Rubin 平台,预计其每兆瓦吞吐量将比 Blackwell 再提升 10 倍,进一步推动 AI 基础设施的演进。
IT之家注:每兆瓦吞吐量(Tokens / Watt)是衡量 AI 芯片能效比的核心指标,指每消耗一瓦特电力能处理多少 Token(文本单位)。数值越高,代表能效越好,运营成本越低。
英伟达在博文中指出,性能飞跃的关键,是升级技术架构。Blackwell Ultra 通过 NVLink 技术,将 72 个 GPU 连接成统一的计算单元,互联带宽高达 130 TB/s,远超 Hopper 时代的 8 芯片设计。此外,全新的 NVFP4 精度格式配合极致的协同设计结构,进一步巩固了其在吞吐性能上的统治地位。
AI 推理成本方面,相比 Hopper 架构,新平台将每百万 Token 的成本削减至 35 分之一;即便与上一代 Blackwell(GB200)相比,GB300 在长上下文任务中的 Token 成本也降低至 1.5 分之一,注意力机制处理速度翻倍,适配代码库维护等高负载场景。
OpenRouter 的《推理状态报告》指出,与软件编程相关的 AI 查询量在过去一年中激增,占比从 11% 攀升至约 50%。这类应用通常需要 AI 代理在多步工作流中保持实时响应,并具备跨代码库推理的长上下文处理能力。
英伟达为应对这一挑战,通过 TensorRT-LLM、Dynamo 等团队的持续优化,进一步提升了混合专家模型(MoE)的推理吞吐量。例如,TensorRT-LLM 库的改进,让 GB200 在低延迟工作负载上的性能在短短四个月内提升了 5 倍。
关键词 :
AI 英伟达 推理



新浪科技公众号
“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

微信封禁自家“兄弟”红包,打的什么牌?
华住,比携程还会捞金?
华为8.8英寸巨屏手机上新!MatePad Mini新增幻影紫:向非凡大师看齐
表现惨淡!2025年2000-4000元价位段品牌份额出炉:苹果仅1.3%
用了10年手机 竟不知道手机上有这么多健康功能
浙大团队利用人工智能为膜蛋白造“装甲”
大年初一不洗头不煮饭 专家回应
国产铝基超宽温域电池黑河冬测取得突破
16日漫剧&短剧日榜:《西游,错把玉帝当亲爹》漫剧第一
国产铝基超宽温域电池黑河冬测取得突破:-25℃放电效率超92%
阿里千问:过去11天 用户一共说了50亿次“千问帮我”
除夕夜北京市空气质量保持优良
工信部再出手整治半幅方向盘:已删除国标中所有相关技术内容
无方向盘、无踏板,特斯拉首辆 Cybercab 在美国得州超级工厂正式下线
李想也要入局机器人!春晚仿生蔡明机器人创始人自曝:我是他粉丝
内存价格为什么一涨再涨:原因揭开
没有上春晚,不意味相声艺术没落 | 新京报快评
活跃用户已超1000万 马斯克放话:星链很快将在地球外运行
春晚“人机共武”展现中国科创丰硕成果
微软公布 2 月 XGP 阵容新增游戏:含《天国:拯救 2》《巫师 3》《最终幻想 3》等
春晚后机器人卖爆了:京东搜索量环比增长超300%
连克意美两队 中国男队取得两连胜