8 GB显卡再战十年不是吹牛!NVIDIA RTX神经纹理压缩技术实测:显存占用爆降85%
快科技4月12日消息,随着3A大作对画面精度的要求持续升级,高精度材质纹理包的体积水涨船高。曾经的主流8GB显存显卡,如今动辄遭遇爆显存、画面卡顿、强制降画质的窘境,也被不少玩家调侃为“残废卡”。
而NVIDIA全新的RTX神经纹理压缩技术(简称NTC),或许能彻底改变这一现状 。
近日,Tom's Hardware对这项技术完成了多显卡、全平台的专项实测。NTC是随RTX50系列显卡一同发布的AI驱动技术, 依托显卡Tensor核心(NVIDIA显卡内置的AI加速运算核心)完成纹理的压缩与解压,最高可将显存需求降低超80%,实测最高降幅达85%,同时画面画质还优于游戏行业沿用多年的传统压缩方案。 这一结果,也让玩家对“8GB显卡再战十年”有了切实的期待。
从技术原理来看 ,NTC是基于机器学习的纹理压缩与解压方案,也是NVIDIA神经着色渲染新范式的核心技术之一。它跳出了传统BCn块压缩格式(游戏行业通用的传统区块纹理压缩标准)4×4像素的固定限制 ,在压缩阶段就将原始纹理转化为小型神经网络权重与潜在特征组合。
需要明确的是, NTC是确定性解码技术,并非生成式AI,不存在AI幻觉的风险 。
为适配不同层级的硬件,NTC在DirectX 12接口下提供三种运行模式,另一主流接口Vulkan因无对应配套功能,仅支持其中两种(不支持Inference on Feedback )。
第一种是加载时推理模式(Inference on Load)。 它会在游戏或地图加载阶段,全程在GPU内完成NTC纹理的解压,并同步转码为传统BCn格式。这种模式和原生BCn纹理的渲染性能完全一致,没有任何渲染阶段的性能开销,还能大幅缩小游戏的磁盘占用体积、降低PCIe总线传输压力,唯一的不足是无法降低运行时的显存占用。
第二种是采样时推理模式(Inference on Sample),这也是大众认知中神经纹理压缩的核心形态,更是显存压缩能力最强的模式 。 它会在纹理采样时,通过预训练的多层感知机(简称MLP,一种轻量化小型神经网络),实时解码当前所需的像素数据,最终实现最高85%的显存占用降幅。
第三种是反馈时推理模式(Inference on Feedback) ,仅支持DirectX12接口。它会通过采样器反馈(DirectX12专属图形功能,可精准识别渲染当前画面所需的纹理区块),仅解压渲染当前画面需要的纹理部分,是前两种模式的折中方案,显存降幅不如采样时推理模式,但性能开销更低,整体表现介于两者之间。