英伟达发布神经纹理压缩 显存占用最高可降低85%
- 来源:3DM编译
- 作者:skylark
- 编辑:豆角
近年来,英伟达一直是技术领域的领跑者,推出了一系列革命性的技术功能,其中最突出的就是其人工智能图像增强技术DLSS, 而在近日的GTC 2026大会上,该公司又发布了黑科技——神经纹理压缩。
该人工智能技术据称可将玩游戏时显存的占用降低85%,且画质零损失。其神经纹理压缩Demo显示,在显存占用6.5GB和970MB之间实现了“惊人的视觉效果一致性”。
随着游戏变得越来越复杂、越来越逼真,游戏行业越来越依赖图像放大技术来满足不断增长的硬件需求。这种优化不足导致的一个主要问题是显存占用率,近年来显存占用率急剧上升。为了解决这个问题,英伟达开发了一种名为“神经纹理压缩”(NTC)的技术,并在今天的GTC大会上再次提及。性能最强的显卡将能够充分利用英伟达的NTC技术。
NTC允许开发者使用小型神经网络来解包任何场景中的纹理。这不仅显著减小了纹理的大小,使游戏安装更加便捷,而且还降低了运行时的显存占用。此外,最终生成的纹理质量也更高,英伟达称最终渲染的分辨率最高可提升4倍。
在下面的示例中,英伟达运行了一个托斯卡纳别墅场景,使用标准块(BCN)压缩时占用6.5 GB显存,但切换到NTC后,显存占用降至仅970MB,而图像效果却完全相同。
此前,该公司的另一个演示展示了一个飞行头盔,其未压缩纹理占用272 MB——块压缩将其减少到98MB,而NTC则将其减少到仅11.37MB,约为原始纹理占用的1/24。
目前尚不清楚这项技术是否会推广到老款显卡上,但RTX 5060或5060Ti等8GB显存显卡的用户应该会从中受益。DLSS 5一直备受争议,但这项技术应该会受到许多用户的欢迎。
英伟达还展示了神经材质(Neural Materials),其理念与此相同:利用神经网络评估和解压缩材质纹理数据,而不是依赖计算量巨大的双向反射分布函数(BRDF)数学运算。
通常,一种材质会堆叠多个纹理贴图,GPU必须在渲染管线中同时计算光线与每一层的交互方式。神经材质技术只需向神经网络询问光线在特定场景下的反应,并据此调整像素的着色。神经网络基于所有纹理数据进行训练,因此它已经知道给定光线和角度下的结果。正因如此,在演示场景中,英伟达在1080p分辨率下实现了高达7.7倍的渲染速度提升,且图像质量丝毫不减。
NTC之所以如此高效,是因为它使用了矩阵加速引擎。在现代GPU中,矩阵加速引擎是一个独立的硬件模块,因此不会影响基础性能。英伟达称之为Tensor Core,英特尔称之为XMX引擎,AMD称之为AI加速器。DLSS、FSR和XeSS等图像放大技术也依赖于此,它们可以将低分辨率帧重建为更高分辨率的输出,因此这也是英伟达神经渲染计划的一部分。
神经渲染的概念目前在业界尚未得到广泛认可,“神经网络”这个词可能会让你觉得这只是又一种人工智能的拙劣尝试。但事实恰恰相反,它堪称人工智能的优秀应用之一,因为它完全不涉及生成过程。NTC只会针对游戏开发过程中需要参考的特定纹理集进行训练,因此不会出现任何幻觉。
纹理是所有游戏中占用显存最多的组件,因此任何能够控制纹理占用的技术都值得欢迎。不过需要注意的是,这项技术并非英伟达独有,微软已将其标准化为DirectX中的“协作向量”(Cooperative Vectors)。英特尔此前也展示过其纹理演示,与块压缩相比,纹理效果明显更佳。AMD上次提及这项技术是在2024年,但它很可能也在积极参与其中。
目前,尚无游戏支持合作向量或英伟达的神经纹理压缩技术,但鉴于行业的发展趋势,我们应该很快就能看到它们的应用。人工智能似乎已成为解决所有古老问题的万能钥匙,各大公司也在不断探索将其应用于各种看似不合适的领域。然而,像神经纹理压缩这样的创新表明,人工智能可以巧妙地应用于实际,从而产生真正有意义的影响。


玩家点评 (0人参与,0条评论)
热门评论
全部评论