![]()
游戏画面越来越像照片,代价是显存快被撑爆了。英伟达今天重提一项叫「神经纹理压缩」(NTC)的技术,号称能让顶级显卡用更少的显存,跑出更清晰的画面。
传统压缩像把图片切成豆腐块,一块块压扁存储。NTC则换了个思路:用小型神经网络实时解压纹理。好处很实在——安装包变小,运行时显存占用骤降,画面反而更精细。英伟达说最终分辨率能拉到原来的四倍。
看组数字更直观。托斯卡纳别墅场景,传统压缩吃掉6.5GB显存,切到NTC只剩970MB,画面看不出差别。另一组演示里,一个飞行头盔的原始纹理272MB,传统压缩压到98MB,NTC直接干到11.37MB,约是原大的二十四分之一。
配套的还有「神经材质」技术。常规做法里,一种材质叠好几层贴图,GPU得算光线和每层怎么互动。现在神经网络直接告诉你这束光该怎么反射,跳过繁琐计算。1080p场景下,渲染速度最高翻了7.7倍,画质没损失。
之所以能这么高效,是因为NTC蹭上了显卡里的矩阵加速引擎——英伟达叫张量核心,英特尔叫矩阵扩展,AMD叫AI加速器。DLSS、FSR这些超分技术也是靠它吃饭。换句话说,这是英伟达神经渲染版图里的关键一块。
「神经网络」这个词现在有点臭大街,听着像又一个强行蹭AI的噱头。但NTC不太一样:它只在开发阶段针对特定纹理训练,不会瞎编内容,完全没有生成式AI那种胡来的风险。
纹理向来是显存大户,能管住它大家都欢迎。而且这技术不是英伟达独食,微软已以「协同向量」之名写进DirectX标准,英特尔也亮过演示,AMD去年提过一嘴,现在估计也在搞。目前还没游戏实装,但落地应该快了。
AI现在像个万能答案,什么老问题都往上套,不少地方硬塞得尴尬。NTC这类创新至少说明:用对地方的话,它真能解决点实际问题。
有开发者私下吐槽,最早看到NTC演示时以为又是实验室玩具,直到算完自己项目的显存账——「要是去年有这个,我们不用砍那批4K材质了。」
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.