NVIDIA近期发布了一项重要更新,为其深度学习超采样(DLSS)技术引入了全新的Transformer模型,这一变革性进展标志着DLSS技术在效率和画质上的又一次飞跃。此次更新包含在一个全新的SDK中,不仅涵盖了超分辨率、光线重建和DLAA技术的最新进展,更重要的是,它正式推出了替代旧版CNN模型的Transformer模型,旨在大幅降低显存占用量。
据NVIDIA官方介绍,相较于传统的基于卷积神经网络(CNN)的DLSS模型,新的Transformer模型在显存使用上实现了显著优化。以1080p分辨率为例,采用新模型的310.3.0 SDK版本仅需87.77MB显存,相比之前减少了近20%。这一显存降低的效果在1440p、4K乃至8K分辨率上同样显著,平均显存需求降低了约20%。
对于显存容量有限的用户而言,这一改进无疑是一大福音。它使得DLSS技术在不牺牲画质的前提下,能够在更广泛的硬件配置上流畅运行。此外,Transformer模型通过更精细的像素评估和理解单个像素的重要性,能够生成更详细的像素,从而在图像质量上带来显著提升。
值得注意的是,尽管新模型的显存占用有所降低,但在实际使用中,其显存占用率仍然保持在较低水平。例如,在8GB显存和1080p分辨率下,模型的显存占用率仅为约1%,即使在4K分辨率下,也仅占用约300MB显存。