NVIDIA近期發(fā)布了一項(xiàng)重要更新,為其深度學(xué)習(xí)超采樣(DLSS)技術(shù)引入了全新的Transformer模型,這一變革性進(jìn)展標(biāo)志著DLSS技術(shù)在效率和畫質(zhì)上的又一次飛躍。此次更新包含在一個(gè)全新的SDK中,不僅涵蓋了超分辨率、光線重建和DLAA技術(shù)的最新進(jìn)展,更重要的是,它正式推出了替代舊版CNN模型的Transformer模型,旨在大幅降低顯存占用量。
據(jù)NVIDIA官方介紹,相較于傳統(tǒng)的基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的DLSS模型,新的Transformer模型在顯存使用上實(shí)現(xiàn)了顯著優(yōu)化。以1080p分辨率為例,采用新模型的310.3.0 SDK版本僅需87.77MB顯存,相比之前減少了近20%。這一顯存降低的效果在1440p、4K乃至8K分辨率上同樣顯著,平均顯存需求降低了約20%。
對(duì)于顯存容量有限的用戶而言,這一改進(jìn)無(wú)疑是一大福音。它使得DLSS技術(shù)在不犧牲畫質(zhì)的前提下,能夠在更廣泛的硬件配置上流暢運(yùn)行。此外,Transformer模型通過更精細(xì)的像素評(píng)估和理解單個(gè)像素的重要性,能夠生成更詳細(xì)的像素,從而在圖像質(zhì)量上帶來顯著提升。
值得注意的是,盡管新模型的顯存占用有所降低,但在實(shí)際使用中,其顯存占用率仍然保持在較低水平。例如,在8GB顯存和1080p分辨率下,模型的顯存占用率僅為約1%,即使在4K分辨率下,也僅占用約300MB顯存。