Une technique de super résolution réservée aux cartes graphiques NVIDIA dotées de cœurs Tensor.
Si les disponibilités sont toujours aussi erratiques, cela n'empêche pas les ténors de la carte graphique de se rendre coup pour coup. Ainsi, moins d'une semaine après qu'AMD a annoncé l'intégration du FidelityFX Super Resolution à ses pilotes graphiques, NVIDIA avance un nouveau pion.
Le Dynamic Super Resolution…
Depuis plusieurs mois, NVIDIA nous rebat les oreilles avec sa technique de Deep Learning Super Sampling. L'idée est de calculer l'image dans une définition inférieure à celle qui sera effectivement affichée à l'écran afin d'alléger les calculs pour la carte graphique.
On gagne évidemment en performances, mais pour que l'image ne perde pas trop en détails, NVIDIA se repose sur une savante technique faisant intervenir l'intelligence artificielle. Celle-ci doit combler les manques de la manière la plus efficace possible et le fait est que le rendu est aujourd'hui très proche du résultat en définition native.
Et bien, le Deep Learning Dynamic Super Resolution c'est un peu la même chose, mais « à l'envers ». NVIDIA propose depuis un moment une option de Dynamic Super Resolution (DSR) dans ses pilotes. La chose est simple puisqu'il s'agit de calculer l'image dans une définition cette fois plus importante que celle qui sera affichée réellement.
Vous vous en doutez, on va alors pouvoir obtenir une image sensiblement plus fine et il sera possible de se passer de tout anti-crénelage. Problème, la chose est monstrueusement gourmande.
… assisté par l'intelligence artificielle
C'est à ce niveau qu'intervient le DLDSR grâce, bien sûr, à l'intelligence artificielle. Encore elle. NVIDIA la fait intervenir cette fois pour se charger du downsampling de la meilleure des manières. L'objectif est évidemment que le DSR devienne nettement moins gourmand pour le PC.
Ainsi, dans les pilotes de NVIDIA, il était possible de régler le DSR sur x4, autrement dit, on venait multiplier le nombre de pixels calculés par quatre et du 2 560 x 1 440 poussait la carte à calculer du 5 120 x 2 880. Perte de performances garantie, mais le DLDSR s'appuie sur l'IA pour, justement, ne calculer que du x2,25 et garder une qualité d'image équivalente, aux dires de NVIDIA bien sûr. Il conviendra de vérifier tout cela.
Par ailleurs, qui dit Deep Learning chez NVIDIA dit aussi contribution des fameux cœurs Tensor des cartes RTX : le DLDSR sera donc réservé aux GeForce RTX et on peut supposer que les RTX 3000 seront plus efficaces, mais NVIDIA souligne que la chose doit être compatible « avec la plupart des jeux », sans que les studios aient à s'employer comme avec le DLSS.
Le DLDSR n'est pas encore disponible, il devrait l'être dès le 14 janvier prochain avec la nouvelle version des pilotes GeForce que la société doit distribuer pour appuyer la sortie de God of War sur PC, lequel sera compatible avec ce bon DLSS, qui ne tire pas sa révérence pour autant.
La GeForce RTX 3080 12 Go calée au 11 janvier : cette fois, c'est la bonne ?
Source : NVIDIA