Finesse de gravure, densité de transistors, depuis des années, les progrès techniques ont porté l'évolution des GPU. Pourtant, en dehors de rares exceptions, les gains sont moins notables, génération après génération. Ce ralentissement a poussé NVIDIA à chercher d'autres terrains d'amélioration.
Si les concepteurs de GPU font face à certaines difficultés techniques, les fabricants de semi-conducteurs rencontrent aussi des problèmes. De fait, les technologies sont toujours plus onéreuses, et ces fabricants sont de moins en moins nombreux. Inutile de vous faire un dessin, l'offre se réduit alors que la demande n'a jamais été aussi élevée, et les wafers, ces précieuses galettes de silicium, voient leurs tarifs bondir.
Le super-échantillonnage, qu'est-ce que c'est ?
Notre concepteur de GPU est donc confronté à un double problème. D'un côté, les difficultés de conception de puces sont toujours plus complexes, et de l'autre, des coûts de fabrication augmentent rapidement, alors que la demande est très nettement supérieure à l'offre.
Bien sûr, des sociétés comme NVIDIA ne font pas œuvre de charité, mais les augmentations observées génération de cartes graphiques après génération de cartes graphiques ne sont pas dues à la seule pression des actionnaires : le renchérissement des coûts du GPU est une réalité.
Pour trouver un début de solution, NVIDIA s'est mise en tête de ne plus confier le rendu des scènes 3D aux seuls GPU. L'idée est alors de limiter la puissance de calcul bloquée par ce rendu afin d'économiser de la puissance brute, tout simplement, mais aussi de pouvoir confier d'autres tâches au GPU.
Textures floues, couleurs ternes : en 2019, le DLSS 1 sur Battlefield V était encore fade © Clubic
Cette idée passe par un mot composé dont vous avez forcément entendu parler, le super-échantillonnage. Pour faire simple, il s'agit de demander au GPU de calculer une scène dans une définition d'image inférieure à celle que l'on vise réellement, par exemple du 1080p, alors que l'on affiche du 1440p. La différence est « imaginée » grâce au super-échantillonnage.
L'intelligence artificielle entre en action
Redimensionner une image ou une scène, cela n'a rien de nouveau, et que l'on parle de retouche photo ou de montage vidéo, ça se fait depuis un moment. Non, là où NVIDIA innove, c'est en s'appuyant sur l'intelligence artificielle pour réaliser cette tâche, d'où le terme Deep Learning Super Sampling, ou super-échantillonnage assisté par l'intelligence artificielle (DLSS).
Le DLSS évolue constamment depuis ses débuts, ici sur Cyberpunk 2077 © NVIDIA
Cette technique novatrice avait toutefois ses limites. À la sortie des GeForce RTX 2000, le DLSS 1 ne rencontre pas un immense succès. Il est effectivement limité à de très rares jeux (Battlefield V ou Metro Exodus), car les algorithmes d'IA doivent être longuement « entraînés » sur chaque jeu pour un résultat graphique qui n'était pas forcément convaincant.
NVIDIA ne baisse toutefois pas les bras, et en avril 2020, sort le DLSS 2. Pour la nouvelle version de sa technique, les cœurs Tensor sont largement mis à contribution, et il n'est plus nécessaire de travailler de manière aussi directe avec chacun des jeux envisagés. De fait, le DLSS 2 se distingue vite par le nombre de titres compatibles.
Pour la première fois aussi, NVIDIA parle de TAAU, ou Temporal Anti-Aliasing Upsampling, une technique qui ajoute logiquement une dimension temporelle aux calculs. De manière assez schématique, disons que l'image n'est plus prise seule : l'IA s'appuie sur les images « voisines » (temporellement) afin de limiter l'effet de flou.
Le DLSS 2 est globalement bien accepté par les joueurs comme par les studios de développement, et de nouvelles versions sortent régulièrement pour affiner les choses et compenser des défauts qui persistent parfois. Ces nouvelles versions ne présentent heureusement aucun problème de compatibilité avec les anciennes.
Parce que DLSS 2 n'était plus suffisant…
Pour autant, et alors que plus de 200 jeux sont officiellement compatibles avec les DLSS 1 et 2, NVIDIA surprend un peu son monde. En octobre 2022, à la sortie des GeForce RTX 4000, la société américaine sort le DLSS 3 pour aller encore plus loin dans l'assistance des GPU par l'intelligence artificielle.
En haut, le schéma de fonctionnement du DLSS 2, et en bas, celui du DLSS 3 © NVIDIA
Rien de plus normal, le DLSS 3 s'appuie sur les travaux réalisés pour DLSS 2, et il est donc toujours question de prendre en compte les vecteurs de mouvement afin d'offrir un rendu plus net du super-échantillonnage. Toutefois, NVIDIA ne se limite plus au calcul d'une plus grande finesse d'image, elle confie la génération complète de certaines images à ses algorithmes.
Le DLSS 3 booste les performances sur Flight Simulator © NVIDIA
À aucun moment la société n'est entrée dans les détails du pourquoi de cette bascule vers le DLSS 3, mais il n'est pas nécessaire d'être grand clerc pour comprendre que les gains de performances autorisés sur certains jeux ne suffisaient plus à NVIDIA, qui a ainsi mis en avant des jeux dits CPU bound (Flight Simulator) pour faire la promotion du DLSS 3.
NVIDIA décrypte le fonctionnement du DLSS 3 au lancement des RTX 4000
De plus, NVIDIA assure la promotion d'améliorations visuelles comme le path tracing, lequel est présenté comme une version « + » du ray tracing. Problème, sur le jeu vitrine, à savoir Cyberpunk 2077, même une GeForce RTX 4090 ne peut atteindre les 60 images par seconde lorsque tous les curseurs graphiques sont poussés au maximum. En libérant encore un peu plus le GPU, le DLSS 3 doit permettre d'activer ce type d'options.
L'idée est donc bien de laisser plus de latitude aux développeurs. Il ne s'agit pas forcément d'épater la galerie avec des effets visuels très clinquants, et cela peut aussi donner plus de « profondeur » aux niveaux d'un jeu. C'est déjà le cas avec Portal: Prelude RTX, dont le titre ne laisse guère de place au doute. Soutenu par les équipes de NVIDIA, le jeu fait largement usage de toutes les options graphiques autorisées par le ray tracing.
Portal: Prelude RTX sans activation du RTX (à gauche) et avec activation (à droite) © NVIDIA
S'il reprend les énigmes et les puzzles du mod originel, Portal: Prelude RTX en repense chacune des 19 chambres pour leur donner une dimension toute particulière. 200 nouvelles textures et 100 nouveaux modèles de mesh sont utilisés pour magnifier le jeu, qui exploite à plein régime tout ce que les ombres portées et autres reflets peuvent apporter à l'univers. Pour ne rien gâcher, Portal: Prelude RTX sera gratuit.
De la génération des images par l'IA
Plutôt que de limiter l'IA au calcul du super-échantillonnage de l'image, NVIDIA a donc dans l'idée de confier le rendu complet des images à l'IA. Pour être tout à fait exact, il n'est pas question de laisser à l'IA toutes les images, mais de lui en confier quelques-unes, simplement pour accélérer les choses.
L'idée est d'utiliser ce que l'on appelle dans le jargon un accélérateur de flux optique. De manière un peu plus intelligible, disons que l'algorithme de rendu DLSS fonctionne le plus normalement du monde sur certaines images, mais qu'entre deux images rendues « normalement », il intercale une image entièrement générée par l'IA.
Cette IA s'appuie justement sur les images précédemment rendues. Elle les analyse et en retire les informations nécessaires pour générer une image la plus juste possible. Il s'agit ici d'établir ce que la firme baptise un optical flow field, ou champ de flux optique, qui permet d'avoir une bonne idée du mouvement de la scène.
De manière un peu taquine, NVIDIA annonce qu'en combinant les différentes techniques de super-échantillonnage et de génération de l'image, le DLSS 3 se charge du rendu de pas moins des sept huitièmes de l'image. Oui, grosso modo, sur un jeu DLSS 3, notre GPU ne rend réellement que 1 pixel sur 8 ! On comprend alors plus facilement pourquoi les performances peuvent s'envoler lorsque le DLSS 3 est activé.
Latence en hausse ? Le bon Reflex de NVIDIA
De manière assez transparente, NVIDIA n'a pas fait mystère d'un problème directement lié à la génération totale d'images par l'intelligence artificielle. En effet, l'analyse des images précédemment rendues et la création d'un flux de mouvement ne sont pas sans « effets secondaires », pourrait-on lire si le DLSS 3 était un médicament.
Le côté indésirable de la technique est lié à l'augmentation de la latence système. Il n'y a rien d'étonnant à cela : aussi rapides soient-ils, les cœurs Tensor et autres subtilités mises en place par NVIDIA ont besoin de temps pour analyser les images précédentes et générer les nouvelles. Nous ne parlons ici que de quelques dizaines de millisecondes, mais alors qu'il est aussi question de faire la promotion de jeux compétitifs, cela fait désordre.
Pour les joueurs exigeants, NVIDIA avait déjà développé une technique baptisée Reflex, dont l'objectif est justement de traquer le moindre goulot d'étranglement dans une configuration donnée. L'objectif premier de Reflex est d'harmoniser CPU et GPU, ce qui tombe bien, puisque c'est ce dont a besoin le DLSS 3.
Performances DLSS 3 + Reflex sur Cyberpunk 2077
RTX 2070/3060 Ti FE (DLSS 2) vs RTX 4060 Ti FE (DLSS 3)
Core i9-12900K + 32 Go DDR5-4800 © Clubic
Plutôt que d'inventer une nouvelle technique, NVIDIA a donc décidé de généraliser Reflex et d'en faire un élément essentiel de la « chaîne » DLSS 3. De fait, pour qu'un jeu puisse être estampillé DLSS 3, il doit prendre en charge Reflex et, ce faisant, sauver ces précieuses millisecondes pour retrouver des niveaux de latence équivalents à ce qui existait avec le DLSS 2.
Et les performances, dans tout ça ?
La technique et la théorie, c'est bien joli, mais puisque l'objectif affiché du DLSS 3 est d'améliorer la fluidité des jeux excessivement gourmands d'un point de vue graphique et mettant lourdement à contribution le CPU de la machine, il est temps de voir les choses en pratique.
Cyberpunk 2077 et le path tracing
Performances sur Cyberpunk 2077 : natif (bleu) vs DLSS 3 (orange)
Les chiffres en blanc concernent le 1 % low, ceux en noir la moyenne d'IPS
Core i9-12900K + 32 Go DDR5-4800 © Clubic
Vitrine technologique actuelle de NVIDIA, Cyberpunk 2077 est logiquement mis en avant pour le DLSS 3. En effet, le jeu de CD Projekt RED est l'un des rares à proposer une option path tracing pour un rendu graphique aussi magnifique que gourmand.
Le DLSS 3 montre ici toute son efficacité, permettant à la GeForce RTX 4070 d'offrir un jeu parfaitement fluide, détails au maximum, même en 1440p. La RTX 4060 est encore un peu juste pour le 1080p, mais cela reste le jour et la nuit entre « avec DLSS 3 » (orange) et « sans DLSS 3 » (bleu).
Flight Simulator, richesse d'un monde ultradétaillé
Performances sur Flight Simulator : natif (bleu) vs DLSS 3 (orange)
Les chiffres en blanc concernent le 1 % low, ceux en noir la moyenne d'IPS
Core i9-12900K + 32 Go DDR5-4800 © Clubic
Flight Simulator est bien différent du jeu de CD Projekt RED. Plus dans le réalisme, moins dans les effets à outrance, il est aussi l'exemple d'un jeu limité par le processeur. Ici, le DLSS 3 permet de pousser la machine bien plus loin, et la carte graphique est alors moins limitée par le reste du PC.
Rapidement limitée par le Core i9-12900K, la GeForce RTX 4090 peut enfin exploiter convenablement la définition 4K. Il en va de même pour la RTX 4070 avec le 1440p et pour la RTX 4060 avec le 1080p. Dans tous les cas de figure, les détails au maximum, le DLSS 3 permet à Flight Simulator d'éviter les à-coups que l'on ressent quand il n'est pas activé.
Une adoption très rapide
Soucieuse de soutenir son DLSS 3, NVIDIA semble avoir mis les bouchées doubles. Sans doute la société fondée et dirigée par Jensen Huang peut-elle compter sur un soutien toujours plus large de la part des studios de jeu vidéo, mais ce n'est pas suffisant.
NVIDIA a donc multiplié les rencontres, la documentation et les soutiens techniques aux équipes de développement. Et ça marche. En effet, aucune technologie lancée par NVIDIA ne peut se targuer d'une vitesse d'adoption aussi rapide. Lancé en octobre 2022, le DLSS 3 n'a pas encore 10 mois, et il doit faire avec sa limitation aux seules GeForce RTX 4000.
Pourtant, nous comptons aujourd'hui déjà 34 jeux compatibles avec le DLSS 3, et 24 autres ont déjà été annoncés par leurs développeurs. De plus, les moteurs graphiques Unreal Engine 4 et 5, Unity ainsi que le Frostbite Engine sont parfaitement pris en charge. L'avenir semble donc radieux pour le DLSS 3 !
Des raisons d'éviter le DLSS 3 ?
Ingénieux, performant sans altération notable de la qualité visuelle et adopté de manière extrêmement rapide, le DLSS 3 n'aurait-il que des avantages ? Malgré l'expertise de NVIDIA en la matière, il y a forcément quelques défauts à la cuirasse… et le premier d'entre eux n'est d'ailleurs pas anodin.
En effet, NVIDIA n'a jamais caché que pour exploiter correctement la technique de génération d'images associée au DLSS 3, le GPU a besoin d'éléments techniques précis et, en particulier, des cœurs Tensor de quatrième génération que l'on ne trouve que sur les puces Ada Lovelace. En d'autres termes, pour profiter du DLSS 3, il est indispensable de posséder une GeForce RTX 4000.
En progrès constants (ici sur Cyberpunk 2077), la gestion de l'UI reste délicate © NVIDIA
Il y a bien eu des rumeurs pour annoncer qu'un « portage » est envisageable sur les RTX 3000, mais le fait est que 10 mois après le lancement du DLSS 3, rien n'est en vue, et NVIDIA confirme que, comme le DLSS 1 avait besoin d'une RTX 2000, il faut passer à Ada Lovelace pour profiter du DLSS 3. Mais peut-on vraiment parler de défaut pour une technologie tournée vers l'avenir ?
Alors que la latence système doit être compensée par Reflex, il y a parfois des couacs. Ainsi, nos premiers tests sur Returnal ont montré qu'une RTX 3060 Ti (+DLSS 2) réussissait bien mieux l'exercice qu'une RTX 4060 Ti (+DLSS 3), à 23 millisecondes, contre 37. Cela dit, preuve que les choses évoluent vite, 2 mois plus tard, l'écart n'était plus que de 2 millisecondes entre les deux machines.
Progrès de la prise en charge DLSS 3 + Reflex sur Returnal
Returnal avec DLSS 3 + Reflex sur pilotes 531.93 (haut) vs 536.40 (bas)
Core i9-12900K + 32 Go DDR5-4800 © Clubic
Non, en réalité, le principal « problème » du DLSS 3 est surtout de savoir si vous en avez besoin. Là. Tout de suite. Maintenant.
Rappelons que l'objectif de la technique est d'améliorer les performances sur les jeux les plus lourds graphiquement, sur les jeux limités par le CPU ou pour profiter des hautes définitions d'image. De fait, les petits jeux indépendants en 1080p ne rentrent pas dans le périmètre du DLSS, a fortiori du DLSS 3.
Reste que dans l'immense majorité des cas, le DLSS 3 apporte exactement la bouffée d'air dont peuvent avoir besoin des GPU un peu limites. C'est plus particulièrement vrai pour exploiter une RTX 4060 Ti en 1440p ou profiter confortablement de la 4K sur une RTX 4080.
Enfin, et c'est sans doute le plus important, le DLSS 3 doit être perçu comme un moyen de « voir venir ». Alors que les moteurs graphiques sont de plus en plus complexes et que l'on parle de jeux toujours plus proches du photoréalisme, l'apport du ray tracing/path tracing est aussi réel qu'il sera délicat pour de nombreux GPU. Même une RTX 4090 n'est pas à l’abri d'une baisse de framerate, et le DLSS 3 a alors quelque chose de très réconfortant !
Retrouvez toutes les cartes graphiques de la série 40 compatibles avec le DLSS3 :