En développement depuis plusieurs années, l’architecture Blackwell a été dévoilée début 2025 avec les cartes graphiques GeForce RTX 5080 et RTX 5090. NVIDIA l’a ensuite logiquement déclinée sur le milieu de gamme en commercialisant les RTX 5070 Ti/RTX 5070 et, enfin, sur les RTX 5060 Ti. Quel que soit leur prix, tous ces GPU - qui sont progressivement de retour en stock - profitent des technologies les plus avancées du leader mondial de l'IA : DLSS 4, multi-frame generation, rendu/shaders neuronaux et modèle transformer. Voici ce que ça va concrètement changer dans votre quotidien de joueur.

PC de bureau ou portables, le DLSS 4 est implémenté dans tous les produits estampillés GeForce RTX 50. ©NVIDIA
PC de bureau ou portables, le DLSS 4 est implémenté dans tous les produits estampillés GeForce RTX 50. ©NVIDIA

Alors que les techniques de gravure les plus avancées ne permettent plus les mêmes gains qu’autrefois, les technologies introduites par NVIDIA autorisent une nouvelle augmentation substantielle des performances. Ainsi, introduit en 2019, le DLSS nous arrive dans sa quatrième version et introduit la multi-frame generation pour encore plus d’impact de l’intelligence artificielle tandis que le rendu neuronal est là pour offrir un visuel toujours plus réaliste que l’on parle d’éclairages ou d’animations.

Le DLSS passe la quatrième

Pierre angulaire des travaux de NVIDIA depuis déjà plus de cinq ans le Deep Learning Super Sampling, plus connu sous le sigle DLSS, a été introduit en 2019. S’il n’était pas forcément très convaincant lors de son lancement, le DLSS a su évoluer et se montrer de plus en plus intéressant avec de multiples déclinaisons, au point de devenir presque indispensable lors de l'introduction des GeForce RTX série 40 (DLSS 3).

DLSS 1 a posé les bases de la technologie de NVIDIA. ©Clubic
DLSS 1 a posé les bases de la technologie de NVIDIA. ©Clubic

Sur le principe, que l’on parle de DLSS 1, de DLSS 2, de DLSS 3 ou, aujourd’hui, de DLSS 4, le principe reste globalement le même et il repose sur ce que l’on appelle le super échantillonnage (super sampling en anglais). L’idée derrière ce terme est de ne plus se reposer sur la seule puissance de calcul du processeur graphique (GPU) pour effectuer le rendu d’une image. En réalité, si le GPU assure une partie du rendu, il le fait dans une définition d’image plus faible que celle réellement affichée sur l’écran. On parle aussi d’upscaling ou mise à l’échelle en français.

Alors que le GPU calcule notre image en 1 080p (Full HD) par exemple, les algorithmes mis au point par NVIDIA permettent de l’agrandir pour l'afficher en 1440p (Quad HD). Cette mise à l’échelle est réalisée par le super échantillonnage lequel repose aujourd’hui sur l’intelligence artificielle, d’où le terme deep learning ajouté par NVIDIA. L’intelligence artificielle se repose ainsi sur la puissance des cœurs Tensor intégrés au GPU afin « d’imaginer » de manière aussi réaliste que possible les points qu’il faut créer pour agrandir l’image. La technique a été à un tel point perfectionnée par la firme de Jensen Huang qu’il est aujourd’hui difficile de faire la différence entre un rendu « natif » et un rendu « upscalé » par DLSS.

Cyberpunk 2077 est l'un des exemples les plus éclatants du potentiel du ray/path tracing. ©CD Projekt RED

Pour autant, NVIDIA ne se repose pas sur ses lauriers et le DLSS continue à évoluer pour décharger toujours plus le GPU de la carte graphique. Mais pourquoi décharger ainsi une puce qui ne doit plus avoir grand-chose à faire ? Détrompez-vous, la puissance de calcul libérée par le DLSS permet de renforcer le niveau de détails. Vous avez forcément entendu parler du ray tracing et de sa mouture plus « complète », le path tracing ? Eh bien, la gourmandise de ce procédé de projection nécessite des ressources considérables que les GPU même les plus modernes seraient incapables de fournir sans le soutien du DLSS.

De la génération des images par l’IA

De fait, plutôt que de limiter le travail de l’intelligence artificielle au calcul du super échantillonnage, à la mise à l’échelle de l’image, les ingénieurs de NVIDIA ont eu l’idée de lui confier le rendu complet d’une image sur deux. C’est ce que l’on appelle la frame generation et son arrivée ne date pas d’hier : elle est introduite dans le DLSS 3 à la sortie des GeForce RTX série 40. Là encore, sur le papier, les choses sont assez simples puisque le DLSS demande à l’intelligence artificielle d’intercaler une image entre deux rendues « normalement ».

La multi-frame generation intercale jusqu'à 3 images générées par l'intelligence artificielle. ©NVIDIA

Vous vous en doutez, tout n’est pas aussi simple en pratique et pour intercaler cette image entre deux autres et ainsi venir presque doubler la vitesse d’animation, l’intelligence artificielle a besoin de se reposer sur les images réellement rendues par le GPU. Il s’agit en quelque sorte de combler les manques. Pour ce faire, l’intelligence artificielle analyse les images rendues par le GPU pour en retirer les informations nécessaires à la génération d’une « intercalée » aussi juste que possible. Il s’agit ici d’établir ce que la firme baptise un optical flow field, ou champ de flux optique, qui permet d’avoir une bonne idée du mouvement de la scène.

Unanimement salué, le DLSS 3 est une réussite sur toute la ligne et, plutôt que de s’arrêter en si bon chemin, NVIDIA démultiplie la puissance de la frame generation avec la sortie des GeForce RTX série 50. Le DLSS 4 introduit en effet le concept de multi-frame generation qui permet d’intercaler jusqu’à trois images supplémentaires entre deux rendues « normalement ». Dans l’absolu, cela doit autoriser une multiplication des performances par un facteur allant jusqu’à 8 par rapport au rendu traditionnel. Un exemple : Cyberpunk 2077 sur une GeForce RTX 5090 peut atteindre les 200 images par seconde en 4K toutes options graphiques au maximum ! Soit quasiment le double d'une RTX 4090 comme vous pourrez le constater un peu plus bas dans cette page…

Les technologies DLSS 4 compatibles avec les dernières générations de cartes graphiques GeForce RTX. ©NVIDIA

Plus fort. Contrairement aux précédentes évolutions de DLSS, la multi-frame generation n’a pas nécessairement besoin d’être implémentée par les développeurs. NVIDIA reconnait que c’est toujours préférable de procéder ainsi, mais, afin d’élargir la compatibilité, la multi-frame generation peut être activée depuis l'outil de gestion NVIDIA App sur presque n’importe quel jeu prenant en charge la frame generation du DLSS 3. C’est ce que l’on appelle l’override, et si le résultat est un peu moins « sûr » qu’avec une intégration par les développeurs, il est dans la plupart des cas déjà très convaincant, pour un bénéfice immédiat.

À gauche, le résultat « natif » vs DLSS 4 sur le jeu Avowed. À droite, la même chose sur le jeu Hogwart's Legacy. ©NVIDIA

Plus de détails, plus de finesse à tous les niveaux

À côté de cette amélioration drastique des performances autorisée par la multi-frame generation, DLSS 4 est aussi l’occasion pour NVIDIA d’affiner quantité de « petites choses » sur des technologies bien connues. L’objectif est ici de parfaire le rendu de sorte que l’aspect visuel des jeux les plus modernes soit encore amélioré. On pense et en premier lieu à ce que NVIDIA baptise mega geometry. Au-delà du terme marketing, l’impact est majeur, car il autorise des scènes d’une complexité sans précédent.

Illustration des apports de la mega geometry sur le rendu d'un objet. ©NVIDIA

NVIDIA se repose ici sur l’utilisation de clusters de triangles afin d'en optimiser la création et la gestion. Grâce aux cœurs Tensor de 5e génération, on parle maintenant de gérer jusqu’à 100 fois plus de triangles par lancer de rayon car, oui, le mega geometry est principalement utilisé lors du rendu ray tracing, de loin le plus gourmand en ressources. Mieux, ces progrès sont associés à une augmentation du taux d'intersection des triangles par huit, permettant un traitement plus rapide des géométries complexes alors que la compression des groupements de triangles permet d’en réduire drastiquement la consommation mémoire sur les scènes à haute densité polygonale.

À côté de cette nouveauté, NVIDIA a affiné le travail de la super resolution qui profite d’une meilleure gestion des détails, ce qui autorise une réduction très nette des artefacts visuels. Ces derniers faisaient tiquer les joueurs les plus exigeants : ils bénéficient maintenant d’une clarté générale plus grande. Cela va aussi de pair avec l’amélioration de la ray reconstruction : là, le travail a porté sur de notables progrès dans la gestion des reflets et des ombres afin que le « bruit » soit moins présent et que la stabilité des scènes – notamment celles en mouvement – soit plus grande. Bien sûr, là encore ce sont les rendus ray tracing qui en profitent le plus.

Toutes les technologies NVIDIA ont pour but l'amélioration du rendu... jusqu'au photoréalisme ! ©NVIDIA

Enfin, et ce n’est certainement pas le moins important, NVIDIA a fait progresser le rendu DLAA – pour Deep Learning Anti-Aliasing – qui se trouve maintenant intégré à DLSS 4. L’objectif des ingénieurs de la marque est ici d’éliminer tout ce que la scène peut compter d’irrégularités sans sacrifier le moins du monde la netteté de l’image : le travail porte principalement sur tout ce qui effets d’escaliers et « bavures ». Même si ces progrès sont pensés pour les GeForce RTX série 50, soulignons que certains sont effectifs sur les RTX série 40 via la frame generation.

Reflex entre faible latence et frame warp

Parallèlement à l’amélioration visuelle de nos jeux favoris et l’augmentation de la vitesse d’animation, NVIDIA travaille aussi à une meilleure réactivité. Pour ce faire, ses ingénieurs ont imaginé la technologie Reflex qui, de base, s’adressait surtout aux joueurs professionnels : grâce à Reflex, ces derniers pouvaient bénéficier d’une latence extrêmement faible. En d’autres termes, le temps de réaction du PC à leurs sollicitations (mouvements de la souris, pression d’une touche) était considérablement réduit pour une réactivité presque immédiate.

Schéma explicatif de la technologie Reflex 2. © NVIDIA

Bien vite cependant, NVIDIA a « détourné » Reflex pour l’associer à la frame generation. En effet, avec cette dernière, l’intelligence artificielle doit attendre le rendu de l’image suivante pour « imaginer » la sienne. Forcément, cela vient augmenter substantiellement la latence et Reflex est alors utilisé pour contrebalancer ce dommage collatéral d’une technologie sinon remarquable. Vous imaginez bien qu’avec la multi-frame generation, la latence augmente encore et c’est en partie pour cela que NVIDIA a fait évoluer Reflex vers Reflex 2.

Là, nous parlons d’une réduction de la latence globale du système de près de 75% en associant deux technologies distinctes. En premier lieu, NVIDIA propose le mode à faible latence lequel vient synchroniser de manière aussi précise que possible les étapes de rendu entre le CPU et le GPU. Les deux puces travaillant mieux ensemble, la latence globale du système est réduite. NVIDIA ajoute à cela la fonction dite frame warp qui vient ajuster en temps réel l’image rendue afin de réfléchir la position actuelle de la souris.

Reflex 2 est particulièrement utile sur les jeux compétitifs… ou avec DLSS 4. ©NVIDIA

De manière un peu schématique, on peut ainsi dire que frame warp vient prédire la position de la caméra en fonction des mouvements de la souris. Il est alors possible d’ajuster une image déjà rendue (ou « imaginée ») afin de refléter le déplacement de la souris et sa nouvelle position. Le joueur profite alors d’un délai réduit entre l’action qu’il réalise et sa transcription à l’écran. Le jeu semble plus réactif, l’action plus fluide. Bien sûr, NVIDIA a travaillé la technologie pour qu’elle génère un minimum d’artefacts et ne vienne pas gâcher le résultat visuel.

Modèle transformer et réseaux neuronaux

Rien à voir avec les Autobots ou les Decepticons ! Le modèle transformer est le « petit plus » introduit par NVIDIA avec l’architecture Blackwell. L’idée est de remplacer les réseaux neuronaux convolutifs (Convolutional Neural Network ou CNN) afin – ô surprise – de faire progresser les performances autant que le résultat visuel. Pour faire simple, alors que le modèle CNN analyse les choses très localement, le modèle transformer évalue l’importance de chaque pixel sur l’ensemble de l’image et, mieux, sur plusieurs images successives.

Le modèle transformer prend en compte l'image dans sa globalité. ©NVIDIA

Une scène étant maintenant pensée dans sa globalité tant spatiale que temporelle, cela permet à l’intelligence artificielle de bien mieux « comprendre » ce qui est proposé. De fait, cette compréhension plus « globale » du contexte autorise une meilleure stabilité temporelle, une réduction des effets de ghosting (traînée résiduelle qui suit les objets en mouvement) et une amélioration du niveau de détails. Autant de points que l’on pourra vérifier de manière encore plus éclatante sur toutes les scènes en mouvement et, plus elles seront rapides, plus ce sera évident. Pour ne rien gâcher, le modèle transformer peut réduire jusqu’à 30% les besoins en mémoire vidéo et fonctionne également sur les GeForce RTX série 20, 30 et 40 !

La démo technique Zorah est une vitrine technologique de la puissance du rendu neuronal. ©NVIDIA

Enfin, avec Blackwell, les réseaux neuronaux s’invitent jusque dans les shaders programmables du GPU ce qui, vous vous en doutez, va encore améliorer rendu visuel et performances. Dans les faits, cela passe par une optimisation de l’exécution des opérations en virgule flottante ainsi que par l’introduction du format FP4 lequel permet de traiter des calculs avec une efficacité accrue dans les scénarios où la précision la plus élevée n’est pas nécessaire, c’est notamment le cas sur DLSS 4 et le rendu neuronal. NVIDIA décline les choses en plusieurs technologies avec des objectifs spécifiques à chacune d’elles.

CNN vs Transformer : un niveau de détails sans commune mesure. ©NVIDIA

Ainsi, la neural texture compression exploite l’intelligence artificielle pour compresser les textures jusqu’à un ratio de 7:1. C’est autant de mémoire vidéo d’économisée. Les neural materials appliquent des modèles neuronaux pour recréer des matériaux complexes (surfaces métalliques, tissus multi-couches) et se rapprocher d’un rendu photoréaliste. Le neural radiance cache simule la propagation de la lumière dans une scène pour un éclairage global réaliste sans gaspiller les ressources. Les neural radiance fields se chargent de tout ce qui est représentations volumétriques dans les environnements complexes et les neural volumes se focalisent sur le rendu de la brume ou de la fumée, par exemple.

NVIDIA tente de résumer le plus simplement les apports RTX. ©NVIDIA

Et les performances dans tout ça ?

Au-delà de toutes ces considérations techniques, l’impact des nouveautés imaginées par NVIDIA peut se mesurer très concrètement. Les différentes captures et autres illustrations vous ont permis de vérifier l’impact visuel de ces technologies, mais vous l’avez bien compris, l’impact se mesure aussi sur les performances observées en jeu. L’idée étant de proposer une amélioration sensible d’une génération de cartes graphiques à l’autre.

Performances comparées en 4K de cartes RTX 5090, RTX 4090 et RTX 3090 sur trois jeux différents (images/s). ©Clubic

Nous avons déjà évoqué le cas de la GeForce RTX 5090 sur Cyberpunk 2077 et la possibilité d’aboutir à des vitesses d’animation venant dépasser les 200 images par seconde (ips) en 4K avec tous les détails graphiques – path tracing compris – poussés au maximum. Le jeu de CD Projekt RED n’est pas le seul dans ce cas et la RTX 5090 offre vraiment une nouvelle façon de voir le jeu vidéo, avec une fluidité jamais atteinte qui, pour les joueurs les plus exigeants, permet de profiter des écrans les plus réactifs. On parle ici de dalles à 240 Hz, voire plus !

Comme vous pouvez le voir ci-dessus, les gains observés entre une GeForce RTX 3090, une GeForce RTX 4090 et le nouveau fer-de-lance de NVIDIA, la GeForce RTX 5090, sont absolument renversants. Compte tenu du prix de cette dernière, difficile de conseiller le remplacement d’une RTX 4090 par la « petite » nouvelle, mais vous voyez que le gain générationnel est réel et plus encore si l’on parle de la génération encore précédente. Pour autant, l’impact le plus important aux yeux de NVIDIA ne se situe pas forcément sur le très haut de gamme. En effet, l’essentiel des ventes se réalise bien davantage sur l’entrée de gamme.

Performances comparées RTX 5060 Ti, RTX 4060 Ti et RTX 3060 Ti sur Black Myth Wukong. ©Clubic

NVIDIA cherche donc aussi à faire progresser les « petits GPU ». Nous avons donc opposé la GeForce RTX 5060 Ti aux anciennes générations pour déterminer l’impact de toutes les nouveautés techniques sur des cartes graphiques autrement plus accessibles que les « monstres » à plus de 1 000 euros : la GeForce RTX 5060 Ti est ici placée à côté des RTX 4060 Ti et RTX 3060 Ti.

Performances comparées RTX 5060 Ti, RTX 4060 Ti et RTX 3060 Ti sur Cyberpunk 2077 (à gauche) et sur Star Wars Outlaws (à droite). ©Clubic

Le cas de la GeForce RTX 3060 Ti est évidemment un peu particulier, la carte étant limitée par ses 8 Go de mémoire vidéo. Pour autant, on voit que l'apport de la technologie de frame generation est énorme et qu'il est plus impressionnant encore avec DLSS 4 et la multi-frame generation : la RTX 5060 Ti bascule dans une autre dimension avec des performances en toute circonstance au-dessus des 60 images par seconde et, souvent, au-dessus des 100 ips.

Ainsi, au moment de renouveler votre matériel, qu’il s’agisse d’un PC fixe, d’un portable ou d’une carte graphique, ne vous limitez plus aux critères habituels comme la fréquence d'horloge ou le nombre d'unités de traitement 3D. Privilégiez désormais les composants intégrant ces nouvelles technologies, comme DLSS 4 et la multi-frame generation. Véritables garanties de performances, de qualité graphique et de durabilité, ces innovations vous permettront de profiter pleinement des effets visuels les plus évolués et de jouer dans les meilleures conditions aux jeux de demain.

PNY GeForce RTX 5080 OC 16GB
  • Les performances en DLSS4 multi-frame generation
  • La qualité d'image du modèle Transformer
  • L'efficacité énergétique et performance/prix
ASUS TUF Gaming RTX 5070 Ti OC
  • La magie du multi-frame generation
  • Au niveau de la RTX 4080 FE
  • Écosystème NVIDIA très complet
Gainward GeForce RTX 5060 Ti Python III 16 Go
  • La magie du multi-frame generation
  • Faible surcoût des 16 Go (vs 8 Go)
  • NVIDIA override de + en + efficace