Test GeForce RTX 2070, 2080, 2080 Ti : que vaut le haut de gamme de Turing ?

Colin Golberg
Par Colin Golberg, Rédacteur en chef adjoint.
Publié le 19 août 2019 à 11h10
Mise à jour du 10/08/2019 : notre test des GeForce RTX 2060, 2070, 2080 SUPER est disponible ici.

Mise à jour du 07/11/2018 : ajout des tests des GeForce RTX 2070 de chez MSI (Armor et Gamin-Z).

Attention, les bloqueurs de publicité peuvent empêcher l'affichage des graphiques hébergés sur Infogram.

Mise à jour du 11/10/2018 : Nous avons mis à jour le test avec les performances des différentes cartes en overclocking, les benchmarks d'un modèle partenaire (la MSI 2080 Ti Duke 11G OC), ainsi que les performances en HDR. D'ici peu nous ferons une mise à jour avec les performances en ray tracing sur les premiers jeux compatibles.

Plus de deux ans. C'est le temps qu'il aura fallu patienter pour que NVIDIA se décide à annoncer ses nouvelles cartes graphiques grand public, les Geforce RTX. Mais en coulisses, cela fait près de 10 ans que la firme au caméléon travaille sur le Saint Graal de l'informatique graphique : le rendu en temps réel avec le ray tracing. Alors, ça donne quoi ?

Introduction

C'est en août, lors du SIGGRAPH, que NVIDIA a levé le voile, après des mois de rumeurs, sur sa nouvelle architecture « Turing ». D'abord présentée avec les Quadro RTX 8000, 6000 et 5000 réservées aux professionnels, c'est pendant la Gaming Celebration à la Gamescom que nous avons pu découvrir les Geforce RTX, déclinaisons Turing pour le grand public.

Si NVIDIA s'est décidé à renommer ses cartes GTX en RTX, c'est parce que la marque considère qu'il s'agit de la plus grande évolution technologique depuis l'avènement des cœurs CUDA en 2006. Nous allons voir ce qu'il en est tout au long ce test.

DSC00227.JPG
Le design des cartes Founder's Edition est particulièrement réussi.


Une nouvelle architecture taillée pour le Ray tracing et boostée à l'IA

NVIDIA a annoncé pour l'instant trois modèles, les plus hauts dans la gamme. Les TU102, TU104 et TU106. Leurs noms commerciaux :
  • GeForce RTX 2080 : TU104
  • GeForce RTX 2080 Ti : TU102
Ces deux modèles seront disponibles dès le 20 septembre, tandis qu'un troisième modèle arrivera en octobre :
  • GeForce RTX 2070 : TU106
Avant d'entrer dans le détail des tests, revenons sur la grogne des joueurs qui a suivi la présentation des GPU à la Gamescom. En effet, après une présentation principalement dédiée au ray tracing et à l'IA (nous y reviendrons), l'annonce des caractéristiques a quelque peu déçu par rapport au bond important qu'avait représenté le passage de Maxwell (9xx) à la génération Pascal (11xx). Depuis la rédaction de ce test, nous avons également testé la GeForce RTX 2060 FE.

On se rappelle qu'entre ces deux générations, le nombre de cœurs CUDA avait augmenté de 25-30%, selon les modèles, et les fréquences de fonctionnement des GPU s'étaient envolées avec plus de 40% d'amélioration.

Cette année, si l'on se base uniquement sur les cœurs CUDA et les fréquences des GPU, l'écart est beaucoup plus modéré :
  • RTX 2080 : +15% de cœurs CUDA / +4% fréquence GPU VS GTX 1080
  • RTX 2080 Ti : +21% de cœurs CUDA / +7% fréquence GPU VS GTX 1080 Ti


pascal turing specs

D'autant plus que l'augmentation des prix annoncée par rapport à la génération précédente (au lancement) est elle-même beaucoup moins modérée. Le passage de la finesse de gravure de 16 à 12 nm ne semble pas suffisant pour un bond important sur les fréquences des GPU.

Mais si on y regarde bien, la taille du die et le nombre de transistors se sont envolés par rapport à la génération précédente, avec une augmentation de près de 88% pour la RTX 2080, et de 55% pour la RTX 2080 Ti. Mais alors à quoi servent ces transistors supplémentaires ?

Et c'est bien là qu'il est important de comprendre que nous sommes en présence d'une toute nouvelle architecture, qui s'appuie notamment sur deux nouveautés essentielles dans le pipeline de rendu : les RT Cores pour le ray tracing, et les Tensor Cores pour l'IA et le deep learning.

NVIDIA semble avoir décidé qu'il était temps de faire bouger l'industrie !

TU104 full chip
La nouvelle puce Turing dans son intégralité (TU102)


Le SM selon Turing

Avant d'aborder en détails les RT Cores et Tensor Cores, il est nécessaire de prendre un peu de temps pour analyser les nouveautés concernant le nouveau streaming multiprocessor (SM). Annoncé, selon NVIDIA, plus performant à hauteur de 50% sur le traitement des shaders que sur la génération Pascal, le nouveau SM voit arriver deux changements majeurs dans son architecture.

concurent execution.jpg
L'exécution simultanée devrait apporter un important gain de performances


Premièrement, Turing emprunte à Volta son support de l'exécution simultanée des instructions FP32 et INT32. Sur les générations précédentes, ces types d'instructions ne pouvaient pas s'exécuter en même temps. Sur Turing on trouve des cœurs dédiés FP32 et des cœurs dédiés INT32 pour chaque bloc SM, alors que sur la génération Pascal on avait affaire à des cœurs CUDA non spécialisés.

Le fait d'avoir des cœurs dédiés à chaque type d'instruction et gérés de façon complètement indépendante permet donc d'effectuer les calculs simultanément.

A cela s'ajoute une gestion de la mémoire revue, afin d'unifier la mémoire partagée et le cache L1 en une seule et unique unité.

shared memory


Troisième changement majeur, le passage à la mémoire GDDR6 sur un bus 352-bit qui permet d'améliorer significativement la vitesse des échanges entre les cœurs et la mémoire. On parle d'une amélioration de plus de 27% de bande passante par rapport à la génération Pascal.

L'objectif de NVIDIA est d'offrir un maximum de souplesse aux développeurs, qui pourront exploiter Turing selon leurs besoins.

Du ray tracing en temps réel via un rendu hybride

L'une des grandes nouveautés mise en avant par NVIDIA sur Turing est bel et bien le ray tracing en temps réel. Si vous voulez en savoir plus sur le ray tracing, nous vous invitons à lire notre article précédent sur le sujet.

Sachez juste que le ray tracing permet de donner aux jeux un rendu photo-réaliste avec des ombres, lumières et reflets générés de manière naturelle et réaliste.

En résumé, cette méthode de rendu - extrêmement gourmande en puissance de calcul - sera accélérée sur Turing grâce aux RT Cores. Ceux-ci seront dédiés aux fonctions BVH (Bounding Volume Hierarchy) traversal et aux tests d'intersection entre les rayons (ray) et les triangles. Ces deux fonctions sont essentielles aux algorithmes de ray tracing.

BVH.jpg
L'algorithme BVH permet d'améliorer l'efficacité de la recherche d'intersection entre un rayon et un triangle.


Aujourd'hui, le seul moyen d'effectuer du ray tracing en temps réel est en effet de découper une scène géométrique en différentes « boites » afin de faciliter les calculs permettant de définir l'endroit où un rayon généré viendra frapper l'un des triangles de la forme géométrique (le lapin dans l'exemple ci-dessus). Sans ces « boites », l'algorithme serait forcé de chercher l'intersection dans toute la scène.

giaray.jpg
Turing est clairement plus performant en ray tracing, à relativiser bien sûr puisque que cette génération a été pensée pour.


D'après NVIDIA, une Geforce GTX 1080 Ti peut générer 1,1 milliard de rayons par seconde en utilisant ses cœurs CUDA - alors que la RTX 2080 Ti peut en générer environ 10 milliards avec ses RT Cores. Mais cela ne reste pas suffisant pour générer une scène 3D complète en temps réel. C'est pour cette raison que NVIDIA a créé un nouveau pipeline de rendu hybride, impliquant de la rasterization traditionnelle pour le rendu géométrique, et du ray tracing via les RT Cores pour gérer les lumières ou les ombres, par exemple.

Il faut reconnaître que cette technologie permet de créer des images impressionnantes de réalisme dans les démos qu'il nous a été donné de voir. En revanche, ce sont bel et bien les développeurs qui auront la lourde tâche de l'utiliser et d'en faire quelque chose d'incontournable... ou non.

A l'heure où nous écrivons ce test, plus de 10 jeux seront compatibles avec l'hybrid rendering, et donc le ray tracing.

pipeline.jpg
Le nouveau pipeline de rendu intègre de la rasterisation classique, du ray tracing et par exemple du DLSS sur les Tensor Cores


Deep Learning & Tensor Cores

Les Tensor Cores représentent l'autre grande nouveauté mise en avant par NVIDIA, et issue également de l'architecture Volta. Comme sur celle-ci, les Tensor Cores sont des unités spécialisées sur les opérations matricielles, qui sont les principales fonctions utilisées dans le Deep Learning. Ces Tensor Cores vont permettre d'accélérer drastiquement ce type d'opérations et d'apporter de nouvelles techniques - comme le DLSS, pour Deep Learning Super Sampling.

DLSS.jpg
Le gain de performance devrait être important, nous ne manquerons pas de le vérifier dans ce test.


L'exemple du DLSS est le premier à nous avoir été montré en démo temps réel. Il s'agit d'un « super » anti-aliasing qui se rapproche du résultat du TAA, très utilisé dans les jeux du moment. Le DLSS utilise beaucoup moins de ressources grâce à l'utilisation de moins de samples - les Tensor Cores se chargeant de créer les éléments intermédiaires grâce à l'IA - et aux modèles d'instructions fournis par NVIDIA via des mises à jour de pilotes.

Ces fameux modèles d'instructions sont calculés chez NVIDIA avec leur nouveau framework NGX, qui utilise les réseaux neuronaux pour améliorer les graphismes, rendus et autre application coté client. Pour faire simple, NVIDIA va utiliser ses supercalculateurs DGX SaturnV pour générer des images de la meilleure qualité possible, en super haute résolution. Puis entraîner un modèle d'IA pour qu'il génère des images intermédiaires dans une résolution plus basse mais aussi fidèle que possible.

On imagine qu'à terme d'autres améliorations pourront être mises en place, mais déjà plus de 25 jeux ont annoncé la prise en charge du DLSS. Le gros du travail étant effectué coté NVIDIA, on peut comprendre qu'il soit facile de convaincre les développeurs.

RTX-OPS : une nouvelle unité de mesure des performances

La nouvelle architecture Turing introduite par NVIDIA ne permet plus de mesurer les performances brutes des GPU en téraflops (TFLOPS). En effet, en plus des instructions INT32 et FP32, les RT Cores et les Tensor Cores doivent être pris en compte dans l'équation.

C'est pour cette raison que NVIDIA a jugé nécessaire de créer une nouvelle unité de mesure qui refléterait les capacités totales de la carte, aussi bien sur la rasterisation que sur le ray tracing et le deep learning.

Il faudra probablement attendre un certain temps avant que cette nouvelle unité de mesure - les RTX-OPS - ait du sens, puisque qu'au moment du lancement des RTX, aucun jeu ne prend encore en charge le ray tracing et le DLSS.

rtops.png
L'équation des RTX-OPS, miam


Mesh Shading, HDR natif et VirtualLink

Derniers points avant de rentrer dans le vif du sujet. NVIDIA a introduit deux nouveaux procédés de shading avec Turing : le Mesh Shading et le Variable Rate Shading.

Ces nouveaux procédés sont intéressants, puisqu'ils profitent d'ores et déjà aux jeux disponibles aujourd'hui.

Le Mesh Shading devrait améliorer le niveau de détails (LOD), cette technique qui permet d'affiner les détails des objets en fonction de la distance d'affichage en déchargeant le CPU de cette tâche.

mesh.png


De son coté, le Variable Rate Shading permet d'exécuter le rendu de certaines parties de l'image en moindre qualité, sans que cela soit perceptible dans le rendu final. On pourra par exemple privilégier la partie centrale de l'écran, où se déroule l'essentiel de l'action.

VRS.png

Sur la génération Pascal, les GPU avaient besoin d'appliquer un traitement logiciel qui rajoutait de la latence, avec un impact négatif sur les performances. Sur Turing, c'est terminé ! Tout le processus est réalisé au niveau du hardware grâce à un nouveau moteur vidéo.

Celui-ci est pleinement compatible avec le protocole DisplayPort 1.4a, dont on retrouve 3 connecteurs sur les cartes Founders Edition, ainsi qu'une sortie HDMI 2.0b et la nouvelle interface VirtualLink.

De quoi supporter jusqu'à quatre moniteurs en simultané, dans une résolution pouvant atteindre 8K grâce au Display Stream Compression (sur les ports DisplayPort uniquement).

C'est aussi le DSC qui permet d'utiliser des moniteurs en 4K 120 Hz, notre ROG Swift PG27U s'en lèche déjà les babines.

video.png
Turing apporte également un gain de performance en encodage/décodage vidéo. Les streameurs devraient apprécier.



Enfin, un petit mot sur le VirtualLink : cette nouvelle interface utilise un port USB Type-C reconfiguré pour profiter au maximum aux casques de réalité virtuelle. Nous en reparlerons lorsque les casques disposant de ce nouveau standard seront disponibles.

Les modèles Founders Edition de NVIDIA

Les deux modèles sur lesquels nous allons nous attarder aujourd'hui sont les Founders Edition de NVIDIA. La RTX 2080 est déjà disponible dans toutes les bonnes crèmeries, au tarif de 849 €, tandis que la RTX 2080 Ti sera disponible dès le 27 septembre au prix de 1259 €.

Anciennement appelées « design de référence », le caméléon les a renommées en Founders Edition lors de la sortie des cartes graphiques grand public de la génération Pascal.

rtx FE
Les Founders Edition sont livrées dans un fort bel écrin


NVIDIA a décidé d'abandonner leur blower propriétaire (pour notre plus grand plaisir), pour se concentrer sur un système à double ventilateurs beaucoup moins bruyant ! Le blower avait pour particularité d'extraire tout l'air chaud à l'extérieur du boitier ; cette technique issue des datacenters n'avait plus vraiment de sens que dans les petits boitiers avec peu de volume pour le refroidissement.

Les partenaires de NVIDIA doivent s'en mordre les doigts : sur la génération Pascal leurs systèmes de refroidissement alternatifs leur permettaient de se différencier des Founders Edition. Pour se consoler, ils pourront cette fois-ci proposer des design blower !

Un petit mot sur les nuisances sonores avec la 2080 et la 2080 Ti. Lors de nos tests en conditions réelles boitier fermé (pas particulièrement optimisé pour pour le silence), les cartes sont très silencieuses, même en pleine charge dans les jeux exigeants. Aucune comparaison possible avec les blower de la génération précédente.

bruit.jpg
NVIDIA annonce une 2080 RTX 5X plus discrète que la 1080 GTX


DSC00189.JPG
Le backplate métallique est de retour




Protocole de test, consommation électrique et benchmarks généralistes

Avant de vous détailler la configuration de test utilisée, ainsi que le panel de cartes graphiques testées, nous tenons à préciser deux points :
  • Premièrement, nous n'avons pas pu intégrer les Radeon Vega 56 et 64 dans les benchmarks, car nous n'avons pas réussi à obtenir les cartes à temps. Nous comparerons donc Turing à Pascal. Lors de sa prise d'indépendance, Clubic est reparti à zéro au niveau du matériel. MAJ du 07/11/2018 : ajout de la Radeon RX Vega 64 Nitro+ de Sapphire dans les benchmarks.
  • MAJ du 11/10/2018 : nous avons reçu le moniteur ASUS ROG Swift PG27U, la rolls des moniteurs gaming PC (4K HDR 144 hz Gsync) et nous avons donc pu tester les performances en HDR dans la section dédiée.

Sans plus attendre, voici la configuration de test utilisée pour tous les benchmarks. Celle-ci nous a été fournie par notre partenaire TopAchat que nous remercions , et qui propose des configurations montées de grande qualité.
  • Processeur Intel Core i7-8700K (3.7 GHz)
  • Carte Mère MSI Z370 GAMING PRO CARBON (Chipset Intel Z370)
  • DDR4 Corsair Vengeance LPX, 2 x 8 Go, 3000 MHz, CAS 15, PC-24000
  • SSD Samsung Série 960 EVO, 250 Go, M.2 (Type 2280)
  • Disque Dur Seagate BarraCuda, 2 To
  • Alimentation Be Quiet ! Straight Power 11, 850W Plus Gold

Tous les tests sont effectués sous Windows 10 Pro (1803) avec les dernières mises à jour disponibles via Windows Update. La version des pilotes NVIDIA fournie est la 416.33.

Voici la liste des cartes que nous avons testées :
  • GeForce GTX 1070 FE
  • GeForce GTX 1080 FE
  • GeForce GTX 1080 Ti FE
  • GeForce RTX 2070 Armor (MSI)
  • GeForce RTX 2070 Gaming Z (MSI)
  • GeForce RTX 2080 FE
  • GeForce RTX 2080 Ti FE
  • GeForce RTX 2080 Ti Duke (MSI)
  • Radeon RX Vega 64 Nitro+ (Sapphire)

Pour notre premier test, la RTX 2080 Ti dépasse de près de 46% la GTX 1080 Ti, et la RTX 2080 supplante la GTX 1080 de près de 43% ! Du coté des RTX 2070, on est 53% plus performant que la GTX 1070, et 18% plus rapide que la GTX 1080.

La 2080 Ti se place bien évidemment devant la 2080 avec une amélioration de près de 32% sur ce test.


Sur Unigine 2 en 4K, la RTX 2080 Ti surpasse la GTX 1080 Ti de près de 52%, alors que le RTX 2080 est 27% plus rapide que la GTX 1080.

Ces écarts sont presque similaires en 1440p, mais se réduisent lorsque l'on passe en 1080p.


Notre premier test du nouvel antialiasing (anticrénelage) est très impressionnant. Certes, il s'agit de démos et non de jeux en conditions réelles ; mais le gain observé est vraiment important et augure le meilleur pour cette technologie. D'autant plus que la qualité d'image finale est vraiment propre, et la différence avec du TAA classique est imperceptible.


Nous mesurons la consommation totale du PC avec un wattmètre à la prise, au repos sur le bureau, puis en pleine charge dans un jeu exigeant.

Pour obtenir la consommation des cartes au repos, nous comparons la consommation du PC avec et sans carte graphique insérée, sur le circuit graphique intégré.

Malgré la finesse de gravure un peu plus importante (12 nm VS 16 nm), l'augmentation de l'enveloppe thermique se traduit forcément par une consommation énergétique plus vorace.

La RTX 2080 est environ 40% plus gourmande que la GTX 1080 en charge, tandis que la RTX 2080 Ti est 25% plus énergivore que la GTX 1080 Ti. A noter que la consommation au repos des RTX est plus importante que la moyenne.

NVIDIA a d'ors et déjà annoncé travailler sur une mise à jour des pilotes pour régler le problème.

Performances dans les jeux

Sur l'ensemble des jeux que nous avons testé, c'est en 4K que les nouvelles RTX se démarquent le plus. La GeForce RTX 2080 est en moyenne près de 41% plus performante que la Geforce GTX 1080, et 10% plus rapide que la 1080 Ti.

Tandis que la GeForce RTX 2080 Ti est elle 36% plus véloce que la GeForce GTX 1080 Ti, et 20% plus performante que sa petite soeur, la RTX 2080.

Lorsque la résolution baisse, l'écart se lisse de plus en plus, et en 1080p (FHD), c'est le CPU qui devient un facteur limitant. Quoi qu'il en soit, lorsqu'on s'offre une RTX 2080 ou 2080 Ti, le 1080p n'est pas l'objectif en vue !

Notez bien que l'intégralité de ces tests sont basés sur des jeux actuels, utilisant un rendu à base de rastérisation classique. Nous ne pouvons pas encore tester le rendu hybride avec le ray tracing, il faudra pour cela attendre au minimum la mise à jour d'octobre de Windows 10. Celle-ci devrait embarquer la première version publique de DXR au sein de DirectX 12.

Les développeurs devraient rendre disponible en même temps, les mises à jour spécifiques des jeux compatibles. Nous mettrons bien évidement ce test à jour à ce moment là.

Nous vous laissons découvrir les résultats par jeu et par résolution d'écran :











Overclocking

Après avoir testé en détails nos différents modèles de test, il ne reste plus que l'épreuve de l'overclocking pour pousser ces GeForce RTX dans leurs derniers retranchements. Sur la génération Turing, Nvidia a fait des efforts sur le refroidissement de ses cartes Founders Edition, afin de pouvoir améliorer les fréquences de fonctionnement des GPU.

Rappelons nous que plus le refroidissement est efficace, plus la fréquence "boost" peut être augmentée. Un bon overclocking est un compromis entre performances, température et nuisances sonores.

Et ça tombe bien parce qu'avec Turing, Nvidia inaugure une nouvelle technologie appelée OC Scanner, sensée nous permettre d'effectuer un overclocking idéal et stable en un seul clic. Les cartes Founders Edition ainsi que les modèles partenaires embarquent un ensemble d'algorithmes dédiés à l'overclocking, permettant de tester le ratio fréquence/tension sur différents scénarios de charge.

L'avantage de ce système, c'est de pouvoir effectuer une analyse d'environ 10-20 minutes sans crash du PC. Le programme va mesurer les erreurs et mémoriser le dernier état stable avant le crash, permettant d'obtenir une courbe fréquence/tension idéale.

A l'heure actuelle seules les versions beta de EVGA Precision X1 et MSI Afterburner prennent en charge l'OC scanner.

precision x1
EVGA Precision X1

msi afterburner
MSI Afterburner


Sur les trois cartes que nous avons overclockées, les résultats obtenus via l'OC Scanner sont très proches de ceux obtenus via un overclocking manuel. A 5-10 Mhz près, nous n'avons pas fait mieux "à l'ancienne". En revanche l'overclocking automatique n'a aucun impact sur les fréquences mémoire, alors que nous avons pu sans problème faire un +1000 Mhz sur les trois cartes.

Maintenant place aux résultats :




Nous avons réussi à pousser notre RTX 2080 à 2010 Mhz, notre RTX 2080 Ti Duke de MSI à 2040 Mhz, et enfin la RTX 2080 Ti Founders Edition a atteint les 2070 Mhz !

Si l'on traduit ça en terme de performances, sur le test TimeSpy Extreme de 3D Mark, en 4K, on mesure le Graphics score :
  • GeForce RTX 2080 Founders Edition : +10%
  • MSI GeForce RTX 2080 Ti Duke 11G OC : +9%
  • GeForce RTX 2080 Ti Founders Edition : + 14%
On obtient des gains de performances très honorables, surtout avec le refroidissement à air classique.

A noter tout de même qu'à ces fréquences élevées, les ventilateurs tournent très vite et deviennent bruyants. Seule la carte de MSI reste relativement silencieuse, au détriment de l'overclocking le moins efficace.

Du coté des RTX 2070, nous avons pu pousser la Armor à 1980 Mhz, et le modèle Gaming Z à 2010 Mhz. En terme de performances, toujours sur TimeSpy Extreme en 4K, on obtient :
  • RTX 2070 Armor : +12%
  • RTX 2070 Gaming Z : +6%


Test MSI GeForce 2080 Ti Duke 11G OC

La première candidate des modèles partenaires que nous allons tester est la monstrueuse RTX 2080 Ti Duke 11G OC de MSI. Celle-ci fait la bagatelle de 31,2 cm de longueur, 12 cm de hauteur, et un poil plus de 5 cm d'épaisseur pour un poid de près de 2 kg !

duke
La Duke est sacrément imposante !


Son imposant système de refroidissement surmonté de trois ventilateurs Torx Fan 2.0 de 90 mm, promet un refroidissement des plus efficace, tout en limitant les nuisances sonores. Au niveau des sorties, on y trouve trois DisplayPort 1.4a, un connecteur VirtualLink (USB C) pour la VR, et une sortie HDMI 2.0b. Finalement exactement la même chose que sur le modèle de référence de NVIDIA.

Au niveau de l'alimentation, on reste sur deux connecteurs 8-pin. La carte est bien évidemment compatible avec le système Mystic Light de MSI, afin de contrôler les LED RGB qui décorent la tranche visible, venant illuminer de tous feux le logo Duke.

Coté fréquences de fonctionnement, la fréquence de base reste à 1350 Mhz comme sur le modèle de référence, mais le mode boost passe à 1665 Mz (VS 1635 Mhz), une petite augmentation de 2%. Au niveau de la mémoire, on reste sur une fréquence de 1750 Mhz.

duke rgb
Les LEDS de la Duke se synchronisent avec notre carte mère MSI Z370 Gaming Pro Carbon. De toute beauté.


La carte de MSI est également capable de fonctionner en mode totalement silencieux, en coupant ses ventilateurs lorsque la charge est légère.

Pour connaitre les performances dans les différents tests que nous avons menés, en jeu ou lors de benchmarks spécialisés, nous vous invitons à lire les sections dédiées dans le sommaire du test. N'hésitez pas aussi à consulter la section Overclocking dans laquelle nous avons mis à l'épreuve cette 2080 Ti Duke de MSI.


duke
La carte est assez épaisse, elle occupera 3 slots PCIE


La RTX 2080 Ti Duke 11G OC de MSI est un monstre de puissance, à même de tenir tête aux jeux les plus gourmands en 4K HDR à 60 images/sec, voire au delà. Bien sûr ce niveau de performances -inégalé sur le marché- a un prix très élevé. Il vous en coûtera 1319 €, soit 60 € de plus que le modèle Founders Edition de Nvidia.

Finalement la 2080 Ti Duke perd quelques points à cause de ses performances en overclocking, décevantes face à la Founders Edition. C'est d'autant plus dommage que cet énorme système de refroidissement laissait augurer du meilleur. Peut être que nous n'avons pas eu de chance avec la puce T102 de notre sample, étant donné que d'autre testeurs ont pu pousser leurs fréquences au delà des nôtres.

Si on laisse de coté l'overclocking, la carte de MSI est en tête de notre classement, environ 3,5% plus rapide que la Founders Edition, à vous de voir si la différence de prix est justifiée. Notons tout de même que le système de refroidissement est le plus silencieux de tous les modèles que nous avons testé, un très bon point pour MSI.


duke

Conclusion RTX 2070

Après avoir testé sous toutes les coutures les GeForce RTX 2080 & 2080 Ti, intéressons-nous aujourd'hui à leur petite sœur plus abordable, la GeForce RTX 2070 de NVIDIA. Annoncée également pendant la Gaming Celebration à la Gamescom, elle est disponible dans toutes les bonnes crèmeries depuis le 17 octobre, à partir de 519 € pour les modèles partenaires et 629 € en Founders Edition (overclockée d'usine avec le design de référence NVIDIA).

2070 gamingz
La RTX 2070 Gaming Z de MSI, disponible à 679 €

La GeForce RTX 2070 est basée sur un GPU de la génération Turing, la TU106 avec 2304 cœurs CUDA, 288 Tensor Cores et 36 RT Cores, le tout supporté par 8 Go de mémoire GDDR6. Il s'agit de « l'entrée » du haut de gamme des RTX.

Cette fois-ci, nous avons testé deux modèles partenaires, la MSI GeForce RTX 2070 Armor 8G et la MSI GeForce RTX 2070 Gaminz Z 8G. Celles-ci sont affichées respectivement à 519 € et 679 €.

519 €, c'est le prix « plancher » annoncé par NVIDIA lors de sa présentation à la Gamescom. Il s'agit du billet d'entrée vers les technologies de ray tracing et de deep learning (DLSS). Attention, dans les faits, les stocks étant faibles au lancement, les marchands ne jouent pas le jeu et pratiquent des tarifs plus importants. A l'heure où nous écrivons ces lignes, il est impossible de trouver en stock le modèle Armor à 519 €. Au mieux ce même modèle est dispo sous 15 jours à... 590 €. En revanche le modèle Gaming Z, plus performant, est lui bien disponible immédiatement au prix annoncé de 679 € chez plusieurs gros e-commerçants.

D'après nos recherches, le modèle le plus accessible et disponible immédiatement, sous la barre des 523 €, est un modèle d'ASUS, la GeForce RTX 2070 - TURBO. Celle-ci profite d'un refroidissement de type « blower », moins efficace et plus bruyant que les doubles ventilateurs. Ce type de refroidissement a néanmoins l'avantage d'expulser l'intégralité de l'air chaud à l'extérieur du boitier, ce qui est intéressant dans le cas de configurations compactes.

2070 rbg gamingz
Les amateurs de RBG seront servis sur la Gaming Z

Mais à qui se destine cette nouvelle carte ?

La GeForce RTX 2070 est idéale pour les gamers qui souhaiteront profiter de tous les jeux récents à plus de 60 images/sec en 1440p (WQHD) avec tous les réglages au maximum. Les joueurs qui possèdent des écrans à plus de 120Hz pourront également jouer à des taux de rafraîchissement supérieurs à 100 images/sec en 1080p (FULL HD), très utile pour les jeux compétitifs notamment. La RTX 2070 vient jouer sur le terrain des GTX 1080 et des Radeon Vega 64 que nous avons ajoutées récemment à nos benchmarks.

Dans les faits, la RTX 2070 est plus efficace que la GTX 1080 dans l'intégralité de nos tests, avec plus de 10% d'amélioration. Dans certains jeux (BF1, FarCry 5), la Radeon Vega 64 se rapproche des résultats de la RTX 2070 en 1440p - au prix d'une consommation électrique importante - mais à un tarif moyen constaté en dessous des RTX 2070.

A la vue des tarifs actuellement affichés, on aurait pu se poser la question de l'intérêt d'acheter une RTX 2070 face à une GTX 1080 beaucoup moins chère. Sauf que les stocks de GTX 1080 sont quasiment épuisés, et que sur ce créneau de performances il vous faudra faire le choix entre l'équipe rouge et l'équipe verte.

armor
Le modèle Armor de MSI est officiellement à 519 €, dans les faits impossible de le trouver à moins de 590 €, sous 15 jours minimum. Dommage car cette carte est très efficace.

Bien entendu, avec la GeForce RTX 2070, NVIDIA nous fait la promesse du ray tracing et des technologies liées au deep learning comme le DLSS. Très prometteuses sur le papier et sur les démos techniques, on attend toujours de pouvoir tester ça en jeu. Il n'appartient qu'à NVIDIA et aux développeurs de jeux de transformer l'essai, et de rendre indispensables ces nouvelles technologies.

NVIDIA signe donc une GeForce RTX 2070 très efficace, mais au positionnement tarifaire encore incertain si proche du lancement. Gageons que l'amélioration des stocks jouera en faveur des intéressés, et que les premiers patch RTX pour les jeux dévoileront tout le potentiel de cette carte graphique.

2070

Conclusion RTX 2080

Lancée il y a plus de deux ans, il était grand temps de trouver un digne successeur pour la vénérable GeForce GTX 1080. Il faut dire que dans l'industrie des cartes graphiques, c'est la première fois que l'attente est aussi longue.

La GeForce RTX 2080 vient donc reprendre le flambeau, équipée d'améliorations significatives en termes de performances pour les jeux actuels, elle embarque aussi une toute nouvelle architecture taillée pour le futur du gaming selon NVIDIA.

Mais à qui se destine cette nouvelle carte ?

La GeForce RTX 2080 est idéale pour les gamers qui souhaiteront profiter de tous les jeux récents à plus de 80 images/sec en 1440p (WQHD) avec tous les réglages au maximum.

Nous ne pouvons que conseiller les joueurs qui recherchent ce type de performances d'investir dans une RTX 2080, plutôt qu'une GTX 1080 Ti, pour une différence de prix minime.

D'autant plus que les promesses du rendu hybride et des technologies liées au deep learning sont très intéressantes sur le papier.

On regrettera juste que NVIDIA ait décidé de précipiter le lancement de ses nouvelles GeForce, sans nous laisser la possibilité de tester les performances du rendu hybride sur des jeux réels. Comptez sur nous pour le faire dès que possible !

2080




Conclusion RTX 2080 Ti

Du coté de la RTX 2080 Ti, l'attente fut moins longue que pour sa petite soeur, puisque la GeForce GTX 1080 Ti est sortie il y a un peu plus d'un an.

Cette fois-ci pour sa génération Turing, NVIDIA a décidé de commercialiser sa déclinaison Ti dès le lancement.

La GeForce RTX 2080 Ti vient donc reprendre le flambeau, équipée d'améliorations significatives en termes de performances pour les jeux actuels, elle embarque aussi une toute nouvelle architecture taillée pour le futur du gaming selon NVIDIA.

Mais à qui se destine cette nouvelle carte ?

La GeForce RTX 2080 Ti est idéale pour les gamers qui souhaiteront profiter de tous les jeux récents à plus de 60 images/sec en 2160p (4K UHD) avec tous les réglages au maximum.

Dans nos tests, seul le dernier Tomb Raider est juste en dessous, mais nous ne doutons pas que les mises à jour successives de pilotes viendront améliorer les choses.

Certes, le prix demandé est important (1259 €), mais à ce jour seule la RTX 2080 Ti permet l'exploit du gaming 4K sans concession à plus de 60 images/sec.

D'autant plus que les promesses du rendu hybride et des technologies liées au deep learning sont très intéressantes sur le papier.

On regrettera juste que NVIDIA ait décidé de précipiter le lancement de ses nouvelles GeForce, sans nous laisser la possibilité de tester les performances du rendu hybride sur des jeux réels. Comptez sur nous pour le faire dès que possible !

GeForce RTX 2080 Ti

9

Les plus

  • Performances dans les jeux actuels en 2160p (4K UHD)
  • Très peu bruyante
  • Design et qualité de fabrication
  • Overclocking
  • Le DLSS et la promesse du rendu hybride...

Les moins

  • ... même si au lancement nous ne pouvons pas tester en jeu les perfs du ray tracing



Colin Golberg
Par Colin Golberg
Rédacteur en chef adjoint

Chef de rubrique hardware et gaming. Avant j'étais dans le poulet. Et je vois rien qu'au niveau du poulet c'est un bordel ! Alors la tech...

Nos experts recommandent des produits et services technologiques en toute indépendance. Si vous achetez via un lien d’affiliation, nous pouvons gagner une commission. Les prix mentionnés sont susceptibles d'évoluer. En savoir plus
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
kakek

Contrairement a ce que dit l’article, je pense qu’il y a de bonne chanque qu’une 1080 TI soit un achat plus intéressant qu’une 2080. Parceque cette derniere est quand même un cran plus chere.
Dans le vrai monde (pas les prix théorique annoncé par Nvidia) la 2080 coute quand même 850 a 950 euros, alors que les 1080 TI commencent a se négocier a moins de 700. Ca fait quand même 150 euros de moins, pour les même performances !
Quand au raytracing, même si ca s’averait être l’avenir du gaming ca ne le sera pas avant une ou deux génération de plus. D’ici là, seul quelques titres isolé l’utiliseront pour un ou deux effets sympa mais dispensables.

Pour moi, les raytracing c’est un peut comme les pixels shaders. Ca a finit par devenir un standard, mais les premières cartes qui l’ont supporté (les gforce 3) étaient de toute facon dépassées avant que les jeux ne se mettent a l’utiliser réellement. Du coup les gforce 3 n’ont jamais trop fait de pixels shaders.

Judah

Votre tableau page 2 est déjà faux… la 1080 Ti à 3584 cuda cores, pas 2584 !.. Allez je continue quand même à lire…

fox-idcom

tout à fait , je pense qu’ils ont du fourcher en écrivant le chiffre et en effet , la 1080 Ti a bien 3584 Cuda Cores :wink:

flux

Pourquoi dans les points négatifs on ne retrouve pas le PRIX !!! Qui me semble tellement abusé… elle est ou l’époque ou le HDG était à 500€ ?
Croyez-moi elle est pas si loin que ça :(, la prochaine Gen sera proche des 2000…

cioaz

Toi tu n’as pas l’air de comprendre un truc. Tu nou dit que la 2080 est quasi identique en perf que la 1080Ti. Sauf que dans 6 mois à 1 an grâce à l’optimisation des pilotes, les perfs vont encore être tirées vers le haut.

Rien n’est optimisé quand une nouvelle architecture sort. Ce sont les performances brutes mais sans aucune optimisation. Quand les mecs de NVidia auront appris à maitriser la bête, à peaufiner le truc, les pilotes vont permettre à la carte de libérer tout le potentiel.

Ensuite c’est UNIQUEMENT ton salaire qui fait la différence.

  • tu es friqué? Fonce et achète une 2080 et même une 2080 Ti.
  • tu n’es PAS friqué? Si tu peux attendre, attend et tu prendra une 2080 dans 1 an, le prix aura fortement baissé, du moins faut-il l’espérer. Sinon oui il faut prendre une 1080 ou 1080Ti. Et là aussi, il vaut mieux attendre après Noël, la 2080 va s’installer comme nouvelle référence, les anciennes générations vont décoter.

Si on peut attendre bien sûr, reporter de quelques mois. Parfois on ne peut pas, panne de la carte graphique, il faut en acheter une autre.

Mais attention, ne vous méprenez pas, quand je dis qu’il est bon d’attendre, ce n’est pas comme souvent on voit les crétins de services, moi j’attends la prochaine génération, puis quand elle sort, finalement pourquoi acheter, la prochaine génération est prévue et ce genre de débile n’achète jamais et ne profite de rien.

Donc là de toute évidence il est urgent d’attendre 1 mois ou 2, voir comment les tarifs vont évoluer. Ce serait con d’acheter une 1080ti et si ça se trouve dans 2 mois son prix se sera effondré. Les tarifs des 2080 ne vont pas chuter mais les anciennes peut-être que oui. Si j’avais une carte graphique à changer, nous sommes le 21/09, j’attendrais Noël pour voir comment cela évolue niveau tarifs et j’achète. Le type qui a du pognon il s’en moque d’attendre et se fait plaisir dès aujourd’hui.

Funkee

Le prix n’est pas un critère pour juger de la qualité ou des performances d’un produit en soi. Et puis le haut de gamme d’aujourd’hui n’est pas le même que celui d’il y a quelques années. Ma 1070 fait encore très bien le taff sur du 1440p, mais pas en mettant tout à fond selon les jeux.

fabienbkk

Le Ray Tracing sur ces cartes n’est qu’un gadget vendu au prix fort qui sera à peine exploité surtout en 4K et même en 1440p où j’ai de gros doute sur la réelle jouabilité à ces résolutions avec du Ray Tracing partout. Perso, j’ai préféré changer ma GTX980 pour une 1080Ti OC iChill d’occaz, et devinez le prix, 380 Euros avec encore 2 ans de garantie, désolé mais la 2080 ne vaut clairement pas son prix pour des perfs similaires.

sebpirate62

je viens de me racheter une gtx 1070ti msi gaming et tous mes jeux passe en ultra 60fps synchro activé en 2560x1440.
Alors je vois pas l’intérêt pour moi de partir sur les rtx qui coute un bras, car avec ma carte et mon Rysen 2700x, je suis tranquille encore un bon moment.
C’est le genre de produits destines aux amateurs fortuné.
Mais c’est pas un choix pour les performances, car, pour moi, la 1070ti et une grosse bombe alors que dire de la 1080ti…

kakek

Je le comprend trés bien. Je parle juste de rapport qualité/prix. Si tu as le pognon, EVIDEMENT tu ne te poses pas la question, tu prend la 2080TI.

Je me place du point de vu du mec qui a un minimum de pognon (Sinon on n’achète tout simplement pas, on est pas des imbéciles on ne vas pas non plus préferer sa CG a payer son loyer) mais pas illimité, et qui quand il investit, veut quand même que ce soit pour quelque chose de concret.

De ce point de vue, les futures améliorations des perfs des 2080 grâce au drivers, c’est théorique. L’historique des générations précédente montre que ça n’arrive pas toujours, même quand il y a changement d’architecture. Regarde, ben la génération précédente tout simplement. Les maxwell haut de game (980ti) se placent toujours pareil par rapport aux pascal équivalent (1060/1070). Jeu par jeu, il y a parfois une trés petite différence, mais les perfs de la nouvelle architecture ne se sont jamais envoler par rapport a la précédente.

Donc sur un 2080, par rapport a une 1080ti, tu payes 150 euros de plus pour le raytracing, et peut être potentiellement dans un an environs, moins de 5% de perfs en plus. Mais ce n’est pas sur.

C’est là que je pense que ces 150 euros supplémentaires, si tu n’es pas complètement ne mode ballec je compte même pas, tu préfère les garder pour autre chose.

Ou alors attendre effectivement, et espérer qu’a un moment un choix devienne vraiment évident, sans avoir a se baser sur des prédiction incertaines.
Parceque l’utilisation du raytracing, le fait que la 2080 prenne le pas grace au drivers, ou une future baisse des prix, tout ca c’est des prédictions. On essaye tous de deviner le plus probable, mais on a pas les moyens de savoir ce qui vas se passer en vrai.
Par contre, de temps en temps, on se retrouve dans une situation ou un produit est clairement un super achat, là de suite, et on a pas de doute. Genre ( a l’époque) les TI4200, qui avaient un rapport qualité prix imbattable. Ou les les serie K des CPU intel vers 2012.

quand tu attends, je crois que tu n’atttends pas forcément toujours la gen suivante. Tu attends surtout ce moment ou un produit est vraiment un bon super rapport qualité prix, et ou tu peut acheté sans avoir a essayer de deviner des trucs incertains.

Si le prix des 1080ti s’écroulait vraiment par exemple, ça pourrait être le cas dans quelques mois.

Mais la de suite, on est pas dans cette situation, et rien ne dit qu’elle arrivera.

masaku

En effet ce constat tout à fait juste

Abonnez-vous à notre newsletter !

Recevez un résumé quotidien de l'actu technologique.

Désinscrivez-vous via le lien de désinscription présent sur nos newsletters ou écrivez à : [email protected]. en savoir plus sur le traitement de données personnelles