NVIDIA GeForce GTX 680 : la réponse au Radeon HD 7970 ?

Julien Jay
Publié le 22 mars 2012 à 14h00
0000007D01933580-photo-nvidia-logo.jpg
C'était il y a tout juste deux ans, NVIDIA inaugurait son architecture Fermi avec la sortie des GeForce GTX 480. Une carte dont l'architecture massivement parallèle avait séduit, même si à l'époque quelques problématiques de rendement avaient pénalisé la puce vedette de NVIDIA. Il avait du reste fallu attendre la GeForce GTX 580 pour bien mesurer le potentiel de Fermi. Depuis, la firme au caméléon était restée particulièrement discrète et alors qu'AMD enchaînait les déclinaisons de ses Radeon HD 7000, le silence de NVIDIA devenait presque assourdissant.

NVIDIA semble enfin prêt à nous proposer la relève de Fermi, puisque la marque annonce aujourd'hui Kepler. Kepler, c'est d'abord le nom d'un fameux astronome, mais c'est aussi le nom de code de la nouvelle architecture graphique de la firme de Santa-Clara, une architecture qui va faire ses premiers pas sur le marché avec un vaisseau amiral flambant neuf sous les traits du GeForce GTX 680.

Alors qu'AMD a quelque peu coupé l'herbe sous le pied de NVIDIA en matière d'annonces technologiques, les Radeon HD 7000 enchainant les premières qu'il s'agisse de DirectX 11.1, de PCI-Express 3.0 ou encore de gravure en 28nm, la marque en sera-t-elle réduite à jouer le moi aussi pour ses GeForce 600 ? Rien n'est moins sûr !

Quant à la philosophie derrière la nouvelle GeForce GTX 680, nouveau porte-étendard de NVIDIA, il faut retenir trois piliers de développement : plus rapide, plus fluide et plus riche ! La conjugaison de ces trois axiomes permettant à NVIDIA d'affirmer que la puce GeForce GTX 680 est la plus efficace jamais développée. Voyons cela !

01EF000005051008-photo-nvidia-geforce-gtx-680.jpg

Kepler : Fermi passe la seconde !

L'architecture Kepler est, et NVIDIA ne s'en cache pas, une évolution de Fermi. Lorsqu'en 2010, NVIDIA lançait l'architecture Fermi, la firme allait dans le sens d'un plus grand parallélisme et ce, y compris pour les tâches géométriques comme la tesselation ou le displacement mapping. Fermi était également l'occasion pour NVIDIA de faire progresser les capacités de sa puce en matière de calcul généraliste, notamment via des changements de contexte plus rapides. Le but numéro un ayant présidé à la conception de Kepler aura été d'optimiser le fameux ratio performance par watt en faisant en sorte que l'architecture délivre le maximum de performances pour une consommation la plus faible possible.

En s'attardant sur l'architecture Kepler à un haut niveau, on observe un découpage similaire à Fermi. On retrouve en effet une puce toujours organisée selon quatre GPC ou Graphics Processing Cluster, chaque GPC contenant diverses unités spécialisées.

01EF000005050986-photo-geforce-gtx-680-block-diagram.jpg

Diagramme de l'architecture Kepler


Si la notion de GPC perdure, chaque GPC étant toujours dotée de son propre moteur de rasterisation, l'agencement évolue. Avec Fermi, on retrouvait dans chaque GPC quatre blocs dits SM ou Streaming Multiprocessors, contenant nos fameux cœurs CUDA. Avec Kepler, la notion de SM évolue pour devenir SMX. Le bloc SMX renferme toujours les cœurs d'exécution CUDA amenés à travailler sur nos instructions de shading et tandis que Fermi comptait quatre SM par GPC, Kepler fait avec deux SMX par GPC.

Il s'agit ici avant tout de réorganiser les ressources de calcul de la puce en vue d'optimiser le rendement de l'architecture puisque s'ils sont moins nombreux, les blocs SMX sont évidemment plus garnis en unités de calcul. Rappelons du reste qu'un bloc SMX (comme un SM en son temps) renferme tout à la fois les cœurs CUDA, mais également le moteur géométrique ou encore nos unités de texture. Un simple bloc SMX peut donc travailler aussi bien sur des pixels, des textures, des calculs génériques ou même des simulations de rendu physique.

010E000005050988-photo-geforce-gtx-680-block-diagram-smx.jpg

Gros plan sur un SMX


Dans sa version la plus évoluée, l'architecture Kepler, qui est dorénavant compatible DirectX 11.1, peut proposer jusqu'à 192 coeurs CUDA par SMX contre 32 pour les SM de Fermi. La contrepartie, car contrepartie il y a bel et bien, c'est que NVIDIA abandonne le système de double cadencement de ses précédentes GeForce. Souvenez-vous avec le GeForce GTX 480 par exemple, l'ensemble des blocs de la puce graphique opérait à une fréquence de base, mais cette fréquence était deux fois supérieure pour les unités de calcul CUDA. Cela avait pu conférer un avantage certain au caméléon à l'époque du G80 et consorts, mais depuis cela s'était peut-être transformé en handicap flagrant notamment en terme de consommation ou d'efficacité énergétique.

01B3000005051034-photo-geforce-gtx-680-clocks.jpg

Changement au niveau des domaines de fréquence de Kepler


Du coup grâce à cet artifice, NVIDIA réussit à proposer plus de cœurs CUDA tout en ne faisant pas exploser la consommation améliorant ainsi mécaniquement le ratio performance par watt. NVIDIA table ici sur un rapport performance par watt deux fois supérieur à Fermi.

Kepler plus en détails

Avec 192 noyaux CUDA par SMX et un total de huit SMX pour la puce, NVIDIA peut se vanter d'aligner la bagatelle de 1 536 noyaux CUDA dans sa GeForce GTX 680. Tout de même. En terme d'efficacité, NVIDIA dit avoir à minima maintenu le débit des opérations mathématiques par cycle d'horloge face au GeForce GTX 580, alors qu'il a été amélioré pour certaines opérations clés (FMA32, opérations prises en charge par les SFU ou Special Function Unit, etc). Pour soutenir nos unités CUDA, la puce propose toujours deux niveaux de mémoire cache. Chaque SMX dispose ainsi de 64 Ko de mémoire partagée, alors que la puce est dotée d'un second niveau de mémoire cache. On retrouve ainsi 512 Ko de mémoire cache L2, avec un débit revu à la hausse par rapport à Fermi.

Pour piloter tout ce petit monde, chaque SMX embarque quatre schedulers, chacun capable d'envoyer deux instructions par cycle d'horloge et par warp. Le concept des schedulers n'est pas nouveau puisqu'il permet de s'assurer de la pleine utilisation des unités de calcul en répartissant la charge de travail au mieux entre celles-ci. En revanche, ce qui est nouveau, c'est l'optimisation apportée par NVIDIA, toujours dans un but de meilleure efficacité énergétique.

01B3000005051006-photo-geforce-gtx-680-scheduling.jpg

Des changements au niveau du scheduling


Concrètement, certaines unités matérielles présentes au cœur de Fermi ont été rationalisées avec Kepler. Elle servaient notamment à identifier les instructions prêtes en fonction de leurs dépendances. C'est maintenant le compilateur qui va déterminer en amont quand les instructions seront effectivement prêtes, ce qui se traduit au niveau de la puce par la suppression de divers blocs matériels complexes et gourmands en énergie. Kepler ne comporte plus qu'un seul bloc matériel en charge d'extraire les informations prédéterminées au niveau des temps de latence pour déterminer l'éligibilité des flux de données à traiter. La conséquence de ce changement, c'est que le compilateur des pilotes NVIDIA pourra probablement faire l'objet d'optimisations dans les semaines et mois à venir avec une incidence directe sur les performances.

Kepler, les textures, la géométrie et la mémoire

Nous l'évoquions, les blocs SMX ne renferment pas que les fameux cœurs CUDA. On retrouve également les unités de texture. Face à Fermi, leur nombre évolue sensiblement tout comme leur agencement qui s'adapte pour ainsi dire mécaniquement, afin de suivre le passage de SM à SMX. Quand chaque SM de Fermi comptait 4 unités de texture, chaque SMX de Kepler en embarque 16. Avec deux SMX par GPC, la petite dernière de NVIDIA dispose donc de 128 unités de texture contre 64 pour la GeForce GTX 580. NVIDIA en profite pour introduire les Bindless Textures, un mécanisme qui permet à un shader de référencer directement les textures en mémoire sans passer par un tableau limité à 128 entrées.

01B3000005051038-photo-geforce-gtx-680-bindless-textures.jpg

Kepler et les bindless textures


Dotée de deux fois plus d'unités de texture que Fermi, Kepler n'est en revanche pas aussi bien loti lorsque l'on considère le nombre d'unités ROP, ces unités en charge des dernières opérations de traitement de nos pixels comme l'anticrénelage par exemple. On n'en compte plus que 32 au total, chaque moteur de rasterisation de nos GPC contenant huit unités ROP capables de traiter individuellement un échantillon de couleur.

En matière de géométrie, les Polymorph Engine ou moteurs polymorphes passent en version 2.0. Présents au cœur de chaque SMX, ils regroupent diverses fonctions, dont le moteur de tesselation. NVIDIA indique avoir doublé les performances tant en matière de traitement des primitives que de tesselation par rapport à Fermi. Mais quand le GeForce GTX 580 comptait 16 moteurs polymorphes, le GeForce GTX 680 n'en a plus que 8. Toutefois, vu que leur performance a été doublée et considérant la fréquence de fonctionnement supérieure de Kepler face à Fermi, ce nombre ne devrait pas constituer un handicap.

01B3000005051314-photo-geforce-gtx-680-polymorph-engine-2-0.jpg


Du côté de l'interface mémoire enfin, Kepler introduit quelques changements. Il n'est ainsi plus question de bus mémoire 384 bits ! La puce devra faire avec quatre contrôleurs GDDR5 de 64 bits chacun. Au total, le GeForce GTX 680 bénéficie donc d'un bus mémoire interfacé en 256 bits et la principale nouveauté ici, c'est la prise en charge de fréquence de fonctionnement élevée pour la mémoire. NVIDIA est ainsi le premier à annoncer une fréquence de 6 008 MHz pour la mémoire (en réalité 1 502 MHz de fréquence de base) soit peu ou prou du 6 Gbps. La hausse de fréquence devrait compenser la perte de performances induite par la réduction du bus mémoire.

NVIDIA introduit son Turbo Boost : GPU Boost

0000005F05051088-photo-nvidia-geforce-gtx-680-logo-gpu-boost.jpg
Nous le disions préalablement, NVIDIA a revu ses domaines de fréquence au sein de Kepler. C'est ainsi que la firme a abandonné le mécanisme qui voulait que les processeurs de flux opèrent à deux fois la fréquence de fonctionnement du reste de la puce. Dans ses documentations, NVIDIA explique que cela permet d'offrir un meilleur rapport performance/watt tout en permettant une plus grande maîtrise de la consommation. Pour autant, NVIDIA ne perd pas de vue l'importance de la fréquence de fonctionnement et inaugure avec Kepler la technologie GPU Boost.

Si certains se souviennent du Link Boost des anciens chipsets nForce... vous pouvez tout oublier ! En effet, il est ici question avec GPU Boost d'un mix de technologie logicielle et matérielle censée auto-optimiser la carte, en clair augmenter dynamiquement la fréquence de la puce, pour que celle-ci délivre les meilleures performances en fonction des conditions d'utilisation.

Pour ce faire, on retrouve sur la carte des composants dédiés à la surveillance de la consommation électrique de la puce graphique, et ce afin de s'assurer que celle-ci reste dans les normes prédéfinies. De la même manière, les circuits mis en place par NVIDIA permettent de mesurer la consommation de la partie mémoire, mais aussi le rendement de l'étage d'alimentation.

Sur le papier, NVIDIA nous propose une sorte de Turbo Boost à la Intel : totalement autonome et sans profil dans les pilotes ou intervention manuelle de l'utilisateur, la puce voit sa fréquence de fonctionnement augmenter si les conditions le permettent. Il s'agit de tirer profit des moments pendant lesquels le TDP maximal défini pour la carte (195 Watts pour la GeForce GTX 680) n'est pas atteint en utilisant la marge restante pour augmenter les fréquences.

01B3000005051316-photo-geforce-gtx-680-gpu-boost.jpg


Alors que NVIDIA communique sur une fréquence de fonctionnement officielle de base de 1 006 MHz pour la puce graphique, la technologie GPU Boost est censée permettre d'atteindre les 1 058 MHz de fréquence boostée. Alors 50 MHz ça n'a l'air de rien, mais c'est tout de même pas loin de 5% sur le papier. Mais GPU Boost ne devrait pas s'arrêter là : NVIDIA précise que dans bien des cas, le boost obtenu devrait permettre de taquiner les 1,1 GHz, pour peu que la consommation électrique du GPU demeure dans les normes.

Il est intéressant de soulever une différence notable avec ce qui se pratique chez AMD où la consommation est estimée selon l'activité des différentes unités de la puce et non mesurée via des circuits additionnels. Dès lors, on se dit que d'un échantillon de carte NVIDIA à l'autre, les résultats du GPU Boost pourraient être assez contrastés du fait d'une grande variabilité entre les cartes... ce qui expliquerait cette communication sur une fréquence Turbo supérieure d'à peine 50 MHz à la fréquence nominale.

Tout pour la qualité d'image

NVIDIA profite de Kepler pour introduire diverses nouveautés fonctionnelles visant à améliorer la qualité d'image. Toutes ces nouveautés ne sont du reste pas exclusives à Kepler et devraient voir le jour, si tout va bien, sur Fermi.

La première d'entre elles concerne la VSync ou synchronisation verticale. On pensait ce concept démodé et pourtant... NVIDIA le remet au cœur de l'actualité. On sait qu'en jeu, si la synchronisation verticale n'est pas active, on observe des déchirements de l'image lors des scènes d'action (l'image est comme coupée en deux avec une ligne à un endroit). Le problème c'est que lorsque la synchronisation verticale est active, si jamais le nombre moyen d'images à la seconde passe sous les 60 lors d'une scène particulièrement chargée, l'écran va basculer à une fréquence de rafraichissement bien inférieure à la valeur moyenne de 60 Hz (typiquement 30 Hz) provoquant cette fois-ci des saccades.

01B3000005051116-photo-geforce-gtx-680-adaptative-vsync.jpg

V-Sync adaptative


Pour tenter de remédier à la problématique, NVIDIA propose la synchronisation verticale adaptative à partir de la version 300 de ses pilotes. Le pilote graphique va automatiquement activer ou désactiver la synchronisation verticale pour afficher les images à une cadence plus régulière, afin de minimiser les effets de saccade. Cette nouveauté concerne tout autant le GeForce GTX 680 que les anciennes GeForce.

017C000005050952-photo-nvidia-geforce-gtx-680-adaptative-vsync.jpg

Activation dans les pilotes de la synchronisation vertical adaptative


L'autre nouveauté introduite par NVIDIA pour améliorer la qualité d'image est cette fois-ci plus directement liée au traitement des scènes qu'à leur simple affichage. La firme de Santa-Clara profite de la sortie de Kepler pour généraliser la technologie FXAA, une méthode de post-processing visant à réduire les effets d'escalier. Le FXAA est censé prodiguer un résultat similaire à un anti-aliasing à plusieurs échantillons classique tout en étant plus véloce et moins gourmand en mémoire vidéo. Déjà implémentée au cœur de certains jeux comme Age of Conan ou Batman Arkham City, la fonctionnalité FXAA a évolué au fil du temps et la nouveauté c'est qu'elle est maintenant accessible depuis les pilotes NVIDIA ce qui permet d'en profiter avec n'importe quel titre vidéo-ludique.

01E0000005051058-photo-nvidia-geforce-gtx-680-fxaa.jpg

Filtrage FXAA à l'oeuvre


Quatre écrans sur une seule carte !

Parmi les nouveautés de l'architecture Kepler figure un tout nouveau moteur d'affichage. Celui-ci revient sur une lacune bien connue des GeForce : leur incapacité à piloter un large nombre d'écrans. On se souvient qu'AMD avait marqué les esprits au lancement des Radeon HD 5800 avec la fonctionnalité EyeFinity permettant de piloter un maximum de six écrans par carte. Avec Kepler, NVIDIA ne va pas aussi loin mais propose de piloter depuis une seule carte un maximum de 4 écrans.

Pour les joueurs, cela se traduit par trois écrans destinés au jeu, c'est ce que NVIDIA appelle le Surround, le quatrième écran étant dédié à l'affichage de son bureau Windows pour garder par exemple le contact avec ses amis sur Windows Live Messenger. On retiendra surtout que NVIDIA n'impose pas l'utilisation de hub DisplayPort pour faire fonctionner sa solution Surround, même si contrairement à AMD, NVIDIA ne peut aller au-delà des quatre écrans.

01EF000005051062-photo-nvidia-geforce-gtx-680-4-crans.jpg


Au passage, NVIDIA propose de nouvelles fonctionnalités logicielles comme la possibilité de positionner la barre des tâches Windows sur l'écran central ou encore d'agrandir une fenêtre sur un seul écran... Merci !

Le moteur d'affichage de la GeForce GTX 680 est compatible HDMI 1.4a, prend en charge les écrans 4K avec une résolution de 3840 x 2160 pixels et gère les multiples flux audio. Au passage, la puce gère le DisplayPort 1.2.

Un nouvel encodeur vidéo... matériel : NVENC

Kepler est aussi l'occasion pour NVIDIA de faire évoluer sa solution d'encodage vidéo. Si jusqu'à présent NVIDIA se basait sur la puissance de calcul de ses puces pour accélérer les opérations d'encodage, Kepler profite dorénavant d'un moteur matériel d'encodage dédié et baptisé NVENC. Le nom n'est peut-être pas super sexy mais au diable les détails.

Plutôt que d'utiliser les cœurs CUDA pour accélérer l'encodage vidéo, le recours à un bloc fixe devrait permettre de ménager la consommation électrique tout en maximisant l'efficacité. Il faudra bien sûr que les logiciels existants soient mis à jour pour profiter des nouvelles possibilités offertes par NVENC. Sur le papier, le bloc supporte les profils H.264 Base, Main et High Profile 4.1 en plus du MVC. La résolution maximale supportée est le 4096x4096 et NVIDIA communique sur une vitesse d'encodage Full HD (1080p donc) 8 fois supérieure au temps réel. En clair, encoder 16 minutes de vidéo HD 1080p à 30 images/seconde devrait se faire en deux minutes.

020D000005051060-photo-nvidia-geforce-gtx-680-mediaespresso.jpg

Encodage vidéo depuis MediaEspresso tirant parti de NVENC


Nous avons pu essayer une version Beta de MediaEspresso, le logiciel de conversion vidéo de Cyberlink avec la GeForce GTX 680. Nous avons converti un fichier MKV 720p d'une durée de 43 minutes vers le format iPhone 4S. Nous effectuons l'opération avec la GeForce GTX 680 et l'accélération NVENC puis avec une GeForce GTX 580 et son accélération CUDA et également en mode CPU seul.

05051322-photo-kepler-nvenc-2.jpg


Le résultat parle de lui même : alors qu'il faut pas loin de 13 minutes à notre processeur pour venir à bout de l'opération, la GeForce GTX 680 fait le job en à peine plus de trois minutes. De son côté la GeForce GTX 580 mettra un peu plus du double de temps, soit six minutes, pour achever l'encodage. Et ce n'est pas tout ! Il est intéressant de s'attarder sur la consommation électrique de notre système, relevée à la prise, lors des encodages :

05051320-photo-kepler-nvenc-1.jpg


En mode CPU seul la consommation de la machine est d'une vingtaine de Watts supérieure à la consommation avec le GeForce GTX 680 pour un temps d'encodage qui sera rappelons-le quatre fois supérieur. Quant à la consommation du système en GeForce GTX 580, elle explose tout simplement : une centaine de watts de plus qu'en mode CPU seul !

GeForce GTX 680 : la puce

Répondant au nom de code GK104, la puce GeForce GTX 680 compte 3,54 milliards de transistors et est fabriquée selon le processus en 28 nm de TSMC. Il est intéressant de comparer le nombre de transistors de la petite dernière de NVIDIA avec celui communiqué par AMD pour son Radeon HD 7970. La version la plus évoluée de Tahiti revendique pas loin de 4,3 milliards de transistors, soit significativement plus que Kepler.

01A4000005050984-photo-geforce-gtx-680-die-shot.jpg

Le die de Kepler


Pour ce qui est des fréquences de fonctionnement, la puce GeForce GTX 680 opère à une fréquence de base de 1 006 MHz comme décrit précédemment, y compris lorsque nous considérons ses unités CUDA. La technologie GPU Boost dont nous vous parlions précédemment permettra de grappiller quelques MHz supplémentaires en fonction des conditions. Du côté de la mémoire, Kepler est accompagné de 2 Go de mémoire GDDR5 opérant à 1 502 MHz pour une bande passante théorique maximale de 192,26 Go/s.

0140000005051764-photo-nvidia-geforce-gtx-680-driver.jpg

Le GeForce GTX 680 vu par les pilotes NVIDIA


Côté consommation, la puce ne profite hélas pas d'équivalent au ZeroCore Power d'AMD. De fait, elle ne peut pas rivaliser avec le mode très faible consommation des Radeon HD 7000. Rappelons qu'avec Tahiti, AMD peut faire tomber la consommation de la puce graphique à 3 Watts... Ce n'est pas le cas ici et il faudra faire avec un ventilateur qui tourne en permanence.

 Radeon HD 7970GeForce GTX 580GeForce GTX 680
InterfacePCI-Ex. 16x - Gen3PCI-Ex. 16x - Gen2PCI-Ex. 16x - Gen3
Gravure0,028 µ0,040 µ0,028 µ
Transistors4,3 Milliards3 Milliards3,54 Milliards
T&LDirectX 11.1DirectX 11DirectX 11.1
Stream Processors20485121536
Unités ROP324832
Unités de texture12864128
Mémoire embarquée3072 Mo1536 Mo2048 Mo
Interface mémoire384 bits384 bits256 bits
Bande passante264 Go/s192,4 Go/s192,26 Go/s
Fréquence GPU925 MHz772 MHz1006 MHz (base)
Fréquence Stream Processors925 MHz1544 MHz1006 MHz (base)
Fréquence mémoire1375 MHz - GDDR51002 MHz - GDDR51502 MHz - GDDR5


GeForce GTX 680 : la carte

0000005005051056-photo-logo-nvidia-geforce-gtx.jpg
Physiquement, la carte GeForce GTX 680 surprend. Il faut dire que NVIDIA nous avait habitués ces derniers temps à proposer des chars d'assaut et qu'ici la carte est compacte et presque légère. Avec un PCB noir de 25,5 centimètres, on gagne quand même 1 centimètre en profondeur face à la GeForce GTX 580 ! Occupant deux emplacements dans votre tour, la carte adopte un système de refroidissement assez classique fait d'une plaque avec un triple heat-pipe sur lequel est fiché un radiateur à ailettes en aluminium reposant sur la puce graphique. Le tout est refroidi par un ventilateur de type cage d'écureuil soufflant l'air chaud à l'extérieur de la carte et donc du boîtier.

La bonne nouvelle, c'est que le dispositif de refroidissement est plutôt silencieux, d'autant que NVIDIA a travaillé l'acoustique pour faire en sorte que même lorsque la carte s'échauffe, la nuisance sonore soit la plus sourde possible (à l'inverse du mode sèche-cheveux de certaines des dernières Radeon que nous avons pu tester). En revanche, point n'est question ici de technologie similaire à ce que propose AMD avec ses Radeon HD 7000, notamment au niveau de l'arrêt du ventilateur lorsque la carte entre en mode idle.

Au niveau de son alimentation électrique, la carte est dotée d'un circuit à 4 phases pour la puce graphique et deux phases pour la mémoire. Du reste, en s'attardant sur le dos du PCB de la carte, on observe que le contrôleur d'alimentation est soudé sur un PCB additionnel. Interrogé à ce sujet, NVIDIA nous indique que ce choix de design lui permet de changer de contrôleur d'alimentation sans refaire le PCB de toute la carte graphique.

01E0000005050538-photo-nvidia-geforce-gtx-680-6.jpg

Gros plan sur le contrôleur d'alimentation sur-soudé


En matière de branchement, la carte exige le raccordement de deux connecteurs PCI-Express 6 broches avec un positionnement original : les connecteurs sont placés l'un sur l'autre. Une astuce censée permettre d'optimiser le design de la carte et in-fine sa taille.



Du côté des fréquences de fonctionnement, la carte opère aux fréquences édictées par NVIDIA : 1 006 MHz pour la puce graphique et 1 502 MHz pour les 2 Go de mémoire GDDR5. Puisque la carte profite du GPU Boost nous avons pris soin de vérifier ses fréquences en charge. La plupart du temps, la puce grimpe à un maximum de 1 100 MHz pour se stabiliser bien souvent autour des 1 097 MHz.

01E5000005051180-photo-geforce-gtx-680-gpu-boost-evga.jpg

Observation des fréquences de fonctionnement avec l'utilitaire EVGA


Niveau connectique, la carte propose deux ports DVI, un connecteur HDMI et une prise DisplayPort. On retrouve deux connecteurs SLI sur la tranche. Quant au TDP de la carte, il est fixé par NVIDIA à 195 Watts.

Overclocking

Puisque la puce est maintenant surveillée à tous les niveaux de sa consommation et alors que NVIDIA propose sa technologie de GPU Boost, l'overclocking de Kepler s'en trouve modifié de manière conséquente. Tout d'abord, l'ensemble des outils habituellement utilisés par les overclockers ne fonctionne plus. Ainsi en attendant une prochaine mise à jour, la version actuelle de GPU-Z vous affichera un écran rouge alors que les autres utilitaires ne permettent pas de modifier la fréquence de fonctionnement de la puce. Pour ce test, nous avons utilisé la version 3.00 (bêta) de l'outil EVGA en cours de développement chez le fabricant de cartes graphiques et déjà compatible avec Kepler. Signalons au passage que NVIDIA ne fournit pour l'heure aucun outil de son cru pour l'overclocking, pas même le célèbre System Tools.

L'outil ne permet pas de modifier la tension d'alimentation de la puce. Toutefois il permet d'ajuster le seuil de tolérance pour l'enveloppe de consommation de la carte et de modifier ses fréquences de fonctionnement. Attention toutefois on modifie ici l'offset, c'est-à-dire le différentiel entre la fréquence de base et la fréquence turbo. En réglant cette valeur à 100 MHz, je rajoute 100 MHz à la fréquence maximale de GPU Boost, une fréquence qui est susceptible de chuter si la consommation du GPU devient trop importante notamment.

01E5000005051188-photo-geforce-gtx-680-kepler-oc.jpg

Overclocking du GeForce GTX 680 : ici à 1260 MHz


Durant nos tests, nous avons visé les 1300 MHz de fréquence sans succès puisqu'au bout de deux minutes notre benchmark a tout simplement planté. Nous avons visé par la suite les 1 260 MHz, une fréquence qui semble stable, mais a été retoquée après quelques minutes par la puce qui a dégradé automatiquement celle-ci à 1 247 MHz puis 1 227 MHz et enfin 1 202 MHz. Pas de souci en revanche du côté de la mémoire où nous avons pu grimper assez haut. En terme de performances, sous 3DMark 11, l'overclocking donne le résultat suivant :

05051228-photo-geforce-gtx-680-overclocking-3dmark11.jpg


Alors que l'overclocking nous permet de gagner 13% de performance face aux fréquences de référence en 1920x1080, le gain en 2560x1600 est plus modéré et ne dépasse pas les 9%.Au cœur de ce dossier, nous retrouvons les tests de performance. Voici la configuration utilisée :
00310184-photo-ordinateur-de-bureau-dell-dimension-3100c.jpg
  • Carte mère Asus Maximus Rampage IV Extreme (BIOS 1101),
  • Processeur Intel Core i7 3960X,
  • 16 Go Mémoire DDR3-1600 Corsair @ 1600,
  • SSD Samsung Serie 830 256 Go
Sur cette plate-forme, nous testerons plusieurs cartes de l'ancien Radeon HD 5850 en passant par le Radeon HD 6950 2 Go, le Radeon HD 6970 sans oublier les récents Radeon HD 7870, Radeon HD 7950 et Radeon HD 7970. Du côté vert de la force nous nous intéressons aux GeForce GTX 480, GeForce GTX 570 et GeForce GTX 580.

Côté pilotes, nous avons utilisé les Catalyst 8.951.1 mis à disposition par AMD tandis que nous avons recours aux pilotes NVIDIA 300.99. Naturellement la machine opérait sous Windows 7 Edition Intégrale avec Service Pack 1 x64. Nous retenons deux résolutions pour ce test : le 1920x1080 des écrans 23,6/24 pouces notamment et le 2560x1600.

3DMark 11 - Mode Extrême

05051230-photo-kepler-3dmark-11.jpg

On démarre avec une vieille connaissance, 3DMark 11. Le GeForce GTX 680 affiche d'emblée sa suprématie et se hisse en pôle position avec des performances 12% supérieures au Radeon HD 7970 en 2560x1600. Face au GeForce GTX 580 le gain atteint 49% dans cette même résolution.

Dirt 3 - Ultra - 4x

05051232-photo-kepler-dirt3.jpg

Enchaînons avec Dirt 3, jeu de course DirectX 11. Là encore le GeForce GTX 680 est largement en tête. En 1920x1080 son avantage est de 21% face au Radeon HD 7970 qui est pour la petite histoire la deuxième carte la plus rapide de notre sélection. Face au GeForce GTX 580, la petite dernière de NVIDIA se montre 43% plus rapide. Quant à l'écart avec le GeForce GTX 480, il va pratiquement du simple au double.

Mafia II - AA - AF 16x

05051236-photo-kepler-mafia-ii.jpg

Mafia II a l'avantage de remettre quelque peu les pendules à l'heure en ramenant l'avantage de Kepler a des niveaux plus raisonnables. Certes en 1920x1080, le GeForce GTX 680 est 12% plus rapide que le Radeon HD 7970 et au passage 30% plus performant que le GeForce GTX 580. Mais en 2560x1600 cette avance s'étiole pour n'être plus que de 3% par rapport au Radeon HD 7970.

Unigine 2.5 - Heaven - High - AF 16x

05051246-photo-kepler-unigine.jpg

Parfaitement synthétique, Unigine n'en demeure pas moins largement favorable au GeForce GTX 680. En 1920x1080 la carte de NVIDIA est 18% plus rapide que le Radeon HD 7970, sa concurrente directe. On note une fois de plus que l'avantage du GeForce GTX 680 sur le Radeon HD 7970 dégringole au fur et à mesure que la résolution augmente. En 2560x1600, les performances de la carte de NVIDIA ne sont plus que 9% supérieures au Radeon HD 7970. Face au GeForce GTX 580, le GeForce GTX 680 se montre 51% plus rapide.

Batman Arkham City - FXAA - MVSS - HBAO

05051238-photo-kepler-batman-ac.jpg

Dans son dernier opus, Batman a impressionné... les joueurs. Peut être moins les joueurs PC qui ont du faire avec un nombre incroyable de bugs à présent corrigés... pour la plupart. Quoi qu'il en soit, le GeForce GTX 680 est ici encore premier. La petite dernière de NVIDIA dispose d'une avance de 9% en 1920x1080 sur le Radeon HD 7970 et de seulement 6% en 2560x1600 toujours face au Radeon HD 7970. Face au GeForce GTX 580, le GeForce GTX 680 se montre 39% plus rapide.

Crysis 2 - DirectX 11 - Ultra - Textures HR

05051250-photo-kepler-crysis.jpg

Retour sous Crysis 2 testé avec Fraps. Nous retrouvons le GeForce GTX 680 en tête avec un avantage de 20% sur le Radeon HD 7970 en 1920x1080 et seulement 6% en 2560x1600. Face au GeForce GTX 580 qu'elle remplace, la GeForce GTX 680 est 34% plus rapide.

Battlefield 3 - Ultra - AA 4x / AF 16x - Semper-Fi

05051252-photo-kepler-bf3.jpg

Surprise ! Battlefield 3 ne consacre pas le GeForce GTX 680. La carte de NVIDIA est ici très légèrement en retrait face au Radeon HD 7970. Une situation un rien ennuyeuse pour NVIDIA. Rappelons que nous testons le jeu par le biais de FRAPS et que la map utilisée est ici la mission Semper-Fi. Si Kepler échoue à ravir la première place, la carte demeure 30% plus rapide que le GeForce GTX 580.

Battlefield 3 - Ultra - AA 4x / AF 16x - Kaffarov

05051256-photo-kepler-bf3-2.jpg

Nous avons eu à coeur de vérifier le comportement du GeForce GTX 680 avec une autre scène de Battlefield 3, toujours en utilisant FRAPS. Cette fois-ci nous utilisons une scène extérieure, map Kaffarov. Le résultat est plus en faveur de NVIDIA, le GeForce GTX 680 repassant devant le Radeon HD 7970 : en 1920x1080 la carte de NVIDIA est 19% plus rapide que le modèle AMD mais cet avantage tombe à 7% en 2560x1600. L'écart de performances avec le GeForce GTX 580 s'établit à 27%, en 1920x1080.

STALKER - Call Of Pripyat - Extrême

05051258-photo-kepler-stalker.jpg

Pour ce titre DirectX 11, le GeForce GTX 680 s'affiche comme la carte la plus rapide et de loin. En 2560x1600 NVIDIA l'emporte sur le Radeon HD 7970 grâce à un score 22% supérieur. La remplaçante du GeForce GTX 580 se montre 45% plus rapide.

Metro 2033 - Très haut - AAA - AF 16x

05051260-photo-kepler-metro-2033.jpg

Testé avec FRAPS, Metro est l'autre surprise de ce test. Le GeForce GTX 680 n'est pas bon, clairement, handicapé par un nombre d'unités ROP trop faible et une quantité de mémoire vidéo restreinte. Du coup, le Radeon HD 7970 est en tête avec des performances 17% supérieures en 2560x1600. Quant à l'écart de performances avec le GeForce GTX 580, il est de 7%, pas de quoi fouetter un chat. Cela confirme s'il en était besoin qu'en cas d'anti-aliasing conséquent Kepler a quelques difficultés.

Tom Clancy's H.A.W.X. 2 - DirectX 11

05051272-photo-kepler-hawx.jpg

Largement optimisé pour les GPU NVIDIA à son lancement, H.A.W.X. 2 fait la part belle à la géométrie et à la tesselation. Si nous retrouvons le GeForce GTX 680 en tête, on est surpris de constater qu'il est à égalité avec le GeForce GTX 580. La raison est à chercher du côté des ROP : le GeForce GTX 580 a une puissance en la matière supérieure au GeForce GTX 680 ce qui se ressent ici. Cela n'empêche pas le GeForce GTX 680 d'être 25% plus rapide que le Radeon HD 7970 en 2560x1600. Et si GeForce GTX 680 et GeForce GTX 580 font jeu égal, le GeForce GTX 680 est 16% plus rapide que le GeForce GTX 480.

Consommation

Comme à chaque fois, nous avons vérifié la consommation électrique de nos cartes graphiques. Nous procédons à deux mesures : au repos, sur le bureau Windows, puis en charge avec un 3DMark 11 Extreme s'exécutant en 2560x1600. La mesure est effectuée à la prise, au moyen d'un wattmètre. Il s'agit donc de la consommation électrique globale de notre machine de test.

05051332-photo-kepler-conso.jpg


Au repos, la GeForce GTX 680 semble être moins vorace. Certes la consommation de notre système ne tombe pas aussi bas qu'avec une Radeon HD 7000 mais on gagne une trentaine de watts face au GeForce GTX 580. En charge, la carte se montre peut-être encore plus surprenante ! Avec 283 Watts relevés, la GeForce GTX 680 consomme une vingtaine de Watts de moins que la Radeon HD 7970 alors que la comparaison avec Fermi fait mal ! Dans les mêmes conditions, le GeForce GTX 580 consomme près d'une centaine de watts de plus !

Conclusion

0000005003368000-photo-logo-s-lection-clubic.jpg
Depuis la sortie en novembre 2010 du GeForce GTX 580, NVIDIA s'était montré plutôt discret, du moins sur le marché des cartes graphiques. Si Tegra a accaparé une bonne partie de notre attention, la famille GeForce semblait elle tristement délaissée. Ce début d'année est l'occasion pour la marque de renouveler son intérêt pour le gaming et plus particulièrement le gaming PC.

À défaut d'ouvrir le bal des cartes graphiques de nouvelle génération, AMD ayant été le premier à abattre ses cartes et surtout des technologies comme DirectX 11.1, le PCI-Express 3.0 ou encore la gravure en 28 nm, NVIDIA réplique enfin à son concurrent de toujours.

Très attendue, la nouvelle GeForce GTX 680 profite d'une toute nouvelle architecture répondant au nom de code Kepler. Une architecture qui bien que nouvelle n'est au final qu'une évolution logique de Fermi, le nom de l'architecture au cœur des GeForce GTX 480 et 580 notamment. Evolution certes, mais dans le très bon sens du terme. Les ingénieurs de NVIDIA ont en effet retravaillé l'architecture pour la rendre plus efficace, plus puissante et surtout moins gourmande en énergie. Le résultat est probant puisque non content d'être largement plus véloce que l'ancienne génération de GeForce, Kepler consomme bien moins.

Pour autant, tout n'est pas parfait. Certains choix de dimensionnement de l'architecture notamment au niveau du nombre d'unités ROP nous laissent songeurs, alors que la taille physique de la puce (et celle de la carte !) semble bien trop raisonnable pour un circuit NVIDIA. Les mauvaises langues auraient tendance à dire que cette GeForce GTX 680 était destinée à être une GeForce GTX 660, c'est-à-dire une puce milieu de gamme. Mais quand bien même, on reste agréablement surpris par les très bonnes prestations globales de l'architecture, sa consommation modérée ou encore ses performances. Le ratio performance par watt est indubitablement en progrès à ce détail près que comparativement une Radeon HD 7850 offrira un meilleur compromis... mais il est vrai qu'il ne s'agit pas de la même classe de GPU.

01E5000005051048-photo-nvidia-geforce-gtx-680.jpg


En matière de performances justement, le GeForce GTX 680 est sans conteste plus rapide que son prédécesseur, mais face au Radeon HD 7970, le bilan est plus mitigé. Dans la plupart des jeux, la petite dernière de NVIDIA est entre 5 et 20% plus rapide que sa concurrente directe, la Radeon HD 7970. Oui mais voilà sous Battlefield 3, jeu emblématique de dernière génération, la carte d'AMD est 5% plus rapide ! Alors certes, notre scène de référence n'était vraisemblablement pas en faveur de NVIDIA comme l'a montré notre second test. Qui plus est Metro 2033 met en exergue les limites de Kepler alors que H.A.W.X. 2 pourtant supposé tirer largement parti de la puissance géométrique toujours croissante de nos puces positionne GeForce GTX 580 et GeForce GTX 680 à parfaite égalité. Diverses raisons peuvent expliquer ce manque d'homogénéité ou de constance face au Radeon HD 7970 : le GeForce GTX 680 se contente de 2 Go de mémoire vidéo contre 3 Go pour AMD alors que la puce peut être limitée par un nombre réduit d'unités ROP, c'est particulièrement vrai en cas d'anti-aliasing intensif, tandis que le compilateur des pilotes NVIDIA pourra encore être optimisé à l'avenir.

Au-delà des performances, l'arrivée de la technologie GPU Boost nous laisse également mitigés. Sur le papier, il s'agit d'une très bonne idée dont le seul but est de maximiser les performances offertes par la carte. Dans les faits, la technologie peut être soumise à de fortes variations en fonction de la carte, de la puce employée ou encore de l'efficacité du système de refroidissement alors que GPU Boost opacifie l'overclocking. L'utilisateur béotien trouvera probablement que l'overclocking est simplifié, le power user que nous sommes sera perdu et pestera contre la variabilité de cet overclocking où l'on ne sait jamais vraiment ce qui se passe.

01C2000005051886-photo-geforce-gtx-680-box.jpg


On retiendra également de Kepler l'arrivée d'un moteur d'affichage au niveau, ou presque, de la concurrence avec la possibilité de piloter jusqu'à quatre écrans depuis une seule carte. En prime, le nouvel encodeur vidéo matériel baptisé NVEnc semble donner des résultats véritablement prometteurs avec les logiciels optimisés. Quant à la carte de référence proposée par NVIDIA elle est tout à fait plaisante tant au niveau de sa taille modérée que de son design et sa discrétion. Difficile toutefois de ne pas regretter un équivalent à la technologie Zero Core Power d'AMD, en ces temps de green computing NVIDIA aurait pu pousser sa démarche de meilleur ratio performance/watt au bout.

Annoncée au prix public conseillé de 499 euros TTC, la GeForce GTX 680 s'affiche bon an mal an comme une excellente alternative au Radeon HD 7970 pour peu que les stocks soient au rendez-vous et que les revendeurs ne décident pas de marger à plein tube. Vivement les déclinaisons !

NVIDIA GeForce GTX 680

8

Les plus

  • Bonnes performances
  • Consommation maîtrisée, carte mesurée
  • Support 4 écrans, arrivée NVENC
  • Gravure 28nm, technos modernes

Les moins

  • Pas de mode ZeroCore
  • Technologie GPU Boost à surveiller
  • Manque d'homogénéité parfois
  • Prix élevé

Performances9

Fonctionnalités9

Qualité/prix7



Julien Jay
Par Julien Jay

Passionné d'informatique depuis mon premier Amstrad 3086 XT et son processeur à 8 MHz, j'officie sur Clubic.com depuis ses presque débuts. Si je n'ai rien oublié d'Eternam, de MS-DOS 3.30 et de l'ineffable Aigle d'Or sur TO7, je reste fasciné par les évolutions constantes en matière de high-tech. Bercé par le hardware pur et dur, gourou ès carte graphique et CPU, je n'en garde pas moins un intérêt non feint pour les produits finis, fussent-ils logiciels. Rédacteur en chef pour la partie magazine de Clubic, je fais régner la terreur au sein de la rédaction ce qui m'a valu quelques surnoms sympathiques comme Judge Dredd ou Palpatine (les bons jours). Mon environnement de travail principal reste Windows même si je lorgne souvent du côté de Mac OS X.

Nos experts recommandent des produits et services technologiques en toute indépendance. Si vous achetez via un lien d’affiliation, nous pouvons gagner une commission. Les prix mentionnés sont susceptibles d'évoluer. En savoir plus
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Abonnez-vous à notre newsletter !

Recevez un résumé quotidien de l'actu technologique.

Désinscrivez-vous via le lien de désinscription présent sur nos newsletters ou écrivez à : [email protected]. en savoir plus sur le traitement de données personnelles