NVIDIA GeForce GTX 280 : la nouvelle bombe ?

Julien Jay
Publié le 16 juin 2008 à 15h00
0000007D00439192-photo-logo-nvidia-geforce.jpg
A peine plus de trois mois après avoir lancé le GeForce 9800 GX2, qui venait couronner la récente gamme GeForce 9 de NVIDIA, le fabricant revient sur le segment des cartes graphiques haut de gamme avec le lancement du GeForce GTX 280. Il faut dire que malgré les déclinaisons successives du G80, la puce à l'origine du GeForce 8800, les performances n'avaient que peu évolué et le dernier GeForce 9800 GTX s'avérait à peine plus rapide que le GeForce 8800 Ultra sorti il y a plus d'un an !

En préparation depuis quelque temps déjà, la GeForce GTX 280 devrait permettre à NVIDIA de renouveler son offre très haut de gamme, mettant ainsi un terme à la navrante stagnation des performances à laquelle nous assistions... impuissants. Et si la GeForce GTX 280 s'annonce sur le papier comme un monstre de performances, c'est aussi pour NVIDIA une nouvelle plate-forme de promotion de ses technologies maisons. Car, plus de douze mois après la sortie de CUDA, l'API qui permet d'utiliser le processeur graphique comme un co-processeur, les premières applications grand public en tirant profit voient le jour. Un petit tour du propriétaire s'impose !

0000011D01367762-photo-nvidia-geforce-gtx-280-la-carte.jpg

Une architecture unifiée de seconde génération

Vous l'aurez tout de suite noté, la petite dernière de NVIDIA profite d'une toute nouvelle appellation commerciale. Exit, les séries GeForce 9, et bienvenue aux GeForce de la série 200. Avec cette nouvelle nomenclature, NVIDIA essaie de clarifier ses gammes et promet de ne pas commettre les erreurs du passé avec des déclinaisons aussi nombreuses qu'obscures : on jugera sur pièce. En attendant, le GeForce GTX 280, nom de code G200, pouvait difficilement figurer dans la famille GeForce 9 puisque son architecture est sensiblement différente.

NVIDIA profite en effet du GeForce GTX 280 pour lancer sa seconde génération d'architecture graphique unifiée. Avec le G80, qui a donné naissance aux GeForce 8 et GeForce 9, NVIDIA avait jeté les bases de sa première architecture graphique unifiée, une architecture où les anciennes notions de pixels pipelines ou d'unités de vertex n'existent plus. Plutôt que de segmenter la puce avec des unités fixes spécialisées dans telle ou telle tâche, NVIDIA a en effet pris le parti, tout comme AMD du reste, de doter sa puce d'unités reconfigurables pouvant travailler indifféremment sur tout type de données.

000000DC00395505-photo-nvidia-geforce-8800-pourquoi-unifier.jpg

Le pourquoi d'une architecture unifiée


Ainsi, avec une scène massivement chargée en pixels shaders, plutôt que d'avoir comme avec les anciennes architectures DirectX 9, une partie des unités destinées aux Vertex qui ne servent à rien, toutes les unités du processeur sont ici utilisées pour le traitement des pixels shaders : l'avantage est bien réel et aboutit à une utilisation la plus efficiente possible des ressources de la puce. Des ressources qui peuvent être exploitées aussi bien pour le rendu 3D que pour des calculs plus généraux, le GPU pouvant maintenant être programmé pour un usage autre que le graphique.

Une nouvelle ère pour le GPU ?

0000006401367784-photo-logo-nvidia-cuda.jpg
Depuis plusieurs années déjà, divers chercheurs et mathématiciens tentent d'utiliser la puissance des processeurs graphiques pour effectuer d'autres tâches plus généralistes que les simples rendus 3D : c'est ce qu'on appelle le GP-GPU (general purpose GPU). Les intéressés sont en effet partis du constat qu'à l'inverse des CPU, les puces graphiques ont une architecture massivement parallèle particulièrement adaptée à certains types de calcul (simulations financières, compression vidéo, etc.). Alors que les CPU sont conçus pour offrir les meilleures performances en fonction du flux d'instructions utilisé, et donc exécuter une tâche (ou un thread) le plus rapidement possible, les GPU sont eux conçus pour traiter un maximum de données ou de threads (d'un type certain). Conséquence logique, l'architecture des deux puces est différente : lorsque la plus grande partie des transistors d'un CPU est consacrée à la mémoire cache, une large proportion du GPU est dédiée aux unités d'exécution.

01367854-photo-nvidia-geforce-gtx-280-comparaison-cpu-gpu.jpg

Différence d'architecture entre CPU et GPU


Oui mais voilà, jusqu'à présent, aucun standard n'avait été clairement défini pour exploiter les ressources des GPU, dans un autre contexte que la 3D et le moins qu'on puisse dire est qu'exploiter un GPU comme une unité de calcul est une tâche particulièrement complexe. Les développeurs devaient en effet adapter leur code sous forme de pixel shaders pour utiliser le GPU comme aide au calcul. L'évolution des puces graphiques aidant, ATI et AMD se sont tour à tour penchés sur la question, chacun apportant sa propre solution. Avec le GeForce 8800, NVIDIA introduisait CUDA, sa bibliothèque de développement utilisant un langage assez naturel pour les développeurs, en l'occurrence le C et le C++.

Scindée en une couche logicielle avec un environnement d'exécution d'un côté et un pilote de l'autre, l'API CUDA se veut pratiquement transparente pour le développeur et nécessite naturellement une puce graphique compatible. Avec le GeForce GTX 280, NVIDIA propose diverses améliorations d'ordre architectural pour accélérer le traitement des programmes CUDA tout en prenant en charge, pour la première fois, la double précision, mais nous aurons l'occasion d'évoquer à nouveau le sujet. Pour l'utilisateur, CUDA et les programmes en tirant profit, incarnent la promesse d'une nouvelle ère, celle où la puce graphique assiste le processeur central pour d'autres types de tâches que la 3D. Et NVIDIA a un argument de taille pour aider à la concrétisation de la chose : avec les gammes GeForce 8, GeForce 9 et maintenant GeForce GTX 200, ce sont près de 70 millions de puces graphiques à travers le monde qui peuvent exploiter des programmes CUDA. Qui plus est, la prochaine version de CUDA pourra également s'exécuter sur les processeurs x86.

Deux exemples d'applicatifs utilisant CUDA

Pour accompagner le lancement du GeForce GTX 280, NVIDIA propose deux applications grand public se basant sur son API CUDA. Il y a tout d'abord la version NVIDIA du client Folding@Home. Un temps disponible dans une version fonctionnant avec les cartes graphiques ATI, Folding@Home a été redéveloppé, par l'université de Stanford, pour fonctionner sur les cartes graphiques NVIDIA via CUDA. Le principe est toujours celui du calcul distribué : un serveur envoie aux clients Folding@Home diverses données à traiter et c'est ensuite la carte graphique qui va résoudre les calculs en question.

0000010901367496-photo-nvidia-geforce-gtx-280-folding-home.jpg

Folding@Home tournant sur le GeForce GTX 280


Dans un autre registre, la firme a travaillé avec Elemental Technologies sur le développement d'un convertisseur média logiciel. Baptisé BadaBOOM, celui-ci utilise CUDA et donc les ressources de la puce graphique pour transcoder une vidéo vers le format H.264, divers profils étant du reste proposés (iPhone, iPod, PSP, PS3, Xbox 360, etc.). Attention, il s'agit ici d'une application payante.

000000F501367284-photo-nvidia-geforce-280-gtx-badaboom.jpg

L'encodeur vidéo BadaBOOM d'Elemental


Dans les faits, l'encodage vidéo opéré par BadaBOOM se révèle particulièrement véloce. Nous avons mesuré, chronomètre en main, le temps nécessaire pour encoder une vidéo MPEG2 de 2 minutes au format H.264 avec trois logiciels différents :

01367830-photo-nvidia-geforce-gtx-280-badaboom-bench.jpg


On le voit, BadaBOOM, qui utilise notre carte graphique GeForce GTX 280, est le plus rapide à encoder notre vidéo test. Toutefois il faut tempérer ces bons résultats en précisant que l'encodeur vidéo d'iTunes est mono-threadé et n'utilise donc qu'un seul coeur du processeur alors qu'il nous est très difficile d'opérer les mêmes réglages lors de la compression vidéo, les trois logiciels n'ayant pas un seul réglage en commun.

NVIDIA GeForce GTX 280 : l'architecture plus en détails

Avec le GeForce GTX 280, l'architecture unifiée reste le maître mot alors que NVIDIA revoit diverses choses, à commencer par le nombre de processeurs de flux et leur organisation au sein de la puce. Alors que le GeForce 8800 était doté de 128 processeurs de flux, le GeForce GTX 280 en comporte240, soit presque deux fois plus. L'occasion pour nous de vous mettre en garde contre la communication de NVIDIA qui tente de mettre en parallèle les 240 processeurs de flux de son processeur graphique aux quatre cœurs que l'on trouve dans les processeurs Intel Penryn notamment. Cette comparaison n'est absolument pas valable, les processeurs de flux du GeForce GTX 280 n'ayant pas du tout les mêmes capacités de calcul que les cœurs d'exécution d'un CPU alors qu'ils ne travaillent pas non plus avec les instructions x86 utilisées par les processeurs AMD ou Intel. Pour en revenir à l'architecture du GeForce GTX 280, les 240 processeurs de flux sont organisés selon 10 grappes ou clusters. Chaque cluster est divisé selon trois unités de traitement multi-processeurs (les SM ou Streaming Multiprocessor), chaque unité étant elle-même dotée de 8 processeurs de flux (les SP ou Streaming Processors).

000000DC01367782-photo-nvidia-geforce-gtx-280-tpc.jpg

Gros plan sur le TPC ou Thread Processing Cluster


Chacun des 240 cœurs d'exécution du GeForce GTX 280 peut effectuer des opérations arithmétiques sur des nombres entiers ou des nombres flottants alors qu'ils sont capables d'effectuer des opérations logiques avec un accès à la mémoire. Chaque processeur scalaire est qui plus est multi-threadé de manière matérielle et peut exécuter une instruction par processus et par cycle d'horloge. Rappelons au passage, qu'au contraire des architectures vectorielles précédemment employées au sein des puces graphiques, l'architecture unifiée de NVIDIA travaille non pas sur l'ensemble d'un vecteur mais sur une seule de ses composantes (coordonnées X, Y, Z pour un vertex, valeurs de couleurs RGBA d'un pixel).

000000F001367774-photo-nvidia-geforce-gtx-280-architecutre.jpg

Vue d'ensemble de l'architecture du GeForce GTX 280


En tête d'architecture, on retrouve le « Thread Scheduler », une super unité qui a le rôle d'arbitre et est chargée de dispatcher les calculs, en fonction de leur nature (pixel, géométrie, vertex) vers chacun des clusters de traitement tout en maximisant leur efficacité. Naturellement, avec près de 240 processeurs de flux à faire travailler, NVIDIA s'est sérieusement penché sur l'optimisation des algorithmes de son organiseur de processus avec des gains de performance atteignant jusqu'à 20% dans certains cas bien précis.

NVIDA GeForce GTX 280 : un seul GPU mais deux personnalités...

La charge de travail n'étant pas la même que le GPU traite de la 3D ou qu'il effectue des calculs parallèles pour par exemple encoder une vidéo, l'architecture du GeForce GTX 280 a pour particularité d'offrir deux facettes. Comme sur le G80, le GeForce GTX 280 dispose d'une mémoire locale partagée entre chacun des huit processeurs de flux. Cette mémoire est cruciale puisqu'elle permet l'échange de données directement entre les processeurs de flux, ce qui accélère sensiblement le traitement puisque cela évite à la puce de lire les données depuis une mémoire externe. Avec le GeForce GTX 280, NVIDIA augmente la taille de cette mémoire cache tout en l'exposant de meilleure manière pour les développeurs qui peuvent l'utiliser plus simplement.

000000F001367842-photo-nvidia-geforce-gtx-280-archi-mode-calcul.jpg

Architecture du GeForce GTX 280 pour les calculs


En mode calcul, les caches dédiés au stockage des textures sont utilisés pour combiner les accès mémoire afin d'offrir une bande passante plus large pour les opérations de lecture/écriture en mémoire. On notera dans le diagramme de la puce des unités baptisées « Atomic » : celles-ci offrent un accès granulaire aux divers emplacements mémoire et permettent d'effectuer des opérations de lecture, écriture et modification.

000000E101367848-photo-nvidia-geforce-gtx-280-archi-mode-calcul-tpc.jpg

Gros plan sur un TPC en mode calcul du GeForce GTX 280 : observez l'apparition de mémoire partagée

NVIDIA GeForce GTX 280 : les autres améliorations de l'architecture

0000005501367738-photo-nvidia-geforce-gtx-280-le-logo.jpg
L'architecture du GeForce GTX 280 comporte bien entendu d'autres améliorations et NVIDIA a notamment augmenté la taille des registres face aux puces GeForce 8 & 9. Avec une taille de registre double, le GeForce GTX 280 autorise la manipulation de shaders plus longs et plus complexes et ce sans avoir besoin de recourir à la mémoire graphique. Pour répondre aux besoins plus pointus en matière de calcul arithmétique, NVIDIA dote chacune des trois unités de traitement multiprocesseurs d'une unité de fonction spéciale, ou SFU, qui est capable d'effectuer des multiplications en virgule flottante, de faire des interpolations d'attributs ou encore de travailler sur les nombres transcendants. L'un des avantages de cette unité est de permettre le fonctionnement à pleine vitesse (ou presque) d'opérations MADD (multiplier et additionner) en un cycle d'horloge, une fonctionnalité déjà annoncée pour le G80 mais finalement plus lente que prévue sur les GeForce 8/9.

L'autre nouveauté majeure de l'architecture du GTX 280 vient de la prise en charge de la double précision, une prise en charge déjà existante chez AMD depuis le RV670 alias Radeon HD 3850/3870. Le calcul 64 bits en virgule flottante se fait ainsi grâce à une unité dédiée. Au total, et bien que la puce GTX 280 comporte 240 processeurs de flux, seule une trentaine fonctionne en double précision sur 64 bits. Double précision oblige, NVIDIA respecte ici le standard international IEEE 754R.

000000F001367736-photo-nvidia-geforce-gtx-280-chip-shot.jpg


Parallèlement aux améliorations en matière de calcul, NVIDIA revient également sur les unités de texture de sa nouvelle puce vedette. Alors que les GeForce 8800 offraient huit unités de traitement des textures, le GTX 280 en comporte dorénavant une dizaine. Face au GeForce 8800 qui pouvait filtrer jusqu'à 64 pixels par cycle d'horloge, le GeForce GTX 200 peut en filtrer 80. Du côté des ROP, du nom de ses unités en charge des dernières opérations sur les pixels, NVIDIA porte leur nombre de six à huit partitions. Chaque partition peut travailler sur 4 pixels par cycle d'horloge, ce qui nous donne en sortie des unités ROP pouvant travailler sur 32 pixels contre 24 pour le GeForce 8, lors de traitement de pixels complets (couleurs et profondeur Z). Du reste, NVIDIA ne s'est pas contenté d'augmenter le nombre d'unités ROP puisque certains opérations, comme le mélange de pixels U8 (entier 8 bits non signé) se fait deux fois plus rapidement qu'avec les précédentes générations de GPU.

NVIDIA persiste et signe : DirectX 10... mais la géométrie va plus vite !

0000005500378612-photo-logo-microsoft-directx-10.jpg
Alors qu'AMD propose depuis de longs mois déjà des puces graphiques prenant en charge la dernière version de l'API graphique de Microsoft, en l'occurrence DirectX 10.1, NVIDIA persiste et signe en ne dotant pas son GeForce GTX 280 de cette prise en charge. Seul DirectX 10 est ici géré et NVIDIA explique que la version 10.1 de DirectX n'apporte que peu d'améliorations, alors que les développeurs n'ont pas franchi le pas, le nombre de jeux DirectX 10.1 étant effectivement pour le moins réduit (à moins bien sûr que l'on considère que le seul jeu DirectX 10.1 ait été supprimé à la demande de NVIDIA...). Du reste, il est vrai que certaines fonctionnalités propres à DirectX 10.1 sont prises en charge par le GeForce GTX 280 mais les développeurs devront les adresser indépendamment.

Avec DirectX 10, Microsoft a inclus pour la première fois dans son API la possibilité pour la puce graphique de générer de la géométrie, une tâche autrefois dévolue au CPU. Les puces graphiques de la famille GeForce 8 prenaient naturellement en charge cette spécificité non sans une certaine lenteur rendant l'exploitation de la géométrie assez hasardeuse. Fort de ce constat, NVIDIA indique avoir augmenté par un facteur de six la structure des tampons internes pour un traitement plus rapide des shaders de géométrie et de meilleures performances lors des opérations dites de « stream out » (rappelons qu'il s'agit d'écrire en mémoire les données résultats d'un traitement des vertex ou geometry shaders avant le traitement des pixel shaders).

NVIDIA GeForce GTX 280 : une puce énorme avec contrôleur mémoire 512 bits

Dotée de la bagatelle de 240 processeurs de flux, contre 128 pour mémoire en ce qui concerne les GeForce 8800 GTX/Ultra, le GeForce GTX 280 est un véritable monstre. Toujours gravée en 65nm par le taïwanais TSMC, la puce comporte en effet un total de 1,4 milliards de transistors, un nombre presque record. Alors que les GeForce 8800 GTX et Ultra ne disposaient pas d'un contrôleur PCI-Express de seconde génération, la GeForce GTX 280 dispose d'un contrôleur PCI-Express 2.0, comme les GeForce 8 et 9 basées sur la puce G92. Côté fréquences de fonctionnement, on retrouve les mêmes spécificités qu'avec le GeForce 8.

000000FA01367858-photo-nvidia-geforce-gtx-280-block-diagram.jpg

NVIDIA GeForce GTX 280 : Diagramme de la puce


C'est ainsi que la puce opère à 602 MHz (y compris les unités de texture et les ROP) lorsque les processeurs de flux tournent à 1296 MHz, une fréquence un brin curieuse. Théoriquement, la puce affiche une puissance de calcul brute de 933 gigaflops contre 518 gigaflops pour le vénérable G80. Du côté de la mémoire, NVIDIA inaugure pour la première fois un contrôleur 512 bits compatible avec l'actuelle GDDR3 mais aussi avec la GDDR5, au cas où. En attendant, le contrôleur 512 bits du GeForce GTX 280 est en réalité constitué de deux contrôleurs mémoire de 256 bits chacun et NVIDIA dit avoir retravaillé nombre d'algorithmes pour une plus grande efficacité. Dans les faits, la bande passante mémoire passe de 86 Go/s pour une GeForce 8800 GTX à 142 Go/s pour notre GeForce GTX 280. Par défaut, NVIDIA recommande une fréquence de fonctionnement de 1107 MHz pour la mémoire alors que la quantité de cette dernière atteint dorénavant 1 Go sur le modèle GTX 280. Physiquement enfin, la puce adopte un packaging flip-chip avec un heat-spreader métallique semblable à celui déjà présent sur les tous premiers G80.

000000F001367768-photo-nvidia-geforce-gtx-280-la-puce.jpg


Pour vous rafraîchir la mémoire, voici un récapitulatif des caractéristiques du GeForce GTX 280 face aux précédentes générations de puces.

 GeForce 8800 GTXGeForce 8800 GTS 512 MoGeForce 9800 GTXRadeon HD 3870 X2GeForce 9800 GX2GeForce GTX 280
InterfacePCI-Ex. 16xPCI-Ex. 16x - Gen2PCI-Ex. 16x - Gen2PCI-Ex. 16xPCI-Ex. 16x - Gen2PCI-Ex. 16x - Gen2
Gravure0,09 µ0,065 µ0,065 µ0,055 µ0,065 µ0,065 µ
Transistors681 Millions754 Millions754 Millions666 Millions754 Millions1,4 Milliards
RAMDAC2x 400 MHz2x 400 MHz2x 400 MHz2x 400 MHz2x 400 MHz2x 400 MHz
T&LDirectX 10DirectX 10DirectX 10DirectX 10.1DirectX 10DirectX 10
Stream Processors128128128320128240
Unités ROP241616161632
Mémoire embarquée768 Mo512 Mo512 Mo2x 512 Mo2x 512 Mo1024 Mo
Interface mémoire384 Bits256 bits256 bits256 bits256 bits512 bits
Bande passante101.3 Go/s62,1 Go/s70,4 Go/s58,9 Go/s64 Go/s142 Go/s
Fréquence GPU575 MHz650 MHz675 MHz825 MHz600 MHz602 MHz
Fréquence Stream Processors1350 MHz1625 MHz1688 MHz825 MHz1500 MHz1296 MHz
Fréquence mémoire900 MHz970 MHz1100 MHz900 MHz1 GHz1107 MHz

NVIDIA GeForce GTX 280 : Hybrid Power à bord et consommation électrique

Tout comme les récentes GeForce 9800 GTX et GeForce 9800 GX2, la GeForce GTX 280 est compatible Hybrid Power. Disponible exclusivement sur les plateformes nForce, et plus précisément sur les seuls nForce 700 pour processeurs AMD, Hybrid Power vise à permettre l'extinction de la carte graphique additionnelle lorsque sa puissance n'est pas nécessaire pour basculer l'affichage sur le circuit graphique intégré à la carte mère. L'idée étant d'économiser de l'énergie lorsque l'on surfe sur l'Internet ou que l'on fait du traitement de texte, les 240 processeurs de flux du GeForce GTX 280 étant effectivement inutiles.

En plus du support Hybrid Power, les ingénieurs de NVIDIA ont fait quelques efforts pour réduire la consommation électrique de la puce lorsque celle-ci est peu sollicitée. Alors que nos mesures révèlent une consommation électrique gargantuesque supérieure à 230 Watts sous 3DMark Vantage, la puce dispose de fonctionnalités de clock-gating visant à éteindre des portions du GPU lorsqu'il est peu utilisé. En mode « idle », la consommation de la puce graphique (et non de la carte) tombe à seulement 25 Watts d'après les données constructeur. Seul hic, nos mesures ne nous ont pas permis de valider cette consommation électrique, des mesures effectuées avec notre pince ampèremétrique.

 GeForce 8800 UltraGeForce 9800 GTXGeForce 9800 GX2GeForce
GTX 280
Radeon HD3870 X2
Consommation « idle »109,8 Watts102,6 Watts133 Watts111 Watts94,2 Watts
Consommation en charge168 Watts154 Watts211 Watts233 Watts 195 Watts


NVIDIA GeForce GTX 280 : PureVideo HD, NVIO 2

0000007800396032-photo-logo-nvidia-purevideo.jpg
A l'instar des dernières puces graphiques GeForce 9, le GeForce GTX 280 embarque le moteur PureVideo HD, un moteur qui prend en charge la décompression matérielle des flux vidéos haute définition comme le H.264, le VC-1 ou le MPEG-2 et ce afin de réduire la consommation processeur du système. Les derniers pilotes ont ajouté diverses nouveautés d'ordre fonctionnel comme l'amélioration dynamique du contraste, le décodage HD double-flux ou encore la non désactivation de l'interface graphique Aero lors de la lecture Blu-ray.

Comme la firme l'avait déjà fait avec les GeForce 8800, toute l'électronique gérant l'affichage final (connexions, protocole, etc.) est déportée sur une puce dédiée baptisée NVIO et ce afin de libérer le plus grand nombre possible de transistors. Le protocole HDCP est bien entendu pris en charge alors que l'interface HDMI est supportée via un simple adaptateur (HDMI 1.2). Avec un double RAMDAC de 400 MHz, la puce gère le DVI Dual-Link et propose un support des panneaux d'affichage en 10 bits. Dépourvue de circuit audio interne, la carte graphique se dote d'une entrée audio SPDIF permettant de récupérer le son depuis l'ordinateur pour l'injecter sur l'interface HDMI et ainsi le transférer à votre téléviseur.

NVIDIA GeForce GTX 280 : la carte

Physiquement, la carte GeForce GTX 280 est très proche du récent GeForce 9800 GX2. Double-slot, la carte mesure un tout petit peu moins de 27 centimètres de long alors qu'elle est entièrement carénée, comme les dernières cartes du fabricant. L'électronique de la carte est en effet masquée par un carter métallique noir brillant dont l'extrémité est légèrement de biais ce qui permet, dans certains boîtiers, de ne pas culbuter la cage des disques durs contrairement au GeForce 9800 GX2. Avec un connecteur PCI-Express 16x, la carte est dotée d'un double connecteur SLI, NVIDIA proposant avec le GeForce GTX 280 la prise en charge SLI et 3-Way SLI. Côté alimentation électrique, il faudra disposer d'un connecteur d'alimentation PCI-Express 2.0 (8 broches donc) et d'un connecteur PCI-Express conventionnel (6 broches).

0000010401368416-photo-nvidia-geforce-gtx-280-la-carte.jpg

NVIDIA GeForce GTX 280 : la carte


Refroidie par un traditionnel bloc composé d'un radiateur à ailettes métalliques avec un cœur cuivre, la carte embarque un ventilateur type cage d'écureuil en son extrémité droite. L'air chaud est donc expulsé à l'extérieur de l'ordinateur alors que la carte comporte comme connectique deux prises DVI et un connecteur mini-DIN pour les sorties vidéos analogiques (S-Vidéo, YUV, etc). Comportant 1 Go de mémoire vidéo, la GeForce GTX 280 utilise des puces Hynix réparties sur les deux faces du PCB. A noter, la présence d'un connecteur SPDIF sur la tranche de la carte pour récupérer le son du PC et l'envoyer sur l'interface HDMI. Précisons pour terminer qu'en fonctionnement le ventilateur de la carte graphique n'est certes pas le plus discret (lorsque la carte s'échauffe) mais ce n'est pas non plus le bruyant, loin s'en faut.

000000DC01368418-photo-nvidia-geforce-gtx-280-la-carte-d-tail-1.jpg
000000DC01368420-photo-nvidia-geforce-gtx-280-la-carte-d-tail-2.jpg

NVIDIA GeForce GTX 280 : Détails
00310184-photo-ordinateur-de-bureau-dell-dimension-3100c.jpg
Pour tester les performances du GeForce GTX 280 nous avons utilisé la plate-forme dont le détail figure ci-dessous :
  • Carte mère Asus P5E3 Premium - (BIOS 0402),
  • Processeur Intel Core 2 Extreme QX9650 (3 GHz),
  • 2x 1 Go mémoire DDR3 Corsair CM3X1024-1800C7 @ 1333,
  • Disque dur Western Digital Raptor 150 Go - Serial-ATA 150
Cette plate-forme opérait sous Windows Vista Edition Intégrale avec Service Pack 1 et utilisait les derniers BIOS et mises à jour disponibles à la date du test. Côté cartes graphiques, nous avons testé, en face du GeForce GTX 280, les GeForce 8800 GTX, GeForce 9800 GTX, GeForce 8800 Ultra, GeForce 9800 GX2 sans oublier le Radeon HD 3870 X2, la carte graphique AMD la plus puissante du moment. En matière de pilotes, nous avons utilisé les pilotes GeForce 177.34 et les CATALYST 8.5.

3DMark Vantage

01368280-photo-nvidia-geforce-gtx-280-3dmark-vantage.jpg

On démarre avec le tout récent 3DMark Vantage, un test qui prend dorénavant en charge DirectX 10. En tête, nous retrouvons, et ce quelle que soit la résolution, le GeForce GTX 280. En 2560x1600, soit la résolution la plus élevée de notre sélection, la petite dernière de NVIDIA est 38% plus rapide que le GeForce 9800 GX2. Face au GeForce 8800 GTX qu'elle remplace, la carte est 92% plus performante. Face au Radeon HD 3870X2, NVIDIA propose ici une carte 50% plus véloce.

Enemy Territory : Quake Wars - v1.4

01368302-photo-nvidia-geforce-gtx-280-quake-wars-et.jpg

On enchaîne avec Quake Wars, ici testé avec notre propre scène. La carte la plus rapide en 1680x1050 et en 1920x1200 s'avère être le GeForce GTX 280, alors qu'en 2560x1600 la dernière-née de NVIDIA cède sa place au GeForce 9800 GX2. Ce dernier est à peine 1,5% plus rapide en 2560x1600. Comparée au Radeon HD 3870 X2, la GeForce GTX 280 est 12% plus performante en 1920x1200 alors que face au GeForce 8800 GTX, le gain atteint, toujours dans cette résolution, 52%.

F.E.A.R. - v1.08

01368294-photo-nvidia-geforce-gtx-280-fear.jpg

Ce bon vieux F.E.A.R. a du mal à départager GeForce GTX 280 et GeForce 9800 GX2. La nouvelle référence haut de gamme de NVIDIA fait en effet jeu égal avec la précédente solution basée, rappelons-le, sur deux puces graphiques. Face au GeForce 9800 GTX, le GeForce GTX 280 est cette fois-ci 65% plus rapide en 2560x1600. Quant au Radeon HD 3870 X2, il ne parvient pas à inquiéter la petite dernière de NVIDIA, ici nettement en tête.

Half-Life 2 - Episode Two

01368298-photo-nvidia-geforce-gtx-280-half-life-2-episode-2.jpg

Pour Half-Life 2 - Episode 2, ici testé avec notre propre démo, le GeForce GTX 280 reprend le lead, devant le GeForce 9800 GX2. En 2560x1600, le nouveau GeForce est respectivement 4% plus rapide que le GeForce 9800 GX2 et 35% plus performant que le Radeon HD 3870 X2. La dernière carte haut de gamme d'AMD talonnait pourtant les GeForce les plus rapides en 1680x1050 et en 1920x1200. Du reste, en 1680x1050, la Radeon HD 3870 X2 est plus rapide que le GeForce GTX 280.

Unreal Tournament 3 - v1.2 - War Serenity Bot

01368306-photo-nvidia-geforce-gtx-280-unreal-tournament-3.jpg

Avant d'entamer la seconde page de tests, un petit détour sous Unreal Tournament 3 s'impose. Alors qu'en 1680x1050 et en 1920x1200, le GeForce GTX 280 affiche à peu de choses près les mêmes performances que le GeForce 9800 GX2 ou le Radeon HD 3870 X2, le CPU semblant limiter nos cartes graphiques, la dernière carte de NVIDIA prend son envol en 2560x1600. Ici, ses performances sont 8% supérieures à celles du GeForce 9800 GX2 mais aussi 38% plus élevées que celles du Radeon HD 3870 X2 et 65% supérieures au GeForce 8800 GTX.

Company Of Heroes - v2.301 - DirectX 10

01368288-photo-nvidia-geforce-gtx-280-company-of-heroes.jpg

Après les FPS, nous nous essayons à un autre genre, le RTS avec Company of Heroes. Le GeForce GTX 280 est ici largement en tête, qu'importe la résolution. Face au GeForce 9800 GX2, le gain s'élève tout de même à 21% en 1920x1200 (résolution des écrans 24 pouces) alors que face au GeForce 8800 Ultra, la carte est 78% plus performante. Enfin, comparativement au Radeon HD 3870 X2, le GeForce GTX 280 se montre 49% plus performant.

World In Conflict - DirectX 10 - v1.0007

01368308-photo-nvidia-geforce-gtx-280-world-in-conflict.jpg

On reste dans les STR avec World In Conflict. Les observations formulées avec Company of Heroes restent valables puisque notre GeForce GTX 280 continue de mener la danse. En 1680x1050, la nouvelle référence de NVIDIA est 8% plus rapide que le GeForce 9800 GX2. Face au Radeon HD 3870 X2, la petite dernière de la firme au caméléon l'emporte une fois de plus (14% de gain en 2560x1600) alors que le GeForce GTX 280 est 37% plus rapide que le GeForce 8800 GTX en 1920x1200.

Crysis - DirectX 10 - v1.2, réglages très élevés

01368292-photo-nvidia-geforce-gtx-280-crysis.jpg

Jeu ou benchmark ? On ne sait guère... En attendant, Crysis, ici testé avec une démo enregistrée par nos soins, met à rude épreuve nos cartes graphiques et la GeForce GTX 280 affiche ici les meilleures performances... avec la GeForce 9800 GX2. Dans les résolutions courantes, le GeForce GTX 280 est même très légèrement en retrait face au GeForce 9800 GX2. En 1920x1200, la carte est tout de même 38% plus rapide que le Radeon HD 3870 X2 et 53% plus rapide que le GeForce 9800 GTX. En passant à la résolution la plus extrême de 2560x1600, le GeForce GTX 280 lamine la concurrence. La carte se montre en effet 44% plus rapide que le GeForce 8800 Ultra alors qu'elle est presque trois fois plus rapide que le GeForce 9800 GX2. La raison de ce grand écart ? La quantité de mémoire vidéo qui ne permet pas à Crysis de s'exécuter convenablement en 2560x1600 sur les cartes munies de seulement 512 Mo. Avec 1024 Mo de mémoire vidéo, la GeForce GTX 280 est armée pour ce type de résolution avec les jeux DirectX 10. Reste que les 14 images par seconde relevées ne permettent hélas pas de jouer avec fluidité.

BioShock - DirectX 10 - v1.1

01368282-photo-nvidia-geforce-gtx-280-bioshock.jpg

Basé sur le moteur graphique Unreal Engine 3, et testé avec notre propre démo, Bioshock donne une petite préférence au GeForce 9800 GX2 ici légèrement plus rapide que le GeForce GTX 280. Mais comparé aux autres cartes, le GeForce GTX 280 est plus que capable... En 1920x1200, la dernière référence de NVIDIA est 35% plus rapide que le GeForce 9800 GTX. Comparé au Radeon HD 3870 X2, la GeForce GTX 280 est 51% plus performante.

Call Of Duty 4 - v1.6

01368284-photo-nvidia-geforce-gtx-280-call-of-duty-4.jpg

Avec Call Of Duty 4, le GeForce GTX 280 est largement en tête avec des performances parfois 24% supérieures à celles du GeForce 9800 GX2. Mieux, le GeForce GTX 280 est, en 2560x1600, 22% plus rapide que le Radeon HD 3870 X2 et face à son prédécesseur, le GeForce 8800 GTX, le nouveau GeForce se montre 66% plus véloce.

Call Of Juarez - DirectX 10

01368290-photo-nvidia-geforce-gtx-280-call-of-juarez.jpg

Call Of Juarez plébiscite le Radeon HD 3870 X2 qui est ici plus rapide que les cartes NVIDIA. En 1920x1200, la solution double puce graphique d'AMD est 40% plus rapide que le GeForce GTX 280. Ce dernier affiche d'ailleurs des performances légèrement inférieures au GeForce 9800 GX2. Mais face au GeForce 8800 GTX, la carte offre des performances 53% supérieures.

Call Of Duty 4 - v1.6 - FSAA 4x & AF 16x

01368286-photo-nvidia-geforce-gtx-280-call-of-duty-4-aa.jpg

Retour sous le dernier opus de Call Of Duty, toujours testé avec une démo concoctée par nos soins, où nous activons cette fois l'anticrénelage et le filtrage anisotropique. Le GeForce GTX 280 affiche ici sa suprématie et la carte fait nettement mieux que ses concurrentes. En 2560x1600 elle pulvérise le GeForce 9800 GX2 qui chute du reste à la dernière place. En 2560x1600, le bébé de NVIDIA est 46% plus performant que le Radeon HD 3870 X2 et surpasse le GeForce 9800 GTX grâce à des performances 65% plus élevées.

F.E.A.R. v1.08 - AA 4x AF 16x

01368296-photo-nvidia-geforce-gtx-280-fear-aa.jpg

Dans les mêmes conditions, le GeForce GTX 280 mène toujours la danse sous F.E.A.R. avec toutefois un avantage plus réduit. En 1920x1200, la dernière carte de NVIDIA est 4% plus rapide que le GeForce 9800 GX2 et 25% plus rapide que le Radeon HD 3870 X2. Face au GeForce 8800 Ultra, le gain de performances atteint, en faveur du GeForce GTX 280, 55%.

Half-Life 2 : Episode Two - AA 4x AF 16x

01368300-photo-nvidia-geforce-gtx-280-half-life-2-episode-2-aa.jpg

Half-Life 2 : Episode Two confirme les bonnes prestations du GeForce GTX 280 lorsque les fonctions de filtrage sont activées. La carte devance systématiquement le GeForce 9800 GX2 alors qu'elle se montre 50% plus rapide que le Radeon HD 3870 X2 en 1920x1200 et 70% plus véloce que le GeForce 8800 GTX !

World In Conflict - DirectX 10 - v1.0007 - AA 4x AF 16x

01368310-photo-nvidia-geforce-gtx-280-world-in-conflict-aa.jpg

Le jeu de stratégie World In Conflict amplifie nos constatations précédentes puisque la mise en place de l'anticrénelage 4x et du filtrage anisotrope 16x propulsent le GeForce GTX 280 largement en tête. En 1920x1200, la carte est 35% plus rapide que le Radeon HD 3870 X2 alors que cet écart se creuse en 2560x1600 où la dernière puce de NVIDIA est 3 fois plus rapide ! Il faut dire que la carte est aidée par sa généreuse quantité de mémoire vidéo et face au GeForce 8800 GTX, les performances du GeForce GTX 280 sont 38% meilleures en 2560x1600.

Enemy Territory : Quake Wars - v1.4 - AA 4x - AF 16x

01368304-photo-nvidia-geforce-gtx-280-quake-wars-et-aa.jpg

On termine avec Quake Wars, avec l'activation des diverses fonctions de filtrage proposées depuis le menu du jeu. Pas de changement, le GeForce GTX 280 reste en tête et confirme ses très bonnes prestations en matière de filtrage. Visiblement les optimisations des unités ROP sont bien réelles puisque la dernière puce de NVIDIA est 9% plus rapide que le GeForce 9800 GX2 en 1680x1050. La comparaison avec le GeForce 8800 GTX fait toujours mal à ce dernier, l'écart de performance atteignant 61% en 2560x1600. Dans cette résolution, le GeForce GTX 280 fait toujours mieux que le Radeon HD 3870 X2 avec un score 13% supérieur.

Conclusion

0000009601367766-photo-nvidia-geforce-gtx-280-art-2.jpg
Enfin ! Plus d'un an et demi après le lancement des GeForce 8800, NVIDIA propose une véritable nouvelle puce graphique aux performances significativement supérieures à l'offre haut de gamme existante. Si nous saluions il y a quelques mois l'arrivée du G92, une version légèrement améliorée du G80, il faut bien avouer que cette puce a été déclinée à tort et à travers par NVIDIA, la firme au caméléon allant jusqu'à proposer un GeForce 9800 GTX moins rapide que son prédécesseur le GeForce 8800 GTX ! C'est dire si l'arrivée du GeForce GTX 280 était attendue !

Pour concocter le GeForce GTX 280, NVIDIA s'est largement appuyé sur l'architecture unifiée du GeForce 8 tout en rajoutant un certain nombre d'unités de traitement puisque l'on passe de 128 à 240 processeurs de flux. Pour faire face à cette hausse du nombre de cœurs de traitement, NVIDIA a dû revoir la structure de la puce alors que les ingénieurs de la firme ont amélioré nombre de petites choses qui, mises bout à bout, contribuent à augmenter l'efficacité et la puissance de la puce. Et, cerise sur le gâteau, ces améliorations sont non seulement sensibles en 3D mais également efficaces lorsque la puce est utilisée pour des calculs parallèles, un usage qui semble être plus concret aujourd'hui pour le grand public avec l'avènement d'applications comme Folding@Home ou Badaboom, des logiciels qui utilisent la puce graphique plutôt que le CPU pour accomplir leurs tâches. Pour le reste, si l'on regrette le choix de ne prendre en charge que DirectX 10, au détriment de DirectX 10.1, on salue en revanche la prise en charge de la double précision pour ce qui est des calculs ou encore l'arrivée d'un contrôleur mémoire 512 bits pour une bande passante tout simplement monstrueuse.

Reste que comme avec le G80 à son lancement, NVIDIA se montre relativement conservateur dans ses choix technologiques. La firme se cantonne en effet à une finesse de gravure en 65nm alors que côté mémoire, la carte n'est équipée que de GDDR3 quand les prochaines Radeon HD 4870 de son rival AMD devraient être dotées de GDDR5, une mémoire certes plus onéreuse mais aussi beaucoup plus rapide. Tout simplement énormissime, avec ses 1,4 milliards de transistors, la puce qui anime le GeForce GTX 280 s'affiche comme la puce graphique la plus performante de cette fin de printemps 2008. Deux fois plus rapide qu'une GeForce 8800 GTX en moyenne, la GeForce GTX 280 devance fréquemment le GeForce 9800 GX2 qui embarquait rappelons-le deux puces graphiques. Les résultats sous Crysis sont certes un peu décevant, le GeForce 9800 GX2 faisant mieux que la petite dernière, mais l'on notera qu'en 2560x1600, le gigaoctet de mémoire vidéo de la carte permet d'afficher des performances certes insuffisantes pour jouer mais tout de même 3,5 fois supérieures au GeForce 9800 GX2 et ses 512 Mo de mémoire vidéo.

Annoncé à un prix public conseillé de 549 euros TTC (données communiquées par NVIDIA), la GeForce GTX 280 est à n'en pas douter la nouvelle référence en matière de puissance 3D ultime ! En attendant pourquoi pas une version gravée en 55nm de la puce avec de la mémoire GDDR5 ?

NVIDIA GeForce GTX 280

8

Les plus

  • Excellentes performances
  • Large quantité de mémoire vidéo
  • Environnement CUDA qui prend forme

Les moins

  • Gravure en 65nm, absence de GDDR5
  • Consommation électrique
  • Pas de DirectX 10.1 ?
  • Prix élevé

0

Performances9

Fonctionnalités8

Confort8



  • Venez discuter de cet article dans le forum
Julien Jay
Par Julien Jay

Passionné d'informatique depuis mon premier Amstrad 3086 XT et son processeur à 8 MHz, j'officie sur Clubic.com depuis ses presque débuts. Si je n'ai rien oublié d'Eternam, de MS-DOS 3.30 et de l'ineffable Aigle d'Or sur TO7, je reste fasciné par les évolutions constantes en matière de high-tech. Bercé par le hardware pur et dur, gourou ès carte graphique et CPU, je n'en garde pas moins un intérêt non feint pour les produits finis, fussent-ils logiciels. Rédacteur en chef pour la partie magazine de Clubic, je fais régner la terreur au sein de la rédaction ce qui m'a valu quelques surnoms sympathiques comme Judge Dredd ou Palpatine (les bons jours). Mon environnement de travail principal reste Windows même si je lorgne souvent du côté de Mac OS X.

Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Abonnez-vous à notre newsletter !

Recevez un résumé quotidien de l'actu technologique.

Désinscrivez-vous via le lien de désinscription présent sur nos newsletters ou écrivez à : [email protected]. en savoir plus sur le traitement de données personnelles