NVIDIA GT300 : premiers détails sur la nouvelle puce

Julien Jay
Publié le 27 avril 2009 à 13h11
000000A001933580-photo-nvidia-logo.jpg
Alors que NVIDIA n'est pas nécessairement au mieux de sa forme, avec une architecture graphique GT200 qui n'a pas forcément brillé, la firme au caméléon étant obligé de renommer des produits qui ont pratiquement deux ans d'âge pour occuper le terrain, la relève se prépare tranquillement. Les ingénieurs de la firme de Santa Clara travaillent en effet sur le GT300, la puce graphique de nouvelle génération de NVIDIA. Celle-ci aura pour première caractéristique de prendre en charge DirectX 11, mais ce n'est pas l'objet de cette brève.

Avec le GT300, NVIDIA opterait pour une architecture largement différente des architectures graphiques connues jusqu'à présent. C'est du moins ce que rapporte Bright Side of News. Et le changement est radical puisque NVIDIA laisserait de côté le mode de fonctionnement SIMD (Single Instruction Multiple Data) pour adopter un fonctionnement similaire au MIMD ou Multiple Instruction, Multiple Data. Toutes les unités de la puce travailleraient alors en mode MPMD, Multiple Program, Mutltiple Data. L'idée étant de permettre l'exécution simultanée de plusieurs types de calcul au sein de la puce, chose possible aujourd'hui mais pas nécessairement exploitée dans les meilleures conditions.

Techniquement la puce GT300 devrait compter 16 groupes de 32 coeurs chacun soit un total de 512 coeurs d'exécution (une information qu'il faudra naturellement vérifier). Comparativement, les puces GT200 offraient au mieux 216 coeurs d'exécution : en admettant que la fréquence de fonctionnement de la puce GT300 soit identique à celle des GT200, la puissance brute du GT300 serait au bas mot deux fois supérieure. De plus, les performances de calcul en double précision, une sévère lacune des GeForce GT200, devrait être bien supérieure.

Naturellement, ces changements ne sont pas les seuls opérés par NVIDIA puisqu'il est question de faciliter tout ce qui concerne l'utilisation de la puce en tant que co-processeur de calcul et nous aurons l'occasion d'en parler à nouveau. Dans tous les cas, la possibilité d'exécuter des programmes différents et indépendants sur chacun des processeurs de la puce, devrait ouvrir de nouvelles possibilités dans le domaine du GPGPU.
Julien Jay
Par Julien Jay

Passionné d'informatique depuis mon premier Amstrad 3086 XT et son processeur à 8 MHz, j'officie sur Clubic.com depuis ses presque débuts. Si je n'ai rien oublié d'Eternam, de MS-DOS 3.30 et de l'ineffable Aigle d'Or sur TO7, je reste fasciné par les évolutions constantes en matière de high-tech. Bercé par le hardware pur et dur, gourou ès carte graphique et CPU, je n'en garde pas moins un intérêt non feint pour les produits finis, fussent-ils logiciels. Rédacteur en chef pour la partie magazine de Clubic, je fais régner la terreur au sein de la rédaction ce qui m'a valu quelques surnoms sympathiques comme Judge Dredd ou Palpatine (les bons jours). Mon environnement de travail principal reste Windows même si je lorgne souvent du côté de Mac OS X.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Abonnez-vous à notre newsletter !

Recevez un résumé quotidien de l'actu technologique.

Désinscrivez-vous via le lien de désinscription présent sur nos newsletters ou écrivez à : [email protected]. en savoir plus sur le traitement de données personnelles