Il y a quelques semaines, l'université de Standford a officialisé une nouvelle version de son client de calculs distribués afin de tirer profit de la puissance calcul des Cartes Graphiques à base de chips ATI. Ce concept est connu sous le nom de GP-GPU (General Purpose GPU). Pour résumer, cela consiste à utiliser la puissance des Processeurs graphiques dans un but plus généraliste afin d'utiliser le GPU comme un coprocesseur, par exemple. A l'époque, l'université de Standford avait écarté les puces NVIDIA, la faute à une programmation plus compliquée et à une puissance inférieure à celles estampillées ATI.
Depuis, de l'eau a coulé sous les ponts et NVIDIA a lancé une véritable petite bombe en terme de puissance de calculs : le G80 ou GeForce 8800 (voir l'article NVIDIA G80: Place au GeForce 8800 et à DirectX 10). Cette sortie aurait visiblement motivé l'université de Standford à s'intéresser davantage aux puces NVIDIA. D'autant plus que le GeForce 8800 est intègre CUDA - Compute Unified Device Architecture - (voir la page 8 de notre article) pour simplifier la tâche des développeurs. Ainsi, le responsable du projet Folding@Home précise dans une entrevue : « notre code lié aux GPU a été initialement développé pour les chips NVIDIA, mais les puces ATI récentes (X1900) leur ont clairement damé le pion. Le G80 va peut-être changer la donne et nous sommes en train d'étudier cela. Notre code a été écrit en "Brook", il n'est donc pas limité aux seuls GPU ATI, même si des changements seront nécessaires pour obtenir des performances optimales avec d'autres puces, comme le GeForce 8800 ».
De son côté NVIDIA semble confirmer plus ou moins l'arrivée d'un client Folding@Home spécial GeForce 8800 : « Nous avons détaillé à certains chercheurs (y compris à ceux de Standford), tant au niveau matériel qu'au niveau logiciel, le fonctionnement du G80. Au cours de l'année prochaine, nous allons sûrement voir de nombreux chercheurs publier les résultats de leurs travaux (y compris ceux liés au G80) ».
Folding@Home : vers une version optimisée NVIDIA ?
Par Vincent
Publié le 20 novembre 2006 à 17h47
Par Vincent
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Dernières actualités