AL - Alors qu'il se vend de plus en plus d'ordinateurs portables, on imagine que ce segment devient crucial pour un fabricant de cartes graphiques comme Nvidia. Comment avez-vous réussi à convaincre Apple d'intégrer votre GeForce 9400M dans ses derniers MacBook ?
Jen-Hsun Huang - le choix d'Apple tient d'une part aux performances de notre puce, nettement supérieures à celles des contrôleurs intégrés d'Intel, mais aussi et surtout à notre technologie CUDA, qui s'inscrit dans la tendance du visual computing. Nous avons inventé une architecture qui permet de faire travailler de concert le CPU et le GPU (respectivement processeur principal et processeur graphique, ndlr) pour que leurs ordinateurs portables soient aussi performances qu'un ordinateur de bureau. Notre objectif est désormais de faire sortir le GPU de l'univers du jeu et de la simple 3D pour le rendre capable d'effectuer d'autres types de calculs, sur lesquels il se révèle bien plus performant qu'un CPU.
AL - Quelle est donc la force du GPU par rapport à un processeur traditionnel ?
JHH - Un processeur est fait pour traiter le plus rapidement une suite de tâches et d'instructions, et même si l'arrivée des puces multi-coeurs fait apparaitre la possibilité de calculs parallèles, le CPU reste fondamentalement sériel. A l'inverse, les processeurs graphiques sont maintenant composés de centaines d'unités de calcul, capables de fonctionner de concert, ce qui les prédestine aux calculs massivement parallèles. Ces unités sont en effet capables de traiter simultanément un énorme volume de données. Le GPU est un peu au CPU ce qu'un supertanker est au hors-bord. Le CPU est capable d'emmener lors d'allers et retours très rapide de petites quantités de données. Le GPU est quant à lui moins rapide, mais il véhicule une cargaison bien plus importante. Au final, il se révèle donc bien plus efficace. Le GPU n'a toutefois pas vocation à remplacer le CPU : les deux ont finalement la même raison d'être, mais chacun fonctionne selon des modalités différentes, et offre des capacités différentes.
AL - Où se situe CUDA dans cette logique, et quel type d'applications concrètes peut-on envisager ?
JHH - CUDA est le langage qui permet d'utiliser le GPU pour d'autres tâches que le rendu 2D / 3D. Il a été développé en interne, chez Nvidia, et est maintenant enseigné dans de nombreuses universités comme Stanford ou Berkeley. Il existe déjà de nombreuses applications concrètes de ce principe de GPGPU. Pour le grand public, ce sera par exemple sensible dans le domaine de l'encodage vidéo, où le GPU est capable de prouesses bien supérieures à celles d'un CPU, mais aussi pour le calcul d'effets physiques dans un jeu vidéo. Une autre application peut être l'utilisation du GPU pour effectuer les calculs nécessaires à l'affichage d'un DVD dans la résolution native d'un téléviseur haute définition. Dans le domaine professionnel, le GPU pourra par exemple servir à accélérer l'application de filtres sur une image. La suite CS4 d'Adobe est justement capable de tirer parti de la puissance de calculs de nos cartes graphiques. Enfin, le dernier champ d'applications possible, qui correspond à notre plus récente gamme de produits, Tesla, est celui du supercalcul : simulations scientifiques, prévisions météorologiques, etc.
AL - Alors que la future version de l'API Direct X devrait intégrer un jeu d'instructions dédié au calcul pur et simple et que d'autres, dont Apple, planchent sur le développement d'OpenCL, ou Open Compute Language, à des fins similaires, pourquoi avoir pris le parti de développer votre propre langage ?
JHH - CUDA vise des fins bien plus générales que DirectX ou OpenCL, qui restent très proches de l'univers de l'image. Une autre raison est que DirectX, par exemple, ne fonctionne que sous Windows alors que nous souhaitions mettre en place une technologie qui soit véritablement multi-plateformes. Enfin, CUDA a l'avantage d'être disponible dès aujourd'hui, contrairement à DirectX 11 et OpenCL, que l'on ne verra sans doute pas avant 2009.
AL - Comment imaginez-vous le GPU dans cinq ou dix ans ?
JHH - Le GPU sera de plus en plus utilisé à des fins autres que l'affichage, et il deviendra de plus en plus simple à programmer. Le traitement de l'image ne sera bien évidemment pas négligé, et l'on améliorera toujours l'affichage, en offrant par exemple la vue stéréoscopique. A terme, il permettra sans doute l'interaction en temps réel avec un ordinateur, qui « verra » vos mouvements et sera capable d'agir en conséquence.
AL - On connait plutôt Nvidia pour ses activités en matière de 3D et de jeu vidéo. Comment comptez-vous accompagner le développement de cette nouvelle tendance, et faire connaitre ce nouveau pan de votre activité ?
JHH - Bonne question. Les accords passés avec Adobe et Apple pour qu'ils exploitent nos puces et nos technologies serviront sans doute ce propos. Dans le domaine de l'image, nous n'adressions jusqu'ici qu'une communauté de quelques millions de designers et de professionnels. Avec CUDA, sa prise en charge par Adobe et son intégration dans les machines Apple, nous nous ouvrons à un bien plus large public. Aujourd'hui, les créatifs utilisent tous les logiciels d'Adobe, et bon nombre d'entre eux travaille sur des ordinateurs Mac. Ensuite, le meilleur moyen de les convaincre de l'intérêt de la solution est de leur faire sentir qu'il existe une réelle différence avec ce qu'ils utilisaient avant. Si l'on rend 50% plus rapides leurs calculs, c'est une amélioration, mais si c'est dix ou vingt fois plus rapide, l'expérience utilisateur change pour de bon et c'est ce que nous voulons obtenir. Une fois que nous aurons convaincu de l'intérêt de nos produits, comme la récente Quadro CX, nous ferons sans doute de la publicité traditionnelle, mais pas avant.
AL - Un commentaire sur l'arrivée annoncée d'Intel dans le domaine des cartes graphiques avec son projet Larrabee ?
JHH - Comme vous le dites, Larrabee n'est pas encore lancé, il sera donc temps d'en parler lorsque les premières puces seront disponibles. Il me semble toutefois qu'en partant sur ce terrain, Intel reconnaisse l'importance et le potentiel du GPU. De ce que l'on en sait aujourd'hui, Intel semble avoir adopté une approche différence de la nôtre.
AL - Depuis le début de l'année, le titre Nvidia s'effondre en bourse, et a perdu plus de la moitié de sa valeur, ce qui le ramène au niveau qu'il occupait en 2004. Comment interprétez-vous cette baisse ?
JHH - Nous observons effectivement depuis le début de l'année un ralentissement des ventes auprès du grand public, particulièrement sur le segment des ordinateurs de bureau, ce qui a eu un impact certain sur les résultats du groupe. La concurrence se fait également très agressive sur le plan des tarifs. Nous pensons toutefois revenir à la croissance assez rapidement. D'abord, en nous positionnant de mieux en mieux sur le marché des ordinateurs portables, puis en développant la stratégie que nous venons de développer. A court terme, la situation restera sans doute relativement difficile, mais nous sommes optimistes pour la suite. Et l'optimisme est une bonne méthode pour vaincre !
AL - Nvidia a fait a plusieurs reprises cette année la démonstration d'une nouvelle puce tout en un dédiée à l'univers des téléphones mobiles, connue sous le nom de code Tegra. Pourquoi attaquer le marché de la mobilité, et pourquoi le faire maintenant ?
Avec Tegra, nous allons tenter de proposer toutes les fonctionnalités d'un ordinateur, mais sur une simple puce, de la taille d'une dime de dollar. Pourquoi en 2008 ? Nous pensons que la révolution mobile est en passe de survenir, et l'iPhone d'Apple est d'ailleurs l'un de ses signes avant-coureurs. Jusqu'à cette année, le plus important dans un téléphone était finalement son baseband, la couche logicielle qui lui permet de téléphoner, mais la technologie permet aujourd'hui d'aller bien plus loin. Tant que ce n'était pas le cas, nous ne pouvions pas venir sur ce terrain.
AL - Pourquoi avoir fait le choix d'un processeur de type ARM pour Tegra, et que pensez-vous de la stratégie d'Apple, qui depuis le rachat de PA Semiconductor, dispose en interne des capacités nécessaires à la conception de ses propres puces ?
Les processeurs ARM 7 et ARM 11 sont largement assez puissants pour ce que nous voulons en faire, et répondent bien mieux à nos besoins qu'une puce x86, bien plus lourde et bien plus gourmande sur le plan énergétique. Avec Tegra, nous proposons une solution capable de décoder son et image en haute définition, de prendre en charge un capteur photo et de délivrer une interface séduisante, en 3D, pour une consommation de l'ordre de quelques milliwatts. La stratégie d'Apple est bonne. C'est peut-être la seule société à être capable de tout faire de bout en bout dans le domaine de la mobilité, de la conception des puces à la réalisation du logiciel. Tegra s'adressera donc à tous les autres.
AL - La puce s'adresse en priorité aux smartphones et terminaux de type MID. Peut-on imaginer qu'elle atterrisse un jour sur le marché des netbooks ?
Pour l'instant, Tegra se destine effectivement aux smartphones, MID et autres lecteurs multimédias de poche. Aujourd'hui, les netbooks utilisent Windows, et notre puce ne convient donc pas, mais cette situation pourrait changer. Avec l'avènement de services hébergés et de la tendance du cloud computing, le netbook pourrait finalement n'avoir besoin que d'un navigateur Web. Ce jour là, Tegra conviendra parfaitement.
AL - Jen-Hsun Huang, je vous remercie.