L’IA a soif de puissance, et NVIDIA veut y répondre… Lors de la GTC 2025, Jensen Huang, le P.-D.G. de NVIDIA, a annoncé une ambition impressionnante : fournir 100 fois plus de puissance de calcul pour l’intelligence artificielle d'ici aux prochaines années. Une déclaration qui s’inscrit dans une course effrénée à la performance, alors que l’IA devient un levier stratégique majeur pour les géants de la tech.

La course à la puissance est-elle la bonne stratégie pour NVIDIA ? © Shutterstock AI
La course à la puissance est-elle la bonne stratégie pour NVIDIA ? © Shutterstock AI

Avec des architectures comme Rubin, Rubin Ultra et la future génération Feynman, NVIDIA entend répondre à une demande en explosion. Mais a-t-on réellement besoin d’autant de puissance ?

Pourquoi NVIDIA veut multiplier par 100 la puissance de calcul ?

Le marché de l’IA évolue à une vitesse fulgurante, et les modèles d’intelligence artificielle deviennent toujours plus complexes et gourmands. OpenAI, Google DeepMind, Meta et Microsoft entraînent des LLM (modèles de langage massifs) avec des milliards de paramètres, nécessitant des quantités de calculs qui étaient tout bonnement inimaginables il y a encore quelques années.

Rien de mieux que quelques exemples concrets pour illustrer cette croissance folle :

  • Le seul entraînement de GPT-4 aurait mobilisé environ 25 000 GPU NVIDIA A100 sur une période de 90 à 100 jours, avec une consommation énergétique estimée à 50 GWh.
  • Certains modèles d'IA recourent à plusieurs trillions de paramètres, certaines rumeurs évoquent notamment la présence d'environ 1,8 trillion de paramètres pour GPT-4.
  • Les champs d'applications de l'IA se sont grandement élargis. Ils touchent, par exemple, la biologie pour la prédiction de structures protéiques, la physique pour la modélisation de systèmes complexes, ou encore l'industrie pour l'optimisation des processus de fabrication.

Pour répondre à cette demande croissante, NVIDIA mise sur Rubin Ultra, un système ultra-puissant susceptible d'atteindre des performances impressionnantes : l’équivalent de 15 ExaFLOPS (FP4) lorsqu'il exécute des tâches d’intelligence artificielle, et 5 ExaFLOPS (FP8) lors de l’entraînement de nouveaux modèles. Un niveau de puissance inimaginable il y a encore quelques années. Néanmoins, une question demeure : est-il vraiment nécessaire de déployer autant de puissance ?

Une surenchère technologique… mais pour quels usages ?

Si la montée en puissance de l’IA ouvre des perspectives fascinantes, certains s’interrogent sur la nécessité de pousser aussi loin. Dans des domaines comme la santé, où l’IA permet d’accélérer la découverte de médicaments, ou encore dans la climatologie et l’industrie, où elle améliore les prévisions et l’optimisation des chaînes de production, l’augmentation des capacités de calcul semble justifiée. Mais cette course effrénée n’est pas sans conséquence.

L’énorme consommation énergétique des centres de données devient un véritable défi. Chaque génération de GPU repousse les limites, mais aussi la facture électrique. L’impact environnemental de cette surenchère commence à inquiéter, alors que la quête de puissance se fait au détriment d’une approche plus efficiente.

Le coût d’entrée, lui aussi, devient un facteur de plus en plus discriminant. Les infrastructures IA nécessitent des investissements colossaux, accessibles uniquement aux géants du cloud comme Google, Microsoft ou Amazon. Pour les autres, suivre ce rythme est une gageure, et la dépendance aux quelques acteurs capables de s’offrir ces technologies ne cesse de croître.

Enfin, se pose la question de l’efficacité réelle de cette escalade : est-elle vraiment nécessaire, ou simplement dictée par les intérêts de l’industrie ? D’un côté, les fabricants de puces, comme NVIDIA, ont tout intérêt à pousser toujours plus loin les capacités matérielles pour écouler leur silicium.… De l’autre, des éditeurs comme DeepSeek démontrent qu’il est possible d’obtenir des performances optimales sans forcément recourir aux modèles les plus massifs et énergivores.

Plus de puissance ne signifie pas nécessairement une meilleure IA. Les modèles les plus massifs montrent parfois des gains marginaux en précision, tandis que certaines avancées logicielles pourraient, à moindre coût, offrir des alternatives viables. On peut logiquement se demander si la démesure est réellement une nécessité, ou bien un mirage technologique savamment entretenu !

NVIDIA a-t-il raison de foncer tête baissée ?

Le pari de NVIDIA est on ne peut plus clair : pousser toujours plus loin la puissance pour répondre à une demande qui ne cesse d’exploser. Et sur le papier, cela semble logique. Mais dans la réalité, la croissance exponentielle des besoins pose des limites évidentes et d'autres approches émergent, notamment avec des optimisations logicielles et des composants moins énergivores. Cette approche pourrait rapidement montrer ses limites, et le marché semble déjà donner un premier signal d’alerte.

En effet, malgré des annonces spectaculaires lors de la GTC 2025, les actions de NVIDIA ont chuté de plus de 3,5 % après la conférence. Un signe que les investisseurs ne sont pas totalement convaincus par cette course effrénée à la puissance. Plusieurs raisons expliquent ce scepticisme :

  • L’incertitude économique globale, exacerbée par les tensions commerciales et les politiques tarifaires américaines.
  • Une concurrence qui s’organise, notamment avec DeepSeek, qui propose des modèles d’IA moins gourmands et plus abordables.
  • Des contraintes d’approvisionnement qui freinent NVIDIA, entre défauts de conception sur certaines puces, les goulots d'étranglement dans la production chez TSMC, sans oublier les tensions géopolitiques impactant ses exportations.

L’industrie de l’IA connaît une explosion des investissements, portée par Microsoft, Amazon et Meta, qui misent sur des infrastructures toujours plus puissantes. Mais cette dynamique est-elle pérenne ou risque-t-elle de franchir un point de saturation ? NVIDIA, de son côté, doit démontrer que sa stratégie ne repose pas uniquement sur la surenchère de puissance, mais qu’elle permet aussi d’offrir des solutions économiquement viables et adaptées aux besoins des entreprises. Pour l’instant, sa domination reste incontestée, mais face à une concurrence émergente et des tensions géopolitiques croissantes, l’avenir du secteur pourrait évoluer plus vite que prévu.