Et si demain, NVIDIA n'était plus connu comme le fer de lance de l'innovation sur cartes graphiques, supplenté par des NPUs et d'autres circuits intégrés spécialisés ?
L’essor fulgurant de l’intelligence artificielle a déjà largement propulsé les ventes de cartes graphiques, mais NVIDIA semble anticiper l’étape suivante en s’intéressant aux ASIC, des puces spécialement conçues pour l’inférence et d’autres usages très ciblés. Aujourd’hui, la firme au caméléon cherche clairement à diversifier ses options et à rester leader face à une concurrence qui mise elle aussi sur des solutions dédiées à l’IA.
Un potentiel marché colossal pour l’inférence
D’où vient cet engouement pour les ASIC ? Contrairement aux GPU classiques, capables de brasser toutes sortes de tâches, ces circuits intégrés spécialisés se concentrent sur une fonction précise, ce qui leur permet d’être bien plus efficaces et d’économiser l’énergie. Pour les entreprises, cela signifie moins de consommation électrique et davantage de performances sur des applications comme la reconnaissance vocale ou la génération de texte. Étant donné que la demande en IA ne faiblit pas, notamment sur les grands modèles de langage, le marché de l’inférence représente une manne gigantesque. Les projections tablent d’ailleurs sur une croissance exponentielle d’ici la fin de la décennie, avec un marché qui pourrait dépasser les 90 milliards de dollars.
L’entreprise a récemment multiplié les annonces autour de nouveaux produits, comme ses futures RTX 50 « Blackwell ». La firme pousse aussi son expansion dans l’architecture ARM avec des partenaires comme MediaTek, cherchant à réduire la consommation énergétique et à proposer des intégrations plus poussées de l’IA jusque dans les ordinateurs portables. Mais voilà qu’elle franchit un nouveau palier en recrutant massivement des ingénieurs ASIC.
Les ASIC, un marché déjà convoité
NVIDIA n’est pas la seule à préparer l’ère post-GPU. Google a déjà ses propres puces spécialisées, et d’autres acteurs comme Broadcom ou Marvell ont fait décoller leur cote en collaborant avec des géants du cloud pour concevoir des puces d’inférence personnalisées. À l’instar des cryptomonnaies, où le minage sur ASIC a supplanté les cartes graphiques, l’IA pourrait bien suivre un chemin similaire pour la phase d’inférence. Il ne s’agit plus seulement d’être capable d’entraîner des modèles titanesques, il faut aussi les faire tourner en production de manière rentable.
Certains fabricants misent sur des approches hybrides, mêlant GPU et ASIC pour couvrir un large éventail d’applications, ce qui semble être la stratégie de NVIDIA. Ce mouvement logique vers la spécialisation a déjà été initié par d’autres grands noms, et continue de s’accélérer au rythme effréné de l’innovation. Sur le segment du grand public, NVIDIA continue d’innover avec des PC compacts destinés au prototypage IA, comme en témoigne l’arrivée de sa gamme Jetson Orin, parfois surnommés les « Raspberry Pi de l’IA », dont les coûts ont même chuté de moitié avec la dernière mouture.
Un pari nécessaire pour rester en tête
En recruteant de nouveaux talents spécialisés en ASIC, NVIDIA affiche clairement son ambition : offrir une gamme de produits couvrant tout le spectre de l’IA, du datacenter à l’edge computing. Face à des rivaux qui n’hésitent plus à se lancer sur des puces dédiées, la firme ne veut pas se cantonner au GPU. Ce virage stratégique vers les ASIC pourrait lui assurer un avantage compétitif sur le long terme, surtout si l’explosion de la demande en inférence se confirme.
Reste à voir comment ces nouvelles puces, conçues pour l’après-GPU, s’intègreront dans l’écosystème de NVIDIA. L’enjeu est de taille : consolider son leadership et, pourquoi pas, reléguer la concurrence à la traîne. Avec un marché de l’IA en croissance, NVIDIA pourrait bien réussir son pari, à condition de maîtriser l’équation cruciale entre performances, coûts et consommation énergétique.
Source : Tech Radar