La maison-mère de Facebook, Meta, teste sa première puce d'entraînement IA conçue en interne, dont le but est de réduire sa dépendance aux fournisseurs comme NVIDIA, tout en maîtrisant ses coûts d'infrastructure colossaux.

Meta, qui a prévu des dépenses colossales cette année, vient de lancer le test de sa première puce d'entraînement IA maison. À long terme, l'entreprise de Mark Zuckerberg entend réduire sa dépendance vis-à-vis de fournisseurs externes, comme NVIDIA. Un moyen de justifier l'enveloppe de 65 milliards de dollars pour 2025, principalement consacrés aux infrastructures d'intelligence artificielle de la firme.
Meta réalise son premier « tape-out » pour sa puce IA d'entrainement
Le géant des réseaux sociaux (Facebook, Instagram, WhatsApp & Threads) a récemment achevé son premier « tape-out » de la puce, selon Reuters. Il s'agit d'une étape cruciale dans le développement des puces, qui marque le début d'un déploiement de test à petite échelle, avant sa fabrication en usine.
Cette puce en silicium, spécifiquement conçue comme un accélérateur dédié aux tâches d'IA, vise une efficacité énergétique supérieure aux GPU traditionnellement utilisés pour les charges de travail d'intelligence artificielle.
Meta collabore avec le fabricant taïwanais TSMC pour produire cette nouvelle puce, qui est dans la lignée des composants MTIA (Meta Training and Inference Accelerator). Et si le programme MTIA a connu un démarrage difficile, ayant même abandonné le développement d'une puce à un stade similaire par le passé, l'entreprise utilise déjà une puce MTIA pour l'inférence IA sur ses systèmes de recommandation Facebook et Instagram.
Les dirigeants de Meta ont affirmé vouloir commencer à utiliser leurs propres puces d'ici 2026 pour entraîner leurs systèmes d'IA, un processus intensif nécessitant d'importantes ressources de calcul pour leur apprentissage.
L'échec d'une précédente puce a renforcé la dépendance à NVIDIA
Alors, quelle est la stratégie de Meta pour sa puce d'entraînement ? Le mastodonte américain adopte une approche progressive. Il voudrait d'abord commencer par les systèmes de recommandation, avant d'aborder les produits d'IA générative comme le chatbot Meta AI. Chris Cox, directeur des produits, a décrit les efforts de développement comme « une sorte de situation de marche, de rampement et de course », tout en qualifiant la première génération de puce d'inférence pour les recommandations de « grand succès ».
On rappelle que Meta avait abandonné une précédente puce d'inférence personnalisée, qui avait échoué lors d'un test de déploiement à petite échelle. L'entreprise avait, à l'époque, commandé pour des milliards de dollars de GPU NVIDIA en 2022. Depuis, le groupe de Mark Zuckerberg est resté l'un des principaux clients de NVIDIA, utilisant ces GPU pour entraîner ses modèles de recommandation, de publicité et sa série de modèles fondamentaux Llama.
Le marché remet désormais en question la valeur de ces GPU coûteux. Les experts doutent de plus en plus qu'ajouter simplement davantage de données et de puissance computationnelle aux modèles de langage garantisse des progrès significatifs.
Cette remise en cause a été amplifiée par l'émergence de DeepSeek en janvier dernier, dont les modèles économiques ont démontré une efficacité remarquable. L'impact a été immédiat sur les marchés, ce qui avait provoqué un plongeon temporaire de 20% des actions NVIDIA, avant un rebond partiel porté par la confiance des investisseurs dans sa position dominante.

- 3 modèles dont un de 400 milliard de paramètres
- Libre
- Peut tourner en local sur les machines bien équipées