Avec ses nouvelles stations de travail DGX Desktop, NVIDIA démocratise-t-il réellement la puissance de calcul nécessaire à l'intelligence artificielle, ou s'agit-il d'un simple coup marketing ? Alors que les modèles d'IA tendent à se miniaturiser pour se rapprocher de l'edge computing, le fabricant dégaine une solution pour développeurs et chercheurs souhaitant travailler en local.

NVIDIA DGX Spark et Station - © NVIDIA
NVIDIA DGX Spark et Station - © NVIDIA

L'intelligence artificielle (IA) s'impose progressivement dans notre quotidien, mais son essor fulgurant repose sur une infrastructure colossale. Des fermes de serveurs aux data centers, la puissance de calcul est le nerf de la guerre. Cependant, une tendance de fond émerge : celle de l'IA exécutée en local, directement sur nos machines.

DGX Spark : l'IA dans un format compact

Alors que l'IA générative continue son expansion, la demande en puissance de calcul locale ne cesse de croître. NVIDIA, déjà dominant dans les infrastructures d'IA professionnelles, s'attaque désormais à un segment plus proche des développeurs individuels. Ce mardi, lors de sa conférence GTC, le géant américain a dévoilé deux machines dédiées à l'exécution locale de modèles d'IA : DGX Spark et DGX Station.

Évolution du projet DIGITS présenté en janvier, le DGX Spark se présente comme «le plus petit superordinateur IA du monde». Ce mini-PC embarque le processeur GB10 Grace Blackwell Superchip délivrant jusqu'à 1000 TOPS (trillions d'opérations par seconde) avec 128 Go de mémoire unifiée. Cette approche n'est pas sans rappeler le Jetson Orin Nano Super Developer Kit, ce « Raspberry Pi de l'IA » dont la nouvelle version a récemment divisé son prix par deux.

NVIDIA DGX Spark et Mac - © NVIDIA
NVIDIA DGX Spark et Mac - © NVIDIA

La connexion entre CPU et GPU via la technologie NVLink-C2C offre une bande passante cinq fois supérieure à celle du PCIe 5.0. Cet avantage rappelle celui des puces Apple Silicon comme le M3 Ultra dont les performances, bien que décevantes sur certains benchmarks, excellent particulièrement dans les tâches d'IA grâce à leur mémoire unifiée à haute bande passante. Les machines DGX sont parfaitement adaptées pour exécuter localement des modèles comme Mistral Small 3.1 ou Google Gemma 3, désormais accessibles en open-source.

NVIDIA a annoncé que le DGX Spark serait commercialisé à partir de 3000 dollars, un investissement raisonnable pour des équipes de recherche. Les réservations sont déjà ouvertes sur le site de NVIDIA, avec des livraisons prévues dans les prochains mois.

DGX Station : la station de travail réinventée

Pour les besoins plus importants, la DGX Station intègre le GB300 Grace Blackwell Ultra Desktop Superchip avec une mémoire impressionnante de 784 Go. Cette approche qui rapproche CPU et mémoire offre des performances supérieures grâce à une architecture mieux adaptée aux charges d'IA, rappelant la stratégie de MediaTek et NVIDIA pour concurrencer le Snapdragon X Elite dans le segment des PC portables.

Équipé de la technologie ConnectX-8 SuperNIC, le DGX Station permet des transferts de données atteignant 800 Gb/s, autorisant la mise en réseau de plusieurs stations pour constituer un mini-cluster. Plusieurs partenaires dont ASUS, Dell et HP fabriqueront ces machines haut de gamme, dont la disponibilité est annoncée pour plus tard cette année.

Les machines DGX bénéficient de la plateforme NVIDIA AI Enterprise avec les microservices NIM pour optimiser le déploiement des modèles d'IA. Cette suite facilite la transition entre développement local et mise en production, un atout considérable pour les équipes de recherche souhaitant expérimenter avec des modèles comme Mistral NeMo 12B, développé conjointement par Mistral AI et NVIDIA sur l'infrastructure DGX Cloud.

Source : Ars Technica

À découvrir
IA & LLM : quel modèle de langage choisir ? On fait le point

12 février 2025 à 13h42

News