La licorne française Mistral AI riposte à Google en lançant son modèle Mistral Small 3.1, quelques jours seulement après la sortie de Gemma 3. Ce nouveau modèle open-source promet de surpasser ses concurrents directs comme GPT-4o Mini tout en nécessitant significativement moins de ressources matérielles.

Le Chat Mistral AI - © Sidney van den Boogaard / Shutterstock
Le Chat Mistral AI - © Sidney van den Boogaard / Shutterstock

Ce modèle arrive stratégiquement quelques jours après l'annonce de Gemma 3 par Google. La startup française confirme ainsi son positionnement unique dans l'écosystème de l'IA : privilégier la performance des petits modèles plutôt que concurrencer frontalement les mastodontes comme Claude 3.7 ou GPT-4.5.

Le chat Mistral
  • Peut tourner en local selon votre configuration
  • Open-source
  • API peu coûteuse

Petite taille, grandes performances

Mistral Small 3.1 impressionne d'abord par ses performances techniques. Selon les informations disponibles, ce modèle atteint un score remarquable de 81% sur le benchmark MMLU, référence majeure pour évaluer les capacités de raisonnement des modèles de langage. La vitesse d'exécution constitue un autre atout majeur, avec une capacité à générer jusqu'à 150 tokens par seconde. Cette réactivité s'apparente à celle de modèles bien plus légers d'environ 8 milliards de paramètres, confirmant l'expertise de Mistral en matière d'optimisation.

Contrairement à Google qui met en avant la technique de « distillation » pour Gemma 3, Mistral a optimisé son architecture différemment. Le modèle gère aussi bien le traitement de texte que la compréhension multimodale, les contextes longs et supporte de nombreuses langues. La philosophie open-source de Mistral continue de structurer sa stratégie. Mistral Small 3.1 peut fonctionner sur une « simple » RTX 4090 ou même un Mac équipé de 32 Go de RAM, une accessibilité matérielle qui contraste avec les besoins des grands modèles propriétaires.

Mistral Small 3.1 continue de capitaliser sur les forces de Mistral : la rapidité et la faible latence. © Mistral

L'orientation vers l'efficience plutôt que la course à la taille fait écho aux récentes avancées de Mistral qui mise sur une approche pragmatique, concentrant ses efforts sur la vitesse et des cas d'usage précis (comme l'OCR et la dématérialisation) plutôt que de chercher à égaler les géants américains sur tous les fronts.

Un écosystème en pleine transformation

L'arrivée de Mistral Small 3.1 s'inscrit dans un contexte de mutation du secteur. Alors que DeepSeek avait créé la surprise avec son modèle R1 utilisant une architecture avancée, la concurrence s'intensifie sur le segment des modèles compacts et efficients.

Google, avec Gemma 3, prétend offrir 98% des performances du modèle chinois DeepSeek R1 tout en nécessitant considérablement moins de ressources matérielles - une seule puce GPU Nvidia H100 contre 32 pour son concurrent. Mistral répond avec une approche similaire mais distincte, confirmant que la bataille de l'IA ne se joue plus uniquement sur la taille brute des modèles.

Cette évolution marque potentiellement un tournant dans l'industrie : après des années de course aux modèles toujours plus volumineux, l'optimisation devient un critère déterminant pour une adoption plus large des modèles de langages dans les entreprises. Les applications pratiques, notamment pour le déploiement sur des appareils aux ressources limitées, bénéficieront directement de cette nouvelle orientation.

Source : Mistral

À découvrir
IA & LLM : quel modèle de langage choisir ? On fait le point

12 février 2025 à 13h42

News