IA : Microsot développe un nouveau modèle de langage inédit différent de celui de ChatGPT

07 mai 2024 à 12h48
5
© JeanLucIchard / Shutterstock
© JeanLucIchard / Shutterstock

Microsoft ne se repose pas seulement sur ChatGPT, qu'il a aidé OpenAI à développer. La firme américaine a en effet construit de son côté son propre modèle de langage.

Avec l'explosion de l'intelligence artificielle, on connaît maintenant les noms des plus grands modèles de langage. GPT pour ChatGPT, Llama du côté de chez Meta ou bien Gemini pour le géant Google. Microsoft apparaissait jusque-là comme un cas particulier, du fait de son partenariat très étroit avec OpenAI. Mais il semble que cela ne l'ait pas empêché au final de mettre au monde son modèle de langage maison !

MAI-1, la nouvelle arme IA de Microsoft

Chez Microsoft, il n'y a pas que Copilot ! C'est ce que nous apprend le média The Information, d'après lequel la firme fondée par Bill Gates entraîne actuellement un modèle de langage du nom de MAI-1.

Un projet construit sous la supervision du cofondateur de DeepMind, la filiale historique de l'intelligence artificielle chez Google, Mustafa Suleyman. Et le géant américain a bien avancé sur ce projet si l'on en croit les deux sources qui ont parlé à The Information, puisque MAI-1 pourrait apparaître en preview lors de l'édition 2024 de la Conférence Build de Microsoft, qui aura lieu durant ce mois de mai.

© Tada Images / Shutterstock.com
© Tada Images / Shutterstock.com

Un modèle à la hauteur de GPT-4 ?

Jusque-là, il semblait que Microsoft souhaitait s'appuyer en priorité sur le travail d'OpenAI dans le domaine pour pouvoir garder une longueur d'avance sur ses concurrents. Les réalisations propres de Microsoft ressemblaient ainsi plutôt à des produits parallèles, à l'image de son modèle de langage Phi-3 Mini, avec ses 3,8 milliards de paramètres (le nombre d'instructions pouvant être comprises par l'IA).

Mais MAI-1 montre que ce n'est finalement pas le cas. Car si GPT-4 reste un monstre dans le domaine, avec 1000 milliards de paramètres, MAI-1 appartient à la même catégorie de mastodonte, en affichant 500 milliards de paramètres. Reste maintenant à savoir quelle utilisation est imaginée par Microsoft pour ce produit !

Les meilleures IA pour générer vos contenus
A découvrir
Les meilleures IA pour générer vos contenus
27 mars 2024 à 20:50
Comparatifs services

Source : Reuters

Samir Rahmoune

Journaliste tech, spécialisé dans l'impact des hautes technologies sur les relations internationales. Je suis passionné par toutes les nouveautés dans le domaine (Blockchain, IA, quantique...), les q...

Lire d'autres articles

Journaliste tech, spécialisé dans l'impact des hautes technologies sur les relations internationales. Je suis passionné par toutes les nouveautés dans le domaine (Blockchain, IA, quantique...), les questions énergétiques, et l'astronomie. Souvent un pied en Asie, et toujours prêt à enfiler les gants.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (5)

salvia34
j’aurais tendance à parier que l’intérêt de cette nouvelle IA pour MS c’est justement ce que ChatGPT ne sait pas faire : optimiser l’IA et se débarrasser des contraintes GPU
tfpsly
… optimiser l’IA et se débarrasser des contraintes GPU<br /> C’est le même genre de tech, et il vaut mieux les exécuter sur des GPUs ou NPUs/TPUs pour avoir des performances acceptables… Je ne vois pas ce que MAI-1 aurait de différent.
MattS32
salvia34:<br /> j’aurais tendance à parier que l’intérêt de cette nouvelle IA pour MS c’est justement ce que ChatGPT ne sait pas faire : optimiser l’IA et se débarrasser des contraintes GPU<br /> S’affranchir du besoin d’unités de traitement spécialisées, ça peut avoir un intérêt pour un «&nbsp;petit&nbsp;» modèle, pour pouvoir faire de l’exécution locale sur des machines non équipées de puces spécialisées (machines qui vont petit à petit disparaitre…).<br /> Sur un modèle à 500 milliards de paramètres, ça a peu d’intérêt, un modèle de cette taille est clairement fait pour tourner sur du matériel dédié (au moins 500 Go de RAM si on reste sur 8 bits… et même en descendant à 2 bits, il faudrait encore plus de 120 Go…), pas sur les terminaux clients, donc autant profiter au passage des GPU/TPU/NPU, qui n’ont quasiment que des avantages par rapports aux CPU dans ce contexte : meilleure efficacité énergétique, meilleur rapport performances/prix…
killybrian
Le nombre de paramètres n’est pas le nombre d’instructions pouvant être comprises par le modèle. C’est le nombre de poids dans le réseau neuronal, qui est directement proportionnel à la taille du modèle. La chose qui ressemblerait au nombre maximal d’instructions serait la «&nbsp;context window&nbsp;» qui est mesurée en nombre de tokens. Plus celle-ci est grande, plus la taille du message envoyé au modèle pour qu’il y réponde ou le complete est grande.
kiwi5
hehe microsot dans le titre, sur un article qui parle d’intelligence (artificielle) est ce un lapsus ou une faut de frappe
Voir tous les messages sur le forum
Haut de page

Sur le même sujet