Logo Google Gemma © Alexandre Boero / Clubic
Logo Google Gemma © Alexandre Boero / Clubic

Google fait un pas de plus vers l'accessibilité de l'IA avec la présentation de Gemma, mercredi, une nouvelle famille de modèles ouverts promettant des performances exceptionnelles. Le tout, en collaboration avec un autre géant, NVIDIA.

Quelques jours seulement après le lancement surprise de Gemini 1.5 et 1.5 Pro, Google lance (déjà) une nouvelle famille de modèles ouverts dans Vertex AI, le service qui permet d'utiliser les intelligences artificielles génératives de la firme de Mountain View. Elle se nomme « Gemma » et offre des performances de pointe, avec un modèle 2B (deux milliards de paramètres) et un modèle 7B (7 milliards).

Google propose plus de 130 modèles IA !

Ce mercredi 21 février 2024, Google a donc dévoilé Gemma, une famille de modèles ouverts intégrés à Vertex AI, qui partage la technologie des modèles Gemini. Gemma propose deux tailles, 2B et 7B, avec des variantes pré-entraînées pour la recherche et le développement. La plateforme Vertex AI de Google, qu'il est d'ailleurs possible d'essayer gratuitement, propose plus de 130 modèles désormais.

Dans son idée de rendre l'IA plus accessible, Google établit, avec Gemma 2B et Gemma 7B, de nouveaux standards de performances parmi les modèles ouvertes. Concrètement, il est possible de créer des modèles Gemma depuis Vertex AI, puis de les exécuter sur Google Kubernetes Engine (GKE), l'environnement de déploiement d'applications containerisée du géant américain.

Depuis Vertex AI, les développeurs pourront optimiser les modèles Gemma pour des cas d'utilisation spécifiques. Ils pourront mieux réduire leurs coûts opérationnels, promet Google, et offrir une expérience utilisateur améliorée, pour des applications d'IA générative en temps réel.

Une collaboration avec NVIDIA pour sublimer les performances de Gemma

Les modèles Gemma ont été conçus pour être compatibles avec tout un tas d'outils fétiches des développeurs Google Cloud, citons Hugging Face Transformers, Kaggle, Colab, PyTorch, JAX et Keras 3.0. Cette compatibilité est d'ailleurs censée permettre aux modèles de Google de fonctionner sur différents appareils, de l'ordinateur portable à un poste de travail, en passant par Google Cloud.

Google a collaboré avec NVIDIA pour maximiser les performances de Gemma, optimisées pour les GPU NVIDIA. Le mastodonte des puces et cartes graphiques a annoncé en parallèle avoir lancé des optimisations sur toutes ses plateformes d'IA. « Les équipes de Google et de NVIDIA ont travaillé en étroite collaboration pour accélérer les performances de Gemma, le nouveau modèle de langage ouvert révolutionnaire de Google », explique NVIDIA.

Les développeurs peuvent désormais créer des applications d'IA générative, déployer des modèles personnalisés dans des conteneurs portables, et intégrer rapidement l'infrastructure d'IA pour répondre aux exigences les plus strictes en matière de formation et d'inférence. On n'arrête plus Google, ni le progrès.

Google Gemini (Bard)
  • Un modèle de génération puissant
  • Une base de connaissances actualisée en temps réel
  • Gratuit et intégré à l'écosystème Google
8 / 10

Source : Google