Les modèles d’intelligence artificielle générative ont beau impressionner par leurs prouesses, ils restent parfois sujets à d’inexplicables divagations que l’on nomme « hallucinations ». Pour y remédier, Meta propose d’intégrer des « couches de mémoire » capables de doper l’apprentissage tout en préservant la rapidité d’exécution.

 L’enjeu est de créer un système fiable, économe en ressources et plus proche de notre modèle de réflexion humaine. © Shutterstock
L’enjeu est de créer un système fiable, économe en ressources et plus proche de notre modèle de réflexion humaine. © Shutterstock

Les IA génératives, comme les chatbots ou les modèles de traduction automatique, s’appuient généralement sur une immense quantité de paramètres pour synthétiser du contenu. Mais plus elles sont grandes, plus elles consomment de ressources. Et si leur compréhension du monde n’est pas toujours parfaite, elles peuvent produire des réponses erronées ou incohérentes. L’idée de Meta consiste à enrichir ce processus d’une architecture mémoire « modulaire » afin de limiter ces dérives, tout en renforçant la qualité et la cohérence des informations délivrées. La firme de Zuckerberg n'est pas seule dans sa quête d'une solution, mais pourrait bien avoir mis le doigt sur une méthode facilement implémentable dans les modèles actuels.

Les couches de mémoire, une innovation cruciale

Les « couches de mémoire » sont conçues pour stocker le savoir de l’IA dans un espace dédié, plutôt que de le noyer dans la masse de ses paramètres. Concrètement, il s’agit de segments supplémentaires spécifiques, organisés sous forme de « clés » et de « valeurs ». Lorsqu’un modèle a besoin d’une information, il va piocher dans cette mémoire avec une requête ciblée. Cette approche permet de rendre l’IA plus précise sans accroître son besoin en puissance de calcul lors de l’inférence.

L’intérêt majeur, c’est justement de minimiser la quantité de ressources nécessaire pour répondre à une requête. Au lieu d’activer la totalité des neurones, la couche mémoire sélectionne uniquement les entrées pertinentes. Autre avantage : si l’on veut mettre à jour les connaissances de l’IA (ajouter de nouvelles données, corriger des erreurs…), il n’est pas obligatoire de réentraîner tout le modèle depuis zéro. Il suffit de réécrire ou d’ajouter les valeurs directement dans la couche mémoire dédiée, ce qui est à la fois plus rapide et plus souple.

Pourquoi ces couches améliorent la fiabilité

Les hallucinations des IA surviennent souvent quand elles tentent de masquer leurs lacunes en inventant des réponses. Avec une couche mémoire spécialement pensée pour stocker un savoir fiable, le modèle est moins tenté d’improviser. Il peut vérifier l’existence réelle d’une information avant de la produire, un peu comme un moteur de recherche interne.

Des mécanismes d’examen humain ou d’audit peuvent être mis en place pour vérifier ou corriger les informations apprises sans perturber la totalité des paramètres. © Shutterstock
Des mécanismes d’examen humain ou d’audit peuvent être mis en place pour vérifier ou corriger les informations apprises sans perturber la totalité des paramètres. © Shutterstock

En pratique, la couche mémoire fonctionne selon un principe de « sparsité » : seule une portion très réduite de la mémoire est mobilisée sur chaque requête. Cela tombe bien, car l’IA n’a généralement pas besoin de mobiliser l’encyclopédie complète pour répondre à une question donnée. Résultat : la consommation énergétique reste stable, voire diminue, tandis que la précision globale des réponses s’améliore. Par ailleurs, ce système ouverte la porte à un meilleur contrôle de qualité.

L’adoption de ces couches de mémoire pourrait bouleverser la manière dont les modèles d’IA générative sont entraînés et utilisés. D’un côté, on gagne en efficacité opérationnelle avec une infrastructure plus légère, de l’autre, on renforce la précision et la stabilité de ces modèles. Pour les entreprises et les chercheurs, cette innovation suggère une IA plus évolutive : on peut imaginer des extensions spécialisées dédiées à la médecine, à la finance ou au service client, pour concentrer chaque domaine de savoir dans une mémoire adaptée.

Hors du champ professionnel, l’intérêt est tout aussi évident. Mieux armés contre leurs « illusions », les chatbots pourront fournir des réponses plus fiables, tout en restant économiques à faire tourner. L’arrivée de ces architectures mémoire pose néanmoins de nouvelles questions : comment garantir la sécurité de ces données stockées ? Quelle part de supervision humaine faut-il conserver pour éviter la dérive ? Autant de chantiers passionnants qui laissent entrevoir l’émergence d’IA plus autonomes et plus transparentes.

Source : Meta AI

À découvrir
Quels sont les 5 meilleurs chatbots à intelligence artificielle ? Comparatif 2025

30 décembre 2024 à 11h37

Comparatifs services