Le Computer History Museum et Google ont rendu public le code source d'AlexNet, le réseau neuronal développé en 2012. Cette publication permet aux chercheurs et développeurs d'étudier le système qui a révolutionné la reconnaissance d'images par intelligence artificielle.

AlexNet a transformé l'univers de l'IA -  © shaneinsweden / Shutterstock
AlexNet a transformé l'univers de l'IA - © shaneinsweden / Shutterstock

L'histoire d'AlexNet commence à l'Université de Toronto. En mars 2025, le Computer History Museum (CHM) et Google ont finalisé cinq années de négociations pour libérer le code source. Les droits appartenaient à Google depuis son rachat de DNNresearch en 2013. Les protagonistes principaux restent Alex Krizhevsky, Ilya Sutskever et Geoffrey Hinton, chercheurs qui ont conçu ce réseau neuronal. L'objectif est de permettre une analyse approfondie de ce système qui a marqué un tournant dans l'intelligence artificielle.

Comment un petit groupe de chercheurs a transformé la vision par ordinateur

AlexNet a surgi d'un travail d'équipe mené dans une petite université canadienne. Alex Krizhevsky, Ilya Sutskever et Geoffrey Hinton ont développé un réseau neuronal capable de reconnaître des images avec une précision inédite. Leur système utilisait trois technologies : des réseaux neuronaux profonds, la base de données ImageNet et des processeurs graphiques (GPU).

Leur performance était remarquable. Le réseau pouvait classer correctement des images dans 1 000 catégories différentes, des fraises aux bus scolaires, en passant par des races de chiens. Yann LeCun, expert en vision par ordinateur, a qualifié cette avancée de « tournant sans équivoque ».

Le système différait radicalement des approches précédentes. Là où les anciennes méthodes nécessitaient une programmation manuelle des caractéristiques, AlexNet apprenait automatiquement à reconnaître des modèles. Du simple contour aux parties d'objets complexes, le réseau développait sa propre compréhension.

En clair, un code neuronal, c'est un programme informatique conçu pour apprendre et s'adapter comme le fait notre cerveau. Comme un logiciel qui ne suit pas des instructions rigides, mais qui peut comprendre des modèles, reconnaître des formes et améliorer ses performances au fil du temps.

Contrairement aux programmes traditionnels qui font exactement ce qu'on leur a programmé, un code neuronal fonctionne comme un réseau de neurones interconnectés. Ces « neurones » artificiels reçoivent des informations, les analysent, et se transmettent des signaux, un peu comme les neurones dans notre cerveau.

Si on montre à ce type de code des milliers de photos de chats, il va progressivement apprendre à reconnaître ce qu'est un chat, sans qu'on lui ait tout expliqué à l'avance. Il va identifier les caractéristiques communes : des oreilles, une queue, une certaine forme de museau.

On utilise ces codes neuronaux dans de nombreux domaines : la reconnaissance vocale, la traduction automatique, la détection de fraudes bancaires, ou même pour aider au diagnostic médical. C'est une technologie qui permet aux machines de « réfléchir » de manière plus flexible et intelligente. On comprend mieux, dès lors, pourquoi c'est ce sytème qui a donné naissance à toutes les applications basées sur l'IA que nous connaissons et utilisons aujourd'hui.

Le code source d'AlexNet, pierre angulaire de l'IA moderne, est désormais accessible - © Yurchanka Siarhei / Shuttertstock
Le code source d'AlexNet, pierre angulaire de l'IA moderne, est désormais accessible - © Yurchanka Siarhei / Shuttertstock

Pourquoi ce code source va transformer la recherche en intelligence artificielle

La publication du code source sur GitHub du Computer History Museum offre aux chercheurs un accès direct à l'implémentation originale. Ce document témoigne de la naissance de l'apprentissage profond tel que nous le connaissons aujourd'hui.

L'article original d'AlexNet a été cité plus de 172 000 fois selon Google Scholar. Les technologies développées depuis s'appuient sur les principes qu'AlexNet a démontrés : synthèse vocale, systèmes de jeu, modèles de langage et générateurs d'images.

Les résultats ont été rapides. Geoff Hinton a reçu le prix Nobel de physique en 2024 pour ses travaux fondamentaux en apprentissage automatique. Sa phrase résume bien l'aventure : « Ilya a pensé que nous devrions le faire, Alex l'a fait fonctionner, et j'ai reçu le prix Nobel ».

On vous racontait récemment sur Clubic que le papa de Claude et P-DG d'Anthropic, Dario Amodei, craignait l'espionnage industriel de certaines avancées dans l'IA. Il estimait que quelques lignes de codes valaient des « dizaines de millions de dollars ». Ici, il s'agit du code dans son intégralité, désormais rendu accessible au téléchargement pour comprendre comment quelques chercheurs ont transformé l'intelligence artificielle… en quelques lignes de code.