IBM est-il en passe de réaliser un vieux fantasme : donner à l'ordinateur les capacités du cerveau humain ? Alors que des annonces - généralement tirées par les cheveux - viennent faire régulièrement état d'avancées, et que cela reste pour l'heure de la science-fiction, les chercheurs d'IBM seraient parvenus à doter leurs processeurs de capacités cognitives. Cela mettrait l'apprentissage, donc la collecte automatique, le traitement et le classement de données aléatoires, à la portée de la machine.
Avancée majeure, pas en avant... Alors que les ordinateurs imitant des cerveaux humains sont un fantasme vieux comme l'histoire de l'informatique, IBM ne manque pas de qualificatifs pour décrire l'avancée de ses chercheurs. Au centre de la nouvelle : des puces, expérimentales, dotées « de perception, d'action et de cognition. » Soit, finalement, capables d'apprendre. Deux prototypes de processeurs ont été annoncées par les chercheurs d'IBM, après un projet de trois ans, fruit d'un partenariat entre IBM et plusieurs universités américaines, avec le soutien de l'agence en charge des projets de recherche de la Défense américaine (Darpa).
Les puces en question sont des processeurs massivement parallèles à haute efficacité énergétique. Elles sont conçues différemment : alors qu'elles se basent sur des « cœurs neurosynaptiques », équipés chacun de 256 noeuds ayant la fonction de neurones, l'une d'elles est reliée à 262 144 modules de mémoire imitant des synapses, tandis que l'autre est reliée à 65 536 de ces « synapses ». IBM combine ainsi les principes des nanosciences, de la neuroscience, et du calcul intensif, selon le communiqué.
Dans quel but ? Pour IBM, il s'agit de « créer un système qui est non seulement capable d'analyser de l'information complexe depuis des sources sensorielles multiples, mais aussi de "repenser" automatiquement ses propres connexions » à la volée, au fur et à mesure qu'il interagit avec son environnement. Il est donc clairement question de « rivaliser avec le cerveau humain en terme de compacité et de consommation. » « C'est une initiative majeure pour dépasser le paradigme de Von Neumann (1), qui définit l'architecture informatique depuis plus d'un demi-siècle, » estime Dharmendra Modha, en charge du projet chez IBM. « Les applications futures de l'informatique nécessiteront de plus en plus de fonctionnalités qui ne seront pas efficaces au travers des architectures traditionnelles. »
(1) Pour les modèles d'architecture Von Neumann, qui limitent les capacités informatiques à cause de l'effet appelé « goulet d'étranglement Von Neumann », voir l'article de Wikipédia en anglais.