Des chercheurs japonais et américains sont parvenus à effectuer des calculs extrêmement complexes à l'aide d'un ordinateur au comportement dit « probabiliste ». Celui-ci limiterait les inconvénients des ordinateurs quantiques.
La promesse, à terme, est de créer des ordinateurs qui seraient à la fois plus puissants et plus économes en énergie.
Informatique classique et quantique
Pour comprendre ce qu'est un ordinateur probabiliste, partons de l'informatique conventionnelle. Celle-ci utilise des chaînes de 0 et de 1 (les bits) pour représenter les informations dans un langage binaire.Cette méthode, qui est à l'origine de tous les systèmes informatiques actuels, a ses limites. Dans une publication dans Nature, l'équipe internationale de chercheurs résume : « Malgré l'évolution des ordinateurs classiques en machines sophistiquées, il existe de nombreuses catégories de problèmes qu'ils ne peuvent pas résoudre, comme l'inférence, la logique inversible ou l'échantillonnage et l'optimisation... ».
Ce sont des problèmes que les ordinateurs quantiques doivent résoudre. Ceux-ci utilisent des qubits, c'est-à-dire des bits qui, au lieu d'avoir un état 0 ou 1, peuvent avoir deux états à la fois (superposition) et peuvent interagir (intrication). Ceci démultiplie les possibilités de calcul de l'appareil, mais à un prix : l'instabilité des qubits, dont les interactions avec l'environnement (notamment l'agitation thermique) poussent à faire perdre leurs propriétés.
Et alors que Google se targue d'avoir mis au point un processeur quantique de 72 qubits sans avoir démontré leurs intrications, Simon Perdrix expliquait dans le journal du CNRS que « pour présenter un intérêt, un ordinateur quantique devra (en) comporter un grand nombre. Pour les problèmes de factorisation par exemple, il faudra en coupler un millier, au bas mot ». La solution pourrait donc venir des ordinateurs probabilistes (ou ordinateurs stochastiques).
Une révolution, probablement
Après les bits et les qubits, les ordinateurs probabilistes utilisent des p-bits, pour « bits probabilistes ». Ici, ceux-ci sont créés par trois transistors au silicium reliés à un aimant. Celui créé par l'équipe est d'une taille extrêmement réduite : une épaisseur d'environ 10 atomes, dont l'ajustement est l'une des principales avancées de l'équipe. Cette taille est importante car elle permet à l'aimant de se comporter de manière stochastique.Qu'est-ce que cela signifie ? La publication de l'équipe le résume ainsi : « Le rôle clé est joué par un bit probabiliste (un p-bit), une entité robuste fluctuant dans le temps entre 0 et 1, qui interagit avec d'autres p-bits du même système à l'aide de principes inspirés par les réseaux de neurones ».
Grâce à ce nouvel aimant et aux p-bits, l'équipe affirme être parvenue à calculer les facteurs de nombres entiers jusqu'à 945, une opération décrite par Nature comme « si difficile à résoudre pour les ordinateurs standards qu'ils sont devenus la base des clés de cryptage utilisées dans les mots de passe ».
Attention : cet ordinateur probabiliste n'est pas le premier de son genre. L'informatique probabiliste est étudiée depuis près de 40 ans, et la stochastique a aussi d'autres applications. Mais pour le calcul des facteurs de nombres entiers, l'équipe n'a eu besoin que de 8 p-bits, là où les ordinateurs probabilistes réalisés jusque-là auraient utilisé plus de 1 000 transistors.
Le gain en énergie et en puissance de calcul devient alors évident. La publication poursuit : « Une utilisation plus répandue de l'informatique stochastique nécessitera toutefois un effort plus important de la part des bailleurs de fonds publics et des fabricants de puces en silicium ».
Source : Nature