Des chercheurs ont mené cinq expériences visant à tester la façon dont l'intelligence artificielle fonctionne pour reconnaître des objets. Leurs résultats ont montré qu'il était très facile de tromper les algorithmes de deep learning, mais aussi que ces derniers commettaient des erreurs très différentes de celles réalisées par les humains.
L'étude a été menée par une équipe de chercheurs en psychologie cognitive à l'Université de Californie, à Los Angeles (UCLA). L'objectif initial était de mieux comprendre le fonctionnement de réseaux de deep learning performants, comme VGG-19 ou AlexNet, mais il s'est aussi avéré que leurs compétences demeuraient limitées.
Des erreurs grossières d'identification
En premier lieu, les scientifiques ont soumis des images modifiées à l'intelligence artificielle, par exemple une théière avec la texture d'une balle de golf (voir l'illustration ci-dessus) ou un chameau doté de zébrures. Et la machine a largement fait fausse route. Selon elle, il n'y avait ainsi que 0,41 % de chances que l'image d'illustration soit une théière. Son premier choix était une balle de golf. D'après les auteurs de l'étude, le problème n'est pas tant que l'IA se trompe dans son identification, mais plutôt que le choix correct ne figure pas parmi les réponses considérées comme probables.La deuxième expérience a également mis en avant les failles du deep learning, grâce à des images de figurine en verre. Une nouvelle fois, les choix réalisés par la machine ont été majoritairement erronés, et parfois surprenants. Un ours polaire a ainsi été confondu avec... un ouvre-boîte.
De même, les résultats se sont révélés négatifs lors du troisième test, composé de dessins sur fond blanc, avec un contour noir. Les réseaux ont alors été incapables d'identifier des formes facilement reconnaissables par un humain, comme un papillon, un avion ou une banane.
L'IA relève la tête
En revanche, les algorithmes de deep learning se sont montrés un peu plus performants lors de la quatrième expérience. Il s'agissait cette fois de reconnaître des images entièrement noires.Enfin, pour le dernier test, les chercheurs ont brouillé les images présentées à l'IA, tout en conservant certains morceaux. Et dans ce contexte, le réseau VGG-19 a été capable d'identifier correctement les objets, alors même que des humains confrontés aux mêmes images ont éprouvé de grandes difficultés face à l'exercice.
L'intelligence artificielle ne reproduit pas l'intelligence humaine
La première conclusion des chercheurs est que les réseaux de deep learning ont encore besoin d'améliorations avant d'aboutir à un taux de succès satisfaisant.Mais ils ont également mis en avant le fonctionnement très différent de la machine par rapport à l'humain. Là où ce dernier se concentre en priorité sur la forme globale, l'IA semble, au contraire, attacher plus d'importance à la texture ou aux détails. C'est ainsi qu'une technologie sophistiquée en vient à confondre un animal sauvage avec un ustensile de cuisine.
Source : ScienceDaily