Le professeur Mitsukura et ses étudiants sont des spécialistes de l'analyse des flux neuronaux et de leur interprétation. Récemment, ils ont mis au point un système qui permet de détecter quel genre de musique a envie d'entendre une personne et de commander à un baladeur la lecture d'un morceau correspondant.
Le dispositif capte et traduit les signaux neuronaux pour en déduire si l'individu souhaite entendre du rock, du jazz, de la musique classique ou encore de la pop ou de la variété. Les capteurs requis sont intégrés dans un objet en forme de casque, relié à un lecteur de musique où un logiciel analyse la pensée et la transforme en instruction afin de jouer un titre idoine. Les chercheurs ont testé leur dispositif auprès de 1 000 individus. Le logiciel conçu pour un baladeur de type non précisé mais sans doute sous Android ou iOS a offert un taux de réussite de l'ordre de 90%, selon un article du quotidien Nikkei.
Pour être en mesure d'analyser la signification des signaux émis par le cerveau lorsque le sujet songe à un type de musique, le logiciel crée d'abord automatiquement une sorte de tableau de références individuelles, qui établit le lien entre un genre musical et les ondes générées par les neurones. Cela diffère en fonction des personnes, d'où la nécessité de l'effectuer au préalable pour chacun. C'est un peu comme pour les logiciels de reconnaissance vocale qui ont besoin d'un apprentissage préalable pour interpréter correctement les dires d'un individu donné. L'équipe du professeur Mitsukura devrait désormais travailler en collaboration avec des fabricants de baladeurs (et/ou smartphones) pour miniaturiser les capteurs et les coupler à un casque audio et pour intégrer ces fonctions de « commandes neuronales » dans un logiciel et des appareils du commerce.
Dans le même laboratoire de l'Université Keio on trouve d'autres réalisations intéressantes. Un élève du professeur Mistukura a ainsi conçu un système de capture en temps réel pour faire bouger de façon fluide et immédiate un avatar sur un écran, et ce en fonction des mouvements de la tête et du visage d'un individu devant son écran. Classique motion capture diront certains. Peut-être dans le domaine professionnel. Mais la particularité de ce dispositif est qu'il ne nécessite pas de capteurs particuliers sur l'être qui s'agite devant son PC, il lui suffit de gesticuler. C'est l'image prise par une simple caméra qui sert de base à la reconnaissance.
« Cette technique peut par exemple être utilisée par des particuliers pour réaliser des animations et les diffuser sur internet, où encore pour commander la gestuelle d'un avatar lors de jeu ou dans une discussion en ligne. On peut aussi s'en servir pour faire bouger un personnage en temps réel lors d'un événement quelconque », explique le concepteur du programme.
« Tout cela est faisable simplement avec un PC et une webcamera », ajoute-t-il. La reconnaissance de mouvements s'effectue en mesurant l'orientation de la tête d'une part, via une croix virtuelle qui passe au centre du visage, et par le biais de points caractéristiques, autour des yeux et de la bouche ainsi qu'au niveau des narines. Ce sont les variations de ces points caractéristiques qui servent de base aux algorithmes pour la conversion en instructions informatiques, de façon extrêmement précise et quasi instantanée. Le but est désormais de développer un logiciel de motion capture pour les particuliers, qui puissent par exemple être couplé à d'autres outils de création
Autre réalisation du même laboratoire: un système qui permet de mesurer et qualifier en temps réel les différentes sensations ressenties par un individu (intérêt, stress, fatigue, surprise, etc.) en détectant les fréquences émises par son cerveau à l'aide d'un bandeau-capteur et d'une pince au lobe de l'oreille. « Le point important est le fait que les algorithmes que nous avons conçus donnent un résultat en temps réel », souligne le professeur Mitsukura. Une application de ce type intéresse bien sûr le secteur commercial puisqu'elle permet de comprendre le ressenti d'un lecteur ou d'un téléspectateur à la vue d'une publicité. Une exploitation de tels outils est déjà une réalité, mais souvent avec des moyens plus lourds que ceux de Mme Mitsukura. « A l'avenir notre technologie pourra aussi servir à enrichir la communication par téléphone mobile, en transmettant les réactions non seulement verbales mais aussi sensorielles des interlocuteurs », précise-t-elle.
Cette chercheuse est aussi partiellement à l'origine d'autres développements, par exemple un fauteuil roulant qui se pilote en clignant des yeux, et ce en captant en six points précis les signaux électriques qui activent les muscles mis en œuvre. Ainsi, pour avancer, faut-il cligner des deux yeux en même temps, de celui de droite pour tourner à droite et de celui de gauche pour tourner à gauche. Puisque les signaux issus des clignements d'yeux non intentionnels se distinguent de ceux réalisés volontairement, les fausses manœuvres sont rares, selon l'équipe de recherche qui, parallèlement, travaille aussi sur des systèmes de contrôle par commandes vocales ou neuronales.
Sur ce plan elle n'est pas la seule. En 2009 en effet, le numéro un mondial de l'automobile, le japonais Toyota, a présenté un système d'analyse rapide de l'activité cérébrale qui permet à une personne de piloter en temps réel un fauteuil roulant par la pensée. « Dernièrement, une grande attention est portée aux développements technologiques dans le domaine des interfaces de commande cérébrales, ces dispositifs permettant aux personnes âgées ou handicapées d'interagir avec ce qui les entoure grâce à leur pensée, sans qu'elles aient à parler ou se mouvoir », rappelait alors Toyota. Le système conçu par le groupe se distingue, d'après Toyota, par sa rapidité d'exécution.
Les algorithmes utilisés permettent d'effectuer l'analyse « en 125 millisecondes, contre plusieurs secondes requises par les méthodes conventionnelles ». Divers projets sont en cours pour employer cette technologie , essentiellement dans l'univers médical, a indiqué Toyota. Le dispositif donne la possibilité au passager du fauteuil, coiffé d'électrodes, de faire avancer le fauteuil, de tourner à droite ou à gauche et de s'arrêter, en imaginant l'action qu'il ferait avec ses mains droite ou gauche pour changer de direction ou avec ses jambes pour progresser.
Les résultats de l'analyse sont affichés sur un écran qui indique la direction que s'apprête à prendre le véhicule, ce qui permet au passager de mieux contrôler la bonne compréhension de sa pensée par la machine, et d'améliorer ainsi l'efficacité du système. Toyota et ses partenaires dans ces travaux disent être parvenus à des bons résultats avec un échantillon d'utilisateurs, « atteignant un taux de réussite de 95%, un des plus élevés dans ce domaines ».
En tant que constructeurs de voitures, il a sûrement dans l'idée d'exploiter un jour ce type de technique neuronale dans les automobiles. En attendant, il fait des expériences avec les vélos, en partenariat avec la firme américaine Parlee. Le changement de pignon se fait par la pensée.
Enfin pour terminer, sachez que l'analyse des ondes cérébrales ne sert pas qu'à des applications utiles et intelligentes. En voici une qui, au contraire, est grotesque et sans intérêt: faire bouger des oreilles artificielles de chat montées en serre-tête.