© Pixabay
© Pixabay

Des chercheurs de l'université californienne de Berkeley ont annoncé avoir mis au point, en partenariat avec Intel, un système d'apprentissage machine à vocation médicale.

Le programme a été pensé pour apprendre à effectuer des opérations de sutures à partir de vidéos produites par de véritables médecins.

Donner du sens à des pixels

L'objectif est ici de faire gagner du temps aux professionnels de santé. Les opérations de suture sont évidemment vitales en chirurgie, mais elles sont monotones, consistant en des mouvements simples, mais répétitifs.

L'université de Berkeley annonce ainsi vouloir remplacer ce travail par un système baptisé Motion2Vec, grâce à un apprentissage par des vidéos. Ken Goldberg, qui a participé à sa conception, rappelle que « YouTube reçoit 500 heures de nouveaux contenus chaque minute. C'est un référentiel incroyable ».

Il ajoute : « N'importe quel être humain peut regarder presque n'importe laquelle de ces vidéos et lui donner un sens, mais un robot ne le peut pas actuellement - ils les voient simplement comme un flux de pixels. Le but de ce travail est donc d'essayer de donner un sens à ces pixels. C'est-à-dire regarder la vidéo, l'analyser et être capable de segmenter les vidéos en séquences ayant du sens ».

Pour ce faire, l'équipe a eu recours à un réseau neuronal dit « siamois », un système normalement capable de produire un résultat unique en se basant sur deux sources d'informations. Dans le cas présent, le logiciel ne se basait pourtant que sur une seule vidéo à la fois, cherchant à reproduire les mouvements du médecin.

L'attrait de l'apprentissage vidéo pour l'IA

Après avoir appris à partir de 78 vidéos provenant d'une base de données, le système affiche ainsi une erreur de précision moyenne de 0,94 centimètre. Ajay Tanwani, qui a dirigé le projet se dit enthousiaste, précisant que « l'apprentissage à partir d'observations visuelles présente de nombreux avantages, par rapport aux interfaces traditionnelles, pour l'apprentissage statique ou à partir de trajectoires [mimétiques], en raison de l'énorme quantité d'informations disponible dans les vidéos existantes ».

Ce type d'initiatives suscite effectivement l'intérêt des chercheurs. Si les logiciels mis au point sont toujours différents, Motion2Vec rappelle ici la reproduction de Pac-Man, recréé à partir de vidéos de parties jouées. Ajay Tanwani compare ces IA aux logiciels équipant les voitures semi-autonomes, dans le sens où elles ne remplaceront pas les humains, mais les déchargeront de tâches répétitives.

Il faudra cependant des années avant que ce genre de technologie n'atteigne les salles d'opération. Ajay Tanwani ajoute : « Nous n'y sommes pas encore, mais ce vers quoi nous nous dirigeons, c'est la possibilité pour un chirurgien, qui surveillerait le système, d'indiquer où il veut une rangée de sutures. Le robot commencerait sa tâche tandis que le chirurgien serait... en mesure de se détendre un peu ».

Source : Engadget