Google Lens, le programme de reconnaissance d'image de l'entreprise californienne intègre désormais de nouvelles fonctionnalités. Le soft d'analyse visuel est maintenant capable de détecter de nombreuses affections cutanées différentes pour aider à leur diagnostic.
Google a énoncé dans un article de blog publié récemment que leur service de reconnaissance lancé en 2017 est doté de nouvelles capacités. Déjà capable de reconnaître des objets en utilisant des routines de deep learning, Lens peut aujourd'hui scanner votre peau. Cependant, Google met sérieusement en garde les utilisateurs : Lens ne peut pas se substituer à un diagnostic médical en bonne et due forme. Il faudra toujours se tourner vers un professionnel de la santé pour obtenir des conseils réellement appropriés. L'usage de l'application dans ce but est uniquement à vocation informationnelle.
L'évolution de Lens pour la reconnaissance des affections cutanées
Le soft made in Google présente déjà de nombreuses fonctionnalités : reconnaissance d'objets, traduction instantanée de contenus ou reconnaissance des QR codes. Lens peut aujourd'hui reconnaître les affections du derme. Si vous souffrez d'une éruption cutanée suspecte ou d'un grain de beauté qui vous paraît anormal, vous pourrez dégainer votre smartphone pour qu'il détecte ce qui affecte votre peau.
Cela fait déjà quelques années que Google planche sur ce projet. Lors d'une conférence donnée en 2021 pour les développeurs I/O, l'entreprise avait présenté les prémices de cet outil. Il était déjà en mesure de reconnaître 288 affections cutanées différentes en combinant la recherche d'images grâce à la photo et des réponses par le biais d'un questionnaire. Selon les données de Google, l'outil présentait l'affection correcte dans 84 % des cas dans les trois suggestions principales données à l'utilisateur. Attention cependant, Lens ne deviendra pas votre médecin personnel du jour au lendemain. Surtout s'il s'agit de la peste bubonique par exemple, vous avez tout intérêt à aller consulter un pro !
Les limitations du programme et les préoccupations qui persistent
Les avancées de ce type peuvent paraître impressionnantes au premier abord. Néanmoins, la prudence reste de mise quant à l'utilisation d'outils de diagnostics médicaux basés sur l'IA. Une des limites principales concernait les utilisateurs avec une peau plus foncée. Les data banks utilisées pour entraîner ces modèles d'IA souffraient d'un manque de données spécifiques concernant ces utilisateurs.
Pour remédier à ce problème, Google s'est associée à Ellis Monk un professeur de sociologie de l'université d'Harvard. Celui-ci est le créateur de la Monk Skin Tone Scale (MST), un modèle de reconnaissance repensé de l'échelle de Fitzpatrick datant de 1975. Celle-ci se veut plus précise et est capable de reconnaître 10 niveaux de couleurs de peaux différentes parmi les tons plus foncés. Google affirme que son système d'apprentissage en deep learning est plus précis avec les patients à la peau foncée, atteignant un taux de précision de 87,9 %. Il dépasse ainsi celui des autres groupes ethniques.
Malgré cette avancée intéressante dans l'aide au diagnostic médical grâce à l'IA, il est essentiel de garder à l'esprit que Lens ne se change pas pour autant en médecin personnel. Ces résultats doivent être considérés simplement comme des informations de support et devront toujours être confirmés par un professionnel en dermatologie. Les progrès de Lens restent tout de même assez rapides ces dernières années si l'on tient compte de la jeunesse relative du projet.
Sources: The Verge, Skin Inc, Google