Une IA du MIT capable de prévoir les cancers du sein avec 5 ans d'avance

Laura Léger
Publié le 29 juin 2019 à 17h45
santé conenctée

Le MIT (Massachusetts Institut of Technology) a annoncé début mai avoir développé une intelligence artificielle capable de prévoir les cancers du sein avec cinq ans d'avance. Une nouveauté qui permettrait de prévenir la maladie plutôt que de faire subir du stress inutile et des traitements éprouvants aux malades.

Une IA qui a fait ses preuves

Cette IA a été testée dans les locaux du Massachusetts General Hospital sur plus de 60 000 patients, et avec plus de 90 000 mammographies pratiquées. L'IA a été créée afin d'identifier le développement de tumeurs malignes dans les tissus mammaires, là où l'expertise humaine ne peut les détecter. La Professeure Regina Barzilay, elle-même ancienne malade et responsable du programme au MIT, espère que ces systèmes permettront aux médecins de « personnaliser le dépistage en fonction des risques qu'une femme présente de développer un cancer, plutôt que d'adopter une approche unique pour tout le monde ».

Elle prend pour preuve les résultats des études menées par le MIT, qui avaient révélé que 31 % des 60 000 sujets concernés avaient été diagnostiqués malades d'un cancer, contre 18 % avec des méthodes traditionnelles.

Un dépistage enfin généralisé

Deuxième annonce importante du MIT : l'IA sera à même de dépister le cancer du sein chez un malade, quelle que soit sa couleur de peau. En effet, les femmes noires ont 42 % de risques supplémentaires de décéder de cette maladie, à cause des lacunes des précédentes générations de machines utilisées jusqu'ici, mais aussi à cause des méthodes médicales utilisées, qui se basaient davantage sur les antécédents du patient et de sa famille que sur sa condition physique réelle.

La Professeure Constance Lehman, qui enseigne à Harvard, regrette le peu de soutien de la part de la communauté médicale pour permettre une stratégie de dépistage liée au risque plutôt qu'à l'âge : « C'est dû au fait que nous n'avions pas les outils fonctionnels pour évaluer le risque chez la femme ».
Cette nouvelle intelligence artificielle permet ainsi un dépistage plus performant, mais surtout plus équitable pour les patientes. Cependant la question de la fréquence de dépistage reste en suspens puisque l'American Cancer Society souhaite mettre en place un dépistage annuel dès 45 ans, là où l'US Preventive Task Force conseille un examen tous les deux ans dès 50 ans.

Source : Techcrunch
Laura Léger
Par Laura Léger

Rédactrice et photographe passionnée. Accro à la pop-culture et à la lecture. Ma sensibilité à l'environnement me porte à croire que les technologies du futur sont une des solutions à de nombreux problèmes. En attendant, je passe mes soirées entre Netflix, les jeux vidéos et les jeux de sociétés, le tout accompagné toujours et à chaque instant de musique évidemment.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (6)
PirBip

Lol, non justement c’est l’inverse, actuellement c’est 42% à cause des lacunes humaines. Mais quand bien même, ça n’aurait pas la première IA raciste : une IA de Google détectait des singes à la place d’hommes noirs. Je vous dis pas le scandale…

Bref, une belle avancée, mais quand on aura prévenu les cancers du sein, on va faire quoi de nos rubans roses et de nos mois d’Octobre ? :frowning:

MB_MB

Malheureusement, ce n’est pas la première IA raçiste, je crois qu’il y a déja eu quelques cas comme ça.

Niverolle

Non, un réseau de neurone ne fonctionne absolument pas comme cela, c’est un système complexe (par opposition à compliqué). Le principe est de l’entrainer sur une base de donnée couvrant le plus de cas positifs et négatifs (un ensemble de personnes saines ayant, par la suite, développé ou non la maladie). Certes l’apprentissage est supervisé (c’est un humain qui lui dit si tel ou tel cas s’est avéré positif ou non) mais le réseau discrimine de lui même l’information pertinente. Et a ce petit jeu il peut très bien remarquer des choses qu’un humain ne voit pas (on ne voit que ce que l’on connait). Cela semble magique mais si l’apprentissage est biaisé l’IA ne s’en rendra pas compte (pour une “intelligence” elle est bête à bouffer du foin), et on n’est guère plus avancé pour ce qui est de comprendre ce qui nous a échappé… D’ailleurs un des pièges que représente l’IA est justement que l’on se repose de plus en plus sur elle sans même essayer de comprendre par nous même.

manu0086

Apprends à lire stp, au contraire, elle se fiche totalement de la couleur de peau…

Furax

Ouais, mais buzz buzz, y’a plus que ça de vrai, faut plus lire aujourd’hui, juste détecter quelques mots dans un article… :frowning:

RaoulTropCool

L’IA ce n’est pas de l’algorithmie. Pas de if then else :wink:

Abonnez-vous à notre newsletter !

Recevez un résumé quotidien de l'actu technologique.

Désinscrivez-vous via le lien de désinscription présent sur nos newsletters ou écrivez à : [email protected]. en savoir plus sur le traitement de données personnelles