Au Royaume-Uni, nombreux sont les médecins à avoir déjà franchi le pas : utiliser l'intelligence artificielle dans sa pratique quotidienne. Si cette adoption fulgurante témoigne d'un besoin réel, cette pratique peut inquiéter.
La scène se banalise dans les cabinets médicaux britanniques : entre deux consultations, le médecin interroge ChatGPT ou Gemini pour l'aider à rédiger ses comptes-rendus ou à formuler des explications plus claires pour ses patients. Une récente étude menée auprès d'un millier de praticiens révèle que 20 % d'entre eux ont intégré ces outils dans leur quotidien, y voyant une solution face à la montagne administrative qui grève leur temps médical. Une situation qui ne déplairait pas à Google, elle qui avait voulu démontrer en début d'année que l'IA était « meilleure que les médecins ». La réalité est, comme on peut s'en douter, plus complexe que cela.
Une technologie aux pouvoirs inédits, mais sans mode d'emploi
L'intelligence artificielle générative marque une rupture profonde avec les systèmes traditionnels. Les précédents outils d'IA, comme ceux analysant les mammographies pour le dépistage du cancer du sein, étaient conçus pour exceller dans une tâche précise. La nouvelle génération, elle, entraînée sur des quantités colossales de données, est dotée de capacités génériques qui peuvent générer textes, images ou sons selon les besoins.
C'est justement cette polyvalence qui séduit les médecins : ils rédigent les comptes-rendus post-consultation, aident à la prise de décision clinique et produisent des documents plus compréhensibles pour les patients, comme les résumés de sortie d'hospitalisation ou les explications relatives aux traitements thérapeutiques. Face aux problèmes que rencontrent les systèmes de santé européens, on peut comprendre l'enthousiasme des praticiens et des décideurs qui voient en l'IA une clé pour moderniser les services médicaux.
Cependant, cette flexibilité qui apparaît comme presque illimitée soulève une question fondamentale de sécurité sanitaire. Comment s'assurer qu'un outil non conçu pour cet usage peut être utilisé sans risque dans le domaine médical ? Les experts soulignent que contrairement aux applications traditionnelles, dont on peut précisément évaluer la fiabilité pour une tâche donnée, ces systèmes échappent aux méthodes classiques d'évaluation de sécurité. Leurs capacités, qui semblent limitées uniquement par l'imagination de l'utilisateur, rendent leur encadrement particulièrement complexe.
Le syndrome des faux souvenirs
Nous le savons bien, ces chatbots souffrent d'un défaut : les hallucinations. Autant dire que dans le secteur médical, ce défaut se transforme en véritable danger. Non contents de reformuler l'information, ils peuvent l'enrichir d'éléments fictifs, mais plausibles, modifiant subtilement la fréquence des symptômes ou ajoutant des détails jamais évoqués lors de la consultation. Dans un système de santé où le patient consulte différents praticiens, ces altérations de son historique médical peuvent avoir des conséquences graves. Un médecin connaissant bien son patient repérera peut-être ces erreurs, mais qu'en sera-t-il lors d'une consultation aux urgences ?
Toutefois, au-delà de la simple fiabilité des outils, c'est toute l'approche de la sécurité des patients qui doit être repensée. L'IA générative évolue constamment : ses capacités changent au fil des mises à jour, transformant régulièrement ses comportements et ses possibilités d'utilisation. Cette nature mouvante complique davantage l'anticipation des risques qui pourraient en découler.
L'avenir de la médecine s'écrira sans doute avec l'intelligence artificielle, mais pas à n'importe quel prix. Développeurs, médecins et régulateurs doivent maintenant collaborer étroitement pour créer des outils qui pourront être utilisés en toute sécurité dans la pratique clinique quotidienne. Néanmoins, ne nous leurrons pas. La recherche de ce consensus peut s'avérer très complexe, étant donné que les intérêts de ces professions divergent parfois et que la réglementation peine à suivre le développement effréné des technologies d'IA.
Sources : BMJ Health & Care Informatics, Science Alert