Microsoft a mis à jour son contrat de services, avertissant les utilisateurs de ne pas se fier à Copilot AI pour des conseils professionnels. L'entreprise souligne que ses services d'IA, y compris les Health Bots, ne sont pas conçus pour remplacer l'expertise humaine, notamment dans le domaine médical.
Parce que nous sommes de plus en plus nombreux à avoir recours aux services de l'intelligence artificielle qui est actuellement encadrée par l'Union européenne, soit par le biais de chatbots, soit à notre insu avec les mises à jour d'outils dopés à l'IA pour être plus efficaces, nous pourrions être amenés à leur vouer une confiance aveugle.
Et on dirait bien que Microsoft sent venir un certain danger. Le géant de Redmond vient en effet de mettre à jour ses conditions d'utilisation, et le message est clair : l'IA ne doit pas se substituer aux conseils des professionnels, surtout quand il s'agit de santé.
Une mise en garde qui ressemble fort à ce que n'ont de cesse de répéter les professionnels de santé à leurs patients : ne consultez pas Docteur Google au moindre symptôme. Microsoft nous rappelle que derrière chaque algorithme, aussi sophistiqué soit-il, il y a des limites. Et ces limites, il faut les connaître pour utiliser l'IA de manière responsable.
Microsoft resserre la vis sur l'utilisation de ses services d'IA
Le contrat de services Microsoft fait peau neuve, et ça n'est pas une simple mise à jour. Il y est particulièrement question de l'utilisation des services d'IA, comme Copilot. Le flou juridique en la matière pourrait bien connaître ses derniers jours.
Le message est sans équivoque, comme le précise l'entreprise sur son site au chapitre des services d'IA :
« Les services d'IA ne sont pas conçus, destinés ou destinés à être utilisés comme substituts à des conseils professionnels ».
En clair, ces outils ne sont pas là pour remplacer l'expertise humaine.
Même son de cloche lorsqu'il s'agit de santé. Le ton se fait encore plus ferme. Les Health Bots, ces petits assistants virtuels censés répondre à vos questions médicales, ne sont en aucun cas destinés à remplacer l'avis d'un médecin. « Les Health Bots, qui peuvent inclure des plans d'action, des informations, des rappels et d'autres fonctionnalités, ne sont pas des appareils médicaux », peut-on lire au chapitre « Robots de santé », avec cette précision : « Vous assumez l'entière responsabilité de votre utilisation des Health Bots ». Diagnostic, traitement, prévention... autant de domaines où l'IA doit rester un outil d'aide, pas un substitut et où le patient se retrouve entièrement responsable de l'interprétation et l'utilisation qu'il fait des chatbots de santé.
Une mise à jour globale des conditions d'utilisation
Microsoft profite de cette mise au point sur l'IA pour effectuer un petit ravalement de façade à l'ensemble des services de sa galaxie.
Il est notamment question du web scraping et de la récolte de données sans autorisation expresse. Microsoft compte s'assurer qu'il va garder le contrôle sur l'utilisation faite de ses données. Que l'on s'en inspire est gratifiant, mais qu'on le copie n'est pas envisageable.
Ensuite, la rétro-ingénierie des modèles d'IA est formellement interdite. Un gros verrou a été fixé sur les algorithmes et systèmes frappés du sceau Microsoft. Personne n'aura donc accès au ventre de la bête, ne serait-ce que pour voir.
Enfin, l'utilisation des données d'IA de Microsoft pour créer ou entraîner d'autres services d'IA est bannie.
Ces mises à jour ne sont pas anodines ni totalement altruistes. Si elles tentent de souligner un certain effort de Microsoft de sécuriser l'utilisation de ses outils d'IA, le but non avoué semble évident : ne pas se retrouver avec des procès dans les pattes. Mais prévenir plutôt que guérir est déjà louable de la part de la firme de Redmond.
- Intégration de DALL-E 3 pour une création d'images plus créatives et réalistes
- Capacité de traitement des images par GPT-4 Vision pour des réponses contextuelles précises
- Interface conviviale et intégrée dans divers produits Microsoft