Microsoft souhaite aller le plus vite possible dans le déploiement de ChatGPT à travers ses produits, et a préféré éliminer ses équipes de sécurité pour gagner du temps.
L'intelligence artificielle est considérée aujourd'hui par les géants de la tech comme le nouvel eldorado et ces entreprises sont engagées dans un sprint pour être les premières à s'imposer sur ce marché hautement stratégique.
Une adoption à marche forcée de l'intelligence artificielle par les géants de la tech
Microsoft a aujourd'hui une longueur d'avance sur ses concurrents. L'éditeur de Redmond a investi près de 10 milliards de dollars dans la société OpenAI, responsable de ChatGPT, et ses liens étroits passés avec la société spécialisée en intelligence artificielle lui ont permis d'accélérer l'intégration de cette technologie au sein de Bing, son moteur de recherche.
Microsoft ne compte pas s'arrêter en si bon chemin et souhaite introduire de l'intelligence artificielle dans l'ensemble de ses produits, de Windows à Office en passant par Teams.
L'intelligence artificielle pose néanmoins des questions éthiques, et ce n'est pas Microsoft qui dira le contraire. L'intégration de ChatGPT dans Bing n'a pas été sans heurts, avec des réponses parfois agressives de l'assistant après quelques questions ou des remarques déplacées sur des sujets très sensibles.
Microsoft avait une équipe chargée de traiter ces questions d'éthique et d'anticiper les problèmes induits par le développement de ces systèmes d'intelligence artificielle, mais on apprend aujourd'hui que cette division est aujourd'hui de l'histoire ancienne et que ses membres ont été démis de leurs fonctions.
Microsoft met les questions éthiques sous le tapis, pour aller toujours plus vite avec ChatGPT
Cette disparition de l'équipe chargée de l'éthique dans l'IA n'est pas nouvelle. Comme le rappelle The Verge, 30 ingénieurs étaient responsables de cette question en 2020, mais ils n'étaient plus que sept employés en octobre 2022.
Microsoft a fait le choix de supprimer définitivement cette entité il y a quelques semaines pour aller plus vite dans le déploiement de ChatGPT dans ses différents logiciels, sous la pression de Satya Nadella, CEO de l'éditeur, et de Kevin Scott, directeur technique de Microsoft.
Les membres restants de cette division dédiée à l'éthique ont été placés au sein des différentes équipes produit, pour apporter leur point de vue et leur expertise aux développeurs. De son côté, Microsoft « s'engage à développer des produits et des expériences d'IA de manière sûre et responsable, et le fait en investissant dans des personnes, des processus et des partenariats qui en font la priorité ». La société conserve un poste de responsable pour « une intelligence artificielle responsable », chargée d'édicter les grands principes de l'entreprise en matière d'éthique, même si son influence semble considérablement réduite.
Les problèmes restent bien réels, même si Microsoft semble n'en avoir cure. En 2022, les ingénieurs chargés des questions éthiques avaient déjà soulevé des soucis liés à Bing Image Creator, qui utilise le système DALL-E d'OpenAI pour créer des images entièrement générées par intelligence artificielle. Cet outil, très puissant, pouvait à terme causer du mal aux artistes et aux illustrateurs qui vivent de leur art et posait des questions de droits d'auteur, selon les garants de l'éthique chez Microsoft. Malgré plusieurs notes sur le sujet, la direction a décidé de se passer de l'avis du groupe et de lancer son produit sur plusieurs marchés, prenant le risque de voir son image de marque écornée par une ou plusieurs plaintes.
Source : The Verge