Copilot, un outil de Microsoft boosté par l'IA, fait face à une potentielle action de groupe de codeurs open-source sur Github.
L'intelligence artificielle à but lucratif du géant américain aurait en effet été entraînée à l'aide de milliards de lignes de code accessibles à tout un chacun et hébergées sur la plateforme collaborative.
Une action de groupe copilotée contre Copilot
Pour rappel, Microsoft avait racheté Github en 2018. En juin dernier, la firme de Redmond a lancé Github Copilot, une extension de Visual Studio utilisant des algorithmes de prédiction pour compléter automatiquement des lignes de code. L'IA utilisée par Copilot se baserait sur Codex, créée et entraînée par OpenAI.
Pour profiter des services de Copilot, Microsoft propose une licence aux développeurs à partir de 10 dollars par mois, ou via un abonnement de 100 dollars à l'année. Or, l'IA a été entraînée via des lignes de code open-source sur Github, dont les contributeurs ne retirent aucun profit.
Matthew Butterick, programmeur et avocat, a ainsi mis en place un site appelé Github Copilot Investigation, cité en source ci-dessous. Ceci est une première étape visant à rassembler d'autres contributeurs bénévoles sur Github en vue de monter une action de groupe à l'encontre de Copilot.
Butterick se montre particulièrement véhément envers l'outil de Microsoft, en écrivant sur le site « Comme Néo branché à la Matrice ou une vache dans une ferme, Copilot veut nous convertir en rien de plus que des producteurs d'une ressource à extraire. Et encore, les vaches ont au moins de la nourriture et un abri en retour. Il semblerait ici que Microsoft profite du travail des autres en méprisant les conditions des licences open-source et autres prérequis légaux ».
L'éthique et l'IA ne font pas bon ménage
Quand bien même un code open-source peut être utilisable librement par toutes et tous, la bonne pratique veut que la source originale soit créditée. Chose que Copilot est dans l'incapacité de faire en compilant des milliards de lignes de code piochées ici et là, souvent même mot pour mot, malgré l'assurance du contraire par Github.
Pour sa défense, Microsoft indique que le code utilisé par Copilot tombe sous le cadre légal américain relatif aux droits d'auteur du « fair use » transformatif. Mais, comme le précise Butterick sur son site, une telle législation n'a pas encore été établie lorsqu'il s'agit de travaux réalisés par une intelligence artificielle.
Comme on peut le constater sur le tweet ci-dessus, Butterick semble ne pas être le seul codeur open-source à montrer son désaccord à l'encontre de Copilot. Il invite ainsi les potentiels plaignants à contacter le cabinet au sein duquel il travaille pour monter un dossier d'action de groupe en bonne et due forme.
L'intelligence artificielle ne cesse décidément de diviser, le cas récent le plus flagrant étant les œuvres d'art créées via des outils tels que DALL-E ou Midjourney. À tel point que, à défaut de pouvoir les arrêter, les communautés d'art ont décidé de bannir de telles œuvres en leur sein, pour protéger le travail des artistes de chair et d'os.
Reste à voir si l'action de groupe initiée par Butterick à l'encontre de Copilot portera ses fruits ou non.
Source : Github Copilot Investigation