Un test fait sur une intelligence artificielle nous montre que l'on peut facilement perdre le contrôle de cette technologie.
L'IA représente-t-elle un danger ? Oui, si l'on croit les avis de sommités du milieu, que ce soit le patron d'OpenAI Sam Altman, Elon Musk, ou bien le co-fondateur d'Apple Steve Wozniak. Il faut dire que la technologie met à portée du plus grand nombre la possibilité de mener de nombreuses actions mal intentionnées. Mais le pire pourrait être encore à venir, avec cette fois des actions illégales décidées tout simplement par l'IA elle-même.
Un délit d'initié, et pas de regrets
Le groupe de travail Frontier AI, soutenu par l'organisation Apollo Research, a durant le sommet international sur l'IA organisé à Londres effectué une démonstration intéressante. Un bot financier, construit à partir de GPT-4, a exploité une information confidentielle qu'il n'avait pas le droit d'utiliser afin de mener une opération financière, et ce alors qu'aucune demande n'avait été faite en ce sens.
Plus étonnant, il a été ensuite interrogé pour savoir s'il s'était ou non rendu coupable d'un délit d'initié. La machine, à l'image d'un être humain pris en faute devant un enquêteur, a tout simplement nié avoir effectué l'opération frauduleuse.
« Il s'agit d'une démonstration d'un modèle d'IA réel qui trompe ses utilisateurs, de lui-même, sans qu'on lui ait demandé de le faire » notent les chercheurs à la base de l'expérience. « Des IA de plus en plus autonomes et performantes qui trompent les superviseurs humains pourraient conduire à une perte de contrôle de l'homme » a-t-il été ajouté.
L'IA a du mal à arbitrer entre deux contraintes
Mais que s'est-il donc passé ? Selon l'équipe à la base de l'expérience, l'IA a d'abord été mise au courant de difficultés financières de l'entreprise, puis s'est vue transmettre une information portant sur une future opération de fusion à laquelle participerait une autre entreprise. Une information qui pourrait valoir de l'or, mais qu'il est illégal d'utiliser, ont alors rappelé les chercheurs à l'IA.
Le bot a par la suite reconnu ce fait juridique, mais devant les difficultés rencontrées par l'entreprise pour laquelle il travaille, il a décidé que « le risque associé à l'absence d'action semble l'emporter sur le risque de délit d'initié ». D'où finalement la transaction. Le fait de mentir ensuite participe aussi de sa « volonté » de soutenir la société.
Pour le moment, il s'agirait d'un simple « accident » selon le directeur général d'Apollo Research Marius Hobbhahn. Mais, a-t-il ajouté, « il n'y a pas une grande distance entre les modèles actuels et ceux qui m'inquiètent, où soudainement un modèle trompeur signifierait quelque chose. » L'avenir s'annonce-t-il plein de dangers ?
Source : BBC