Dans une tribune publiée dans le Financial Times, Sundar Pichai, ex-patron de Google et désormais à la tête de la maison-mère Alphabet, a déclaré que l'intelligence artificielle doit sans conteste être régulée.
Rappelant à toutes fins utiles que l'intelligence artificielle ne sert pas qu'à façonner des playlists sur-mesure sur les plateformes de streaming, Sundar Pichai appelle les dirigeants du monde entier à se positionner rapidement sur le sujet afin d'épargner au monde d'éventuelles dérives.
Ne pas laisser le marché dicter ses propres règles
« Il ne fait aucun doute pour moi que l'intelligence artificielle doit être régulée. Elle est trop importante pour y échapper », écrit dans le Financial Times le patron de l'entreprise qui a déjà publié une charte en la matière en 2018. « La seule question est : comment s'y prendre ? »Pourtant, si Sundar Pichai milite pour que des garde-fous soient mis en place, il n'est pas favorable à ce que des contrôles trop importants régissent le développement de l'intelligence artificielle. Une posture un brin contradictoire, qui appelle finalement à la mesure ; à une « approche précautionneuse » de la question.
En réalité, l'homme à la tête d'Alphabet sait bien que « l'intelligence artificielle » n'existe pas en tant que telle, mais que ce sont les différentes applications qu'elle trouve dans notre société qui doivent faire preuve d'une régulation. Meilleur exemple, selon lui : les voitures autonomes, qui nécessitent évidemment de « nouvelles règles appropriées ». Dans le domaine de la santé néanmoins, les bienfaits de l'IA pourraient parfaitement s'intégrer dans les processus préexistants afin de les fluidifier.
« Les entreprises comme la nôtre ne peuvent pas juste développer des technologies prometteuses et laisser les forces du marché décider de leur utilisation », précise encore Sundar Pichai. « Il nous incombe également de nous assurer que la technologie est guidée par le bien commun et disponible pour tous ».
Les dangers posés par l'intelligence artificielle
Si tout le monde s'accorde à reconnaître la prouesse technologique que représente l'intelligence artificielle, nombreux sont celles et ceux qui tentent d'alerter sur les dérives actuelles et potentiellement futures de ces outils.On voit déjà les effets néfastes de l'intelligence artificielle avec la prolifération des deepfakes, a fortiori à l'approche d'une échéance électorale importante. Mais le sujet le plus épineux de ce début de décennie reste encore la reconnaissance faciale et les vertigineuses questions qu'elle pose en termes de respect des libertés individuelles. Sur ce point, Google a déjà choisi son camp. Sundar Pichai explique qu'il est dans l'ADN de son entreprise de s'interdire l'usage de certaines technologies « comme supporter la surveillance de masse ou violer les droits humains ». L'une des raisons, précise The Verge, pour lesquelles Google ne vend pas de technologie de reconnaissance faciale.
Aussi, lorsque l'on parle de régulation, on voit déjà que les États-Unis et l'Europe ont deux approches très différentes. L'administration Trump est favorable à un cadre très souple afin de ne pas freiner l'innovation. Le Vieux Continent, en revanche, souhaite mettre en place un appareil législatif suffisamment solide pour éviter les dérives. Une stratégie qui a la préférence du patron de Google, qui cite explicitement le RGPD européen en exemple, le qualifiant de « solide fondation » pour le respect des libertés fondamentales.
À Séoul, l'IA et les caméras pour prévenir les crimes... Minority Report n'est pas loin
Le 19 février prochain, la Commission européenne devra présenter ses propositions afin de mettre en place les barrières législatives susceptibles de protéger les citoyens européens face au développement inéluctable de l'intelligence artificielle.
Source : Reuters