En juin 2015 Ray Kurzweil, directeur de l'ingénierie chez Google, affirmait que les humains deviendraient des êtres hybrides dans le courant des années 2030 avec des cerveaux véritablement connectés. Mais il semblerait que cette année Google souhaite jouer la carte de la sécurité pour éviter un peu trop de fantasmes.
En début de mois, nous apprenions qu'avec les chercheurs de l'université d'Oxford, Google planchait sur un dispositif permettant d'empêcher que les algorithmes d'intelligence artificielle ne deviennent incontrôlables par les humains.
Cette fois, les chercheurs ont publié sur leur blog les cinq règles d'or pour s'assurer qu'une intelligence artificielle ne dérape. Celles-ci sont détaillées dans une étude publiée hier et disponible sur cette page.
- L'intelligence artificielle ne perturbera pas son environnement tout en atteignant son objectif. Par exemple un aspirateur autonome faisant tomber un vase tout en aspirant la saleté.
- L'intelligence artificielle devra remplir sa tâche correctement, sans détour. Par exemple ce même aspirateur ne pourra pas simplement recouvrir la saleté avec un matériau pour la faire disparaître.
- L'intelligence artificielle ne devra pas reposer sur un dispositif constant de retours de la part de l'humain pour accomplir sa tâche et ce afin de ne pas être trop intrusive.
- L'intelligence artificielle ne devra pas tenter de nouvelles expériences ayant des répercussions néfastes pour elle-même et pour son environnement. Par exemple, un robot nettoyeur pourra passer la serpillère mais en délimitant un périmètre autour des prises électriques.
- Enfin l'intelligence artificielle devra être capable de s'adapter à plusieurs environnements pour effectuer ses tâches.