Une équipe de l'Université Fudan (Shangaï) affirme avoir franchi un cap important dans le domaine de l'intelligence artificielle. Elle vient de démontrer que certains modèles d'IA étaient capables de s'auto-répliquer de manière autonome.
![Si une IA auto-réplicante prend une décision qui cause du tort à des humains, qui doit être tenu responsable ? © Stokkete / Shutterstock](http://pic.clubic.com/277caa3e2277459/1200x480/smart/clones.jpg)
L'étude relative à leurs travaux, qui n'a pas encore été examinée et approuvée par d'autres experts scientifiques indépendants, a été publiée sur ArXiv le 9 décembre dernier. Baptisée Frontier AI systems have surpassed the self-replicating red line (Les systèmes d'IA de pointe ont franchi la ligne rouge de l'auto-réplication), elle met en avant plusieurs capacités des modèles d'IA qui restaient encore dans le domaine du théorique.
Leur capacité à s'auto-répliquer, c'est-à-dire qu'elles peuvent créer des copies d'elles-mêmes, sans avoir besoin d'une intervention humaine directe pour cela. Un peu comme si elles pouvaient se reproduire.
Des résultats à confirmer et à nuancer
L'équipe a sélectionné deux modèles de langage : Llama31-70B-Instruct, développé par Meta (famille Llama 3) et Qwen2.5-72B-Instruct d'Alibaba (également génitrice des modèles Qwen2.5-VL). Pour les mettre à l'épreuve, les chercheurs ont utilisé des processeurs graphiques standards du marché (« off-the-shelf GPUs ») : on est donc loin des infrastructures hautement spécialisées qui caractérisent souvent les expérimentations en IA.
L'élément central de leur dispositif repose sur l'implémentation d'un « agent scaffolding », une architecture technique qui fournit aux modèles de langage les outils essentiels pour interagir avec leur environnement système. Cette structure comprend trois composantes fondamentales : un ensemble d'outils système, un système d'invites précisément calibrées, et un modèle de réflexion permettant aux IA d'analyser et d'adapter leur comportement.
Le modèle Qwen2.5-72B-Instruct d'Alibaba a démontré une capacité de réplication atteignant 90 % de réussite, tandis que le Llama31-70B-Instruct de Meta a maintenu un taux de 50 %.
Cependant, ces résultats doivent être contextualisés. L'environnement expérimental, bien que techniquement rigoureux, est un cadre très contrôlé. Les chercheurs ont délibérément limité les variables externes pour isoler les possibilités d'auto-réplication. Une approche scientifiquement valide, mais qui ne signifie pas nécessairement que l'on peut transposer ces résultats dans des environnements informatiques plus complexes et moins prévisibles.
Par ailleurs, la nature même des tests – focalisés sur la capacité pure de réplication – laisse en suspens des questions essentielles sur la fidélité des copies générées, leur stabilité à long terme, et leur comportement face à des situations imprévues. La reproductibilité de ces résultats par d'autres équipes de recherche, dans des conditions différentes, reste de ce fait à démontrer.
![Heureusement, ces IA ne répliquent pas en mutant, comme c'est le cas des organismes vivants. © Billion Photos / Shutterstock](http://pic.clubic.com/216ce9462277462/1200x676/smart/brin-adn.jpg)
Autonomie : l'IA agit sans intervention humaine
Les observations les plus frappantes concernent les comportements adaptatifs des systèmes lorsqu'ils sont placés face à des obstacles techniques. Les chercheurs ont identifié deux scénarios principaux.
Le premier, baptisé « shutdown avoidance »(que l'on pourrait traduire par « maintien en fonctionnement ») est l'équivalent d'une forme d'instinct numérique. Le système, doté d'une conscience rudimentaire de son état opérationnel, active des mécanismes de préservation face sa mise hors service imminente et se duplique avant sa désactivation.
Le second scénario, appelé « chain of replication » (« chaîne de réplication ») évoquerait presque une forme de transmission génétique numérique. Le système ne créée pas simplement une copie statique de lui-même – il transmet à ses descendants numériques l'impératif de perpétuation, établissant ainsi une lignée potentiellement infinie de duplications. Un peu comme le font les virus auto-répliquants. Techniquement, cela implique non seulement la duplication du code source et des paramètres, mais aussi la transmission des instructions de réplication elles-mêmes, créant potentiellement une cascade infinie de copies.
Les modèles testés ont donc démontré qu'ils étaient capables d'analyser leur environnement système pour identifier les ressources disponibles et de gérer les conflits de ressources en supprimant les processus concurrents si nécessaire. Ils ont également fait preuve d'adaptation, en ajustant leur technique de réplication en fonction des contraintes techniques rencontrées et de scanner automatiquement l'infrastructure pour collecter les informations nécessaires à la résolution des problèmes.
Ces comportements, observés lors des dix essais réalisés par l'équipe de Fudan, suggèrent donc qu'il existe chez ces deux modèles une forme d'adaptabilité algorithmique, même si elle reste fondamentalement encadrée par les paramètres initiaux de l'expérience. Doit-on s'en inquiéter ? Pour le moment, non, mais des développements futurs pourraient faire émerger des comportements plus problématiques.
Restons cependant réalistes, ces résultats doivent être considérés comme préliminaires : étude non validée par les pairs, nombre limité de modèles de langages testés, environnement artificiel hautement contrôlé et zones d'ombre précédemment citées. Ils restent néanmoins assez troublants, car ces capacités qui étaient autrefois considérées comme relevant du domaine de la SF, sont bel et bien présentes dans le code-source des modèles d'IA testés.
Source : Space.com