Le groupe de Mark Zuckerberg souhaite pouvoir développer des systèmes d'intelligence artificielle sains. Et pour cette raison, Meta pourrait refuser d'avancer sur certaines IA.
Depuis que ChatGPT est arrivé sur le marché, nombre de personnes se sont demandées quand la technologie de l'intelligence artificielle allait-elle se montrer trop dangereuse. Pour le moment, malgré les succès de produits comme DeepSeek, il semble que l'humanité ne soit pas encore trop proche d'IA qui pourraient la menacer. Mais certains groupes prennent les devants, pour éviter le pire. C'est le cas de Meta, une des entreprises les plus en pointe dans l'intelligence artificielle.
Meta fait état de deux types d'IA dangereuses
Meta vient de sortir un nouveau document très intéressant, qui devrait dicter sa politique de développement dans l'intelligence artificielle. Baptisé « Frontier AI Framework », on y découvre que Meta a créé plusieurs catégories d'IA que la société considère comme trop dangereuses pour être développées. Il s'agirait d'IA considérées comme de « danger élevé » et de « danger critique ».
Les deux seraient capables d'aider des criminels pour des attaques cyber, chimiques ou biologiques. Mais ce qui les différencierait serait les conséquences de ces attaques. Les IA de « danger élevé » pourraient faciliter l'offensive de criminels, sans pour autant nécessairement pouvoir l'aider à faire des dégâts critiques. L'utilisation maligne d'IA de « danger critique » pourrait par contre entraîner « un résultat catastrophique [qui] ne peut être atténué dans [le] contexte de déploiement proposé. »
Des réponses déjà prêtes
Et le groupe de Mark Zuckerberg a donné quelques exemples des problèmes qui pourraient être créés par ces IA. Elles pourraient ainsi entraîner une « compromission automatisée de bout en bout d'un environnement d'entreprise protégé par les meilleures pratiques ». Plus grave, elles pourraient aussi être à l'origine de la « la prolifération d'armes biologiques à fort impact. »
Ainsi, si une IA venait à tomber dans la catégorie « danger élevé », son développement serait immédiatement stoppé, avec des améliorations ensuite apportées pour « réduire le risque à des niveaux modérés. » Dans le cas d'une IA de « risque critique », des mesures de sécurité non spécifiées seraient prises pour reprendre impossible son exfiltration, et son développement serait arrêté, jusqu'à ce que sa dangerosité soit notablement réduite. Sera-ce suffisant ?
Source : TechCrunch
- 3 modèles dont un de 400 milliard de paramètres
- Libre
- Peut tourner en local sur les machines bien équipées