En deux semaines de tests, l'IA d'Anthropic a repéré dans Firefox davantage de failles critiques que la communauté mondiale des chercheurs en sécurité n'en signale habituellement en deux mois entiers.

Claude Opus 4.6, le modèle d'intelligence artificielle développé par Anthropic, a identifié plus de 100 vulnérabilités dans le code de Firefox lors d'une campagne de tests conduite en janvier 2026. Surtout, parmi celles-ci, 14 ont été classées "haute sévérité". Elles auraient donc pu être exploitées pour mener des attaques à grande échelle contre les utilisateurs du navigateur.
Une IA pour blinder le code de Firefox
Depuis plus de 30 ans, la fondation Mozilla dispose d'un programme bug bounty. Elle rémunère jusqu'à 6 000 dollars les chercheurs qui détectent des vulnérabilités dans son code. L'an dernier, l'équipe de Firefox a corrigé 73 failles classées "haute sévérité" ou "critiques". C'est dans ce cadre qu'Anthropic a décidé de tester son modèle sur ce logiciel, à la fois complexe et scruté depuis des décennies.
En vingt minutes seulement, Claude Opus 4.6 a repéré une faille de type "Use After Free". Cette vulnérabilité mémoire aurait pu permettre à un attaquant d'injecter du contenu malveillant dans le système. L'équipe d'Anthropic l'a transmise à Mozilla. Après en avoir évalué la gravité, l'ingénieur Brian Grinstead a immédiatement demandé d'autres rapports. Et le moins que l'on puisse dire, c'est que l'équipe d'Anthropic a largement facilité le travail. Ils n'ont transmis que les bugs reproductibles.
Le modèle a ainsi étendu son analyse à d'autres composants du navigateur, passant en revue près de 6 000 fichiers C++ et soumettant au total 112 rapports distincts à Mozilla. Les développeurs chez Mozilla étaient donc en mesure de les vérifier de leur côté, notamment pour s'assurer qu'il ne s'agissait pas d'une hallucination de la part de l'intelligence artificielle. Ce procédé a permis d'accélérer considérablement la validation par les équipes de Mozilla.

Quand l'IA passe à l'offensive
Pour mesurer les limites réelles de Claude, Anthropic a également cherché à savoir si le modèle pouvait aller plus loin. Logan Graham est responsable de la "Frontier Red Team" d'Anthropic, l'équipe chargée d'évaluer les risques posés par le modèle. Celui-ci a voulu non seulement trouver une faille, mais aussi écrire le code permettant de l'exploiter pour attaquer un système. Après plusieurs centaines de tentatives représentant environ 4 000 dollars de crédits API, Claude n'a réussi que dans deux cas, et uniquement sur une version de test du navigateur délibérément privée de son mode d'isolation conçu pour contenir les attaques. En conditions réelles, Firefox aurait bloqué ces tentatives.
Pour l'heure, il y a donc un écart entre la capacité à trouver des failles et celle à les exploiter. La question du double usage de Claude n'est d'ailleurs pas nouvelle. En novembre dernier, nous rapportions qu'Anthropic avait détecté l'utilisation de son modèle par des espions chinois pour orchestrer des attaques informatiques contre une trentaine d'organisations. Pour l'entreprise, il s'agissait alors du premier cas documenté d'attaque coordonnée à grande échelle sans intervention humaine. Il n'empêche que l'IA continue d'halluciner. Selon le Wall Street Journal, en janvier dernier, les responsables du projet Curl ont abandonné leur programme de bug bounty. Ils se sont retrouvés avec de faux rapports générés par des IA. Selon son développeur principal Daniel Stenberg, moins d'un signalement sur vingt soumis en 2025 s'était avéré réel.
- 100 % développé en interne
- Fiable, efficace et stable
- Fonctionnalités d'optimisation de l'interface et de l'expérience utilisateur