© Shutterstock
© Shutterstock

OpenAI lance un bug bounty pour ChatGPT, afin de repérer plus rapidement les éventuels bugs de son intelligence artificielle.

ChatGPT démarre une nouvelle étape de sa vie. Après l'émerveillement face aux capacités de sa toute nouvelle technologie, OpenAI retourne à la réalité. L'entreprise souhaite maintenant faire de son intelligence artificielle un outil bien plus fiable, et ce, notamment après plusieurs fuites embarrassantes. Et pour ça, la société américaine lance son bug bounty.

Jusqu'à 20 000 dollars de récompense

Quand on veut améliorer une technologie, on peut compter évidemment sur les employés de la société, mais aussi sur des personnes extérieures qui peuvent apporter leur expertise. Dans le domaine des logiciels, il existe ainsi les « bug bounty », programmes à travers lesquels les développeurs sont récompensés par une prime s'ils sont capables de trouver des failles dans un logiciel, et que l'on retrouve chez tous les géants comme Microsoft, Meta, ou même Twitter.

Et le dernier en date devrait attirer de nombreux regards au niveau international. En effet, OpenAI vient de lancer son propre bug bounty afin de faire remonter les différentes failles de ChatGPT, un agent conversationnel utilisé par plus de 100 millions de personnes sur la planète. Les récompenses proposées vont de 200 dollars pour les failles de faible gravité jusqu'à 20 000 dollars pour les plus grosses découvertes.

Il y a de l'argent à gagner avec ChatGPT © Pixabay
Il y a de l'argent à gagner avec ChatGPT © Pixabay

Une exception pour la sécurité des modèles

« Nous vous invitons à signaler les vulnérabilités, les bugs ou les failles de sécurité que vous découvrez dans nos systèmes. En partageant vos découvertes, vous jouerez un rôle crucial pour rendre notre technologie plus sûre pour tout le monde », a ainsi expliqué OpenAI.

Mais les développeurs à la recherche de primes devront se concentrer sur les failles individuelles existant autant du côté de ChatGPT que de son API. Les problèmes de sécurité liés aux modèles, eux, ne sont pas compris par le programme, et devront être communiqués via un formulaire particulier.

Pour une raison simple, selon OpenAI : « Les problèmes de sécurité des modèles ne s'intègrent pas bien dans un programme de primes aux bugs, car il ne s'agit pas de bugs individuels et discrets qui peuvent être corrigés directement. La résolution de ces problèmes nécessite souvent des recherches approfondies et une approche plus large. »

  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
10 / 10