Derrière la promesse d'une IA anti-fraude se cachait une main-d'œuvre humaine bon marché. L'ancien dirigeant d'une entreprise technologique fait face à de lourdes accusations pour avoir trompé investisseurs et clients sur la nature réelle de son produit phare.

L'intelligence artificielle est sur toutes les lèvres, promettant d'automatiser et d'optimiser de nombreuses tâches complexes. Cependant, cet engouement crée aussi des opportunités pour des acteurs moins scrupuleux, prompts à surfer sur la vague technologique sans en maîtriser réellement les fondements. Une affaire récente illustre parfaitement ce risque : le fondateur d'une entreprise technologique est accusé d'avoir orchestré une fraude en prétendant utiliser une IA sophistiquée, alors qu'il recourait en réalité à des travailleurs humains basés à l'étranger.
La façade technologique s'effondre
Au cœur de l'affaire se trouve Paul Roberts, l'ancien PDG et président de la société technologique Kubient. L'entreprise mettait en avant une solution baptisée KAI (Kubient Artificial Intelligence), présentée comme un outil avancé basé sur l'IA, capable de détecter et de prévenir la fraude publicitaire dans l'écosystème numérique. Cette technologie était le fer de lance de Kubient, censée la différencier de ses concurrents et justifier son attractivité auprès des investisseurs.
Or, selon les accusations portées par le procureur du district sud de New York et la SEC (le gendarme boursier américain), la réalité était tout autre. Plutôt que de reposer sur des algorithmes complexes, une partie significative du travail attribué à l'IA KAI aurait été effectuée manuellement par des sous-traitants situés à l'étranger. Cette dissimulation aurait permis à l'entreprise de présenter une technologie plus avancée qu'elle ne l'était, trompant ainsi la confiance de ses clients et partenaires.
Les charges ne s'arrêtent pas à la simple description erronée du produit. Paul Roberts est également accusé d'avoir mis en place un « schéma délibéré » pour gonfler artificiellement les revenus de Kubient. L'entreprise aurait conclu des contrats de services réciproques avec une autre entité, chacun d'une valeur de 1,3 million de dollars. Kubient aurait enregistré ces sommes comme revenus, bien qu'aucun service réel n'ait été échangé, notamment ceux liés à la détection de fraude par KAI. Ces revenus fictifs auraient été déclarés dans des documents officiels, notamment lors de l'introduction en bourse de Kubient (qui a levé 12,5 millions de dollars) et d'une offre secondaire ultérieure (20 millions de dollars). Les procureurs soutiennent que ces opérations financières n'auraient pas été possibles sans les fausses déclarations concernant KAI.
08 avril 2025 à 09h46
Un écosystème technologique confronté à la duperie
Cette affaire met en lumière le phénomène de l'« AI washing », une pratique consistant pour une entreprise à exagérer ou à mentir sur l'utilisation de l'intelligence artificielle dans ses produits ou services pour attirer les investissements et les clients. Les autorités de régulation, comme la SEC, ont clairement indiqué qu'elles surveillaient de près ces dérives. Ce n'est d'ailleurs pas la première fois que de telles accusations sont portées ; le fondateur d'une autre entreprise, Joonko Diversity, a également fait face à des poursuites similaires pour des allégations mensongères concernant les capacités IA de sa plateforme de recrutement.
La tromperie liée à l'IA ne se limite pas aux fausses promesses commerciales. D'autres formes d'abus émergent, exploitant la puissance de ces technologies à des fins malveillantes. Les arnaques utilisant des deepfakes, ces hypertrucages vidéo ou audio ultraréalistes, se multiplient, comme l'illustre cette affaire où un employé de finance a été trompé par de faux dirigeants recréés par IA, entraînant une perte de plus de 25 millions de dollars. Par ailleurs, le recours à l'IA générative pour créer de fausses identités ou falsifier des candidatures devient une préoccupation majeure dans le processus de recrutement, notamment pour les postes en télétravail. Des individus utilisent ces outils pour passer des entretiens d'embauche sous de fausses apparences ou pour générer des réponses, rendant la détection de la fraude plus complexe.
Face à ces dérives, la méfiance grandit légitimement. Les investisseurs et les entreprises sont appelés à faire preuve de plus de diligence raisonnable pour vérifier la réalité des capacités IA revendiquées. Cette affaire souligne l'importance cruciale de la transparence et de l'éthique dans le développement et la commercialisation des technologies d'IA. Cependant, il est essentiel de distinguer ces pratiques frauduleuses des véritables avancées dans le domaine. De nombreuses entreprises développent réellement des agents IA performants pour la détection de fraude, utilisant des techniques de machine learning, d'analyse de données en temps réel et de détection d'anomalies pour protéger les systèmes financiers. Le rachat récent de la startup Alterya, spécialisée dans la détection de fraudes via des agents IA, par le géant de l'analyse blockchain Chainalysis pour 150 millions de dollars, témoigne de l'intérêt et de la valeur accordée aux solutions IA authentiques et efficaces.
Source : Engadget