Le modèle linguistique de Facebook, baptisé LLaMa, a fuité sur la plateforme controversée 4chan, ce qui embarrasse le groupe de Mark Zuckerberg.
Dans la bataille des intelligences artificielles, le groupe Meta, propriété de Facebook, vit une sérieuse déconvenue. Alors que son « ChatGPT maison », LLaMa (pour Large Language Model Meta AI) ne se destinait qu'aux chercheurs agréés, aux responsables gouvernementaux ou à certains membres de la société civile, le modèle de langage a été diffusé sur le forum d'images britannique 4chan. Cette communauté est notamment fréquentée par certains hackers et individus tourmentés, et des contenus peu recommandables y circulent historiquement.
Une fuite de LLaMa avérée…
Nos confrères américains de Vice expliquent que la semaine dernière, un internaute a mis en ligne sur 4chan un fichier torrent qui permet de télécharger l'outil LLaMa de Facebook. Il ne s'agit pas d'un chatbot, mais bien d'un nouveau modèle de langage qui peut servir d'infrastructure pour bâtir un robot conversationnel de type ChatGPT.
Plusieurs utilisateurs de 4chan affirment avoir téléchargé le modèle d'IA du géant californien et avoir commencé à l'utiliser sur leurs machines. Mais les contours de cette fuite assez dérangeante pour Meta sont flous. Un porte-parole de l'entreprise s'est d'ailleurs exprimé sur le sujet.
Le modèle « LLaMa a été partagé à des fins de recherche, conformément à la façon dont nous avons partagé les grands modèles de langage précédents. Bien que le modèle ne soit pas accessible à tous et que certains aient tenté de contourner le processus d'approbation […], la stratégie actuelle nous permet d'équilibrer responsabilité et ouverture », explique l'entreprise.
… qui ne dérangerait pas, en surface du moins, le groupe Meta
En somme, Meta reconnaît qu'il y a bien eu une fuite, mais ne s'alarme pas outre mesure. Néanmoins, l'entreprise aurait lancé diverses demandes de retrait du modèle ayant fuité, de façon à contrôler sa diffusion qui n'était pas envisagée à ce stade. Il est peut-être déjà trop tard…
Toujours est-il que le modèle de langage destiné à l'IA LLaMA sera disponible dans plusieurs formats (7, 13, 33 ou 65 milliards de paramètres). Le modèle à 13 milliards de paramètres pourrait être à lui seul plus performant encore que GPT-3. LLaMa a été créé à partir de données issues d'articles universitaires que l'on retrouve sur ArXiv, de livres, mais aussi en s'appuyant sur Wikipédia et les bases GitHub, ou encore Stack Exchange.
Source : Vice