© Les Échos
© Les Échos

OpenAI vient d'annoncer la sortie de la nouvelle version de son langage de modèle, GPT-4 !

ChatGPT, le chatbot qui a bénéficié d'une vague de popularité inédite à travers la planète, était basé sur le modèle de langage GPT-3.5. OpenAI introduit aujourd'hui une mise à jour qui affine à la fois les capacités de la machine, tout en permettant l'introduction de nouveautés assez étonnantes.

25 000 mots is the new limit

C'est une annonce qui devait obligatoirement avoir un écho sur toute la planète. OpenAI, la compagnie à la base de ChatGPT, vient d'officialiser la version GPT-4 de son nouveau langage de modèle. Un nouveau produit pour le moment disponible en exclusivité pour une partie du public, puisqu'il faut être abonné au programme ChatGPT Plus pour pouvoir mettre la main dessus.

Mais pour ceux qui sont sur la liste des VIP, un nouveau monde s'ouvre. L'IA a en effet vu ses capacités être fortement accrues, et d'abord au niveau du prompt (le texte entré comme requête au sein du chatbot). GPT-4 est ainsi maintenant apte à analyser des textes proposés par l'utilisateur, pouvant aller jusqu'à 25 000 mots !

Après l'écrit, l'image !

Mais la fonctionnalité qui va sûrement faire le plus parler sera sûrement la reconnaissance d'image de GPT-4. Grâce à la collaboration avec une start-up du nom de Be My Eyes, GPT-4 va pouvoir répondre à des prompts contenant écrits et images, et répondre après analyse de ces dernières. « Il peut accepter de manière flexible des entrées qui intercalent des images et du texte de manière arbitraire, un peu comme un document », résume le cofondateur d'OpenAI Greg Brockman.

Afin d'illustrer le progrès du langage de modèle, devenu « multimodal », ce dernier a entré dans la machine un croquis détaillant un projet de site web. En retour, GPT-4 a produit une réponse détaillée expliquant les étapes à suivre pour réaliser ce site. Contrairement au reste de la nouvelle version, cette option n'est pour le moment pas disponible, et continue d'être testée au sein de Be My Eyes.

De nombreux partenaires déjà sur le coup

Pourtant, même sans l'accès à cette technologie vers laquelle tous les regards se portent de prime abord, les partenariats avec OpenAI ont fleuri afin d'utiliser GPT-4. Ainsi, le spécialiste des paiements en ligne Stripe a intégré le modèle de langage dans ses services dans le but de répondre aux besoins d'assistance de ses clients professionnels. L'IA sera aussi utilisée pour repérer de potentiels escrocs.

Duolingo, l'application bien connue d'apprentissage de langues étrangères, est elle aussi sur le coup et va proposer GPT-4 à travers un nouvel abonnement, Duolingo Max. L'app utilise depuis longtemps déjà l'intelligence artificielle, mais GPT-4 devrait lui permettre de faire un bond en avant. « Il y avait des lacunes dans le parcours de l'apprenant que nous voulions combler : la pratique de la conversation et le retour d'information contextuel sur les erreurs », explique le chef de produit Edwin Bodge.

De quoi amener un peu plus d'argent encore dans les caisses de l'entreprise. Car si elle bénéficie du soutien de la firme fondée par Bill Gates, elle développe aussi une technologie dont les coûts de fonctionnement sont particulièrement élevés.

Plus sûr et plus factuel

Enfin, et c'était sûrement une priorité chez OpenAI après les nombreuses controverses sur la tendance des chatbot à la désinformation, GPT-4 a été rendu plus « sûr ». Un travail qui aurait pris 6 mois selon OpenAI, et qui permet à l'entreprise partenaire de Microsoft d'offrir des résultats de meilleure qualité.

Ainsi, GPT-4 serait 82 % moins susceptible que GPT-3.5 de répondre à des demandes de contenus non autorisés, par exemple coder un malware. De même, l'exactitude de la machine a été revue à la hausse, puisqu'elle serait maintenant 40 % plus susceptible que la version précédente d'offrir une réponse factuelle à une demande.

Pour autant, la tendance de l'IA à « halluciner » lorsqu'elle ne connaît pas la réponse n'a pour le moment pas été totalement éliminée. Justifiant le rappel final d'OpenAI : « Il convient d'être très prudent lors de l'utilisation des résultats d'un modèle linguistique, en particulier dans les contextes à fort enjeu ».