ChatGPT est de plus en plus utilisé dans le monde. Et le robot conversationnel coûte, chaque jour un peu plus cher à son propriétaire, OpenAI.
Former un modèle de langage puis faire vivre une intelligence artificielle générative comme ChatGPT peut coûter très cher. La société OpenAI, à l'origine de l'outil aux 200 millions d'utilisateurs, dépenserait quotidiennement plus de 700 000 dollars, soit environ 635 000 euros, pour assurer le fonctionnement du robot conversationnel. Ce montant est-il correct ?
Faire tourner la machine ChatGPT coûte cher
Cette « modeste » enveloppe de 700 000 dollars est évoquée par un analyste du bureau d'études SemiAnalysis, relayée par nos confrères américains de The Information, réputés sérieux. Dans une interview, Dylan Patel explique que le fonctionnement de ChatGPT coûterait bien, chaque jour, 700 000 dollars, justifiant la somme par les seuls coûts de fonctionnement de l'IA, comprenant la puissance de calcul et les serveurs, c'est-à-dire l'infrastructure.
Cette donnée jouit d'un certain réalisme, au vu de la popularité de ChatGPT et de son nombre de paramètres (175 milliards). Mais il est difficile de confirmer l'information, OpenAI ne communiquant peu, voire pas du tout, sur le sujet. Pour le coût exact de fonctionnement du modèle d'IA, on repassera donc.
Néanmoins, l'utilisation de commandes basées sur l'IA peut très vite chiffrer, certaines entreprises ayant déjà reconnu dépenser des centaines de milliers de dollars, chaque mois, pour générer des scénarios ou des contenus. Concernant ChatGPT, le coût réel quotidien de fonctionnement se situerait quelque part entre 500 000 et 1 million de dollars.
OpenAI essaie de trouver des alternatives plus douces sur le plan budgétaire
ChatGPT coûte donc très cher, et la facture doit même être encore plus élevée depuis la mise à disposition de GPT-4. Même si la dernière version du modèle de langage d'OpenAI est pour le moment réservée aux abonnés payants, peu nombreux, son exploitation nécessite encore plus de ressources, et ChatGPT traite une masse de données toujours plus grande : des millions et des millions chaque minute.
Mais OpenAI veut prendre les devants et trouver des alternatives, pour réduire ses coûts. Comment faire ? La société et Microsoft réfléchiraient à remplacer les GPU NVIDIA par des puces Athena, en développement depuis plusieurs années chez le géant américain.
Il faut dire que les IA conversationnelles nécessitent des puces spécialisées qui, une fois rattachées aux data centers, poussent son exploitant à des opérations d'entretien particulièrement coûteuses. Le marché de l'IA générative est toutefois loin d'être mature, et les évolutions (usages, entretien, progrès technologiques) sont encore difficiles à prévoir. Et les coûts aussi.
- Chat dans différentes langues, dont le français
- Générer, traduire et obtenir un résumé de texte
- Générer, optimiser et corriger du code
Source : t3n, The Information