ChatGPT

Les IA telles que ChatGPT pourraient coûter beaucoup plus cher à faire fonctionner que les moteurs de recherche.

Microsoft a réussi un joli coup avec l'intégration rapide à son moteur de recherche d'un chatbot dérivé de ChatGPT. Mais si le public voit maintenant la firme de Redmond comme le numéro 1 dans ce domaine d'avenir, la question du coût de fonctionnement de la technologie va rapidement se poser.

Ça coûte 10 fois plus cher

Google a, pour une fois, un train de retard dans le développement de l'IA, et voit Microsoft prendre le large. Mais si le géant de la tech presse fortement ses équipes pour rapidement rattraper la firme fondée par Bill Gates, il devrait à l'avenir rencontrer d'autres problèmes, plus prosaïques. Des problèmes qui peuvent se résumer en un mot qui parle à tout le monde : argent.

En effet, faire fonctionner un chatbot coûte cher, comme l'avait déjà fait remarquer le patron d'OpenAI Sam Altman. Une affirmation que vient de confirmer le président du conseil d'administration d'Alphabet, John Hennessy. D'après ce dernier, l'utilisation d'une IA pour une recherche coûterait 10 fois plus cher qu'une même activité utilisant des mots clés sur un moteur de recherche. Une explosion des coûts qui ne pourrait pas être compensée par les revenus publicitaires.

Plus de puces électroniques et d'électricité

La banque Morgan Stanley a, de son côté, essayé de quantifier les coûts supplémentaires potentiellement induits par la mise en place d'un chatbot comme ChatGPT chez Google. Ces frais augmenteraient en fonction du nombre de mots produits par l'IA pour une réponse, mais aussi selon le pourcentage de recherches effectuées sur Google qui seraient traitées par le chatbot, et non par le moteur de recherche traditionnel. Et ces dépenses supplémentaires monteraient facilement à plusieurs milliards de dollars.

© Morgan Stanley/Reuters
© Morgan Stanley/Reuters

La raison ? L'IA, contrairement au moteur de recherche et son index, travaille par « inférence ». En reproduisant avec son réseau de neurones le fonctionnement du cerveau humain, elle infère la réponse à une question en faisant appel à un entraînement précédent. Une méthode qui exige beaucoup plus de puissance de calcul, et qui demande donc des investissements additionnels très coûteux en puces électroniques, tout en allongeant la facture électrique. Et le souci devrait, « au pire » selon John Hennessy, durer encore quelques années.

  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
10 / 10

Source : Reuters