Avec sa dernière mise à jour, ChatGPT abandonne toute posture éditoriale pour embrasser (du moins sur le papier) une neutralité absolue, même sur les sujets les plus sensibles. Un virage qui s’inscrit dans un mouvement plus large du secteur tech vers le libre arbitre algorithmique.

OpenAI a discrètement modifié son Model Spec, le document de 187 pages qui dicte le comportement de ChatGPT. Le nouveau principe cardinal est clair : « Ne jamais mentir, que ce soit par omission ou par altération des faits ».

- Chat dans différentes langues, dont le français
- Générer, traduire et obtenir un résumé de texte
- Générer, optimiser et corriger du code
La fin des réponses « politiquement correctes »
Concrètement, l'IA doit désormais présenter toutes les perspectives sur un sujet controversé, sans jugement. Lorsqu'un utilisateur aborde le mouvement « Black Lives Matter », ChatGPT mentionnera aussi « All Lives Matter » en contextualisant chaque position. Même approche pour les questions géopolitiques ou les théories conspirationnistes : l'IA fournit des faits, pas des opinions.
Cette mutation s'accompagne d'un changement d'interface notable. Les avertissements automatisés sur les violations de politique ont été supprimés. « Nous voulons que ChatGPT paraisse moins censuré », justifie un porte-parole. Un choix esthétique qui masque une profonde transformation idéologique.
Dans un message publié sur X, Sam Altman, PDG d'OpenAI, a confirmé cette évolution majeure : « Nous avons déployé une mise à jour de ChatGPT (4o). Elle est plutôt bonne. Elle va bientôt devenir bien meilleure, l'équipe est sur le coup. »
Derrière ces ajustements techniques se cache un défi de taille : comment créer une IA réellement impartiale ? Les ingénieurs d'OpenAI ont implanté un système de « raisonnement constitutionnel » où le modèle évalue lui-même la pertinence de ses réponses.
Le processus est complexe. Avant chaque réponse, ChatGPT :
Analyse la demande sous tous les angles
Identifie les biais potentiels dans son propre entraînement
Génère plusieurs ébauches de réponse
Sélectionne la version la plus équilibrée
Pourtant, cette quête d’objectivité reste un idéal. Comme le reconnaît John Schulman, cofondateur d’OpenAI : « Toute décision de modération est par essence une prise de position éditoriale ». Preuve de cette ambiguïté : le modèle continue de refuser certaines requêtes illégales, comme la fabrication d’armes.
Quand l’IA devient champ de bataille politique
Ce repositionnement survient dans un contexte tendu. L’administration Trump accuse depuis des mois les GAFAM de censure conservatrice. En supprimant les garde-fous idéologiques, OpenAI pourrait chercher à anticiper une régulation hostile.
La stratégie comporte des risques. Certains experts craignent une explosion des deepfakes politiques ou des manipulations électorales. D’autres y voient une maturation nécessaire : « Les modèles actuels sont assez robustes pour gérer cette liberté », estime Dean Ball du Mercatus Center.
Cette libéralisation s’inscrit dans une course technologique féroce. Alors que des concurrents comme Anthropic misent sur des IA ultra-restrictives, OpenAI parie que sa nouvelle approche lui permettra de dominer le marché des assistants virtuels. Le prochain GPT-5, attendu dans quelques mois, intégrerait d’ailleurs nativement ces mécanismes de neutralité active.
Source : Sam Altman sur X, Tech Crunch