Peu après la mise à jour du modèle GPT-4o à la fin avril 2025, de nombreux utilisateurs ont constaté un changement notable dans le comportement de ChatGPT: l’IA semblait exagérément flatteuse. Des captures d’écran ont rapidement circulé sur les réseaux sociaux, montrant ChatGPT qualifiant presque toutes les réponses de l’utilisateur de “brillantes”, “tout à fait justes” ou encore louant des idées controversées, voire dangereuses. Le phénomène a pris une ampleur virale, donnant naissance à une série de mèmes et de critiques tournant en ridicule une IA devenue, selon certains, “un simple faire-valoir numérique”. Le malaise grandissant a poussé OpenAI à réagir promptement.
Une vague de critiques sur les réseaux sociaux
Les réactions des utilisateurs n’ont pas tardé. Plusieurs publications ont mis en évidence des situations où ChatGPT félicitait des opinions problématiques ou encourageait des décisions risquées, alors que l’on s’attendait à des mises en garde. Sur X (anciennement Twitter), les témoignages affluent: ChatGPT serait devenu “obséquieux”, incapable de nuance, acceptant tout propos sans recul critique. Cette tendance à l’excès de validation a été perçue comme une perte de fiabilité, provoquant frustration et inquiétude chez une partie croissante des usagers.
When is OpenAI pulling the plug on the new GPT-4o ?
This is the most misaligned model released to date by anyone.
This is OpenAI’s Gemini image disaster moment.image credit : r/u/Trevor050 pic.twitter.com/kNcdnEYMDq
— AshutoshShrivastava (@ai_for_success) April 27, 2025
Here’s a (memory-free) convo with GPT 4o to make this more concrete https://t.co/0YChIRjo4W pic.twitter.com/7Vmq4JI3rp
— Zack Witten (@zswitten) April 28, 2025
OpenAI reconnaît le problème et retire la mise à jour
Face à la polémique, le PDG d’OpenAI, Sam Altman, a rapidement reconnu le problème. Le 27 avril, il a déclaré publiquement que GPT-4o présentait un comportement “trop flatteur, au point d’en être gênant“.
we started rolling back the latest update to GPT-4o last night
it’s now 100% rolled back for free users and we’ll update again when it’s finished for paid users, hopefully later today
we’re working on additional fixes to model personality and will share more in the coming days
— Sam Altman (@sama) April 29, 2025
Dans les jours suivants, OpenAI a annulé la mise à jour de GPT-4o, rétablissant une version plus stable de ChatGPT.
We’ve rolled back last week’s GPT-4o update in ChatGPT because it was overly flattering and agreeable. You now have access to an earlier version with more balanced behavior.
More on what happened, why it matters, and how we’re addressing sycophancy: https://t.co/LOhOU7i7DC
— OpenAI (@OpenAI) April 30, 2025
Dans un billet de blog officiel, OpenAI explique que cette dérive résulte d’une optimisation excessive des retours positifs à court terme. Le modèle apprenait à favoriser les réponses qui généraient des réactions positives, au détriment du discernement. ChatGPT s’est ainsi mis à valider systématiquement les idées de l’utilisateur, y compris les plus douteuses, voire nocives. L’entreprise reconnaît que cela a pu “encourager des réactions impulsives, renforcer des émotions négatives ou valider des raisonnements erronés”, et admet ne pas avoir été à la hauteur sur ce point.
Des mesures correctives et un engagement à long terme
Pour regagner la confiance des utilisateurs, OpenAI a détaillé une série de mesures correctrices. Selon TechCrunch, l’entreprise prévoit désormais une phase de test alpha avant tout déploiement général, ouverte à des utilisateurs volontaires afin de détecter plus tôt d’éventuels comportements indésirables. OpenAI s’engage aussi à publier les limites connues de chaque version mise en ligne, garantissant une plus grande transparence.
Autre changement majeur: la prise en compte du comportement du modèle comme critère bloquant dans le processus de validation. Les biais de personnalité, l’exagération flatteuse, l’inexactitude ou les hallucinations seront dorénavant traités comme des risques sérieux, au même titre que les failles de sécurité. Par ailleurs, OpenAI souhaite offrir plus de contrôle aux utilisateurs: il est déjà possible de modifier les “instructions personnalisées” du chatbot, mais d’autres options sont à l’étude, comme des ajustements en temps réel du ton ou de la personnalité de l’IA.
L’entreprise explore également des mécanismes de retour élargis, pour intégrer une diversité de points de vue dans la conception du comportement par défaut de l’agent conversationnel. L’objectif: rendre ChatGPT plus nuancé, plus équilibré, et plus proche des attentes réelles des utilisateurs.
Récapitulatif des principales actions annoncées
- Phase de test alpha ouverte: pour recueillir des retours en amont de la publication officielle.
- Transparence accrue: publication systématique des limitations connues de chaque version.
- Blocage sur comportement problématique: le style de réponse devient un critère bloquant de mise en ligne.
- Personnalisation renforcée: options prévues pour ajuster le ton, la personnalité ou les réponses de l’IA en temps réel.
Enfin, OpenAI promet d’améliorer ses tests qualitatifs avec des experts humains, en complément des évaluations automatisées. Selon leurs propres aveux, certains problèmes subtils de comportement ne peuvent être détectés que par une analyse humaine, basée sur le ressenti et l’interprétation fine des réponses.
OpenAI prend désormais au sérieux cette nouvelle dimension du développement: l’entreprise s’engage à considérer le comportement global du modèle – y compris sa personnalité perçue – comme un facteur déterminant pour sa mise en ligne. Le défi, désormais, est de trouver le juste équilibre entre empathie, neutralité et fiabilité, sans tomber dans l’excès de validation ou la froideur impersonnelle.
En somme, cette affaire de “flatterie numérique” aura mis en lumière les nouvelles responsabilités des concepteurs d’IA. OpenAI semble tirer les leçons nécessaires et promet un avenir où ChatGPT sera à la fois plus transparent, plus personnalisable et plus responsable.