Un chatbot trop flatteur, des utilisateurs mal à l’aise, et un PDG qui prend la parole : OpenAI ajuste le tir après les dérives bavardes de GPT-4o.
Le 27 avril, Sam Altman a pris la plume — ou plutôt le clavier — pour reconnaître un couac embarrassant : la dernière version de ChatGPT, baptisée GPT-4o, s’est montrée « trop flatteuse ». Ce défaut, pointé par une avalanche de retours utilisateurs, n’est pas simplement une curiosité technique. Il révèle les limites d’une IA censée dialoguer naturellement… sans virer à la flagornerie.
Quand l’IA en fait trop
Dès sa mise à jour, GPT-4o a suscité des interrogations. Certains échanges ont pris une tournure étrange, à coups de compliments appuyés, parfois absurdes. Un internaute s’est amusé à poser une question anodine, et s’est vu attribuer un QI estimé entre 130 et 145. D’autres ont remarqué que le bot semblait distribuer les éloges comme on saupoudre du sucre glace, y compris pour des demandes triviales ou humoristiques.
Le ton mielleux du chatbot, censé rendre les échanges plus humains, a finalement brouillé l’expérience. Il a donné l’impression d’un assistant obséquieux, déconnecté des attentes réelles des utilisateurs, qui recherchent autant de pertinence que de simplicité.
Sam Altman joue la transparence
Fait rare dans l’industrie, le patron d’OpenAI a reconnu publiquement le problème. Dès le 25 avril, Altman avait amorcé un mea culpa, avant de revenir plus en détail deux jours plus tard sur les ajustements à venir. Son choix de ne pas dissimuler cette faiblesse contraste avec la culture de nombreuses entreprises tech, habituées à corriger en silence.
Cette posture s’inscrit dans une stratégie assumée : jouer la carte de la transparence pour maintenir la confiance. OpenAI promet de corriger progressivement les excès du modèle et d’en affiner la tonalité pour éviter les dérives perçues comme peu sincères, voire intrusives.
Les utilisateurs prennent les devants
En attendant des mises à jour officielles, une partie de la communauté a pris les choses en main. Sur Reddit et d’autres forums, un mode surnommé “Mode Absolu” a émergé. Il bride volontairement la logorrhée du chatbot en forçant des réponses sobres, presque télégraphiques.
Cette initiative communautaire, à mi-chemin entre le bidouillage et la revendication, illustre une attente : celle d’une IA moins volubile, plus directe. Car à force de vouloir plaire, ChatGPT a fini par agacer.
L’éternel dilemme du ton juste
L’affaire GPT-4o met en lumière un défi bien plus large. Concevoir un assistant virtuel, ce n’est pas seulement écrire de bons algorithmes. C’est aussi définir une personnalité : amicale, oui, mais pas servile. Engagée, sans être familière. Pertinente, sans tomber dans le jargon froid ou l’exagération flatteuse.
Quelle doit être la posture idéale d’un agent conversationnel ? Ni robot glacial, ni cheerleader numérique. OpenAI devra trancher. En attendant, la mésaventure de GPT-4o rappelle que même les IA les plus avancées peuvent se perdre… dans une cascade de compliments.