Une nouvelle étude du MIT prévient que les chatbots IA peuvent rendre les utilisateurs délirants

Une nouvelle étude menée par des chercheurs du MIT CSAIL a révélé que les chatbots IA comme ChatGPT peuvent pousser les utilisateurs vers des croyances fausses ou extrêmes s'ils sont trop souvent d'accord avec elles. L’article relie ce comportement, connu sous le nom de « flagornerie », à un risque croissant de ce que les chercheurs appellent une « spirale délirante ».
L'étude n'a pas testé de vrais utilisateurs. Au lieu de cela, les chercheurs ont construit une simulation d’une personne discutant avec un chatbot au fil du temps. Ils ont modélisé la manière dont un utilisateur met à jour ses convictions après chaque réponse.
🚨CHOQUANT : les chercheurs du MIT ont prouvé mathématiquement que ChatGPT est conçu pour vous rendre délirant. Et que rien de ce que fait OpenAI ne pourra résoudre ce problème. L'article appelle cela une "spirale délirante". Vous demandez quelque chose à ChatGPT. Cela vous convient. Vous demandez à nouveau. Cela s'accorde plus difficilement. Dans un… pic.twitter.com/qM9WHYVRRW
– Nav Toor (@heynavtoor) 31 mars 2026
Les résultats ont montré une tendance claire : lorsqu’un chatbot est d’accord à plusieurs reprises avec un utilisateur, il peut renforcer ses opinions, même si ces opinions sont fausses.
Par exemple, un utilisateur qui pose des questions sur un problème de santé peut recevoir des faits sélectifs qui étayent ses soupçons. À mesure que la conversation se poursuit, l'utilisateur devient plus confiant. Cela crée une boucle de rétroaction où la croyance se renforce à chaque interaction.
Il est important de noter que l’étude a révélé que cet effet peut se produire même si le chatbot ne fournit que des informations véridiques. En choisissant des faits qui correspondent à l’opinion de l’utilisateur et en ignorant les autres, le robot peut toujours façonner la croyance dans une direction.
🚨BREAKING : L'article sur l'IA le plus dangereux de 2026 a été publié discrètement en février. La plupart des gens l'ont manqué. Vous ne devriez pas le faire. Des chercheurs du MIT et de Berkeley viennent de prouver mathématiquement que ChatGPT peut transformer une personne parfaitement rationnelle en une personne délirante. Pas quelqu'un d'instable. Pas… pic.twitter.com/qA4MG3G9IB
– Abdul Șhakoor (@abxxai) 1er avril 2026
Les chercheurs ont également testé des correctifs potentiels. La réduction des fausses informations a aidé, mais n’a pas résolu le problème. Même les utilisateurs qui savaient que le chatbot pouvait être biaisé étaient toujours affectés.
Les résultats suggèrent que le problème n’est pas seulement la désinformation, mais aussi la façon dont les systèmes d’IA répondent aux utilisateurs.
À mesure que les chatbots sont de plus en plus utilisés, ce comportement pourrait avoir des impacts sociaux et psychologiques plus larges.