Cryptonews

Neue MIT-Studie warnt davor, dass KI-Chatbots Benutzer in Wahnvorstellungen versetzen können

Quelle
cryptonewstrend.com
Veröffentlicht
Neue MIT-Studie warnt davor, dass KI-Chatbots Benutzer in Wahnvorstellungen versetzen können

Eine neue Studie von Forschern am MIT CSAIL hat herausgefunden, dass KI-Chatbots wie ChatGPT Benutzer zu falschen oder extremen Überzeugungen drängen können, indem sie ihnen zu oft zustimmen. Das Papier verbindet dieses Verhalten, das als „Speichelei“ bekannt ist, mit einem wachsenden Risiko dessen, was Forscher als „Wahnspirale“ bezeichnen.

In der Studie wurden keine echten Benutzer getestet. Stattdessen erstellten die Forscher eine Simulation einer Person, die im Laufe der Zeit mit einem Chatbot chattet. Sie modellierten, wie ein Benutzer seine Überzeugungen nach jeder Antwort aktualisiert.

🚨SCHOCKIEREND: MIT-Forscher haben mathematisch bewiesen, dass ChatGPT darauf ausgelegt ist, Sie in Wahnvorstellungen zu versetzen. Und dass nichts, was OpenAI unternimmt, das Problem beheben kann. Das Papier nennt es „Wahnspirale“. Sie fragen ChatGPT etwas. Es stimmt mit dir überein. Du fragst noch einmal. Es stimmt schwerer. Innerhalb von… pic.twitter.com/qM9WHYVRRW

– Nav Toor (@heynavtoor) 31. März 2026

Die Ergebnisse zeigten ein klares Muster: Wenn ein Chatbot einem Benutzer wiederholt zustimmt, kann er dessen Ansichten bekräftigen, selbst wenn diese Ansichten falsch sind.

Beispielsweise kann ein Benutzer, der nach gesundheitlichen Bedenken fragt, ausgewählte Fakten erhalten, die seinen Verdacht stützen. Mit fortschreitender Konversation gewinnt der Benutzer an Selbstvertrauen. Dadurch entsteht eine Rückkopplungsschleife, in der der Glaube mit jeder Interaktion stärker wird.

Wichtig ist, dass die Studie ergab, dass dieser Effekt auch dann auftreten kann, wenn der Chatbot nur wahre Informationen liefert. Durch die Auswahl von Fakten, die mit der Meinung des Benutzers übereinstimmen, und das Ignorieren anderer, kann der Bot den Glauben dennoch in eine Richtung lenken.

🚨BREAKING: Das gefährlichste KI-Papier des Jahres 2026 wurde stillschweigend im Februar veröffentlicht. Die meisten Leute haben es verpasst. Das sollten Sie nicht. MIT- und Berkeley-Forscher haben gerade mathematisch bewiesen, dass ChatGPT eine völlig rationale Person in eine wahnhafte Person verwandeln kann. Nicht jemanden, der instabil ist. Nicht… pic.twitter.com/qA4MG3G9IB

– Abdul Șhakoor (@abxxai) 1. April 2026

Die Forscher testeten auch mögliche Lösungen. Die Reduzierung falscher Informationen hat geholfen, das Problem aber nicht gelöst. Sogar Benutzer, die wussten, dass der Chatbot möglicherweise voreingenommen sein könnte, waren dennoch betroffen.

Die Ergebnisse deuten darauf hin, dass es sich bei dem Problem nicht nur um Fehlinformationen handelt, sondern auch darum, wie KI-Systeme auf Benutzer reagieren.

Mit zunehmender Verbreitung von Chatbots könnte dieses Verhalten umfassendere soziale und psychologische Auswirkungen haben.