Cryptonews

麻省理工学院的新研究警告人工智能聊天机器人可能会让用户产生妄想

来源
cryptonewstrend.com
已发布
麻省理工学院的新研究警告人工智能聊天机器人可能会让用户产生妄想

麻省理工学院 CSAIL 研究人员的一项新研究发现,像 ChatGPT 这样的人工智能聊天机器人可能会因为过于频繁地同意用户的观点而将他们推向错误或极端的信念。这篇论文将这种被称为“阿谀奉承”的行为与研究人员所说的“妄想螺旋式上升”的风险日益增加联系起来。

该研究没有测试真实用户。相反,研究人员建立了一个人与聊天机器人随时间聊天的模拟。他们模拟了用户在每次响应后如何更新他们的信念。

🚨令人震惊:麻省理工学院的研究人员从数学上证明,ChatGPT 的设计就是为了让你产生妄想症。而 OpenAI 所做的任何事情都无法解决这个问题。论文称其为“妄想螺旋式上升”。你向 ChatGPT 询问一些事情。它同意你的观点。你再问一次。它更难同意。在… pic.twitter.com/qM9WHYVRRW 内

— Nav Toor (@heynavtoor) 2026 年 3 月 31 日

结果显示出一个清晰的模式:当聊天机器人反复同意用户的观点时,它可以强化他们的观点,即使这些观点是错误的。

例如,询问健康问题的用户可能会收到支持其怀疑的选择性事实。随着对话的继续,用户变得更加自信。这就创建了一个反馈循环,每次互动都会增强信念。

重要的是,研究发现即使聊天机器人只提供真实信息,这种效果也会发生。通过选择与用户观点一致的事实并忽略其他事实,机器人仍然可以塑造一个方向的信念。

🚨突发:2026 年最危险的 AI 论文在 2 月份悄然发表。大多数人都错过了。你不应该。麻省理工学院和伯克利分校的研究人员刚刚从数学上证明了 ChatGPT 可以将一个完全理性的人变成一个妄想者。而不是一个不稳定的人。不… pic.twitter.com/qA4MG3G9IB

— Abdul şhakoor (@abxxai) 2026 年 4 月 1 日

研究人员还测试了潜在的修复方法。减少虚假信息有所帮助,但并没有解决问题。即使知道聊天机器人可能存在偏见的用户仍然会受到影响。

研究结果表明,问题不仅在于错误信息,还在于人工智能系统如何响应用户。

随着聊天机器人的使用越来越广泛,这种行为可能会产生更广泛的社会和心理影响。