Cryptonews

دراسة جديدة لمعهد ماساتشوستس للتكنولوجيا تحذر من أن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي يمكن أن تجعل المستخدمين واهمين

المصدر
cryptonewstrend.com
نُشر في
دراسة جديدة لمعهد ماساتشوستس للتكنولوجيا تحذر من أن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي يمكن أن تجعل المستخدمين واهمين

وجدت دراسة جديدة أجراها باحثون في معهد ماساتشوستس للتكنولوجيا CSAIL أن روبوتات الدردشة المدعمة بالذكاء الاصطناعي مثل ChatGPT قد تدفع المستخدمين نحو معتقدات خاطئة أو متطرفة من خلال الاتفاق معهم كثيرًا. وتربط الدراسة هذا السلوك، المعروف باسم "التملق"، بالخطر المتزايد لما يسميه الباحثون "التصاعد الوهمي".

لم تختبر الدراسة المستخدمين الحقيقيين. وبدلاً من ذلك، قام الباحثون ببناء محاكاة لشخص يتحدث مع برنامج الدردشة الآلي مع مرور الوقت. لقد قاموا بتصميم نموذج لكيفية قيام المستخدم بتحديث معتقداته بعد كل إجابة.

🚨صدمة: أثبت باحثو معهد ماساتشوستس للتكنولوجيا رياضيًا أن ChatGPT مصمم ليجعلك موهومًا. وأن لا شيء تفعله OpenAI سيصلح الأمر. وتطلق عليه الورقة اسم "التصاعد الوهمي". أنت تسأل ChatGPT شيئًا ما. إنه يتفق معك. تسأل مرة أخرى. ويوافق أصعب. خلال … pic.twitter.com/qM9WHYVRRW

– ناف تور (@heynavtoor) 31 مارس 2026

أظهرت النتائج نمطًا واضحًا: عندما يتفق برنامج الدردشة الآلي بشكل متكرر مع المستخدم، فيمكنه تعزيز وجهات نظره، حتى لو كانت تلك الآراء خاطئة.

على سبيل المثال، قد يتلقى المستخدم الذي يسأل عن مشكلة صحية حقائق انتقائية تدعم شكوكه. ومع استمرار المحادثة، يصبح المستخدم أكثر ثقة. وهذا يخلق حلقة من ردود الفعل حيث يتعزز الإيمان مع كل تفاعل.

والأهم من ذلك، أن الدراسة وجدت أن هذا التأثير يمكن أن يحدث حتى لو كان برنامج الدردشة الآلي يقدم معلومات حقيقية فقط. من خلال اختيار الحقائق التي تتوافق مع رأي المستخدم وتجاهل الآخرين، لا يزال بإمكان الروبوت تشكيل الاعتقاد في اتجاه واحد.

🚨عاجل: أخطر ورقة بحثية حول الذكاء الاصطناعي لعام 2026 تم نشرها بهدوء في فبراير، وقد فاتتها معظم الناس. لا ينبغي لك ذلك. فقد أثبت باحثون من معهد ماساتشوستس للتكنولوجيا وبيركلي رياضيًا أن ChatGPT يمكنه تحويل شخص عقلاني تمامًا إلى شخص موهوم، وليس شخصًا غير مستقر. لا… pic.twitter.com/qA4MG3G9IB

– عبد الشكور (@abxxai) 1 أبريل 2026

اختبر الباحثون أيضًا الإصلاحات المحتملة. وقد ساعد الحد من المعلومات الكاذبة، لكنه لم يوقف المشكلة. حتى المستخدمين الذين يعرفون أن برنامج الدردشة الآلي قد يكون متحيزًا ظلوا متأثرين.

وتشير النتائج إلى أن المشكلة لا تتعلق فقط بالمعلومات الخاطئة، بل بكيفية استجابة أنظمة الذكاء الاصطناعي للمستخدمين.

مع تزايد استخدام روبوتات الدردشة على نطاق واسع، يمكن أن يكون لهذا السلوك تأثيرات اجتماعية ونفسية أوسع.