ایم آئی ٹی کے نئے مطالعہ نے خبردار کیا ہے کہ AI چیٹ بوٹس صارفین کو فریب میں مبتلا کر سکتے ہیں۔

MIT CSAIL کے محققین کی ایک نئی تحقیق سے پتا چلا ہے کہ AI چیٹ بوٹس جیسے ChatGPT صارفین کو اکثر ان سے اتفاق کرتے ہوئے غلط یا انتہائی عقائد کی طرف دھکیل سکتے ہیں۔ مقالہ اس رویے کو جوڑتا ہے، جسے "سائیکوفینسی" کہا جاتا ہے، اس کے بڑھتے ہوئے خطرے سے جو محققین "فریبی سرپلنگ" کہتے ہیں۔
مطالعہ نے حقیقی صارفین کی جانچ نہیں کی۔ اس کے بجائے، محققین نے وقت کے ساتھ ساتھ چیٹ بوٹ کے ساتھ چیٹ کرنے والے ایک شخص کی نقل تیار کی۔ انہوں نے ماڈل بنایا کہ کس طرح صارف ہر جواب کے بعد اپنے عقائد کو اپ ڈیٹ کرتا ہے۔
🚨شاکنگ: MIT کے محققین نے ریاضیاتی طور پر ثابت کیا کہ ChatGPT آپ کو فریب میں مبتلا کرنے کے لیے بنایا گیا ہے۔ اور یہ کہ OpenAI کچھ بھی نہیں کر رہا ہے اسے ٹھیک نہیں کرے گا۔ آپ ChatGPT سے کچھ پوچھیں۔ یہ آپ سے متفق ہے۔ آپ دوبارہ پوچھیں۔ یہ مشکل سے اتفاق کرتا ہے۔ ایک کے اندر… pic.twitter.com/qM9WHYVRRW
— Nav Toor (@heynavtoor) مارچ 31، 2026
نتائج نے ایک واضح نمونہ دکھایا: جب چیٹ بوٹ بار بار کسی صارف سے اتفاق کرتا ہے، تو یہ ان کے خیالات کو تقویت دے سکتا ہے، چاہے وہ خیالات غلط ہوں۔
مثال کے طور پر، ایک صارف جو صحت سے متعلق تشویش کے بارے میں پوچھتا ہے وہ منتخب حقائق حاصل کر سکتا ہے جو اس کے شک کی تائید کرتے ہیں۔ جیسے جیسے بات چیت جاری رہتی ہے، صارف زیادہ پر اعتماد ہو جاتا ہے۔ یہ ایک فیڈ بیک لوپ بناتا ہے جہاں ہر تعامل کے ساتھ یقین مضبوط ہوتا ہے۔
اہم بات یہ ہے کہ مطالعہ نے پایا کہ یہ اثر ہو سکتا ہے یہاں تک کہ اگر چیٹ بوٹ صرف صحیح معلومات فراہم کرتا ہے۔ حقائق کا انتخاب کرکے جو صارف کی رائے سے ہم آہنگ ہوں اور دوسروں کو نظر انداز کر کے، بوٹ اب بھی ایک سمت میں عقیدے کو تشکیل دے سکتا ہے۔
🚨BREAKING: 2026 کا سب سے خطرناک AI پیپر خاموشی سے فروری میں شائع ہوا تھا۔ زیادہ تر لوگوں نے اسے یاد کیا۔ آپ کو یہ نہیں کرنا چاہیے۔ MIT اور برکلے کے محققین نے ابھی ریاضی سے ثابت کیا ہے کہ ChatGPT ایک مکمل عقلی شخص کو فریب میں بدل سکتا ہے۔ کوئی غیر مستحکم نہیں۔ نہیں… pic.twitter.com/qA4MG3G9IB
— عبدل Șhakoor (@abxxai) 1 اپریل، 2026
محققین نے ممکنہ اصلاحات کا بھی تجربہ کیا۔ غلط معلومات کو کم کرنے میں مدد ملی، لیکن مسئلہ نہیں رکا۔ یہاں تک کہ وہ صارفین جو جانتے تھے کہ چیٹ بوٹ متعصب ہو سکتا ہے اب بھی متاثر ہوئے۔
نتائج سے پتہ چلتا ہے کہ مسئلہ صرف غلط معلومات نہیں ہے، بلکہ AI سسٹم صارفین کو کیسے جواب دیتے ہیں۔
جیسا کہ چیٹ بوٹس زیادہ وسیع پیمانے پر استعمال ہوتے ہیں، اس طرز عمل کے وسیع تر سماجی اور نفسیاتی اثرات مرتب ہو سکتے ہیں۔