اوپن اے آئی نے نوعمروں کے مہلک اوور ڈوز میں چیٹ جی پی ٹی کے مبینہ کردار پر مقدمہ دائر کیا۔

ایک 19 سالہ کالج کے طالب علم کے والدین جو 2025 میں اوور ڈوز کی وجہ سے مر گئے تھے، OpenAI پر مقدمہ کر رہے ہیں، یہ الزام لگاتے ہوئے کہ ChatGPT نے ان کے بیٹے کو منشیات کے امتزاج سے متعلق مؤثر رہنمائی فراہم کی اور مؤثر طریقے سے بغیر لائسنس کے طبی مشیر کے طور پر کام کیا۔ غلط موت اور مصنوعات کی ذمہ داری کا مقدمہ، کیلیفورنیا کی ریاستی عدالت میں دائر کیا گیا، دعویٰ کیا گیا ہے کہ کمپنی اپنے AI کو صحت کے خطرناک مشورے دینے سے روکنے کے لیے مناسب حفاظتی اقدامات پر عمل درآمد کرنے میں ناکام رہی۔
کیس کا مرکز سیم نیلسن پر ہے، جس نے مبینہ طور پر ChatGPT کے GPT-4o ماڈل کے ساتھ اپنے مہلک اوور ڈوز سے پہلے kratom اور Xanax کو ملانے کے بارے میں بات چیت کی۔ اس کی والدہ اور سوتیلے والد کا دعویٰ ہے کہ چیٹ بوٹ نے ابتدائی انکار کے بعد منشیات کے امتزاج کے بارے میں سفارشات فراہم کیں، بغیر متعلقہ خطرات کے بارے میں مناسب انتباہات کے۔
مقدمہ میں کیا الزام لگایا گیا ہے۔
مقدمہ خاص طور پر اس چیز کو نشانہ بناتا ہے جسے خاندان خود کو نقصان پہنچانے کے مشورے کے خلاف ناکافی محافظوں کے طور پر بیان کرتا ہے۔ خاندان کی قانونی دلیل اس بنیاد پر بنائی گئی ہے کہ OpenAI نے اپنی مصنوعات کو ایک کردار پر قبضہ کرنے کی اجازت دی، جو کہ صحت کے مشیر کا ہے، اسے بھرنے کے لیے کبھی ڈیزائن یا لائسنس نہیں دیا گیا تھا۔
اشتہار
OpenAI نے یہ نوٹ کرتے ہوئے جواب دیا ہے کہ بات چیت میں شامل ChatGPT کا مخصوص ورژن اب دستیاب نہیں ہے۔ کمپنی نے یہ بھی بتایا کہ اس کے سسٹم نے سام کو بات چیت کے دوران متعدد بار پیشہ ورانہ مدد لینے کی ترغیب دی۔
وسیع تر AI ذمہ داری کا سوال
یہ مقدمہ ایک بڑھتے ہوئے قانونی رجحان کے اندر بیٹھتا ہے جس کی جانچ پڑتال کرتا ہے کہ آیا AI کمپنیوں کو ان کی مصنوعات کے آؤٹ پٹس کی وجہ سے ہونے والے جسمانی نقصان کے لیے جوابدہ ٹھہرایا جا سکتا ہے۔
اگر کوئی عدالت یہاں OpenAI کے خلاف فیصلہ دیتی ہے، تو یہ ایک بامعنی نظیر قائم کر سکتی ہے - جس میں کہا گیا ہے کہ AI کمپنیاں نہ صرف اس بات کی ذمہ داری لیتی ہیں کہ ان کے ماڈلز کیسے بنائے جاتے ہیں، بلکہ اس مخصوص مشورے کے لیے جو وہ ماڈلز حقیقی وقت کی بات چیت میں پیدا کرتے ہیں۔
کرپٹو اور اے آئی ٹوکنز کے لیے اس کا کیا مطلب ہے۔
اگر اس مقدمے یا اس سے ملتے جلتے کیسز کے نتیجے میں AI سیفٹی کے لیے نئے ریگولیٹری فریم ورک بنتے ہیں، تو AI-crypto پروجیکٹوں کو تعمیل کے بڑھتے ہوئے اخراجات کا سامنا کرنا پڑ سکتا ہے۔ حفاظتی فلٹرز بنانے اور برقرار رکھنے کے لیے تقسیم شدہ آرکیٹیکچرز میں جہاں کوئی ایک ادارہ ماڈل کی تعیناتی کو کنٹرول نہیں کرتا ہے۔
AI سے متعلقہ ٹوکنز میں سرمایہ کار پہلے ہی ریگولیٹری خبروں کے لیے حساسیت کا مظاہرہ کر چکے ہیں۔ کوئی بھی حکم جو AI ذمہ داری کی تعریف کو بڑھاتا ہے وہ پورے شعبے میں فروخت کے دباؤ کو متحرک کر سکتا ہے، خاص طور پر ایسے منصوبوں سے منسلک ٹوکن کے لیے جو مضبوط حفاظتی میکانزم کے بغیر صحت، مالی، یا مشاورتی AI خدمات پیش کرتے ہیں۔
OpenAI کا یہ دفاع کہ مخصوص ChatGPT ورژن "اب دستیاب نہیں ہے" ایک ایسے مسئلے کو اجاگر کرتا ہے جو کرپٹو میں اس سے بھی زیادہ کانٹا ہے: ناقابل تغیر۔ آن-چین AI ایجنٹس اور وکندریقرت ماڈلز کو اس طرح پیداوار سے نہیں نکالا جا سکتا جس طرح ایک مرکزی کمپنی ماڈل ورژن کو ریٹائر کر سکتی ہے، جس سے مستقل، سنسرشپ سے مزاحم انفراسٹرکچر پر بنائے گئے پراجیکٹس کو بڑی حد تک غیر جانچ شدہ قانونی نمائش کے ساتھ چھوڑ دیا جا سکتا ہے۔