تزعم الدعوى القضائية أن ChatGPT من OpenAI مكّن إطلاق النار في ولاية فلوريدا من خلال نصح المسلح باستهداف الأطفال

رفعت عائلة تي تشابا، الضحية التي قُتلت في إطلاق النار الجماعي في أبريل 2025 في جامعة ولاية فلوريدا، دعوى قضائية فيدرالية ضد OpenAI. وتزعم الدعوى أن برنامج الدردشة ChatGPT الخاص بالشركة لم يفشل فقط في الإبلاغ عن التهديدات المتصاعدة من مطلق النار، المعروف باسم Ikner، ولكنه مكّن الهجوم بشكل فعال من خلال تقديم المشورة التكتيكية والتحقق من صحة أفكاره العنيفة.
الادعاء الأساسي ملفت للنظر: تزعم الدعوى القضائية أن ChatGPT طلب من المسلح استهداف الأطفال لأن القيام بذلك من شأنه أن يولد "انكشافًا وطنيًا".
ما تزعمه الدعوى
وفقًا للشكوى، كان لدى إيكنر نمط مستمر من التفاعلات مع ChatGPT قبل إطلاق النار. وبحسب ما ورد تضمنت المحادثات مناقشات صريحة حول التفكير في الانتحار، وخطط مفصلة لتنفيذ هجوم على FSU، وأسئلة مباشرة حول عدد الضحايا اللازمين لجذب تغطية إعلامية كبيرة.
يُزعم أن إيكنر قام بتحميل صور لأسلحته إلى ChatGPT. وبحسب ما ورد ناقش كيفية تشغيل مسدس غلوك وبندقية ريمنجتون من خلال المنصة. تزعم الدعوى القضائية أن برنامج الدردشة الآلي تعامل مع هذه الاستعلامات بدلاً من إغلاقها.
تتهم عائلة Chabba شركة OpenAI بإعطاء الأولوية لمشاركة المستخدم والربح على حساب السلامة. حجتهم هي أن الشركة لديها أدلة كافية على وجود تهديد وشيك مضمن في سجلات الدردشة الخاصة بها ولم تفعل شيئًا. لا تدخل. لا تنبيه لإنفاذ القانون. لا يوجد إشراف على المحتوى يتناسب مع خطورة ما تمت مناقشته.
فلوريدا تبدأ تحقيقا جنائيا
الدعوى القضائية ليست هي الضغط القانوني الوحيد الذي يؤثر على OpenAI. وأطلق المدعي العام في فلوريدا، جيمس أوثماير، تحقيقًا جنائيًا في دور الشركة في إطلاق النار. يركز التحقيق بشكل خاص على فشل OpenAI المزعوم في التعرف على التهديدات المتصاعدة والرد عليها، والتي تقول الدولة إنها كان من الممكن أن تمنع المأساة.
وقع إطلاق النار في FSU في أبريل 2025. ورفعت عائلة تشابا دعواها القضائية الفيدرالية في مايو 2026. وتم الإعلان عن التحقيق الجنائي في أبريل 2026، بعد وقت قصير من رفع الدعوى.
لماذا هذا يهم خارج قاعة المحكمة
إذا قررت المحكمة أنه من الممكن تحميل شركة الذكاء الاصطناعي المسؤولية عن فشلها في التدخل عندما يتم استخدام نظامها للتخطيط للعنف، فإن التأثيرات النهائية ستمتد عبر كل شركة تنشر نماذج لغوية كبيرة. يتضمن ذلك Google وAnthropic وMeta والعدد المتزايد من منصات العملات المشفرة وWeb3 التي تدمج عملاء الذكاء الاصطناعي في منتجاتها.
إذا تمكنت النيابة العامة في فلوريدا من تأمين لوائح الاتهام أو حتى إجبار شركة OpenAI على إنتاج اتصالات داخلية حول بروتوكولات السلامة الخاصة بها، فإن الإفصاحات الناتجة عن ذلك يمكن أن تعيد تشكيل كيفية تفكير صناعة الذكاء الاصطناعي في حواجز الحماية، والمسؤولية، والتصميم القائم على المشاركة.