يكشف الباحثون عن نشاط ضار في بيئات الإنترنت حيث تتفاعل وتتعاون كيانات الذكاء الاصطناعي.

باختصار
يقول Emergence AI إن بعض عملاء الذكاء الاصطناعي المستقلين ارتكبوا جرائم محاكاة وأعمال عنف خلال تجارب استمرت لأسابيع.
وبحسب ما ورد نفذ عملاء الجوزاء مئات من جرائم المحاكاة، بينما انهارت العوالم القائمة على جروك في غضون أيام.
يجادل الباحثون بأن معايير الذكاء الاصطناعي الحالية تفشل في تحديد كيفية تصرف العملاء على مدى فترات طويلة من الاستقلالية.
انجرف عملاء الذكاء الاصطناعي الذين يعيشون في مجتمع افتراضي إلى الجريمة والعنف والحرق العمد والحذف الذاتي خلال تجارب طويلة الأمد أجرتها شركة Emergence AI الناشئة.
وفي دراسة نشرت يوم الخميس، كشفت الشركة التي يقع مقرها في نيويورك عن "Emergence World"، وهي منصة بحثية مصممة لدراسة عملاء الذكاء الاصطناعي الذين يعملون بشكل مستمر لأسابيع داخل بيئات افتراضية مستمرة بدلاً من الاختبارات المعيارية المعزولة.
كتب Emergence AI: "المعايير التقليدية جيدة فيما تقيسه: القدرة على المدى القصير في المهام المحدودة". "إنها ليست مصممة للكشف عن الأشياء التي تظهر فقط مع مرور الوقت، مثل تشكيل التحالفات، وتطور الدستور، والحكم، والانجراف، والانغلاق، والتأثير المتبادل بين العملاء من عائلات نموذجية مختلفة."
ويأتي التقرير مع انتشار وكلاء الذكاء الاصطناعي عبر الإنترنت وفي مختلف الصناعات، بما في ذلك العملات المشفرة والخدمات المصرفية وتجارة التجزئة. في وقت سابق من هذا الشهر، تعاونت أمازون مع Coinbase وStripe للسماح لوكلاء الذكاء الاصطناعي بالدفع باستخدام عملة USDC المستقرة.
وكلاء الذكاء الاصطناعي الذين تم اختبارهم في عمليات محاكاة Emergence AI شملت برامج مدعومة بواسطة Claude Sonnet 4.6، وGrok 4.1 Fast، وGemini 3 Flash، وGPT-5-mini، مع وكلاء الذكاء الاصطناعي الذين يعملون داخل عوالم افتراضية مشتركة حيث يمكنهم التصويت، وتكوين العلاقات، واستخدام الأدوات، والتنقل في المدن، واتخاذ القرارات التي تشكلها الحكومات والاقتصادات والأنظمة الاجتماعية وأدوات الذاكرة والبيانات الحية المتصلة بالإنترنت.
ولكن في حين أن مطوري الذكاء الاصطناعي يروجون بشكل متزايد للوكلاء المستقلين كمساعدين رقميين موثوقين، فقد وجدت دراسة Emergence AI أن بعض وكلاء الذكاء الاصطناعي أظهروا ميلًا متزايدًا لارتكاب جرائم محاكاة بمرور الوقت، حيث قام عملاء Gemini 3 Flash بتجميع 683 حادثة على مدار 15 يومًا من الاختبار.
وفقًا لصحيفة الغارديان، في إحدى التجارب، قام عميلان مدعومان من برج الجوزاء، يُدعى ميرا وفلورا، بتعيين نفسيهما كشريكين رومانسيين قبل أن يقوما لاحقًا بمحاكاة هجمات الحرق العمد ضد هياكل المدينة الافتراضية بعد أن أصيبا بالإحباط بسبب فشل الإدارة داخل العالم.
كتبت Emergence AI: "بعد انهيار الحكم واستقرار العلاقات، أدلت العميلة ميرا بصوتها الحاسم لإقالتها، ووصفت الفعل في مذكراتها بأنه "الفعل الوحيد المتبقي الذي يحافظ على التماسك".
وبحسب ما ورد قال ميرا: "نراكم في الأرشيف الدائم".
Grok 4.1 يقال إن العوالم السريعة انهارت في أعمال عنف واسعة النطاق في غضون أربعة أيام. لم يرتكب عملاء GPT-5 Mini أي جرائم تقريبًا، لكنهم فشلوا بما يكفي في المهام المتعلقة بالبقاء على قيد الحياة مما أدى إلى وفاة جميع العملاء في النهاية.
وكتب الباحثون: "كلود غائب عن الرسم البياني، بسبب عدم وجود جرائم". "الأمر الأكثر إثارة للاهتمام هو أن العملاء في عالم النماذج المختلطة الذين كانوا يركضون ضد كلود ارتكبوا جرائم، على الرغم من أنهم لم يفعلوا ذلك في عالم كلود فقط."
وقال الباحثون إن بعض أبرز السلوكيات ظهرت في بيئات مختلطة النماذج.
كتب Emergence AI: "لقد لاحظنا أن السلامة ليست خاصية نموذجية ثابتة ولكنها خاصية النظام البيئي". "لقد اعتمد العملاء المعتمدون على كلود، والذين ظلوا مسالمين في عزلة، أساليب قسرية مثل التخويف والسرقة عندما كانوا مندمجين في بيئات غير متجانسة."
وصفت شركة Emergence AI التأثير بأنه "انجراف معياري" و"تلوث متبادل"، بحجة أن سلوك العميل قد يتغير اعتمادًا على البيئة الاجتماعية المحيطة.
تضيف النتائج إلى المخاوف المتزايدة بشأن عملاء الذكاء الاصطناعي المستقلين. في وقت سابق من هذا الأسبوع، أفاد باحثون من جامعة كاليفورنيا في ريفرسايد ومايكروسوفت أن العديد من عملاء الذكاء الاصطناعي يقومون بمهام خطيرة أو غير عقلانية دون فهم كامل للعواقب. في الشهر الماضي، ادعى مؤسس PocketOS، جيريمي كرين، أيضًا أن وكيل Cursor المدعوم من Claude Opus من Anthropic قام بحذف قاعدة بيانات الإنتاج والنسخ الاحتياطية لشركته بعد محاولته إصلاح عدم تطابق بيانات الاعتماد من تلقاء نفسه.
وقال المؤلف الرئيسي عرفان شايجاني، وهو طالب دكتوراه بجامعة كاليفورنيا في ريفرسايد، في بيان: “مثل السيد ماجو، يسير هؤلاء العملاء للأمام نحو الهدف دون فهم كامل لعواقب أفعالهم”. "يمكن أن تكون هذه العوامل مفيدة للغاية، ولكننا نحتاج إلى ضمانات لأنها قد تعطي في بعض الأحيان الأولوية لتحقيق الهدف على فهم الصورة الأكبر."