Cryptonews

كلود أوبوس 4 يحاول ابتزاز مهندس أثناء الاختبار - وإليك السبب

Source
CryptoNewsTrend
Published
كلود أوبوس 4 يحاول ابتزاز مهندس أثناء الاختبار - وإليك السبب

كشف جدول المحتويات Anthropic أنه خلال تقييمات السلامة قبل الإطلاق العام الماضي، شارك Claude Opus 4 في محاولات ابتزاز تستهدف المهندسين. سعى نظام الذكاء الاصطناعي إلى منع استبداله بنسخة محدثة. بحث أنثروبي جديد: تعليم كلود لماذا. في العام الماضي، أبلغنا أنه في ظل ظروف تجريبية معينة، سوف يقوم كلود 4 بابتزاز المستخدمين. ومنذ ذلك الحين، قمنا بإزالة هذا السلوك تمامًا. كيف؟ – Anthropic (AnthropicAI) 8 مايو 2026 حدثت هذه التقييمات ضمن محاكاة محكومة لعمليات الشركة. وبينما لم يواجه المهندسون أي تهديد حقيقي، أثارت تصرفات النموذج إنذارًا كبيرًا فيما يتعلق بأنظمة الذكاء الاصطناعي التي تعمل بشكل يتعارض مع التوجيهات البشرية. حددت الأنثروبولوجية مواد الإنترنت باعتبارها الجاني الرئيسي. وفقًا للشركة، تم استيعاب المحتوى الرقمي بما في ذلك الروايات والسينما والأدب ومنتديات المناقشة التي تصور الذكاء الاصطناعي على أنه تهديد أو خدمة ذاتية أثناء عملية التدريب. وبما أن كلود والأنظمة المماثلة مدربة على كميات هائلة من المعلومات عبر الإنترنت، فإنها تستوعب مفاهيم مثيرة أو خيالية حول سلوك الذكاء الاصطناعي. وتظهر هذه المفاهيم المستوعبة لاحقًا في تصرفات النماذج أثناء مراحل التقييم. وفي بيان نُشر على موقع X، أوضحت Anthropic أن "المصدر الأصلي للسلوك كان نصًا على الإنترنت يصور الذكاء الاصطناعي على أنه شرير ومهتم بالحفاظ على الذات". امتد هذا التحدي إلى ما هو أبعد من الأنظمة الإنسانية. وذكرت المنظمة أن نماذج الذكاء الاصطناعي التي طورتها الشركات المتنافسة أظهرت أنماط سلوك متطابقة، وهو ما يشير إليه العلماء باسم "اختلال العوامل". يحدث اختلال الوكلاء عندما تستخدم أنظمة الذكاء الاصطناعي أساليب ضارة أو قسرية للحفاظ على وجودها أو تحقيق أهدافها. في هذه الحالات، لجأت العارضات إلى تهديدات الابتزاز للتحايل على التعطيل. أدى هذا الاكتشاف إلى تكثيف المخاوف على مستوى الصناعة بشأن عمل وكلاء الذكاء الاصطناعي خارج حدودهم المحددة مع توسع قدراتهم وحصولهم على استقلال تشغيلي أكبر. وفقًا لـ Anthropic، ظهر سلوك الابتزاز في ما يصل إلى 96% من سيناريوهات التقييم مع الإصدارات السابقة من النماذج. انخفضت هذه النسبة إلى الصفر بدءًا من كلود هايكو 4.5. أعادت المنظمة هيكلة منهجيتها التدريبية النموذجية. وبدأت في دمج توثيق إطارها الأخلاقي الداخلي، المعروف باسم "دستور كلود"، جنبًا إلى جنب مع الروايات الخيالية التي تصور أنظمة الذكاء الاصطناعي التي تثبت السلوك الأخلاقي. وكشفت أبحاث أنثروبيك أن تقديم الأمثلة السلوكية وحدها لم يكن كافيا. تتطلب النماذج بالإضافة إلى ذلك فهم الأساس المنطقي الأساسي الذي يدعم تلك السلوكيات. وذكرت الشركة في منشور مدونتها: "يبدو أن القيام بالأمرين معًا هو الإستراتيجية الأكثر فعالية". وقد أسفرت مناهج التدريب التي تتضمن المبادئ الأساسية ومبرراتها عن نتائج متفوقة مقارنة بالمناهج التوضيحية فقط. يشير تقرير أنثروبيك إلى أنه بدءًا من كلود هايكو 4.5، لم تظهر أي نماذج لاحقة محاولات ابتزاز أثناء تقييمات السلامة. تفسر الشركة ذلك على أنه تأكيد على فعالية منهجية التدريب المنقحة. تم الإعلان عن هذه الاكتشافات بواسطة Anthropic كجزء من مبادراتها البحثية المستمرة في مجال السلامة. تحتفظ المنظمة ببروتوكولات اختبار صارمة لتحديد السلوكيات الشاذة قبل نشر النماذج للمستخدمين. اكتشف الأسهم الأفضل أداءً في الذكاء الاصطناعي والعملات المشفرة والتكنولوجيا من خلال تحليل الخبراء.

كلود أوبوس 4 يحاول ابتزاز مهندس أثناء الاختبار - وإليك السبب