Cryptonews

يتلقى الباحثون تمويلًا لتحديد المخاطر المحتملة في أنظمة الذكاء الاصطناعي وسط تقارير عن حل وحدات إدارة المخاطر الداخلية

المصدر
cryptonewstrend.com
نُشر في
يتلقى الباحثون تمويلًا لتحديد المخاطر المحتملة في أنظمة الذكاء الاصطناعي وسط تقارير عن حل وحدات إدارة المخاطر الداخلية

في خطوة محورية، كشفت OpenAI عن برنامج زمالة السلامة، الذي يقدم راتبًا أسبوعيًا كبيرًا قدره 3850 دولارًا للباحثين الخارجيين المكلفين بدراسة المخاطر المحتملة المرتبطة بالذكاء الاصطناعي المتقدم. تزامن هذا الإعلان، الذي صدر في 6 أبريل، مع تحقيق كاشف أجرته صحيفة نيويوركر، والذي كشف أن شركة OpenAI قامت بتفكيك فرق السلامة الداخلية لديها وأزالت مصطلح "بأمان" من بيان مهمتها المقدم إلى مصلحة الضرائب الأمريكية. وتهدف هذه الزمالة، المصممة كبرنامج تجريبي، إلى تعزيز البحوث المستقلة في مجال السلامة والمواءمة، مع رعاية الجيل القادم من المواهب في هذا المجال الحيوي.

تشمل الحوافز السخية للبرنامج راتبًا أسبوعيًا قدره 3850 دولارًا أمريكيًا، أي ما يعادل أكثر من 200000 دولار أمريكي سنويًا، بالإضافة إلى ما يقرب من 15000 دولار أمريكي من الموارد الحسابية والإرشاد من الباحثين الخبراء في OpenAI. سيتمتع الزملاء بالمرونة للعمل من مساحة عمل Constellation's Berkeley أو عن بعد، مع إغلاق باب التقديم في 3 مايو. والجدير بالذكر أن الزمالة لا تقتصر على المتخصصين في الذكاء الاصطناعي، حيث تبحث OpenAI بنشاط عن مرشحين من خلفيات متنوعة، بما في ذلك الأمن السيبراني، والعلوم الاجتماعية، والتفاعل بين الإنسان والحاسوب، بالإضافة إلى علوم الكمبيوتر.

توقيت الإعلان جدير بالملاحظة بشكل خاص، لأنه جاء في أعقاب تقرير التحقيق الذي أجراه رونان فارو في صحيفة نيويوركر، والذي وثق وفاة ثلاثة فرق متتالية للسلامة الداخلية في OpenAI على مدى 22 شهرًا. كان فريق Superalignment هو أول فريق يتم حله في مايو 2024، يليه فريق جاهزية AGI في أكتوبر 2024، وأخيرًا فريق Mission Alignment في فبراير 2026. وقد أكدت ملاحظة ملفتة للنظر من ممثل OpenAI، ردًا على استفسار أحد الصحفيين حول الباحثين في السلامة الوجودية، التحول الواضح في أولويات الشركة: "ماذا تقصد بالسلامة الوجودية؟ هذا ليس شيئًا على الإطلاق".

ومن الضروري ملاحظة أن زمالة السلامة ليس المقصود منها أن تحل محل البنية التحتية الداخلية التي تم حلها. وبدلاً من ذلك، سيحصل الزملاء على اعتمادات واجهة برمجة التطبيقات (API) والموارد الحسابية، ولكن لن يكون لديهم إمكانية الوصول المباشر إلى أنظمة OpenAI، مما يضع البرنامج كشكل من أشكال تمويل الأبحاث المستقلة. يغطي جدول الأعمال البحثي للزمالة سبعة مجالات رئيسية، بما في ذلك تقييم السلامة والأخلاق والمتانة والتخفيفات القابلة للتطوير، من بين أمور أخرى. وبحلول نهاية البرنامج في فبراير 2027، من المتوقع أن ينتج كل زميل مخرجات كبيرة، مثل ورقة بحثية أو معيار مرجعي أو مجموعة بيانات. أكدت OpenAI على أنها تعطي الأولوية للقدرة البحثية والحكم الفني والقدرة على التنفيذ على أوراق اعتماد أكاديمية محددة.

وتمتد آثار هذا التطور إلى ما هو أبعد من صناعة الذكاء الاصطناعي، حيث أن لها تأثيرًا كبيرًا على السوق الأوسع. تعد الثقة في التزامات السلامة الخاصة بشركات الذكاء الاصطناعي الحدودية بمثابة إشارة سوقية مهمة، حيث تؤثر على تخصيص رأس المال عبر البنية التحتية للذكاء الاصطناعي، ورموز الذكاء الاصطناعي، وبروتوكولات DePIN ووكلاء الذكاء الاصطناعي، التي تقع عند تقاطع العملات المشفرة والذكاء الاصطناعي. وبينما يراقب المستثمرون عن كثب مسار الإنفاق والأولويات التشغيلية لـ OpenAI، سيتم ملاحظة نجاح برنامج الزمالة هذا بشدة. إن السؤال حول ما إذا كان الباحثون الخارجيون، الذين يعملون دون وصول داخلي، يمكنهم التأثير بشكل هادف على تطوير النموذج، ستبدأ الإجابة عليه عندما يتم الكشف عن أبحاث المجموعة الأولى في أوائل عام 2027.