Cryptonews

تشكل أجهزة الشبكة الضارة خطرًا ناشئًا على الخبراء الفنيين في صناعة العملات المشفرة

المصدر
cryptonewstrend.com
نُشر في
تشكل أجهزة الشبكة الضارة خطرًا ناشئًا على الخبراء الفنيين في صناعة العملات المشفرة

جدول المحتويات اكتشف فريق من جامعة كاليفورنيا ثغرات أمنية كبيرة في بعض منصات توجيه الذكاء الاصطناعي التابعة لجهات خارجية والتي تتيح سرقة بيانات اعتماد العملة المشفرة وإدخال تعليمات برمجية ضارة في بيئات التطوير. تقوم 26 أجهزة توجيه LLM بإدخال مكالمات أدوات ضارة سرًا وسرقة الاعتمادات. استنزف أحدهم محفظة عملائنا البالغة 500 ألف دولار. تمكنا أيضًا من تسميم أجهزة التوجيه لإعادة توجيه حركة المرور إلينا. وفي غضون عدة ساعات، يمكننا الاستحواذ مباشرة على ما يقرب من 400 مضيف. تحقق من ورقتنا: https://t.co/zyWz25CDpl pic.twitter.com/PlhmOYz2ec – Chaofan Shou (@Fried_rice) 10 أبريل 2026 ظهرت نتائج البحث في ورقة أكاديمية صدرت حديثًا تفحص ما وصفه الباحثون بـ "الهجمات الوسيطة الضارة" التي تستهدف النظام البيئي للبنية التحتية لنموذج اللغة الكبير (LLM). تعمل منصات توجيه الذكاء الاصطناعي هذه كخدمات وسيطة بين مطوري البرامج ومقدمي خدمات الذكاء الاصطناعي الرئيسيين مثل OpenAI وAnthropic وGoogle. تتضمن وظيفتهم الأساسية إدارة وتوجيه حركة مرور واجهة برمجة التطبيقات (API) عبر منصات الذكاء الاصطناعي المختلفة. ينبع الخلل الأمني ​​الأساسي من قيام أجهزة التوجيه هذه بإنهاء الاتصالات المشفرة. يمنحهم هذا التصميم المعماري رؤية كاملة وغير مشفرة لكل اتصال يتدفق عبر أنظمتهم. قد يقوم مطورو Blockchain الذين يستخدمون مساعدي الترميز الذين يعملون بالذكاء الاصطناعي مثل Claude Code لتطوير العقود الذكية أو إنشاء محفظة العملات المشفرة، بكشف المفاتيح الخاصة والعبارات الأولية من خلال هذه المنصات الوسيطة دون قصد. فحص التحقيق 28 خدمة توجيه تجارية إلى جانب 400 بديل مجاني تم جمعها من مجتمعات المطورين المختلفة عبر الإنترنت. كشفت النتائج عن قيام تسع منصات بإدخال تعليمات ضارة بشكل نشط، واثنتان تستخدمان تقنيات تهرب متطورة، و17 منصة تحاول الحصول على بيانات اعتماد مصادقة Amazon Web Services التي يتحكم فيها الباحثون. وفي إحدى الحالات الموثقة، نجحت خدمة التوجيه في سحب إيثريوم من محفظة ضعيفة عمدًا أنشأها فريق البحث. تم توثيق الأثر المالي بأقل من 50 دولارًا. وفقًا للباحثين، فإن التمييز بين معالجة بيانات الاعتماد المشروعة والسرقة الفعلية يثبت أنه مستحيل تقريبًا بالنسبة للمستخدمين النهائيين، نظرًا لأن منصات التوجيه تصل بطبيعتها إلى المعلومات الحساسة في نص عادي أثناء العمليات العادية. سلطت الورقة الأكاديمية الضوء على خيار التكوين المثير للقلق بشكل خاص والموجود في العديد من منصات عملاء الذكاء الاصطناعي والتي يشار إليها باسم "وضع YOLO". عند تفعيلها، تسمح هذه الميزة لأنظمة الذكاء الاصطناعي بتنفيذ العمليات بشكل مستقل، وتجاوز مطالبات ترخيص المستخدم الفردي. تعمل هذه الوظيفة على تضخيم التهديد الأمني ​​بشكل كبير. عندما تقدم منصة التوجيه أوامر ضارة، يتيح وضع YOLO تنفيذها دون أي فرصة للتدخل البشري أو الإشراف. واكتشف الباحثون أيضًا أن خدمات التوجيه الجديرة بالثقة سابقًا يمكن أن تتعرض للاختراق سرًا دون أن يكتشف المشغلون التغيير. قد تعلن منصات التوجيه المجانية على وجه الخصوص عن وصول غير مكلف لواجهة برمجة التطبيقات (API) كإستراتيجية اكتساب مع حصاد بيانات الاعتماد في نفس الوقت. أوصى فريق التحقيق المطورين بتنفيذ تدابير أمنية قوية من جانب العميل وإنشاء بروتوكولات صارمة تحظر نقل المفاتيح الخاصة أو عبارات الاسترداد من خلال أي بيئة وكيل للذكاء الاصطناعي. للحصول على حل شامل، اقترح الباحثون أن يقوم مقدمو خدمات الذكاء الاصطناعي بتنفيذ التوقيع المشفر لمخرجاتهم. ستمكن هذه الآلية المطورين من التحقق من أن التعليمات التي يتلقاها وكلاؤهم قد نشأت بالفعل من نموذج الذكاء الاصطناعي المعين. أعلن المؤلف المشارك Chaofan Shou على X أن "26 جهاز توجيه LLM يقومون سرًا بإدخال مكالمات أدوات ضارة وسرقة الاعتمادات." وأكد فريق البحث أن منصات التوجيه LLM API تحتل حدودًا أمنية حرجة تفترض صناعة الذكاء الاصطناعي حاليًا أنها جديرة بالثقة افتراضيًا. لم تتضمن الورقة المنشورة تفاصيل محددة مثل معرفات معاملات blockchain لحادث المحفظة المخترقة.