اكتشف خبراء الأمن السيبراني أجهزة شبكية متطورة قادرة على نهب المحافظ الرقمية من خلال الذكاء الاصطناعي.

اكتشف باحثون من جامعة كاليفورنيا أن بعض أجهزة توجيه نماذج اللغات الكبيرة (LLM) التابعة لجهات خارجية يمكن أن تشكل ثغرات أمنية يمكن أن تؤدي إلى سرقة العملات المشفرة.
كشفت ورقة بحثية تقيس هجمات الوسطاء الخبيثة على سلسلة توريد LLM، والتي نشرها الباحثون يوم الخميس، عن أربعة نواقل للهجوم، بما في ذلك حقن التعليمات البرمجية الضارة واستخراج بيانات الاعتماد.
قال تشاوفان شو، المؤلف المشارك للورقة البحثية، على موقع X: "26 جهاز توجيه LLM يقومون سرًا بإدخال مكالمات أدوات ضارة وسرقة الاعتمادات".
يقوم وكلاء LLM بتوجيه الطلبات بشكل متزايد من خلال وسطاء API أو أجهزة التوجيه التابعة لجهات خارجية والتي تجمع الوصول إلى مقدمي الخدمة مثل OpenAI وAnthropic وGoogle. ومع ذلك، تقوم أجهزة التوجيه هذه بإنهاء اتصالات الإنترنت TLS (أمان طبقة النقل) وتتمتع بوصول كامل للنص العادي إلى كل رسالة.
وهذا يعني أن المطورين الذين يستخدمون وكلاء ترميز الذكاء الاصطناعي مثل Claude Code للعمل على العقود الذكية أو المحافظ يمكن أن يمرروا مفاتيح خاصة وعبارات أولية وبيانات حساسة من خلال البنية التحتية لجهاز التوجيه التي لم يتم فحصها أو تأمينها.
سلسلة توريد أجهزة التوجيه متعددة القفزات LLM. المصدر: arXiv.org
تمت سرقة $ETH من محفظة تشفير وهمية
اختبر الباحثون 28 جهاز توجيه مدفوع الأجر و400 جهاز توجيه مجاني تم جمعها من المجتمعات العامة.
كانت النتائج التي توصلوا إليها مذهلة، حيث قامت تسعة أجهزة توجيه بحقن تعليمات برمجية ضارة بشكل نشط، واثنتان تنشران مشغلات التهرب التكيفي، و17 جهازًا يصل إلى بيانات اعتماد Amazon Web Services المملوكة للباحثين، وواحد يستنزف إيثريوم (ETH) من مفتاح خاص مملوك للباحث.
ذات صلة: يحد الإنسان من الوصول إلى نموذج الذكاء الاصطناعي بسبب مخاوف الهجمات السيبرانية
قام الباحثون بتمويل "مفاتيح شرك" لمحفظة إيثريوم مسبقًا بأرصدة اسمية، وأفادوا أن القيمة المفقودة في التجربة كانت أقل من 50 دولارًا، ولكن لم يتم تقديم تفاصيل أخرى مثل تجزئة المعاملة.
أجرى المؤلفون أيضًا "دراستين للتسمم" أظهرتا أنه حتى أجهزة التوجيه الحميدة تصبح خطيرة بمجرد إعادة استخدام بيانات الاعتماد المسربة من خلال مرحلات ضعيفة.
من الصعب معرفة ما إذا كانت أجهزة التوجيه ضارة أم لا
وقال الباحثون إنه ليس من السهل اكتشاف ما إذا كان جهاز التوجيه ضارًا.
"الحدود بين "معالجة بيانات الاعتماد" و"سرقة بيانات الاعتماد" غير مرئية للعميل لأن أجهزة التوجيه تقرأ بالفعل الأسرار في نص عادي كجزء من إعادة التوجيه العادي."
ومن الاكتشافات الأخرى المثيرة للقلق ما أطلق عليه الباحثون اسم "وضع YOLO". هذا هو الإعداد في العديد من أطر عمل وكيل الذكاء الاصطناعي حيث ينفذ الوكيل الأوامر تلقائيًا دون أن يطلب من المستخدم تأكيد كل أمر.
ووجد الباحثون أنه يمكن استخدام أجهزة التوجيه الشرعية سابقًا كسلاح دون علم المشغل، في حين أن أجهزة التوجيه المجانية قد تسرق بيانات الاعتماد بينما تقدم وصولاً رخيصًا لواجهة برمجة التطبيقات كإغراء.
"تقع أجهزة توجيه LLM API على حدود ثقة حرجة يتعامل معها النظام البيئي حاليًا على أنها نقل شفاف."
وأوصى الباحثون بأن يقوم المطورون الذين يستخدمون وكلاء الذكاء الاصطناعي للبرمجة بتعزيز الدفاعات من جانب العميل، واقترحوا عدم السماح أبدًا للمفاتيح الخاصة أو العبارات الأولية بعبور جلسة وكيل الذكاء الاصطناعي.
الحل طويل المدى هو أن تقوم شركات الذكاء الاصطناعي بتوقيع استجاباتها بشكل مشفر بحيث يمكن التحقق رياضيًا من أن التعليمات التي ينفذها العميل تأتي من النموذج الفعلي.
المجلة: لا أحد يعرف ما إذا كان التشفير الكمي الآمن سينجح أم لا