Cryptonews

جدید ترین مصنوعی ذہانت کے آلے کے طور پر سائبر خطرہ تیار ہوتا ہے، بہتر حفاظتی اقدامات کے بائی پاس کو قابل بناتا ہے، ٹیک دیو کا انکشاف

Source
CryptoNewsTrend
Published
جدید ترین مصنوعی ذہانت کے آلے کے طور پر سائبر خطرہ تیار ہوتا ہے، بہتر حفاظتی اقدامات کے بائی پاس کو قابل بناتا ہے، ٹیک دیو کا انکشاف

گوگل کے تھریٹ انٹیلی جنس گروپ کا کہنا ہے کہ اس نے اس بات کی نشاندہی کی ہے کہ اس کا خیال ہے کہ ہیکرز نے مصنوعی ذہانت کا استعمال کرتے ہوئے صفر دن کے استحصال کو فروغ دیا ہے۔

گروپ نے منگل کے روز ایک بلاگ پوسٹ میں کہا کہ اس نے "سائبر کرائم کے خطرے والے نمایاں اداکاروں کا مشاہدہ کیا ہے جو بڑے پیمانے پر خطرے کے استحصال کے آپریشن کی منصوبہ بندی کے لیے شراکت کر رہے ہیں،" صفر دن کے خطرے کا استعمال کرتے ہوئے انہیں ایک بے نام "مقبول اوپن سورس، ویب پر مبنی سسٹم ایڈمنسٹریشن ٹول" کی دو فیکٹر تصدیق کو نظرانداز کرنے کی اجازت دی گئی۔

استحصال کے لیے پہلے صارف کی درست اسناد کی ضرورت تھی، لیکن دوسرے توثیق کے عنصر کو نظرانداز کیا، جو اکثر کرپٹو اکاؤنٹس اور بٹوے کو محفوظ بنانے کے لیے بھی استعمال ہوتا ہے۔

AI کا استعمال سائبرسیکیوریٹی اور کرپٹو ہیکرز کے ذریعے استحصال یا گھوٹالوں دونوں میں تیزی سے ہوتا رہا ہے۔ AI کمپنی Anthropic نے گزشتہ ماہ دعویٰ کیا تھا کہ اس کے حالیہ AI ماڈل، Claude Mythos نے بڑے سسٹمز میں سافٹ ویئر کی ہزاروں کمزوریاں پائی ہیں۔

گوگل نے کہا کہ اسے "بہت اعتماد ہے کہ اداکار نے ممکنہ طور پر اس کمزوری کی دریافت اور ہتھیار بنانے میں مدد کے لیے ایک AI ماڈل کا فائدہ اٹھایا،" کیونکہ اس استحصال کے اسکرپٹ میں ایک فریب اور ایک AI ماڈل کے تربیتی ڈیٹا کی "انتہائی خصوصیت" کی شکل شامل تھی۔

رپورٹ میں دھمکی آمیز اداکار کی وضاحت نہیں کی گئی، لیکن گوگل نے کہا کہ چین اور شمالی کوریا نے "خطرے کی دریافت کے لیے AI سے فائدہ اٹھانے میں اہم دلچسپی کا مظاہرہ کیا ہے۔"

LLMs اعلی سطحی خامیوں کی نشاندہی پر سبقت لے جاتے ہیں۔

گوگل نے کہا کہ کمزوری "عام نفاذ کی غلطیوں" سے پیدا نہیں ہوئی جیسے میموری کی بدعنوانی، بلکہ ایک "اعلی سطحی سیمنٹک منطق کی خامی" ہے جہاں ڈویلپر نے اعتماد کے مفروضے کو سخت کوڈ کیا ہے۔

گوگل نے مزید کہا کہ اس سے یہ ظاہر ہوتا ہے کہ حملہ آوروں نے فرنٹیئر لارج لینگویج ماڈل (LLM) کا استعمال کیا، کیونکہ ماڈلز اعلیٰ سطح کی خامیوں اور "ہارڈ کوڈ شدہ جامد بے ضابطگیوں" کی نشاندہی کرنے میں مہارت رکھتے ہیں۔

گوگل نے کہا کہ کئی میلویئر فیملیز، جیسے کہ PROMPTFLUX، HONESTCUE اور CANFAIL بھی LLMs کو دفاعی چوری کے لیے استعمال کرتے ہیں، بدنیتی پر مبنی منطق کو چھپانے کے لیے ڈیکو یا فلر کوڈ تیار کرتے ہیں۔

دیگر دریافت میکانزم کے مقابلے میں LLM خطرے کی دریافت کی صلاحیتیں۔ ماخذ: گوگل

صنعتی ایل ایل ایم کا غلط استعمال بڑھ رہا ہے۔

LLM تک رسائی کا غلط استعمال صنعتی ہوتا جا رہا ہے کیونکہ دھمکی دینے والے اداکاروں نے پریمیم AI اکاؤنٹس، پول API کیز، اور بائی پاس سیفٹی گارڈریلز کے ذریعے سائیکل چلانے کے لیے خودکار پائپ لائنز بنائے ہیں - مؤثر طریقے سے ٹرائل اکاؤنٹ کے غلط استعمال کے ذریعے سبسڈی کے ساتھ مخالفانہ کارروائیوں کو چلا رہے ہیں۔

"اینٹی ڈیٹیکٹ براؤزرز اور اکاؤنٹ پولنگ سروسز کا فائدہ اٹھا کر، اداکار اعلیٰ حجم، پریمیم LLM درجات تک گمنام رسائی کو برقرار رکھنے کی کوشش کر رہے ہیں، اور مؤثر طریقے سے اپنے مخالف ورک فلو کو صنعتی بنا رہے ہیں۔"

گوگل نے نتیجہ اخذ کیا کہ چونکہ تنظیمیں LLMs کو پیداواری ماحول میں ضم کرنا جاری رکھتی ہیں، AI سافٹ ویئر ایکو سسٹم استحصال کے لیے ایک بنیادی ہدف کے طور پر ابھرا ہے۔

اس نے مشاہدہ کیا کہ مخالفین ان مربوط اجزاء کو تیزی سے نشانہ بناتے ہیں جو AI سسٹم کو ان کی افادیت فراہم کرتے ہیں، جیسے خود مختار مہارت اور "تھرڈ پارٹی ڈیٹا کنیکٹر"، لیکن خطرے کے اداکاروں نے ابھی تک فرنٹیئر ماڈلز کی بنیادی سیکیورٹی منطق کو نظرانداز کرنے کے لیے پیش رفت کی صلاحیتیں حاصل نہیں کی ہیں۔

جدید ترین مصنوعی ذہانت کے آلے کے طور پر سائبر خطرہ تیار ہوتا ہے، بہتر حفاظتی اقدامات کے بائی پاس کو قابل بناتا ہے، ٹیک دیو کا انکشاف