Cryptonews

منقطع داخلی رسک مینجمنٹ یونٹس کی رپورٹوں کے درمیان محققین کو اے آئی سسٹمز میں ممکنہ خطرات کی نشاندہی کرنے کے لیے فنڈنگ ​​ملتی ہے۔

ماخذ
cryptonewstrend.com
شائع شدہ
منقطع داخلی رسک مینجمنٹ یونٹس کی رپورٹوں کے درمیان محققین کو اے آئی سسٹمز میں ممکنہ خطرات کی نشاندہی کرنے کے لیے فنڈنگ ​​ملتی ہے۔

ایک اہم اقدام میں، OpenAI نے ایک سیفٹی فیلوشپ پروگرام کی نقاب کشائی کی ہے، جس میں بیرونی محققین کو $3,850 کا خاطر خواہ ہفتہ وار وظیفہ پیش کیا گیا ہے جو کہ ایڈوانسڈ AI سے وابستہ ممکنہ خطرات کی جانچ پڑتال کے لیے ذمہ دار ہیں۔ یہ اعلان، 6 اپریل کو کیا گیا، دی نیویارکر کی ایک انکشافی تحقیقات کے ساتھ موافق ہے، جس نے یہ انکشاف کیا کہ OpenAI نے اپنی داخلی حفاظتی ٹیموں کو ختم کر دیا ہے اور IRS کے پاس دائر کردہ اپنے مشن کے بیان سے "محفوظ طریقے سے" کی اصطلاح کو ہٹا دیا ہے۔ فیلوشپ، ایک پائلٹ پروگرام کے طور پر ڈیزائن کی گئی ہے، اس کا مقصد حفاظت اور صف بندی میں آزاد تحقیق کو فروغ دینا ہے، جبکہ اس اہم شعبے میں ہنر کی اگلی نسل کو پروان چڑھانا ہے۔

پروگرام کی فراخدلی ترغیبات میں $3,850 کا ہفتہ وار وظیفہ شامل ہے، جو کہ $200,000 فی سال کے برابر ہے، تقریباً$15,000 مالیت کے کمپیوٹیشنل وسائل اور OpenAI کے ماہر محققین کی رہنمائی کے علاوہ۔ فیلوز کے پاس کنسٹیلیشن کے برکلے ورک اسپیس سے یا ریموٹ سے کام کرنے کی لچک ہوگی، درخواستیں 3 مئی کو بند ہونے کے ساتھ۔ قابل ذکر بات یہ ہے کہ فیلوشپ صرف AI ماہرین تک محدود نہیں ہے، کیونکہ OpenAI مختلف پس منظر کے امیدواروں کو تلاش کر رہا ہے، بشمول سائبر سیکیورٹی، سماجی علوم، اور کمپیوٹر سائنس کے علاوہ انسانی کمپیوٹر کے تعامل میں۔

اعلان کا وقت خاص طور پر قابل ذکر ہے، کیونکہ یہ نیویارکر میں رونن فیرو کی تحقیقاتی رپورٹ کے بعد سامنے آیا ہے، جس میں 22 ماہ کے عرصے میں OpenAI میں مسلسل تین داخلی حفاظتی ٹیموں کے انتقال کی دستاویز کی گئی ہے۔ سپر الائنمنٹ ٹیم مئی 2024 میں منقطع ہونے والی پہلی ٹیم تھی، اس کے بعد اکتوبر 2024 میں AGI ریڈینس ٹیم، اور آخر میں، فروری 2026 میں مشن الائنمنٹ ٹیم۔ ایک اوپن اے آئی کے نمائندے کی طرف سے ایک حیران کن تبصرہ، وجودی حفاظت کے محققین کے بارے میں صحافی کے استفسار کے جواب میں، اس بات پر زور دیا کہ آپ کی ایپ یا کمپنی کا مطلب ہے: کیا یہ کوئی چیز نہیں ہے؟"

یہ نوٹ کرنا ضروری ہے کہ سیفٹی فیلوشپ کا مقصد اندرونی انفراسٹرکچر کو تبدیل کرنا نہیں ہے جسے تحلیل کیا گیا تھا۔ اس کے بجائے، فیلوز API کریڈٹس اور کمپیوٹیشنل وسائل حاصل کریں گے، لیکن انہیں OpenAI کے سسٹمز تک براہ راست رسائی حاصل نہیں ہوگی، پروگرام کو بازو کی لمبائی کی تحقیقی فنڈنگ ​​کی شکل کے طور پر رکھا جائے گا۔ رفاقت کا تحقیقی ایجنڈا سات اہم شعبوں پر محیط ہے، بشمول حفاظتی تشخیص، اخلاقیات، مضبوطی، اور قابل توسیع تخفیف، اور دیگر۔ فروری 2027 میں پروگرام کے اختتام تک، ہر ساتھی سے ایک تحقیقی مقالہ، بینچ مارک، یا ڈیٹاسیٹ جیسی خاطر خواہ پیداوار کی توقع کی جاتی ہے۔ OpenAI نے اس بات پر زور دیا ہے کہ وہ تحقیقی صلاحیت، تکنیکی فیصلے، اور عمل درآمد کی صلاحیت کو مخصوص تعلیمی اسناد پر ترجیح دیتا ہے۔

اس ترقی کے مضمرات AI صنعت سے بہت آگے تک پھیلے ہوئے ہیں، کیونکہ اس کے وسیع تر مارکیٹ پر اہم اثرات ہیں۔ فرنٹیئر AI کمپنیوں کے حفاظتی وعدوں پر اعتماد ایک اہم مارکیٹ سگنل کے طور پر کام کرتا ہے، جو AI انفراسٹرکچر، AI ٹوکنز، اور DePIN اور AI ایجنٹ پروٹوکولز میں سرمایہ کی تقسیم کو متاثر کرتا ہے، جو کرپٹو کرنسی اور مصنوعی ذہانت کے سنگم پر بیٹھتے ہیں۔ چونکہ سرمایہ کار OpenAI کے اخراجات کی رفتار اور آپریشنل ترجیحات کی قریب سے نگرانی کرتے ہیں، اس فیلوشپ پروگرام کی کامیابی کا گہری نظر سے مشاہدہ کیا جائے گا۔ اس سوال کا کہ آیا بیرونی محققین، اندرونی رسائی کے بغیر کام کر رہے ہیں، ماڈل کی ترقی کو معنی خیز طور پر متاثر کر سکتے ہیں، اس کا جواب اس وقت ملنا شروع ہو جائے گا جب 2027 کے اوائل میں پہلی جماعت کی تحقیق کی نقاب کشائی کی جائے گی۔