جان کولمین نے خبردار کیا کہ گارڈ ایکٹ پہلی ترمیم کے حقوق کو ختم کرنے کا خطرہ ہے۔

بچوں کو AI چیٹ بوٹس سے بچانے کے لیے بنایا گیا سینیٹ کا بل شہری آزادیوں کے حامیوں کی طرف سے آگ لگا رہا ہے جو کہتے ہیں کہ یہ کہیں زیادہ خطرناک کام کرے گا: آئینی طور پر محفوظ تقریر تک رسائی کو محدود کرتے ہوئے شناخت سے منسلک آن لائن نگرانی کے لیے بنیادی ڈھانچہ تیار کریں۔
GUARD ایکٹ، جسے سینیٹر جوش ہولی نے متعارف کرایا ہے، "AI ساتھیوں" تک رسائی کے لیے عمر کی توثیق کو لازمی قرار دے گا، جو کہ انسانوں کی طرح کی بات چیت کے لیے تیار کردہ AI سسٹمز کے زمرے میں ہے۔ 18 سال سے کم عمر کے صارفین پر مکمل پابندی ہوگی۔
GUARD ایکٹ کی اصل میں کیا ضرورت ہے۔
بل کا بنیادی طریقہ کار لازمی عمر کی توثیق ہے، لیکن اس قسم کا نہیں جہاں آپ چیک باکس پر کلک کرتے ہوئے تصدیق کرتے ہیں کہ آپ کی عمر 18 سال سے زیادہ ہے۔ خود کی تصدیق کو واضح طور پر مسترد کر دیا گیا ہے۔
اس کے بجائے، گارڈ ایکٹ حقیقی دنیا کے شناخت کنندگان کا مطالبہ کرتا ہے۔ مالی ریکارڈ، حکومت کی طرف سے جاری کردہ دستاویزات، یا شناخت سے منسلک دیگر ڈیٹا پوائنٹس کے بارے میں سوچیں۔ انگریزی میں: AI کے ساتھ چیٹ کرنے کے لیے، آپ کو یہ ثابت کرنا ہوگا کہ آپ حقیقی دنیا میں کون ہیں، آپ کی شناخت کو آپ کی آن لائن سرگرمی سے مربوط کرنے کے لیے ایک کاغذی پگڈنڈی بنا کر۔
بل کے اصل ورژن نے ایک وسیع جال ڈالا، جس میں تقریباً تمام AI چیٹ بوٹس شامل ہیں۔ شہری حقوق کی تنظیموں کی طرف سے پش بیک کے بعد، قانون سازوں نے خاص طور پر "AI ساتھیوں" پر توجہ مرکوز کرنے کا دائرہ کم کر دیا، ایک زیادہ ٹارگٹڈ زمرہ۔ لیکن عمر کی توثیق کے تقاضے سخت رہے، اور پرائیویسی اور تقریر کے بارے میں بنیادی خدشات تنگ تعریف کے ساتھ دور نہیں ہوئے ہیں۔
باقاعدہ چیٹ بوٹ کے مقابلے میں "AI ساتھی" کے طور پر اہل ہونے کی وضاحت کرنا کوئی معمولی مشق نہیں ہے۔ کسٹمر سروس بوٹ، ایک تعلیمی AI ٹیوٹر، اور بات چیت کرنے والے ساتھی کے درمیان لائن تیزی سے دھندلی ہو جاتی ہے۔ یہ ابہام ڈویلپرز کے لیے خطرہ پیدا کرتا ہے جو ذمہ داری سے بچنے کے لیے حد سے زیادہ تعمیل کر سکتے ہیں، مؤثر طریقے سے ان ٹولز تک رسائی کو محدود کر دیتے ہیں جو کبھی بل کا مطلوبہ ہدف نہیں تھے۔
پہلی ترمیم کا مسئلہ
بل صرف رسائی میں رگڑ کا اضافہ نہیں کرتا ہے۔ یہ پوری عمر کے گروپ کے لیے ایک واضح پابندی پیدا کرتا ہے۔ ناقدین کا کہنا ہے کہ یہ موجودہ قانونی فریم ورک کی اجازت سے بالاتر ہے، یہاں تک کہ ایسے مواد کے لیے جو نابالغوں کے لیے نقصان دہ سمجھا جا سکتا ہے۔
الیکٹرانک فرنٹیئر فاؤنڈیشن خاص طور پر آواز اٹھا رہی ہے، جو قانون کو رازداری کی خلاف ورزی کرنے والے نگرانی کے اقدام کے طور پر بیان کرتی ہے۔ ان کی دلیل سیدھی ہے: شناخت کی لازمی تصدیق صرف نابالغوں کو متاثر نہیں کرتی۔ یہ ہر ایک کو متاثر کرتا ہے، کیونکہ ہر صارف کو سروس تک رسائی کے لیے اپنی عمر ثابت کرنی ہوگی۔ اس کا مطلب ہے کہ بالغ افراد صرف سافٹ ویئر کے ساتھ بات چیت کرنے کے لیے حساس ذاتی ڈیٹا کے حوالے کرتے ہیں۔
EFF نے یہ بھی انتباہ کیا ہے کہ یہ بل اہم ڈیجیٹل ٹولز تک نوجوانوں کی رسائی کو محدود کر سکتا ہے، اور یہ کہ ٹھنڈک اثر انفرادی صارفین سے آگے بڑھتا ہے۔ AI ٹولز بنانے والے ڈویلپرز اور کمپنیوں کو تعمیل کے منظر نامے کا سامنا ہے جہاں سب سے محفوظ قانونی حکمت عملی زیادہ محدود کرنا ہے، کم نہیں۔ جب عمر کی توثیق غلط ہونے کی سزا سخت ہوتی ہے، تو عقلی کاروباری فیصلہ اوور بلاک کرنا ہوتا ہے۔ اس کا مطلب یہ ہے کہ جائز تعلیمی استعمال، دماغی صحت کے لیے معاونت کے اوزار، اور تخلیقی ایپلی کیشنز سب کولیٹرل نقصان بن سکتے ہیں۔
نگرانی کے بنیادی ڈھانچے کی تشویش
ایک بار جب پلیٹ فارمز کو حقیقی دنیا کی شناختی دستاویزات کو جمع کرنے اور اس کی تصدیق کرنے کی ضرورت پڑ جاتی ہے، تو وہ ڈیٹا انفراسٹرکچر غائب نہیں ہوتا جب پالیسی پر بحث ہوتی ہے۔ یہ ایک مستقل خصوصیت بن جاتا ہے کہ لوگ کس طرح AI سسٹمز کے ساتھ تعامل کرتے ہیں، ایک ڈیٹا بیس جو حقیقی شناخت کو ڈیجیٹل بات چیت سے جوڑتا ہے۔
EFF کی تشکیل دو ٹوک ہے: یہ نگرانی کا فن تعمیر ہے جسے بچوں کی حفاظت کے قانون کے طور پر تیار کیا گیا ہے۔ وہ سسٹم جو شناخت کی تصدیق کرتے ہیں لازمی طور پر شناخت جمع کرتے ہیں، اور جمع کردہ ڈیٹا وہ ڈیٹا ہوتا ہے جس کی خلاف ورزی کی جا سکتی ہے، اسے پیش کیا جا سکتا ہے یا دوبارہ پیش کیا جا سکتا ہے۔
عمر کی توثیق کے مینڈیٹ داخلے میں رکاوٹیں پیدا کرتے ہیں جو غیر متناسب طور پر چھوٹی کمپنیوں اور اوپن سورس پروجیکٹس کو متاثر کرتے ہیں۔ ایک بڑی ٹیک فرم شناخت کی تصدیق کے بنیادی ڈھانچے کی تعمیر کی لاگت کو جذب کر سکتی ہے۔ ایک دو افراد پر مشتمل اسٹارٹ اپ ایک تعلیمی AI نہیں بنا سکتا۔
AI انڈسٹری کے لیے اس کا کیا مطلب ہے۔
"تمام AI چیٹ بوٹس" سے "AI ساتھی" تک محدود ہونا ظاہر کرتا ہے کہ لابنگ اور عوامی تبصرے کے دورانیے حتمی متن کو تشکیل دے سکتے ہیں۔ لیکن شناخت کی تصدیق کا بنیادی فن تعمیر اس نظرثانی کو برقرار رکھا۔
صارفین کے لیے، عملی اثر مکمل طور پر اس بات پر منحصر ہے کہ ریگولیٹری نفاذ میں "AI ساتھی" کو کس حد تک وسیع پیمانے پر بیان کیا جاتا ہے۔ اگر تعریف تنگ رہتی ہے، تو زیادہ تر لوگ اس پر توجہ نہیں دیں گے۔ اگر یہ اصول سازی یا عدالتی تشریح کے ذریعے پھیلتا ہے، تو تصدیق کی ضرورت AI تعاملات کی بہت وسیع رینج کو چھو سکتی ہے جتنا کہ بل کے اسپانسرز فی الحال تجویز کرتے ہیں۔