Cryptonews

يحذر جون كولمان من أن قانون الحرس يهدد بتآكل حقوق التعديل الأول

Source
CryptoNewsTrend
Published
يحذر جون كولمان من أن قانون الحرس يهدد بتآكل حقوق التعديل الأول

أثار مشروع قانون مجلس الشيوخ المصمم لحماية الأطفال من روبوتات الدردشة المدعومة بالذكاء الاصطناعي انتقادات من المدافعين عن الحريات المدنية الذين يقولون إنه سيفعل شيئًا أكثر خطورة بكثير: بناء البنية التحتية للمراقبة عبر الإنترنت المرتبطة بالهوية مع تقييد الوصول إلى التعبير المحمي دستوريًا.

ومن شأن قانون GUARD، الذي قدمه السيناتور جوش هاولي، أن يفرض التحقق من العمر للوصول إلى "رفاق الذكاء الاصطناعي"، وهي فئة أنظمة الذكاء الاصطناعي المصممة للتفاعلات التحادثية الشبيهة بالبشر. سيتم حظر المستخدمين الذين تقل أعمارهم عن 18 عامًا تمامًا.

ما يتطلبه قانون GUARD فعليًا

الآلية الأساسية لمشروع القانون هي التحقق الإلزامي من العمر، ولكن ليس من النوع الذي تنقر فيه على مربع اختيار يؤكد أن عمرك يزيد عن 18 عامًا. ويتم استبعاد الإقرار الذاتي صراحةً.

وبدلاً من ذلك، يتطلب قانون GUARD معرفات حقيقية. فكر في السجلات المالية أو المستندات الصادرة عن الحكومة أو غيرها من نقاط البيانات المرتبطة بالهوية. باللغة الإنجليزية: للدردشة مع الذكاء الاصطناعي، ستحتاج إلى إثبات هويتك في العالم الحقيقي، وإنشاء سجل ورقي يربط هويتك بنشاطك عبر الإنترنت.

لقد ألقت النسخة الأصلية من مشروع القانون شبكة واسعة تغطي جميع روبوتات الدردشة التي تعمل بالذكاء الاصطناعي تقريبًا. وبعد معارضة منظمات الحقوق المدنية، قام المشرعون بتضييق النطاق للتركيز بشكل خاص على "رفاق الذكاء الاصطناعي"، وهي فئة أكثر استهدافًا. لكن متطلبات التحقق من العمر ظلت صارمة، ولم تختف المخاوف الأساسية بشأن الخصوصية وحرية التعبير مع التعريف الأضيق.

إن تحديد ما يمكن وصفه بأنه "رفيق الذكاء الاصطناعي" مقابل برنامج الدردشة الآلي العادي ليس بالأمر السهل. يصبح الخط الفاصل بين روبوت خدمة العملاء ومعلم الذكاء الاصطناعي التعليمي ورفيق المحادثة ضبابيًا بسرعة. يخلق هذا الغموض خطرًا على المطورين الذين قد يبالغون في الالتزام لتجنب المسؤولية، مما يقيد بشكل فعال الوصول إلى الأدوات التي لم تكن أبدًا الهدف المقصود لمشروع القانون.

مشكلة التعديل الأول

مشروع القانون لا يضيف فقط الاحتكاك للوصول. إنه يخلق حظرا قاطعا لفئة عمرية بأكملها. ويقول النقاد إن هذا يتجاوز بكثير ما تسمح به الأطر القانونية الحالية، حتى بالنسبة للمحتوى الذي قد يعتبر ضارًا للقاصرين.

وكانت مؤسسة الحدود الإلكترونية صريحة بشكل خاص، ووصفت القانون بأنه إجراء مراقبة ينتهك الخصوصية. حجتهم واضحة ومباشرة: التحقق الإلزامي من الهوية لا يؤثر فقط على القاصرين. إنه يؤثر على الجميع، لأنه يجب على كل مستخدم إثبات عمره للوصول إلى الخدمة. وهذا يعني أن البالغين يقومون بتسليم بيانات شخصية حساسة لمجرد إجراء محادثة مع البرنامج.

وتحذر مؤسسة الحدود الإلكترونية أيضًا من أن مشروع القانون قد يحد من وصول المراهقين إلى الأدوات الرقمية الحيوية، وأن التأثير المروع يمتد إلى ما هو أبعد من المستخدمين الفرديين. يواجه المطورون والشركات التي تبني أدوات الذكاء الاصطناعي مشهدًا للامتثال حيث تتمثل الإستراتيجية القانونية الأكثر أمانًا في فرض قيود أكثر وليس أقل. عندما تكون عقوبة الخطأ في التحقق من العمر قاسية، فإن القرار التجاري العقلاني هو الإفراط في الحظر. وهذا يعني أن الاستخدامات التعليمية المشروعة وأدوات دعم الصحة العقلية والتطبيقات الإبداعية يمكن أن تصبح جميعها أضرارًا جانبية.

قلق البنية التحتية للمراقبة

وبمجرد مطالبة المنصات بجمع وثائق الهوية الحقيقية والتحقق منها، فإن البنية التحتية للبيانات لا تختفي عندما يستمر النقاش حول السياسة. وتصبح سمة دائمة لكيفية تفاعل الأشخاص مع أنظمة الذكاء الاصطناعي، وهي قاعدة بيانات تربط الهويات الحقيقية بالمحادثات الرقمية.

إن إطار EFF صريح: هذه هي بنية المراقبة التي ترتدي زي تشريعات سلامة الأطفال. إن الأنظمة التي تتحقق من الهوية تقوم بالضرورة بجمع الهوية، والبيانات المجمعة هي بيانات يمكن اختراقها أو استدعائها أو إعادة استخدامها.

تخلق تفويضات التحقق من العمر حواجز أمام الدخول والتي تؤثر بشكل غير متناسب على الشركات الصغيرة والمشاريع مفتوحة المصدر. يمكن لشركة تقنية كبيرة استيعاب تكلفة بناء البنية التحتية للتحقق من الهوية. لا تستطيع شركة ناشئة مكونة من شخصين بناء ذكاء اصطناعي تعليمي.

ماذا يعني هذا بالنسبة لصناعة الذكاء الاصطناعي

يُظهر التضييق من "جميع روبوتات الدردشة المستندة إلى الذكاء الاصطناعي" إلى "رفاق الذكاء الاصطناعي" أن فترات الضغط والتعليق العام يمكن أن تشكل النص النهائي. لكن البنية الأساسية للتحقق من الهوية ظلت سليمة بعد تلك المراجعة.

بالنسبة للمستخدمين، يعتمد التأثير العملي كليًا على مدى تعريف "رفيق الذكاء الاصطناعي" على نطاق واسع في التنفيذ التنظيمي. إذا ظل التعريف ضيقًا، فلن يلاحظ معظم الناس. إذا تم توسيعه من خلال وضع القواعد أو التفسير القضائي، فإن متطلب التحقق يمكن أن يمس نطاقًا أوسع بكثير من تفاعلات الذكاء الاصطناعي مما يقترحه رعاة مشروع القانون حاليًا.