Cryptonews

Americans for Responsible Innovation insta a EE. UU. a exigir revisiones de seguridad de la IA para los contratos gubernamentales

Source
CryptoNewsTrend
Published
Americans for Responsible Innovation insta a EE. UU. a exigir revisiones de seguridad de la IA para los contratos gubernamentales

Americans for Responsible Innovation, una organización sin fines de lucro centrada en políticas de IA, está presionando a la administración Trump para que exija revisiones de seguridad obligatorias para cualquier laboratorio de IA que quiera tener una oportunidad de obtener contratos con el gobierno de Estados Unidos. La recomendación, hecha el 11 de mayo de 2026, está dirigida a los desarrolladores que construyen los llamados modelos “de frontera”, los sistemas de inteligencia artificial más poderosos y potencialmente peligrosos que existen.

La propuesta de ARI se centra en evaluaciones de seguridad estructuradas que servirían como mecanismo de activación para las adquisiciones federales. Un laboratorio de IA que construya modelos de frontera necesitaría demostrar que sus sistemas han sido examinados para detectar posibles usos indebidos antes de calificar para cualquier contrato gubernamental.

El 6 de abril de 2026, el grupo advirtió a la Administración de Servicios Generales sobre los riesgos inherentes a las vagas cláusulas de “cualquier uso legal” que se encuentran en las regulaciones de adquisición de IA existentes. Esas cláusulas, argumentó ARI, esencialmente dan a los sistemas de IA un cheque en blanco para operar sin barreras de seguridad significativas una vez que están dentro de los sistemas gubernamentales.

ARI apunta a una tasa de crecimiento anual de 4,2 veces en la computación de IA desde 2010, una trayectoria que sugiere que las capacidades de los modelos de frontera se están expandiendo mucho más rápido que la capacidad del gobierno para evaluarlos. Mientras tanto, el 82% del público no confía en que los ejecutivos tecnológicos regulen la IA por sí solos.

El 24 de marzo de 2026, la CFTC anunció un grupo de trabajo destinado específicamente a regular el papel de la IA en los activos digitales. ARI es relativamente nuevo en la escena de la regulación de la IA y el grupo no ha establecido conexiones explícitas con las criptomonedas o los activos digitales en sus recomendaciones.

Si las revisiones de seguridad obligatorias se hacen realidad, el impacto más inmediato recaerá en las empresas de IA que obtienen importantes ingresos de contratos gubernamentales. Los costos de cumplimiento aumentarían. Los plazos para conseguir contratos se alargarían. Las nuevas empresas de IA más pequeñas, que a menudo carecen de recursos para realizar auditorías de seguridad exhaustivas, podrían quedar completamente excluidas del mercado federal.

El grupo de trabajo de la CFTC sobre IA y activos digitales sugiere que los reguladores ya están pensando en cómo la gobernanza de la IA se cruza con los sistemas basados ​​en blockchain. Los inversores en tokens y proyectos relacionados con la IA deberían prestar atención a cómo la administración y el Congreso reciben esta propuesta, ya que los mandatos de seguridad que ganan impulso político requerirían que el mercado tenga en cuenta mayores costos de cumplimiento en todo el sector de la IA, incluidas las empresas que se construyen en la intersección de la IA y las criptomonedas.

Americans for Responsible Innovation insta a EE. UU. a exigir revisiones de seguridad de la IA para los contratos gubernamentales