La Unión Europea llega a un punto muerto sobre las regulaciones revisadas sobre inteligencia artificial

El 28 de abril de 2026, los países de la Unión Europea (UE) y los legisladores del Parlamento Europeo no lograron llegar a un acuerdo sobre las enmiendas suavizadas propuestas a la histórica Ley de IA después de 12 horas de negociaciones en Bruselas.
Las conversaciones, que forman parte del Ómnibus Digital de la Comisión Europea, tenían como objetivo flexibilizar las reglas para las empresas que compiten con rivales estadounidenses y asiáticos, pero se estancaron por exenciones y requisitos de IA de alto riesgo.
Fracasan las negociaciones para modificar la Ley de IA de la UE
Según las fuentes, los países de la UE y los legisladores del Parlamento Europeo concluyeron un diálogo tripartito de 12 horas el 29 de abril de 2026, sin llegar a un acuerdo sobre enmiendas a la Ley de IA. La iniciativa Digital Omnibus impulsa debates para simplificar las normas digitales de la UE, incluida la aplicación gradual de modelos de IA de uso general y sistemas de alto riesgo, cuya implementación ya se implementará a partir de 2024.
Un funcionario chipriota, hablando en nombre de la actual presidencia del Consejo de la UE, afirmó: “No fue posible llegar a un acuerdo con el Parlamento Europeo”. El legislador holandés Kim van Sparrentak criticó el resultado y afirmó: "Las grandes tecnológicas probablemente estén descorchando champán. Mientras que las empresas europeas que se preocupan por la seguridad e hicieron sus deberes se enfrentan ahora al caos regulatorio".
Por qué fracasaron las conversaciones para modificar la Ley de IA de la UE
Las negociaciones fracasaron principalmente debido a desacuerdos sobre las exenciones para sectores ya regulados por los marcos existentes, en particular las normas de seguridad de los productos. Varios estados miembros y legisladores abogan por excepciones, argumentando que obligaciones adicionales de la Ley de IA duplicarían los requisitos de cumplimiento, aumentarían la carga regulatoria y obstaculizarían la innovación en industrias que ya están estrictamente reguladas.
Al mismo tiempo, la Ley de IA de la UE impone estrictos requisitos de cumplimiento para los sistemas de IA de alto riesgo, incluida la identificación biométrica, la infraestructura crítica, el diagnóstico sanitario, la calificación crediticia y las aplicaciones de aplicación de la ley. El paquete Digital Omnibus también propone reformas a la regulación digital de la UE, que afectarán al RGPD, la Directiva de Privacidad Electrónica y la Ley de Datos.
¿Qué sigue para la criptoIA de la UE después del retraso regulatorio?
Las negociaciones sobre las enmiendas a la Ley de IA de la UE se reanudarán en mayo, aunque los plazos existentes se mantendrán sin cambios. Aún está previsto que las obligaciones de alto riesgo entren en vigor en agosto de 2026, lo que dejará a los desarrolladores de agentes de IA en cadena, protocolos DeFi autónomos, herramientas de auditoría de contratos inteligentes y plataformas de activos tokenizados operando en medio de incertidumbre regulatoria.
Esta incertidumbre se ve agravada por la brecha cada vez mayor de Europa en la inversión en inteligencia artificial. Según el informe del Índice de IA de Stanford de 2026, la UE atrajo sólo entre 7.000 y 8.000 millones de dólares en inversiones privadas en IA en 2025, muy por debajo de Estados Unidos con 285.900 millones de dólares y China con 12.400 millones de dólares. Este desequilibrio refleja un desafío de competitividad más amplio, en el que las limitadas entradas de capital restringen la innovación en IA, limitan la escalabilidad y debilitan la capacidad de Europa para atraer y retener talentos de primer nivel.
Como resultado, los proyectos europeos de criptointeligencia artificial recurren cada vez más a entornos limitados de pruebas regulatorios nacionales para probar e implementar tecnologías emergentes. Al mismo tiempo, las preocupaciones de los grupos de la sociedad civil sugieren que los esfuerzos en curso de simplificación regulatoria podrían debilitar los estándares de protección de datos y aumentar la influencia de las grandes tecnologías sobre la gobernanza de la IA. Juntos, estos factores crean una incertidumbre prolongada que puede perjudicar aún más a la UE en la carrera global de innovación en inteligencia artificial y criptografía.
Relacionado: ¿Por qué la Ley CLARITY sigue estancada? ¡Principales razones por las cuales!