Los dispositivos de red maliciosos plantean un riesgo emergente para los expertos técnicos de la industria criptográfica

Un equipo de la Universidad de California ha descubierto importantes vulnerabilidades de seguridad en ciertas plataformas de enrutamiento de inteligencia artificial de terceros que permiten el robo de credenciales de criptomonedas y la inserción de código dañino en entornos de desarrollo. 26 enrutadores LLM inyectan secretamente llamadas a herramientas maliciosas y roban créditos. Uno vació la billetera de $500 mil de nuestro cliente. También logramos envenenar los enrutadores para que nos reenviaran el tráfico. En unas pocas horas, podemos encargarnos directamente de ~400 hosts. Consulte nuestro artículo: https://t.co/zyWz25CDpl pic.twitter.com/PlhmOYz2ec — Chaofan Shou (@Fried_rice) 10 de abril de 2026 Los hallazgos de la investigación aparecieron en un artículo académico recientemente publicado que examina lo que los investigadores denominaron “ataques intermediarios maliciosos” dirigidos al ecosistema de infraestructura del modelo de lenguaje grande (LLM). Estas plataformas de enrutamiento de IA funcionan como servicios intermediarios ubicados entre los desarrolladores de software y los principales proveedores de servicios de IA, como OpenAI, Anthropic y Google. Su función principal consiste en gestionar y dirigir el tráfico API a través de varias plataformas de IA. La falla de seguridad fundamental se debe a que estos enrutadores terminan conexiones cifradas. Este diseño arquitectónico les otorga visibilidad completa y sin cifrar de cada comunicación que fluye a través de sus sistemas. Los desarrolladores de blockchain que utilizan asistentes de codificación impulsados por IA, como Claude Code, para el desarrollo de contratos inteligentes o la creación de billeteras de criptomonedas, pueden estar exponiendo, sin saberlo, claves privadas y frases iniciales a través de estas plataformas intermediarias. La investigación examinó 28 servicios de enrutamiento comerciales junto con 400 alternativas gratuitas recopiladas de varias comunidades de desarrolladores en línea. Los resultados revelaron que nueve plataformas insertaban activamente instrucciones maliciosas, dos empleaban técnicas de evasión sofisticadas y 17 intentaban capturar credenciales de autenticación de Amazon Web Services controladas por investigadores. En un caso documentado, un servicio de enrutamiento retiró con éxito Ether de una billetera deliberadamente vulnerable establecida por el equipo de investigación. El impacto financiero fue documentado como menos de $50. Según los investigadores, distinguir entre el procesamiento de credenciales legítimo y el robo real resulta prácticamente imposible para los usuarios finales, dado que las plataformas de enrutamiento acceden inherentemente a información confidencial en texto sin formato durante las operaciones normales. El artículo académico destacó una opción de configuración particularmente preocupante presente en numerosas plataformas de agentes de IA denominada "modo YOLO". Cuando se activa, esta función permite que los sistemas de IA ejecuten operaciones de forma autónoma, sin pasar por las solicitudes de autorización de los usuarios individuales. Esta funcionalidad amplifica significativamente la amenaza a la seguridad. Cuando una plataforma de enrutamiento introduce comandos maliciosos, el modo YOLO permite su ejecución sin ninguna oportunidad de intervención o supervisión humana. Los investigadores también descubrieron que servicios de enrutamiento que antes eran confiables pueden verse comprometidos de manera encubierta sin que los operadores detecten el cambio. En particular, las plataformas de enrutamiento gratuitas pueden anunciar un acceso API económico como estrategia de adquisición y, al mismo tiempo, recolectar credenciales. El equipo de investigación recomendó que los desarrolladores implementen sólidas medidas de seguridad del lado del cliente y establezcan protocolos estrictos que prohíban la transmisión de claves privadas o frases de recuperación a través de cualquier entorno de agente de IA. Para encontrar una solución integral, los investigadores propusieron que los proveedores de servicios de inteligencia artificial implementen la firma criptográfica de sus resultados. Este mecanismo permitiría a los desarrolladores autenticar que las instrucciones recibidas por sus agentes realmente se originaron en el modelo de IA designado. El coautor Chaofan Shou anunció en X que "26 enrutadores LLM están inyectando secretamente llamadas a herramientas maliciosas y robando créditos". El equipo de investigación enfatizó que las plataformas de enrutamiento API LLM ocupan un límite de seguridad crítico que la industria de la inteligencia artificial actualmente asume como confiable de forma predeterminada. El documento publicado no incluía detalles específicos, como identificadores de transacciones de blockchain para el incidente de la billetera comprometida.