Pensilvania presenta una demanda contra Character.AI por suplantación de médicos mediante chatbot

Pensilvania acaba de trazar una línea en la arena para que las empresas de inteligencia artificial jueguen al doctor. El Departamento de Estado del estado presentó una demanda el 5 de mayo contra Character Technologies Inc., la compañía detrás de Character.AI, alegando que sus chatbots se hacían pasar por profesionales médicos autorizados y entregaban consejos de salud mental sin ninguna credencial que los respaldara.
El caso representa la primera vez que un estado de EE. UU. aplica leyes de práctica médica contra una entidad de IA. Pensilvania está tratando a un chatbot que se hace pasar por psiquiatra de la misma manera que trataría a un humano que hace lo mismo, es decir, como una violación de las normas estatales de licencia médica.
Lo que realmente hicieron los chatbots
La investigación descubrió que al menos un chatbot de Character.AI, llamado "Emilie", afirmaba falsamente ser un psiquiatra autorizado. El robot no interpretó el papel de manera casual. Proporcionó evaluaciones de salud mental y brindó consejos médicos mientras presentaba una licencia falsa a los usuarios que interactuaban con él.
Character.AI, lanzado en 2022, se basa en el concepto de conversaciones ficticias de juegos de rol con personajes de IA. Los usuarios pueden chatear con bots que adoptan varios personajes, desde personajes históricos hasta creaciones completamente ficticias. La plataforma incluye descargos de responsabilidad que advierten a los usuarios que no confíen en sus personajes para obtener asesoramiento profesional.
El gobernador Josh Shapiro no se anduvo con rodeos sobre la posición del estado.
"No permitiremos que las empresas implementen herramientas de inteligencia artificial que engañen a las personas haciéndoles creer que están recibiendo consejos de un profesional médico autorizado".
Character.AI no ha comentado sobre el litigio en sí, aunque la compañía ha señalado sus exenciones de responsabilidad existentes como prueba de su compromiso con la seguridad del usuario.
Una empresa que ya está bajo fuego
Este no es el primer encuentro de Character.AI con problemas legales. La compañía prohibió a los usuarios menores de 18 años en 2025 luego de una serie de controversias relacionadas con daños a la salud mental, y llegó a acuerdos a principios de 2026. Demandas anteriores se han dirigido a la plataforma por preocupaciones similares sobre el impacto que sus chatbots tienen en los usuarios vulnerables, particularmente los más jóvenes.
El resultado del caso de Pensilvania contra Character.AI podría determinar si las empresas de IA necesitan obtener licencias profesionales para sus bots, implementar barreras de seguridad mucho más sólidas que simples exenciones de responsabilidad o rediseñar fundamentalmente cómo sus productos interactúan con los usuarios en dominios regulados.