Cryptonews

La Corte Suprema de Nebraska suspende a un abogado que utilizó inteligencia artificial para escribir un escrito lleno de citas inventadas

Fuente
cryptonewstrend.com
Publicado
La Corte Suprema de Nebraska suspende a un abogado que utilizó inteligencia artificial para escribir un escrito lleno de citas inventadas

Las noticias sobre alucinaciones de IA pasaron de la vergüenza en los tribunales a las consecuencias profesionales cuando la Corte Suprema de Nebraska decidió suspender al abogado de Omaha Greg Lake hasta nuevo aviso, después de que un escrito judicial que presentó en una apelación de divorcio contenía 57 citaciones defectuosas de 63, incluidas 20 referencias de casos completamente inventados y cuatro casos completamente inventados que no existen en ninguna jurisdicción.

Las noticias sobre alucinaciones de AI han producido su sanción profesional más severa en los Estados Unidos hasta la fecha cuando la Corte Suprema de Nebraska dictó una suspensión indefinida del abogado Greg Lake el 15 de abril, después de meses de procedimientos que comenzaron cuando los jueces en el alegato oral en febrero notaron que el escrito contenía errores que no podían conciliar con ninguna jurisprudencia publicada en Nebraska.

El escrito había sido presentado en un recurso de divorcio en el que se disputaba la fecha de vigencia de la división de los bienes conyugales y la custodia de los hijos. De 63 citas que hizo Lake, 57 contenían algún tipo de defecto. Veinte eran lo que los tribunales ahora llaman alucinaciones: referencias de apariencia realista pero completamente inventadas, generadas por un modelo de inteligencia artificial que adivinaba de manera plausible lo que el usuario estaba pidiendo y producía citas de apariencia convincente pero inexistentes.

Qué sucedió durante el argumento oral y después

Cuando un juez le preguntó a Lake durante la audiencia de febrero cómo habían ocurrido los errores, él dijo que estaba en su décimo aniversario de bodas, que su computadora se había roto mientras viajaba y que había subido la versión incorrecta del escrito. Los jueces encontraron la explicación poco convincente. El Consejo de Disciplina investigó y encontró una versión diferente: que Lake había utilizado AI para redactar el escrito y luego se lo negó al tribunal, lo que constituía una violación de las reglas de conducta profesional que exigían franqueza hacia el tribunal.

La opinión unánime de la Corte Suprema de Nebraska que rechazó el escrito y remitió a Lake a medidas disciplinarias en marzo decía claramente: “La IA, al igual que otras herramientas tecnológicas, puede ser un beneficio para la comunidad jurídica, pero debe usarse con precaución y humildad”. El tribunal consideró que los errores se podían prevenir fácilmente con una verificación básica a través de plataformas de investigación jurídica estándar y concluyó que Lake había demostrado un incumplimiento de su deber de franqueza.

El panorama más amplio de las sanciones

Nebraska no es un caso aislado. El investigador Damien Charlotin de HEC París, que mantiene una base de datos de casos de alucinaciones por IA en procedimientos legales, ahora rastrea más de 1.200 casos de este tipo en todo el mundo, de los cuales aproximadamente 800 provienen de tribunales estadounidenses. Ha descrito el ritmo como el de llegar a “diez casos de diez tribunales diferentes en un solo día”.

Oregon tiene la sanción agregada más grande vinculada a un solo abogado por errores de presentación relacionados con AI, con $109,700. El Sexto Circuito impuso una multa de 30.000 dólares a dos abogados de Tennessee, la mayor sanción federal de apelación hasta ahora vinculada a citaciones fabricadas. La suspensión indefinida de Nebraska, si se confirma en cualquier apelación, sería la primera acción disciplinaria del colegio de abogados que suspendería por completo la práctica por errores de presentación relacionados con la IA en los EE. UU., aumentando las consecuencias desde sanciones financieras hasta la suspensión de la carrera.

Por qué esto es importante para el sector de la IA

Cada sanción legal de alto perfil vinculada a los modelos de IA envía una señal regulatoria que calibra cómo se permite el uso de las herramientas de IA en entornos profesionales. Para las evaluaciones de riesgos de la IA en todo el panorama de inversión y tecnología, la respuesta de la profesión jurídica a las alucinaciones es el canario en la mina de carbón: define lo que significa “despliegue responsable” en el primer entorno regulado de alto riesgo que produce consecuencias. Los mercados de tokens de IA y de infraestructura de IA enfrentarán marcos regulatorios análogos, ya que la misma lógica se extiende al asesoramiento financiero, las decisiones médicas y las aplicaciones gubernamentales de los mismos modelos subyacentes.