Cryptonews

La Cour suprême du Nebraska suspend un avocat qui a utilisé l'IA pour rédiger un mémoire rempli de citations fabriquées de toutes pièces

Source
cryptonewstrend.com
Publié
La Cour suprême du Nebraska suspend un avocat qui a utilisé l'IA pour rédiger un mémoire rempli de citations fabriquées de toutes pièces

L'actualité des hallucinations d'IA est passée d'un embarras dans la salle d'audience à une conséquence sur la carrière lorsque la Cour suprême du Nebraska a décidé de suspendre l'avocat d'Omaha, Greg Lake, jusqu'à nouvel ordre, après qu'un mémoire qu'il a soumis lors d'un appel en divorce contenait 57 citations défectueuses sur 63, dont 20 références de cas entièrement fabriquées et quatre cas complètement inventés qui n'existent dans aucune juridiction.

L'actualité des hallucinations d'AI a donné lieu à sa sanction professionnelle la plus sévère aux États-Unis à ce jour lorsque la Cour suprême du Nebraska a prononcé la suspension pour une durée indéterminée de l'avocat Greg Lake le 15 avril, après des mois de procédure qui ont commencé lorsque les juges, lors des plaidoiries de février, ont remarqué que le mémoire contenait des erreurs qu'ils ne pouvaient concilier avec aucune jurisprudence publiée du Nebraska.

Le mémoire avait été déposé dans le cadre d'un appel en divorce contestant la date d'entrée en vigueur du partage des biens matrimoniaux et de la garde des enfants. Sur les 63 citations faites par Lake, 57 contenaient une certaine forme de défaut. Vingt étaient ce que les tribunaux appellent désormais des hallucinations : des références d'apparence réaliste mais entièrement fabriquées, générées par un modèle d'IA qui devinait de manière plausible ce que l'utilisateur demandait et produisait des citations convaincantes mais inexistantes.

Que s'est-il passé lors de la plaidoirie et après

Lorsqu'un juge a demandé à Lake lors de l'audience de février comment les erreurs s'étaient produites, il a déclaré qu'il célébrait son 10e anniversaire de mariage, que son ordinateur était tombé en panne pendant un voyage et qu'il avait téléchargé la mauvaise version du mémoire. Les juges ont trouvé l’explication peu convaincante. Le conseiller disciplinaire a enquêté et a trouvé un récit différent : Lake avait utilisé AI pour rédiger le mémoire, puis l'avait refusé au tribunal, ce qui constituait une violation des règles de conduite professionnelle exigeant la franchise envers le tribunal.

L’opinion unanime de la Cour suprême du Nebraska rejetant le mémoire et renvoyant Lake à la discipline en mars indiquait clairement : « L’IA, comme d’autres outils technologiques, peut être bénéfique pour la communauté juridique, mais elle doit être utilisée avec prudence et humilité. » Le tribunal a déclaré que les erreurs étaient facilement évitables grâce à une vérification de base via des plateformes de recherche juridique standard et a estimé que Lake avait manqué à son devoir de franchise.

Le paysage plus large des sanctions

Le Nebraska n’est pas un cas isolé. Le chercheur Damien Charlotin à HEC Paris, qui gère une base de données sur les cas d'hallucinations IA dans le cadre de procédures judiciaires, suit désormais plus de 1 200 cas de ce type dans le monde, dont environ 800 dans les tribunaux américains. Il a décrit le rythme comme celui d’atteindre « dix affaires portées par dix tribunaux différents en une seule journée ».

L'Oregon détient la sanction globale la plus importante liée à un seul avocat pour des erreurs de dépôt liées à l'IA, à 109 700 $. Le sixième circuit a imposé une amende de 30 000 $ à deux avocats du Tennessee, la plus grande sanction fédérale en appel jamais liée à des citations fabriquées. La suspension indéfinie du Nebraska, si elle est confirmée en appel, serait la première mesure disciplinaire du barreau à suspendre entièrement la pratique en raison d'erreurs de classement liées à l'IA aux États-Unis, aggravant les conséquences allant des sanctions financières à la suspension de carrière.

Pourquoi c'est important pour le secteur de l'IA

Chaque sanction juridique très médiatisée liée aux modèles d’IA envoie un signal réglementaire qui calibre la manière dont les outils d’IA peuvent être utilisés dans des contextes professionnels. Pour l’évaluation des risques liés à l’IA dans le paysage de l’investissement et de la technologie, la réponse de la profession juridique aux hallucinations est le canari dans la mine de charbon : elle définit ce que signifie le « déploiement responsable » dans le premier environnement réglementé à enjeux élevés qui produit des conséquences. Les marchés des jetons d’IA et des infrastructures d’IA seront confrontés à des cadres réglementaires analogues, car la même logique s’étend aux conseils financiers, aux décisions médicales et aux applications gouvernementales des mêmes modèles sous-jacents.