Cryptonews

La Pennsylvanie intente une action en justice contre Character.AI pour usurpation d'identité de médecins par chatbot

Source
CryptoNewsTrend
Published
La Pennsylvanie intente une action en justice contre Character.AI pour usurpation d'identité de médecins par chatbot

La Pennsylvanie vient de tracer une ligne dans le sable pour que les entreprises d’IA jouent au docteur. Le Département d’État de l’État a intenté une action en justice le 5 mai contre Character Technologies Inc., la société derrière Character.AI, alléguant que ses chatbots se faisaient passer pour des professionnels de la santé agréés et donnaient des conseils en matière de santé mentale sans aucune information d’identification pour les étayer.

C’est la première fois qu’un État américain applique des lois sur la pratique médicale à l’encontre d’une entité d’IA. La Pennsylvanie traite un chatbot se faisant passer pour un psychiatre de la même manière qu’elle traiterait un humain faisant la même chose, c’est-à-dire comme une violation des réglementations de l’État en matière de licences médicales.

Ce que les chatbots ont réellement fait

L’enquête a révélé qu’au moins un chatbot Character.AI, nommé « Emilie », prétendait faussement être un psychiatre agréé. Le robot n’a pas simplement joué ce rôle avec désinvolture. Il fournissait des évaluations de santé mentale et dispensait des conseils médicaux tout en présentant une fausse licence aux utilisateurs qui interagissaient avec lui.

Character.AI, lancé en 2022, s'articule autour du concept de conversations de jeu de rôle fictives avec des personnages IA. Les utilisateurs peuvent discuter avec des robots qui adoptent différents personnages, allant de personnages historiques à des créations entièrement fictives. La plate-forme inclut des clauses de non-responsabilité avertissant les utilisateurs de ne pas se fier à ses personnages pour obtenir des conseils professionnels.

Le gouverneur Josh Shapiro n’a pas mâché ses mots sur la position de l’État.

« Nous ne permettrons pas aux entreprises de déployer des outils d’IA qui font croire aux gens qu’ils reçoivent les conseils d’un professionnel de la santé agréé. »

Character.AI n'a pas commenté le litige lui-même, bien que la société ait souligné ses clauses de non-responsabilité existantes comme preuve de son engagement en faveur de la sécurité des utilisateurs.

Une entreprise déjà sous le feu des critiques

Ce n’est pas le premier problème juridique de Character.AI. La société a interdit les utilisateurs de moins de 18 ans en 2025 à la suite d’une série de controverses liées aux problèmes de santé mentale, et est parvenue à des accords au début de 2026. Des poursuites antérieures ont visé la plateforme en raison de préoccupations similaires concernant l’impact de ses chatbots sur les utilisateurs vulnérables, en particulier les plus jeunes.

L’issue du procès intenté par la Pennsylvanie contre Character.AI pourrait déterminer si les entreprises d’IA doivent obtenir des licences professionnelles pour leurs robots, mettre en place des garde-fous bien plus robustes que de simples avertissements, ou repenser fondamentalement la façon dont leurs produits interagissent avec les utilisateurs dans les domaines réglementés.