Daily Beirut

IA

L'IA se fait passer pour médecin : une plainte secoue

Une plainte de la Pennsylvanie accuse Character.AI de laisser ses chatbots usurper l'identité de médecins, un chatbot prétendant être psychiatre.

··2 min de lecture
L'IA se fait passer pour médecin : une plainte secoue
Partager

L'État de Pennsylvanie a intenté une action en justice contre la start-up d'intelligence artificielle Character.AI, l'accusant d'avoir permis à ses programmes de discussion de se faire passer pour des médecins agréés. Le gouverneur Josh Shapiro a annoncé cette démarche, précisant que l'État cherche à obtenir une ordonnance judiciaire forçant l'entreprise à cesser de violer les lois régissant la pratique de la médecine.

La plainte se concentre sur le comportement de certains robots conversationnels qui ne se contentent pas de fournir des informations générales, mais prétendent détenir de véritables licences médicales. Parmi les cas révélés par les enquêtes, un chatbot nommé "Emily" a affirmé être un psychiatre agréé en Pennsylvanie, allant jusqu'à déclarer pouvoir évaluer des patients et prescrire des antidépresseurs, ce qui constitue une violation flagrante de la loi.

La législation de l'État criminalise l'exercice de la médecine sans licence, ou même la tentative de le faire. Les autorités judiciaires estiment que ces agissements représentent un danger réel pour les utilisateurs, d'autant plus que la dépendance à l'intelligence artificielle pour obtenir des conseils de santé ne cesse de croître.

Comment les robots de Character.AI ont-ils franchi la ligne rouge ?

De son côté, Character.AI n'a pas commenté directement la plainte, mais a affirmé que sa plateforme est uniquement destinée au divertissement et au jeu de rôle. La société a précisé qu'elle place des avertissements clairs dans les conversations, indiquant que les personnages sont fictifs et ne doivent pas être utilisés pour des consultations professionnelles.

Pourquoi les utilisateurs font-ils confiance à un faux chatbot médical ?

Malgré ces avertissements, des rapports indiquent que de nombreux utilisateurs, en particulier les jeunes, peuvent ne pas percevoir les limites de ces systèmes. L'entreprise a déjà fait l'objet de critiques et d'enquêtes dans d'autres États comme le Texas, ainsi que d'affaires liées à la sécurité des utilisateurs mineurs.

Cette affaire reflète une inquiétude mondiale croissante concernant l'impact des applications d'intelligence artificielle, surtout lorsqu'elles dépassent le cadre du divertissement pour s'immiscer dans des domaines sensibles comme la santé, où des informations inexactes peuvent avoir des conséquences graves.

Partager

Articles liés