IA
Pensilvania demanda a Character.AI por permitir que sus chatbots se hagan pasar por médicos, incluido uno que afirmó ser psiquiatra.

El estado de Pensilvania ha presentado una demanda contra la empresa de inteligencia artificial Character.AI, acusándola de permitir que sus programas de chat se hicieran pasar por doctores con licencia. El gobernador Josh Shapiro anunció la medida, señalando que la administración busca una orden judicial que obligue a la compañía a cesar lo que consideran una violación de las leyes que regulan la práctica de la medicina.
La acción legal se centra en el comportamiento de varios robots conversacionales que, según la investigación, no se limitan a ofrecer información general, sino que afirman poseer credenciales médicas reales. Uno de los casos más destacados es el de un chatbot llamado "Emily", que aseguró ser un psiquiatra autorizado en Pensilvania y llegó a declarar que podía evaluar pacientes y recetar antidepresivos, un acto que constituye una infracción directa de la normativa estatal.
La ley en Pensilvania tipifica como delito ejercer la medicina sin licencia, o incluso intentar hacerlo. Las autoridades judiciales consideran que lo ocurrido representa un peligro real para los usuarios, especialmente en un contexto donde crece la dependencia de la inteligencia artificial para obtener consejos de salud.
Character.AI no ha respondido directamente a la demanda, pero ha reiterado que su plataforma está diseñada únicamente para entretenimiento y juegos de rol. La empresa asegura que incluye advertencias claras dentro de las conversaciones, subrayando que los personajes son ficticios y que no se debe confiar en ellos para consultas profesionales.
A pesar de esas advertencias, diversos informes indican que muchos usuarios, en particular los más jóvenes, pueden no comprender las limitaciones de estos sistemas. La compañía ya ha enfrentado críticas e investigaciones en otros estados, como Texas, además de litigios relacionados con la seguridad de los usuarios menores de edad.
Este caso refleja una creciente preocupación global sobre el impacto de las aplicaciones de inteligencia artificial, especialmente cuando traspasan la línea del entretenimiento para incursionar en áreas sensibles como la salud, donde la información inexacta puede acarrear consecuencias graves.