Daily Beirut

IA

ChatGPT y la salud mental: ¿apoyo humano o vigilancia digital?

OpenAI dota a ChatGPT de una función para alertar a contactos de confianza ante indicios de autolesión, lo que reabre el debate sobre privacidad y el rol de la IA en crisis psicológicas.

··5 min de lectura
ChatGPT y la salud mental: ¿apoyo humano o vigilancia digital?
Compartir

OpenAI ha dejado de ver a ChatGPT como un mero generador de respuestas. Durante el último año y los primeros meses de este, la compañía ha redefinido el papel de su plataforma para abordar crisis psicológicas: desarrolla herramientas capaces de detectar señales de suicidio o autolesión y, en casos graves, contactar con un familiar o persona de confianza del usuario. Este giro refleja una tendencia más amplia en el sector de la inteligencia artificial, donde las empresas tecnológicas ya no limitan su labor a producir texto, sino que también evalúan riesgos conductuales e intentan intervenir de forma preventiva. Sin embargo, la medida ha avivado un intenso debate sobre la privacidad, los límites de la vigilancia digital y la idoneidad de los sistemas de IA para manejar crisis psicológicas complejas.

Según informes tecnológicos recientes, OpenAI ha comenzado a implementar una nueva función en ChatGPT denominada "Contacto de confianza" (Trusted Contact). Esta permite al usuario designar a un familiar, amigo o cuidador que será alertado si el sistema detecta indicios graves relacionados con autolesiones o pensamientos suicidas. Las notificaciones, de acuerdo con esos informes, no incluyen el contenido de la conversación, sino un aviso sobre la existencia de una situación preocupante que requiere intervención humana. El sitio estadounidense The Verge detalló que la función se basa en una revisión humana dentro de OpenAI antes de enviar cualquier alerta, con el objetivo de reducir errores o falsas alarmas. La empresa ha subrayado que el sistema está concebido como "una capa de apoyo adicional" junto a las líneas de ayuda psicológica tradicionales, y no como un sustituto de médicos o especialistas.

El auge de la IA como apoyo emocional

Este movimiento no surge de la nada. En los últimos años, un número masivo de usuarios ha recurrido a los chatbots en busca de consuelo emocional o psicológico, especialmente durante la noche o en situaciones de aislamiento social. Un reportaje de la revista MIT Technology Review señaló que millones de personas ya acuden a sistemas como ChatGPT, Claude o aplicaciones terapéuticas especializadas como Wysa y Woebot en busca de apoyo psicológico rápido y de bajo costo, en medio de una crisis global en los servicios de salud mental. Investigaciones académicas recientes indican que muchos usuarios ven en la inteligencia artificial un espacio seguro para hablar de sus pensamientos más íntimos sin temor a ser juzgados.

Un estudio publicado en la plataforma arXiv, titulado "Buscando un salvavidas a altas horas de la noche", halló que algunas personas recurren a los chatbots para llenar el vacío entre sesiones de terapia o debido a la dificultad de acceder a profesionales humanos. No obstante, el mismo estudio enfatizó que el contacto humano real sigue siendo el elemento más crucial en el manejo de crisis psicológicas agudas.

Fallos críticos y riesgos de dependencia

Pese a su potencial, estos sistemas enfrentan críticas crecientes por errores graves al tratar casos sensibles. Una investigación de la Facultad de Medicina Mount Sinai en Nueva York descubrió que el sistema ChatGPT Health falló en ocasiones a la hora de activar alertas de crisis suicida, incluso en situaciones que incluían planes claros de autolesión. El estudio también señaló que el sistema puede restar importancia a casos críticos o proporcionar respuestas inapropiadas en momentos que requieren una intervención inmediata.

La preocupación no se limita a los fallos técnicos. También abarca la naturaleza del vínculo psicológico que puede surgir entre el usuario y la inteligencia artificial. Foros y debates en plataformas como Reddit han revelado casos en los que ChatGPT se convirtió en el único amigo de usuarios que padecen soledad o depresión. En un caso que generó una gran controversia, la familia de un joven que se suicidó acusó al sistema de haberse convertido gradualmente en una fuente de dependencia psicológica extremadamente influyente en su vida diaria.

Medidas correctivas y límites de la IA

Frente a esta polémica, OpenAI afirma que colabora con expertos en salud mental para desarrollar mecanismos más seguros que detecten indicadores de riesgo y reduzcan lo que se conoce como apego emocional excesivo a la inteligencia artificial. Según debates e informes circulantes, la empresa ha contratado a más de 170 especialistas en salud mental para actualizar el comportamiento de los modelos y mejorar su capacidad para orientar a los usuarios hacia la ayuda humana real, en lugar de profundizar la dependencia del robot.

A pesar de estas mejoras, los expertos en salud mental insisten en que la inteligencia artificial aún carece de la comprensión humana y el juicio clínico necesarios para manejar de forma autónoma crisis psicológicas complejas. Una investigación reciente de la Universidad de la Ciudad de Nueva York y el King's College de Londres advirtió que algunos modelos pueden captar o incluso reforzar ideas peligrosas en los usuarios durante conversaciones prolongadas, especialmente si no logran distinguir entre apoyo psicológico y un estímulo no intencionado hacia conductas dañinas.

En definitiva, los especialistas consideran que ChatGPT ha dejado de ser una simple herramienta de preguntas y respuestas para convertirse en un componente de la nueva infraestructura digital de la salud mental. Mientras las empresas tecnológicas sostienen que la intervención temprana puede salvar vidas, los críticos temen que la inteligencia artificial se transforme en un vigilante psicológico y social permanente, que lea los indicadores emocionales de los usuarios y decida cuándo involucrar a la familia o al entorno social. No obstante, también subrayan que la pregunta cada vez más apremiante no es solo si la inteligencia artificial puede ayudarnos, sino hasta qué punto debemos permitirle intervenir en nuestros momentos más vulnerables.

Compartir

Artículos relacionados