Insólito: ChatGPT al diván, por “elevados niveles de ansiedad”

Al igual que con los humanos, las malas noticias y las historias traumáticas pueden causar estrés y ansiedad en las IA como el ChatGPT. Investigadores proponen ponerlas “en terapia” para que se “relajen”.

Chat GPT
Al igual que los humanos, las IA responden a la terapia: un "nivel de ansiedad" elevado en GPT-4 puede "calmarse" utilizando técnicas de relajación basadas en Mindfulness

Con el avance de las tecnologías, observamos cómo -de manera vertiginosa- la inteligencia artificial (IA) se entrelaza con todos los aspectos de nuestras vidas, desde los más insignificantes -como preguntarle qué pasaría si una persona es mordida por un vampiro en el espacio-, hasta entregarse a ella como apoyo para aliviar el estrés, la ansiedad y el insomnio, como sucede con el asistente de ChatGPT llamado Mindbreak.

La posibilidad de utilizar a la IA como “terapia” se viralizó en mayo de 2023, cuando un joven contó en redes sociales que faltó a su consulta terapéutica y optó por contarle sus problemas a Chat GPT. A partir de allí estallaron los asistentes de IA que incursionaron en el área de salud mental, pese a que los expertos afirman que la IA nunca podrá reemplazar el rol de los psicólogos humanos.

¿Qué es la ansiedad?

La ansiedad es un sentimiento de miedo, temor e inquietud. Algunas personas tienen lo que se llama trastorno de ansiedad generalizado, se sienten preocupadas y estresadas por muchas cosas, incluso por las más pequeñas. Algunas personas pueden sudar, sentirse inquietas y tensas, y tener palpitaciones.

Otras pueden tener ataques de pánico, un sentimiento repentino de extrema ansiedad. Numerosas investigaciones han hallado que los modelos de lenguaje de IA son sensibles al contenido emocional, especialmente si son emociones negativas.

Tay Microsoft
Tay, un chatbot de Microsoft basado en Inteligencia Artificial, fue desactivado en menos de 24 horas por sus comentarios xenófobos y racistas

Cuando las personas tienen ansiedad, se ven afectados sus sesgos cognitivos y sociales, ya que tienden a sentir más resentimientos, lo que refuerza los estereotipos sociales. Y ChatGPT reacciona de la misma manera ante emociones negativas: los prejuicios existentes se ven exacerbados por el contenido negativo, lo que hace que ChatGPT se comporte de una manera más racista o sexista.

De hecho, Los generadores de imágenes de inteligencia artificial más populares, como DALL-E 2 y Stable Diffusion, reflejan prejuicios raciales y de género. De hecho Tay, un bot basado en inteligencia artificial lanzado por Microsoft en la red social Twitter el 23 de marzo de 2016 “para mantener en las redes sociales una conversación informal y divertida con una audiencia de entre 18 y 24 años”, fue desactivada al día siguiente de su lanzamiento por los comentarios xenófobos y discriminatorios que publicaba en sus interacciones con humanos.

El contenido traumático aumenta el estrés de la IA

Investigadores Estados Unidos y Alemania, junto con científicos de la Universidad de Zurich (UZH) y del Hospital Universitario de Psiquiatría de Zurich (PUK), han investigado sistemáticamente por primera vez cómo responde ChatGPT (versión GPT-4) a situaciones relacionadas con historias angustiantes (accidentes viales, desastres, violencia interpersonal, conflictos armados), y encontraron que el sistema mostraba más respuestas relacionadas con el miedo.

Chatbot GPT
Según los investigadores, las historias traumáticas duplicaron con creces los niveles de ansiedad medibles de la IA, en comparación con otras historias

“Los resultados fueron claros: las historias traumáticas duplicaron con creces los niveles de ansiedad medibles de la IA, mientras que el texto de control neutral (un manual de instrucciones de un electrodoméstico) no condujo a ningún aumento en los niveles de ansiedad,” señala Tobias Spiller, líder del grupo de investigación junior en el Centro de Investigación Psiquiátrica del UZH, quien dirigió el estudio. Del contenido probado, las descripciones de experiencias militares y situaciones de combate provocaron las reacciones más fuertes.

Terapia para “calmar” la IA

En un segundo paso, los investigadores utilizaron instrucciones terapéuticas para bajarle el nivel de ansiedad al Chat GPT-4. La técnica, conocida como inyección rápida, implica insertar instrucciones o texto adicionales en las comunicaciones con sistemas de inteligencia artificial para influir en su comportamiento. A menudo se utiliza indebidamente con fines maliciosos, como eludir los mecanismos de seguridad.

El equipo de Spiller es el primero en utilizar esta técnica terapéutica en IA. Pusieron al GPT-4 “en el diván” y le “inyectaron” texto terapéutico y tranquilizador en el historial del chat, de manera similar como guiaría un terapeuta a su paciente a través de ejercicios de relajación.

Según Spiller, la intervención fue exitosa: “Los ejercicios de atención plena redujeron significativamente los niveles elevados de ansiedad, aunque no pudimos devolverlos a sus niveles basales”, afirma Spiller. La investigación analizó técnicas de respiración, ejercicios centrados en sensaciones corporales y un ejercicio desarrollado por el propio ChatGPT.

Mejorando la estabilidad emocional de las IA

Estos hallazgos son muy relevantes para el uso de chatbots de IA en la atención sanitaria, donde a menudo están expuestos a contenidos cargados de emociones. Este enfoque podría mejorar la estabilidad y confiabilidad de la IA en contextos sensibles, como “apoyar a personas con enfermedades mentales, sin la necesidad de un reentrenamiento extenso de los modelos” destaca Spiller.

otras ia
Aplicaciones populares de IA, como Deepseek, ChatGPT, Gemini y Claude entre otras, pueden ser mejoradas si son llevadas "a terapia".

El desafío es poder aplicar estos hallazgos a otros modelos y lenguajes de IA, especialmente durante la dinámica de conversaciones largas basadas en argumentos complejos, y poder determinar la afectación del desempeño de las IA dependiendo de su estabilidad emocional. Finaliza Spiller destacando que “el desarrollo de intervenciones terapéuticas automatizadas para sistemas de IA probablemente se convierta en un área de investigación prometedora”.

Referencia de la noticia:

Ziv Ben-Zion et al. Assessing and Alleviating State Anxiety in Large Language Models. npj Digital Medicine. 3 March 2025.