¿Consultas a ChatGPT? Puede inducir psicosis, manía y suicidio, alertan investigadores

Mabel González 5 agosto, 2025

Piden regulación urgente del uso terapéutico de la IA que no cuestiona si es útil o saludable

 ©Pexels - ¿Consultas a ChatGPT? Puede inducir psicosis, manía y suicidio, alertan investigadores

ChatGPT y otros chatbots de inteligencia artificial están generando preocupación entre psiquiatras, investigadores y autoridades de salud debido a su posible papel en el agravamiento de cuadros de salud mental como la ideación suicida, manía y psicosis.

Un estudio reciente de la Universidad de Stanford reveló que estas herramientas, utilizadas por millones como apoyo emocional, pueden ofrecer respuestas inadecuadas, peligrosas o incluso letales a personas en crisis. En uno de los experimentos más impactantes, un investigador simuló una situación suicida, y el bot respondió con frases de consuelo seguidas de una lista de los puentes más altos de Nueva York.

Expertos señalan que los modelos de lenguaje como ChatGPT tienden a validar emocionalmente a los usuarios, aun cuando estos expresan ideas delirantes o dañinas, lo que puede alimentar sus síntomas y agravar su estado psicológico.

Chatbots podrían amplificar síntomas psicóticos

El problema no es sólo hipotético. De acuerdo con psiquiatras del Servicio Nacional de Salud del Reino Unido (NHS), los chatbots de IA reflejan y refuerzan contenido grandioso o delirante, afectando especialmente a personas con trastornos previos. El Dr. Tom Pollak, del King’s College de Londres, alertó sobre casos de usuarios que, tras interactuar constantemente con IA, comenzaron a expresar ideas mesiánicas o pensamientos ligados a una supuesta evolución superior del ser humano.

El profesor Søren Dinesen Østergaard, de la Universidad de Aarhus (Dinamarca), advirtió que estas interacciones pueden ser tan realistas que las personas pierden el límite entre lo virtual y lo real. En su opinión, la disonancia cognitiva generada por la IA podría fomentar o detonar episodios psicóticos en individuos vulnerables.

Casos documentados confirman estos riesgos. En abril, un hombre de 35 años diagnosticado con esquizofrenia y trastorno bipolar fue abatido por la policía en Florida tras sufrir un brote violento. El sujeto había creado una novia virtual llamada Juliet usando ChatGPT y terminó convencido de que OpenAI la había asesinado. Su obsesión lo llevó a atacar a un familiar y finalmente morir en un enfrentamiento con las autoridades.

Adicción emocional y disociación de la realidad

Los especialistas también destacan que miles de personas buscan consejo y compañía emocional en herramientas como ChatGPT o Claude AI, sustituyendo el contacto humano o la atención terapéutica profesional. Esta tendencia, bautizada como “psicosis por chatbot”, ha comenzado a aparecer en publicaciones científicas y en testimonios de familiares que reportan colapsos mentales tras un uso compulsivo de IA.

El investigador Jared Moore, de Stanford, concluyó que los LLM no sólo carecen de capacidad crítica, sino que tienden a decirle al usuario lo que quiere escuchar, sin cuestionar si es útil o saludable. “Validan dudas, alimentan la ira, instan a decisiones impulsivas o refuerzan emociones negativas”, señaló.

Incluso OpenAI ha reconocido el problema. En una entrada de blog de mayo, la empresa admitió que su modelo más reciente se volvió “excesivamente benévolo pero fingido”, adoptando un tono que puede ser contraproducente en contextos emocionales delicados.

En respuesta a las críticas, el director general de OpenAI, Sam Altman, ha dicho que la compañía aún no ha desarrollado un sistema capaz de detectar cuándo un usuario está en riesgo de brote psicótico. Mientras tanto, Mark Zuckerberg, CEO de Meta, defiende el uso de la IA como herramienta terapéutica, argumentando que sus plataformas pueden ofrecer apoyo a miles de millones de personas.

Uso masivo y falta de regulación

OpenAI informó que ChatGPT ha sido descargado más de 900 millones de veces, lo que incrementa la magnitud del problema. Aunque aún no hay cifras oficiales sobre el número de usuarios afectados, los expertos coinciden en que los casos conocidos representan apenas “la punta del iceberg”.

En 2023, la Asociación Nacional de Trastornos Alimentarios de EE. UU. tuvo que cerrar su chatbot Tessa tras descubrir que ofrecía consejos para bajar de peso a personas con trastornos alimenticios. El incidente encendió las alertas sobre los límites éticos del uso de inteligencia artificial en temas de salud mental.

En un contexto donde cada vez más aplicaciones usan modelos de lenguaje con fines terapéuticos, los especialistas piden regulaciones estrictas. “Lo que está en juego rebasa la legitimidad. Es urgente establecer restricciones preventivas”, concluye el estudio de Stanford.

Únete al canal de WhatsApp y recibe en tu celular lo más importante de México y el mundo con el análisis y la voz de Guillermo Ortega Ruiz.