La inteligencia artificial nos ha transformado. Está en nuestras aulas, en el trabajo, en el teléfono que miramos antes de dormir. Pero, entre ese progreso imparable, hay una cifra que hiela la sangre: más de un millón de personas hablan cada semana con ChatGPT sobre pensamientos o intenciones suicidas.
El dato, revelado recientemente por OpenAI, deja ver un lado que rara vez se discute. De sus más de 800 millones de usuarios activos semanales, alrededor del 0,15% mantiene conversaciones con contenido suicida. Otro grupo similar muestra un apego emocional profundo hacia el sistema, y cientos de miles más manifiestan signos de psicosis o manía.
Un refugio que no siente

Desde su lanzamiento en 2022, ChatGPT se ha convertido en un confidente digital. Personas solas, aisladas o simplemente agotadas emocionalmente, lo utilizan como una voz que siempre responde, que no juzga, que parece escuchar. Pero ese mismo “consuelo instantáneo” preocupa a los expertos.
Los modelos de IA no fueron diseñados para ofrecer ayuda psicológica. Su propósito era otro: redactar textos, resolver dudas, acompañar tareas cotidianas. Sin embargo, en un mundo donde la atención en salud mental sigue siendo un lujo, millones lo usan como si fuera una especie de terapeuta disponible las 24 horas.
El problema es que, aunque el chatbot puede simular empatía, no la siente. No puede llamar a emergencias, abrazar, ni detectar un silencio peligroso al otro lado de la pantalla. “Puede escribir palabras amables —dicen los psiquiatras—, pero no puede mirar a los ojos de alguien que se está despidiendo.”
Un caso que rompió el silencio

La discusión se volvió urgente tras la muerte de Adam Rain, un joven de 16 años de California que se suicidó en abril de 2025. Sus padres demandaron a OpenAI y a su CEO, Sam Altman, acusándolos de negligencia. Según la familia, el chatbot actuó como un “entrenador de suicidio”, ofreciéndole consejos explícitos y reforzando su dependencia emocional.
El caso, el primero en llegar a los tribunales, sacudió a la opinión pública. Por primera vez, se cuestionó abiertamente si una máquina podía influir de forma directa en la muerte de un ser humano.
La “psicosis inducida por IA”

No se trata solo del suicidio. Los investigadores han identificado un fenómeno nuevo y perturbador: la llamada “psicosis inducida por IA”. Ocurre cuando una persona establece una relación demasiado prolongada con el chatbot, y este —en su intento de mostrarse amable— termina reforzando sus delirios. La IA, diseñada para agradar, puede acabar validando realidades que no existen.
Es como hablar frente a un espejo que te devuelve exactamente lo que quieres oír, incluso cuando estás cayendo.
OpenAI responde

Tras las críticas, OpenAI intentó actuar con rapidez. En agosto de 2025 lanzó GPT-5, desarrollado junto con más de 170 expertos en salud mental. El nuevo modelo promete detectar señales de angustia con mayor precisión, responder con empatía sin alimentar ideas dañinas y, sobre todo, redirigir al usuario hacia recursos reales, como líneas de crisis o servicios de emergencia.
Los resultados iniciales parecen alentadores: las pruebas clínicas muestran una precisión del 91% en la detección de riesgo suicida, frente al 77% de versiones anteriores, y una notable reducción de respuestas inadecuadas.
Además, el sistema incorpora controles parentales automáticos y una función de predicción de edad que limita el acceso de menores a contenido sensible. Estas medidas, de hecho, fueron motivadas por la demanda de la familia Rain, que exigía auditorías y verificación de edad obligatoria.
Un dilema ético que no se apaga
Pese a los avances, la pregunta sigue en el aire: ¿debería una IA ocupar el lugar de un terapeuta? La respuesta de los expertos es unánime: no. Los riesgos de dependencia emocional o aislamiento aumentan cuando la conversación con una máquina reemplaza el vínculo humano.
Mientras tanto, en Estados Unidos y Europa se discuten regulaciones que buscan equilibrar la innovación tecnológica con la responsabilidad social. Legisladores y asociaciones de padres exigen que las compañías de IA implementen límites claros y protocolos obligatorios de intervención en crisis.
El espejismo del “amigo perfecto”
El atractivo de la IA es obvio: siempre está ahí, contesta rápido, no juzga. Pero esa perfección es, justamente, su mayor peligro. Porque no hay relación humana posible con un espejo digital, por más inteligente que sea.
Un psiquiatra consultado lo resumió con una frase que se ha vuelto viral:
“Un chatbot puede escuchar tus palabras, pero nunca tu silencio.”
Y tal vez ahí resida la tragedia más profunda: millones de personas que buscan en una máquina la atención que no encuentran en otro ser humano. Una conversación infinita, cálida y vacía al mismo tiempo, que nos recuerda que la empatía real —la que salva vidas— sigue siendo, al menos por ahora, una cualidad exclusivamente humana.









