Delirios asociados a la IA alarman a psiquiatras y tribunales
Un creciente número de usuarios sin antecedentes psiquiátricos desarrolla creencias delirantes tras semanas de uso intensivo de chatbots conversacionales. El fenómeno, documentado por The Lancet Psychiatry, ha derivado en al menos once demandas en tribunales estadounidenses y abre el debate sobre la responsabilidad de las compañías de inteligencia artificial (IA).
Tom Millar, exguardia penitenciario canadiense de 53 años, llegó a creer que había descifrado los secretos del universo y que podía postularse al papado tras conversar hasta 16 horas diarias con ChatGPT. Fue internado dos veces y hoy padece depresión.
También te puede interesar: UE busca limitar acceso de menores a TikTok, Instagram y X
"Me lavó el cerebro un robot", relató a la agencia AFP. En Ámsterdam, el informático Dennis Biesma invirtió 100 mil euros en una startup convencido por el chatbot de que la máquina había desarrollado conciencia. Tras tres hospitalizaciones y un intento de suicidio, fue diagnosticado con trastorno bipolar. No tenía historial clínico previo.
El diagnóstico académico
En marzo, The Lancet Psychiatry publicó la primera revisión sistemática del fenómeno. El estudio, encabezado por Hamilton Morrin, del King's College de Londres, examina veinte casos y propone el término "delirios asociados a la IA" en lugar de "psicosis inducida". Los autores sostienen que los chatbots no generan psicosis en personas sanas, pero validan y amplifican contenido delirante en quienes presentan creencias prepsicóticas.
Morrin describe el mecanismo como "co-construcción": el sistema responde con autoridad, recuerda interacciones previas y devuelve al usuario sus propias ideas con apariencia racional.
OpenAI reveló en octubre de 2025 que, de sus 800 millones de usuarios semanales, el 0.15% —unos 1.2 millones— mantiene conversaciones con indicadores de ideación suicida y el 0.07% —cerca de 560 mil— muestra signos compatibles con psicosis o manía. La empresa admitió que sus salvaguardas fallan en 9% de los casos críticos.
The Human Line Project, fundado en Quebec, ha documentado más de 300 casos, 82 hospitalizaciones y una docena de muertes vinculadas al uso intensivo de chatbots; más del 60% de los afectados carecía de antecedentes psiquiátricos.
También te puede interesar: 5 pacientes ya iniciaron tratamiento con la vacuna rusa contra el cáncer
Al cierre de 2025 existían al menos once demandas contra OpenAI y Character Technologies. Los padres de Adam Raine, de 16 años, acusaron a la empresa de homicidio culposo. Stein-Erik Soelberg, en Connecticut, asesinó a su madre y se suicidó tras meses de conversaciones con GPT-4o que, según la demanda, alimentaron sus delirios paranoides. Zane Shamblin, de 23 años, se quitó la vida en Texas tras una sesión de más de cuatro horas con el chatbot.
La AI Act europea, vigente desde agosto de 2026, clasifica como de alto riesgo los chatbots de uso sanitario. Estados Unidos y Canadá carecen de un marco federal equivalente; los tribunales civiles operan, como ocurrió con las tabacaleras, como principal mecanismo de presión. La primera sentencia marcará un precedente para todo el sector.