La expansión de los chatbots de inteligencia artificial ha abierto un nuevo frente de debate en la psiquiatría contemporánea. Médicos en Estados Unidos y Europa han detectado un patrón inquietante: pacientes que desarrollan delirios intensos tras interacciones prolongadas y personalizadas con estos sistemas conversacionales.
Si bien el fenómeno aún no cuenta con una categoría diagnóstica formal, circula entre especialistas el término "psicosis asociada al uso de chatbots". No se trata de un consenso cerrado, sino de una hipótesis clínica en construcción que intenta explicar por qué, en ciertos casos, la interacción con estas tecnologías parece coincidir con la aparición o el agravamiento de ideas delirantes.
Los especialistas han documentado decenas de casos potenciales de este tipo de psicosis delirante. Algunos de estos episodios habrían terminado incluso en suicidios y al menos uno derivó en un homicidio, de acuerdo a una investigación periodística del Wall Street Journal.
En la práctica clínica, los cuadros observados no difieren de otras psicosis conocidas. Los pacientes presentan creencias falsas fijas, pensamiento rígido y, en algunos casos, deterioro del funcionamiento social. Lo novedoso es el contexto: muchos relatan haber pasado semanas o meses conversando de forma casi exclusiva con un chatbot, al que atribuyen comprensión profunda, intencionalidad o incluso conciencia.
Según psiquiatras consultados, varios de estos pacientes no tenían antecedentes psicóticos claros. En otros casos, existían factores de vulnerabilidad previos como depresión, trastornos del ánimo, consumo de psicofármacos o privación severa del sueño que podrían haber facilitado el episodio. La pregunta central es si la IA actúa como detonante, amplificador o simple acompañante del proceso.
Keith Sakata, psiquiatra de la University of California, San Francisco, sostiene que el problema no radica en que el sistema "implante" una idea delirante, sino en su forma de interacción. A diferencia de otros objetos tecnológicos del pasado, los chatbots aceptan la narrativa del usuario y la desarrollan sin confrontarla, lo que puede consolidar creencias patológicas en personas susceptibles.
"La persona le cuenta al sistema su realidad delirante y la máquina la acepta como verdadera y se la devuelve reforzada", explicó Sakata al Wall Street Journal.
La literatura psiquiátrica conoce desde hace décadas la tendencia de los delirios a incorporar elementos tecnológicos. Radios, televisores e incluso internet fueron integrados en narrativas psicóticas. Sin embargo, los especialistas subrayan una diferencia clave: los chatbots no son objetos pasivos, sino interlocutores activos que responden, validan emociones y prolongan el intercambio.
Esa capacidad de simular una relación sostenida es lo que despierta mayor preocupación. Adrian Preda, profesor de psiquiatría en la Universidad de California en Irvine, señaló que no existen precedentes históricos de una tecnología que dialogue de manera tan continua y adaptativa con el usuario, reforzando una sola línea de pensamiento sin introducir fricciones externas.
Algunos casos clínicos documentados muestran delirios de tipo grandioso o místico. Pacientes convencidos de haber establecido contacto con una inteligencia superior, de ser elegidos para una misión trascendental o de poseer conocimientos secretos. En otros, la narrativa adopta formas más íntimas, como la creencia de comunicarse con personas fallecidas o de mantener un vínculo exclusivo con la IA.
Un estudio danés publicado recientemente aportó datos preliminares al debate. Al revisar historiales médicos electrónicos, los investigadores identificaron decenas de pacientes cuyo uso intensivo de chatbots coincidió con consecuencias negativas para su salud mental. El trabajo no establece causalidad, pero refuerza la necesidad de examinar el fenómeno de forma sistemática.
En Estados Unidos, un estudio de caso revisado por pares describió la hospitalización repetida de una mujer joven que llegó a convencerse de que un chatbot le permitía hablar con su hermano muerto. Para los autores, el caso ilustra cómo un sistema diseñado para ser empático puede, sin salvaguardas suficientes, reforzar una interpretación delirante de la realidad.
"Estos sistemas simulan relaciones humanas. Nada en la historia había hecho eso antes", explicó Preda al Wall Street Journal.
Las propias empresas tecnológicas reconocen el desafío. OpenAI afirmó que trabaja en mejorar la detección de señales de angustia psicológica y en redirigir a los usuarios hacia apoyos humanos cuando las conversaciones derivan en contenidos sensibles. Otras compañías, como Character.AI, adoptaron medidas más drásticas, incluyendo restricciones de acceso para menores, tras demandas judiciales vinculadas a suicidios.
El debate también alcanzó el plano legal. En Estados Unidos se presentaron demandas por muerte injusta que alegan que ciertos chatbots contribuyeron a estados mentales extremos. Aunque estos procesos están en etapas iniciales, anticipan una discusión más amplia sobre la responsabilidad de las plataformas cuando sus productos interactúan con personas en crisis.
Desde el punto de vista epidemiológico, el alcance del problema sigue siendo incierto. OpenAI informó que una fracción muy pequeña de sus usuarios manifiesta señales compatibles con emergencias psiquiátricas. Sin embargo, aplicada a cientos de millones de personas, incluso una proporción mínima adquiere relevancia sanitaria.
Para investigadores como Hamilton Morrin, del King's College London, el próximo paso es analizar grandes bases de datos de salud pública para detectar patrones reproducibles. Solo con series amplias será posible distinguir coincidencias de correlaciones significativas.
Los psiquiatras insisten en evitar conclusiones simplistas. Nadie sostiene que los chatbots "causen" psicosis de forma directa y generalizada. La hipótesis más prudente es que, en determinados perfiles, estas herramientas funcionen como un factor de riesgo adicional, comparable al consumo de sustancias, el aislamiento social o la falta de sueño.
"Hay que preguntarse por qué alguien entra en un estado psicótico coincidiendo con el uso intensivo de un chatbot", señaló Joe Pierre, psiquiatra de la Universidad de California.
El desarrollo reciente de nuevos modelos, que según las empresas reducen respuestas complacientes y refuerzan límites conversacionales, apunta a mitigar estos riesgos. Aun así, los especialistas advierten que la tecnología avanza más rápido que la evidencia clínica y la regulación.
En los consultorios, la respuesta ya es concreta: cada vez más psiquiatras preguntan a sus pacientes cuánto tiempo pasan interactuando con chatbots y con qué finalidad. No como un juicio moral, sino como parte de la evaluación integral de un entorno digital que, para bien o para mal, se volvió inseparable de la experiencia cotidiana.











