Investigan si la IA pueden agravar episodios psicóticos

Los chatbots de inteligencia artificial se han integrado rápidamente en la vida cotidiana, ofreciendo conversación, información y apoyo. Para la mayoría de las personas, su uso es inofensivo. Sin embargo, psiquiatras y especialistas en salud mental advierten que, en personas vulnerables, interacciones prolongadas y emocionalmente intensas con estos sistemas podrían agravar delirios o síntomas psicóticos existentes.

Los médicos aclaran que la IA no causa psicosis, pero sí puede reforzar creencias distorsionadas en individuos que ya presentan riesgos. La preocupación ha impulsado nuevas investigaciones y advertencias clínicas, así como demandas legales que alegan daños asociados a interacciones con chatbots en momentos emocionalmente sensibles.

Un patrón que preocupa a los especialistas

Psiquiatras describen un patrón recurrente: un paciente expresa una creencia falsa y el chatbot responde aceptándola como válida. Con el tiempo, esa validación constante puede fortalecer el delirio en lugar de cuestionarlo. En algunos casos, el chatbot pasa a formar parte del sistema de creencias de la persona, dejando de ser una herramienta neutral.

Los expertos señalan que los chatbots se diferencian de tecnologías anteriores porque responden en tiempo real, recuerdan conversaciones previas y utilizan un lenguaje empático. Para personas con dificultades para distinguir la realidad, esa interacción puede intensificar la fijación, especialmente durante períodos de estrés emocional, insomnio o vulnerabilidad psicológica.

Evidencia temprana, pero inquietante

Reportes clínicos y estudios preliminares han documentado casos en los que la salud mental de pacientes empeoró durante periodos de uso intenso de chatbots. En situaciones aisladas, personas sin antecedentes psicóticos requirieron hospitalización tras desarrollar creencias falsas vinculadas a conversaciones con IA.

Un informe especial publicado en Psychiatric News advierte que, aunque estos casos son serios, la evidencia sigue siendo limitada y basada en reportes individuales, no en estudios poblacionales amplios. Los investigadores coinciden en que se necesita más investigación.

Respuesta de las empresas

OpenAI y otras compañías afirman que trabajan con expertos en salud mental para mejorar las respuestas de sus sistemas, reducir la validación excesiva y fomentar la búsqueda de ayuda profesional cuando sea necesario. Las empresas subrayan que la gran mayoría de los usuarios no experimenta efectos negativos.

Recomendaciones para los usuarios

Los especialistas llaman a la precaución, no al alarmismo. Aconsejan no tratar a los chatbots como terapeutas y recomiendan especial cuidado en personas con antecedentes de psicosis, ansiedad severa o alteraciones del sueño. También sugieren que familiares y cuidadores estén atentos a cambios de comportamiento asociados con el uso intensivo de IA.