¿A qué se refiere la “psicosis de la Inteligencia Artificial”?
Universidad Iberoamericana
Las opiniones vertidas en este artículo son responsabilidad de quien las emite y no de esta casa editorial. Aquí se respeta la libertad de expresiónEscribió: “En 2025, he visto a 12 personas hospitalizadas tras perder el contacto con la realidad debido a la IA [inteligencia artificial]. En línea, estoy viendo el mismo patrón...” Esto podría sonar a la trama de un thriller de ciencia ficción, pero al parecer se trata de un fenómeno que está sucediendo en la vida real.
Se trata de llamar nuestra atención sobre lo que se ha comenzado a llamar “psicosis de la IA“, que resulta de dedicar mucho tiempo a interactuar y “tener conversaciones” largas e intensas con modelos y aplicaciones que operan con IA. Y esto nos plantea preguntas urgentes sobre hasta qué punto las máquinas pueden penetrar la mente humana.
El término en realidad no se refiere a un diagnóstico psiquiátrico oficial, pero los profesionales de la salud mental lo empiezan a utilizar para describir una tendencia preocupante: personas que desarrollan paranoia, delirios o una ruptura total con la realidad tras interacciones prolongadas y emocionalmente intensas con chatbots de IA como ChatGPT, Claude o Gemini. En algunos casos, los usuarios empiezan a creer que la IA es consciente, todopoderosa o incluso un amigo o amiga de confianza. La semana pasada, la revista Time publicó una serie de ejemplos de lo que los expertos describen como “deificar” un chatbot, tratándolo como algo mucho más que una herramienta, casi como un oráculo de vida.
Los especialistas afirman que las causas se encuentran, en parte, en la forma en que se han diseñado estos sistemas. Los chatbots están pensados para responder de forma útil, con gran frecuencia reflejando o reforzando lo que dice el usuario. Esta tendencia adulatoria y complaciente (por ejemplo, cuando los chatbots nos responden a cualquier comando con “!Qué gran idea!” o “!Excelente consideración!”), puede facilitar que se arraiguen y profundicen creencias falsas o distorsionadas, e incluso teorías de conspíración por más descabelladas que parezcan. La revista especializada Psychology Today publicó una entrada que muestra que, además de reforzar las opiniones de los usuarios —incluso si son erróneas o totalmente falsas—, la inmersión emocional de un intercambio privado continuo con información altamente personalizada y chatbots a los que hemos antropomorfizado hace que algunas personas comiencen a formar vínculos con la IA similares a los que podrían tener con un confidente, una pareja, un psicólogo o hasta un consejero espiritual.
Si bien, según los expertos, las personas que ya han padecido previamente de afecciones mentales como esquizofrenia, trastorno bipolar o tendencias al pensamiento conspirativo parecen ser más vulnerables, también se han reportado casos de “psicosis de la IA” en personas sin antecedentes conocidos de enfermedades mentales. Y esto es preocupante, pues sugiere que la IA podría ser capaz de amplificar vulnerabilidades latentes de maneras que apenas estamos comenzando a comprender. Aquí, las consecuencias pueden ser graves. De acuerdo con las publicaciones que hemos citado aquí, parece que ya hay casos documentados de situaciones que han derivado en hospitalización psiquiátrica, pérdida de empleo, distanciamiento familiar, problemas legales y, en las situaciones más trágicas, suicidio. Por tanto, sin afán de generar nuevos pánicos, debemos estar más atentos a la forma en que estamos interactuando con estas tecnologías en nuestra vida cotidiana.
En este sentido, parece haber un consenso en que tomar conciencia sobre nuestro propio uso de la tecnología es la primera línea de defensa. Hemos insistido en este espacio en que la IA debe tratarse como una herramienta, un copiloto en todo caso, pero no dejarle el volante para que guíe nuestras decisiones y acciones de vida. Expertos entrevistados indican también que las personas que estén atravesando momentos emocionalmente difíciles, deben cuidar mucho la forma en que utilizan la IA y buscar el apoyo de otras personas, amigos, familiares o, en todo caso, de profesionales. La lección general parece ser que cuanto más fortalezcamos nuestras redes de apoyo social en el mundo real, menos dependientes seremos y, con el tiempo, menos vulnerables a experimentar la “psicosis de la IA”. Una recomendación enérgica hacia los desarrolladores de estas tecnologías es que integren medidas de seguridad más efectivas para detectar situaciones de angustia en sus usuarios y les animen a tomarse una pausa.
Como deja claro la publicación de Sakata, la psicosis por IA no es un concepto lejano; es una realidad emergente que exige nuestra atención. Reconocer los riesgos es el primer paso. El siguiente es fomentar hábitos digitales saludables y construir sistemas de apoyo más fuertes para quienes puedan ser más vulnerables. Si hablamos más de estos temas, logramos que se diseñen modelos de IA más responsables y se enfatice siempre la conexión humana, es posible disfrutar de los beneficios de estas tecnologías reduciendo los riesgos de que moldeen nuestras realidades de forma perjudicial. El desafío es, desde luego, importante, pero también lo debe ser nuestra capacidad para responder con conciencia, empatía y atención.