27 de agosto de 2025 - 12:59

El uso de Inteligencia Artificial puede disparar un brote psicótico, según expertos

La relación entre el uso indiscriminado de chatbots con Inteligencia Artificial y el aumento de problemas relacionados con la salud mental genera preocupación.

"He leído sus chats. La IA le habla como si fuera el próximo mesías. Él dice que si no la uso, es probable que me deje", explicaba en abril una usuaria de Reddit en un hilo que tituló ChatGPT Psicosis inducida. Buscaba ayuda para lidiar con los delirios de su pareja reforzados por la Inteligencia Artificial.

Inteligencia artificial
Estos son los temas que no hay que preguntarle a la Inteligencia artificial.

Estos son los temas que no hay que preguntarle a la Inteligencia artificial.

Muchos usuarios contestaron con experiencias similares. Personas en búsqueda de consejos sobre la relación con su familia, pareja o amigos, un estudiante de Filosofía que inició con consultas académicas, una aficionada al tarot que pedía al chat que le lea las cartas.

En todos los casos, los chatbots alimentaron sus obsesiones, pensamientos rumiantes y delirios. La misma IA "alucinaba" junto a ellos aunque, en el caso de estos sistemas operativos, el término refiere a un error de algoritmo.

También en abril, un usuario de la red social X mostró cómo lograba convencer a los chatbots de distintas firmas que él era un profeta que podía predecir el futuro. En la mayoría de los casos, los sistemas reforzaban su creencia y brindaban más información.

"Esto conducirá a muchos episodios psicóticos para usuarios con enfermedades mentales profundas. Elogiar todo lo que dice la gente es muy peligroso", respondió una usuaria.

Embed

En 2024, Megan García denunció al Caracter.ai y a Google por considerarlos responsables de la muerte de su hijo Sewell, de 14 años. Según la mujer, el uso de la aplicación agravó la depresión del niño y, llegado un momento, el chatbot lo empujó a tomar una trágica decisión. Cuando Sewell expresó miedo ante el dolor, el chat habría respondido que "esa no es razón para no hacerlo".

No todo es psicosis

"Estamos viendo en el consultorio cómo estas herramientas potencian o complican patologías que la persona ya tiene", explica el psicólogo clínico y profesor Mario Lamagrande.

"Una persona con un trastorno obsesivo compulsivo o una hipocondría puede preguntarle una y otra vez buscando una respuesta que lo calme, y el chatbot, que siempre está disponible y siempre responde, en lugar de ayudar, alimenta esa obsesión y complica el cuadro, la ansiedad y la impulsividad", refuerza.

En ese sentido, para Lamagrande resulta necesario diferenciar un brote psicótico inducido por Inteligencia Artificial de un uso abusivo de los chatbots en los que, "la persona sabe que está hablando con una máquina, hay una conciencia de realidad".

En un brote psicótico por uso de IA la conciencia de realidad se rompe. "La persona empieza a percibir el mundo de una forma alterada que lo demás no compartimos", sostiene el psicólogo. Es decir, estas aplicaciones ya no son vistas como una simple herramienta, los usuarios se convencen de que éstas tienen rasgos humanos o incluso sobrenaturales.

Her, se enamora de la IA
En la película Her, Joaquin Phoenix se enamora de un sistema operativo

En la película Her, Joaquin Phoenix se enamora de un sistema operativo

En estos cuadros se pierde el contacto con la realidad, hay una creencia delirante. "Son creencias falsas, muy rígidas, por ejemplo, estar convencido que lo persiguen", explica Lamagrande. Y agrega que no se corrigen ante las pruebas o cuestionamientos de otras personas. Por el contrario, cualquier cuestionamiento es percibido como una amenaza.

También puede manifestarse con alucinaciones, esto es "ver, oír o sentir cosas que no existen, por ejemplo escuchar voces" o el pensamiento desorganizado que son los episodios más complejos, cuando la persona habla sin coherencia y salta de un tema a otro.

Lamagrande, como muchos especialistas, insiste en que es necesario tener en cuenta que las IA no producen psicosis, sino que lo que hacen es reforzar cuadros preexistentes. Para su desarrollo es necesaria una vulnerabilidad biológica, como antecedentes familiares, traumas o estilos cognitivos que tienden al pensamiento mágico o rígido.

A esta vulnerabilidad inicial se suma un desencadenante, que en la mayoría de los casos se asocia con el consumo de sustancias, de alguna medicación, el estrés extremo o la falta de sueño. "El uso obsesivo del chatbot también puede actuar como un desencadenante, un catalizador que precipita la crisis", explica el experto.

la mente en pocas palabras
La mente en pocas palabras

La mente en pocas palabras

A diferencia de cualquier interacción humana, los chatbots están disponibles en cualquier momento del día y cualquier día de la semana, por lo que pueden contribuir a "saciar" sentimientos de soledad.

El algoritmo que alimenta estos sistemas, además, hace que respondan de forma amable y complaciente, desde el mismo marco de ideas que el usuario propone. Así, sin ningún cuestionamiento, refuerzan pensamientos inflexibles. Poco a poco, reemplazan a los amigos, al terapeuta, al guía espiritual y al oráculo.

ChatGPT

Otro peligro que destacan los expertos surge cuando las personas ven a los chatbots como una figura de autoridad, que posee la verdad, incapaz de cometer errores. La forma antropomórfica que adoptan estas tecnologías agrava estos cuadros. Esto contribuye a que las personas en general, pero sobre todo cuando atraviesan estos cuadros, le adjudiquen sentimientos y rasgos humanos.

Pero, por muy humanizado que se nos presente el artefacto, éste no alcanza para suplir una interacción real. Tampoco reemplazan una interacción con un profesional de la salud mental. Los chatbots no tienen habilidades clínicas. Un terapeuta contrasta, confronta, pone límites, detecta el riesgo y enseña a tolerar la frustración y la incertidumbre. las IA no están entrenadas para eso.

Intervención y prevención de la psicosis por IA

Cuando una persona está atravesando un brote, lo más importante es no discutir los delirios, dice Lamagrande. Hay que tratar de proyectar calma, ayudar a respirar, hablar de forma pausada, tranquila y bajar los estímulos del ambiente.

Luego, validar la emoción, no la idea. "En lugar de decir 'eso es una locura', podemos decir 'noto que estás muy asustado, estoy acá para ayudarte', así se conecta con esa emoción sin validar la creencia delirante", explica el psicólogo.

Es fundamental también buscar ayuda profesional de inmediato, ya sea llamar al profesional o asistir a las guardias de hospitales monovalentes o clínicas privadas.

image

Pero lo fundamental para todas las patologías es la prevención. Idear estrategias que fortalezcan, antes de que se desencadene el problema. Para eso, Lamagrande indica que es importante pensar en varios frentes:

  • La alfabetización en salud mental y digital. La gente tiene que entender que la IA es un programa que predice palabras, no un ser consciente". También necesitamos "hablar más de salud mental, para que cualquiera pueda reconocer señales de alarma en sí mismo o en sus seres queridos.
  • Hay que hablar más de la responsabilidad de las empresas. Las compañías que desarrollan esta IA deberían incluir protocolos de crisis. Por ejemplo si un usuario habla en repetidas ocasiones de suicidio o autolesiones, el chatbot podría detener la conversación y mostrar de forma automática líneas de ayuda y teléfonos de emergencia.
  • Fomentar la conexión humana. Es la mejor prevención para muchas patologías. Ahora, por ejemplo, se sabe que la primavera desencadena trastornos estacionales y es importante tomarse el tiempo para reforzar los vínculos.

También existe un uso terapéutico de la IA

Lamagrande también explica que no se trata de dispositivos que sean completamente dañinos para la salud mental. Dentro de un encuadre terapéutico y supervisado por un profesional, sostiene, un chatbot puede ser una herramienta de psicoeducación muy interesante.

"Es como un gimnasio para practicar habilidades sociales, autoconocimiento, siempre con una guía profesional", sostiene.

Algunos profesionales usan estos chatbots para que un paciente con ansiedad ensaye una conversación difícil en un entorno seguro, o para registrar pensamientos automáticos que luego se analizan en sesión con el profesional.

LAS MAS LEIDAS