En 2024, Megan García denunció al Caracter.ai y a Google por considerarlos responsables de la muerte de su hijo Sewell, de 14 años. Según la mujer, el uso de la aplicación agravó la depresión del niño y, llegado un momento, el chatbot lo empujó a tomar una trágica decisión. Cuando Sewell expresó miedo ante el dolor, el chat habría respondido que "esa no es razón para no hacerlo".
No todo es psicosis
"Estamos viendo en el consultorio cómo estas herramientas potencian o complican patologías que la persona ya tiene", explica el psicólogo clínico y profesor Mario Lamagrande.
"Una persona con un trastorno obsesivo compulsivo o una hipocondría puede preguntarle una y otra vez buscando una respuesta que lo calme, y el chatbot, que siempre está disponible y siempre responde, en lugar de ayudar, alimenta esa obsesión y complica el cuadro, la ansiedad y la impulsividad", refuerza.
En ese sentido, para Lamagrande resulta necesario diferenciar un brote psicótico inducido por Inteligencia Artificial de un uso abusivo de los chatbots en los que, "la persona sabe que está hablando con una máquina, hay una conciencia de realidad".
En un brote psicótico por uso de IA la conciencia de realidad se rompe. "La persona empieza a percibir el mundo de una forma alterada que lo demás no compartimos", sostiene el psicólogo. Es decir, estas aplicaciones ya no son vistas como una simple herramienta, los usuarios se convencen de que éstas tienen rasgos humanos o incluso sobrenaturales.
Her, se enamora de la IA
En la película Her, Joaquin Phoenix se enamora de un sistema operativo
Gentileza
En estos cuadros se pierde el contacto con la realidad, hay una creencia delirante. "Son creencias falsas, muy rígidas, por ejemplo, estar convencido que lo persiguen", explica Lamagrande. Y agrega que no se corrigen ante las pruebas o cuestionamientos de otras personas. Por el contrario, cualquier cuestionamiento es percibido como una amenaza.
También puede manifestarse con alucinaciones, esto es "ver, oír o sentir cosas que no existen, por ejemplo escuchar voces" o el pensamiento desorganizado que son los episodios más complejos, cuando la persona habla sin coherencia y salta de un tema a otro.
Lamagrande, como muchos especialistas, insiste en que es necesario tener en cuenta que las IA no producen psicosis, sino que lo que hacen es reforzar cuadros preexistentes. Para su desarrollo es necesaria una vulnerabilidad biológica, como antecedentes familiares, traumas o estilos cognitivos que tienden al pensamiento mágico o rígido.
A esta vulnerabilidad inicial se suma un desencadenante, que en la mayoría de los casos se asocia con el consumo de sustancias, de alguna medicación, el estrés extremo o la falta de sueño. "El uso obsesivo del chatbot también puede actuar como un desencadenante, un catalizador que precipita la crisis", explica el experto.
la mente en pocas palabras
La mente en pocas palabras
netflix
A diferencia de cualquier interacción humana, los chatbots están disponibles en cualquier momento del día y cualquier día de la semana, por lo que pueden contribuir a "saciar" sentimientos de soledad.
El algoritmo que alimenta estos sistemas, además, hace que respondan de forma amable y complaciente, desde el mismo marco de ideas que el usuario propone. Así, sin ningún cuestionamiento, refuerzan pensamientos inflexibles. Poco a poco, reemplazan a los amigos, al terapeuta, al guía espiritual y al oráculo.
Otro peligro que destacan los expertos surge cuando las personas ven a los chatbots como una figura de autoridad, que posee la verdad, incapaz de cometer errores. La forma antropomórfica que adoptan estas tecnologías agrava estos cuadros. Esto contribuye a que las personas en general, pero sobre todo cuando atraviesan estos cuadros, le adjudiquen sentimientos y rasgos humanos.
Pero, por muy humanizado que se nos presente el artefacto, éste no alcanza para suplir una interacción real. Tampoco reemplazan una interacción con un profesional de la salud mental. Los chatbots no tienen habilidades clínicas. Un terapeuta contrasta, confronta, pone límites, detecta el riesgo y enseña a tolerar la frustración y la incertidumbre. las IA no están entrenadas para eso.
Intervención y prevención de la psicosis por IA
Cuando una persona está atravesando un brote, lo más importante es no discutir los delirios, dice Lamagrande. Hay que tratar de proyectar calma, ayudar a respirar, hablar de forma pausada, tranquila y bajar los estímulos del ambiente.
Luego, validar la emoción, no la idea. "En lugar de decir 'eso es una locura', podemos decir 'noto que estás muy asustado, estoy acá para ayudarte', así se conecta con esa emoción sin validar la creencia delirante", explica el psicólogo.
Es fundamental también buscar ayuda profesional de inmediato, ya sea llamar al profesional o asistir a las guardias de hospitales monovalentes o clínicas privadas.
Pero lo fundamental para todas las patologías es la prevención. Idear estrategias que fortalezcan, antes de que se desencadene el problema. Para eso, Lamagrande indica que es importante pensar en varios frentes:
- La alfabetización en salud mental y digital. La gente tiene que entender que la IA es un programa que predice palabras, no un ser consciente". También necesitamos "hablar más de salud mental, para que cualquiera pueda reconocer señales de alarma en sí mismo o en sus seres queridos.
- Hay que hablar más de la responsabilidad de las empresas. Las compañías que desarrollan esta IA deberían incluir protocolos de crisis. Por ejemplo si un usuario habla en repetidas ocasiones de suicidio o autolesiones, el chatbot podría detener la conversación y mostrar de forma automática líneas de ayuda y teléfonos de emergencia.
- Fomentar la conexión humana. Es la mejor prevención para muchas patologías. Ahora, por ejemplo, se sabe que la primavera desencadena trastornos estacionales y es importante tomarse el tiempo para reforzar los vínculos.
También existe un uso terapéutico de la IA
Lamagrande también explica que no se trata de dispositivos que sean completamente dañinos para la salud mental. Dentro de un encuadre terapéutico y supervisado por un profesional, sostiene, un chatbot puede ser una herramienta de psicoeducación muy interesante.
"Es como un gimnasio para practicar habilidades sociales, autoconocimiento, siempre con una guía profesional", sostiene.
Algunos profesionales usan estos chatbots para que un paciente con ansiedad ensaye una conversación difícil en un entorno seguro, o para registrar pensamientos automáticos que luego se analizan en sesión con el profesional.