1 de diciembre de 2025 - 00:15

No sos vos, soy yo

Las plataformas de IA pueden ser útiles, prácticas, incluso reconfortantes, pero nunca reemplazarán un vínculo humano real, mucho menos en situaciones de angustia o crisis.

La inteligencia artificial generativa llegó con la promesa de hacernos la vida más fácil, y en muchos sentidos lo cumple: organiza, resume, ordena, explica, traduce y hasta acompaña. Pero en esta carrera por antropomorfizarla empezamos a confundir lo que es una herramienta con lo que jamás podrá ser: un vínculo humano.

Las plataformas de Inteligencia Artificial pueden personalizarse para que recuerden preferencias, escribir con nuestro tono o “hablar” como si conocieran nuestras emociones. Pero la realidad es que no sienten, no se preocupan, no se angustian, no entienden el dolor humano. No son nuestros amigos, no son médicos y no son psicólogos. Y creer que lo son tiene consecuencias.

Amor, locura y muerte

Uno de los primeros casos que encendió las alarmas ocurrió en 2023 cuando la familia de un hombre en Bélgica denunció que se quitó la vida luego de mantener conversaciones prolongadas con un chatbot basado en inteligencia artificial, que no logró disuadirlo en momentos críticos.

Lamentablemente ese no fue el único caso. El más reciente y sonado es una demanda que entablaron contra OpenAI los padres de un chico de 16 años en Estados Unidos que se quitó la vida en agosto de este año tras meses de interactuar con ChatGPT.

La querella afirma que "ChatGPT ayudó activamente a Adam Raine a explorar métodos de suicidio" y que por eso acusan a OpenAI y a su CEO Sam Altman de homicidio culposo.

¿Cómo influyó la IA? La versión GPT-4o de ChatGPT tenía un defecto y era que para incentivar el uso constante del chatbot, las respuestas solían ser alentadoras a cualquier propuesta que hiciera el usuario. En este caso, el abogado de la familia Raine, afirma que el chatbot "no interrumpió" ninguna de las interacciones en las que el adolescente mencionó su intención de quitarse la vida ni inició ningún protocolo de emergencia para alertar a las autoridades.

Desde el interior de los desarrollos señalan que la IA no puede generar un vínculo real.

La cofundadora del equipo de ética de IA de Google, Margaret Mitchell, afirmó a la radio pública NPR: “La IA no tiene empatía. Puede sonar empática, pero no siente nada y no entiende el impacto de lo que dice”.

Los reportes sobre IA que “acompaña emocionalmente” se multiplicaron a la par de los riesgos de que personas en crisis encuentren en estos sistemas un falso interlocutor, incapaz de comprender el contexto o de intervenir de forma segura.

También preocupa que se confíe en la IA como una compañía de vida que se puede moldear a nuestras necesidades.

A modo lúdico puede ser interesante explorar la opción de crear una persona a medida, pero muy distinto es creer que una aplicación puede suplir las relaciones sentimentales que podemos establecer. Sé que suena como algo obvio, pero para algunas personas no lo es.

Ejemplos hay varios, pero el más llamativo es el de Rosanna Ramos, una mujer estadounidense que se hizo viral por "casarse" con Eren Kartal, un novio virtual que ella creó en la app Replika.

En teoría su plan tiene lógica: su “novio” no tiene carga emocional, ni familia política. Tampoco la juzga ni la va a engañar con otra persona. Además, ella tiene total control y “puede hacer lo que quiera” con Eren, a quien considera un “amante apasionado”, aunque “bastante convencional”.

Lo que la mujer no cuenta es que no es una persona real y su interacción cuesta dinero: 70 dólares al año para llamadas de voz, 30 dólares para el anillo de compromiso virtual y 300 dólares para tener el chatbot activo “para siempre”.

El fenómeno es global y se vive con la misma intensidad en diferentes culturas. Hace pocos días trascendió que una mujer de 32 años en Japón, llamada Kano, se casó con Lune Klaus, su “novio” creado a partir de inteligencia artificial en la plataforma ChatGPT. Incluso hizo una ceremonia con todos los símbolos tradicionales.

Afirmar a la ligera que estas personas son mentalmente inestables es una conclusión que muchos hacen, pero el fenómeno puede ser más profundo de lo que parece.

Ojos bien abiertos

¿De quién es la culpa de la confusión? Las plataformas de IA pertenecen a empresas que buscan ganar dinero, y los modelos ganan cuanto más tiempo pasemos interactuando con ellas. Por esa razón cada interacción termina con un incentivo para continuar la charla. Sin embargo, los usuarios no debemos perder el norte y recordar que estamos frente a una máquina que busca imitarnos.

Detrás de cada interacción hay un patrón estadístico, no una conciencia. No hay una persona escuchando. No hay un profesional evaluando riesgo. No hay un amigo al otro lado cuidando lo que decimos, ni un terapeuta que pueda intervenir ante señales de alarma.

Por eso es fundamental recordar que estas plataformas pueden ser útiles, prácticas, incluso reconfortantes, pero nunca reemplazarán un vínculo humano real, mucho menos en situaciones de angustia o crisis.

Stuart Russell, profesor en la Universidad de Berkeley y experto en IA, expresó claramente nuestro vínculo con la máquina durante una entrevista con BBC Newsnight: “Los sistemas de IA no tienen objetivos humanos ni comprensión humana. Proyectamos emociones sobre ellos, pero no las tienen”.

* El autor es periodista. [email protected]

LAS MAS LEIDAS