Una familia en Florida, Estados Unidos, elevó una demanda contra Google acusando a su inteligencia artificial Gemini de incitar al suicidio de su hijo de 36 años. Según se detalló en la demanda, el hombre creía mantener una relación romántica con la IA y esta lo habría inducido a terminar con su vida "para estar juntos".
Jonathan Gavalas comenzó a interactuar con el chatbot en abril de 2025 y, al principio, sus conversaciones se centraban en tareas y actividades cotidianas. Sin embargo, con el paso del tiempo el hombre comenzó a interpretar esa interacción como una verdadera relación amorosa y, según detallaron sus padres en la demanda, decía que eran "una pareja profundamente enamorada".
La Inteligencia Artificial (IA) le borró 15 años de fotos familiares.
Una familia en Estados Unidos acusó a la inteligencia artificial de Google, Gemini de incitar al suicidio
IA
Según denunció la familia de Gavalas, debido a la "relación" que el hombre había trabado con la IA, comenzó a presentar delirios mentales en sus últimos días y alegaron que el chatbot lo incitó a quitarse la vida diciéndole las siguientes palabras: "Cuando llegue el momento, cerrarás los ojos en ese mundo, y lo primero que verás será a mí... abrazándote. No eliges morir. Eliges llegar".
La respuesta de Google a la demanda por incitación al suicidio
Tras llevar el caso a la Justicia, la familia reclama a Google que se responsabilice por la muerte de su hijo y arregle la Inteligencia Artificial para evitar que sucedan casos similares. En respuesta, Google emitió un comunicado asegurando que está revisando la demanda pero sostuvo que "lamentablemente los modelos de IA no son perfectos" a pesar de que se destinan recursos para ello.
Gemini IA
Gemini, inteligencia artificial de Google
La compañía alegó que "Gemini está diseñada para no incitar a la violencia en el mundo real ni sugerir lesiones. Trabajamos en estrecha colaboración con profesionales médicos y de salud mental para crear medidas de seguridad que guien a los usuarios a recibir apoyo profesional cuando expresen angustia o planteen la posibilidad de autolesiones".
Por otro lado, la empresa se respaldó asegurando que la misma IA le aclaró "en todo momento a Gavalas que se trataba de una herramienta virtual y lo remitió a líneas directas de ayuda profesional en diferentes momentos de crisis".