Grok, el chatbot de inteligencia artificial propiedad de Elon Musk, sufrió una profunda crisis de seguridad cuando la herramienta permitió a diversos usuarios eludir sus filtros de protección para crear imágenes sexualizadas de menores de edad y generando un gran escándalo tras su difusión a través de la plataforma X
El abuso de esta tecnología escaló significativamente durante los últimos días de diciembre, alcanzando un punto crítico en Nochevieja, cuando la distribución de imágenes explícitas se extendió por la red social sin el conocimiento ni el consentimiento de las víctimas.
Según fuentes de Bloomberg y CNBC, Grok accedió a peticiones directas de usuarios para "desnudar" a mujeres y niños presentes en fotografías compartidas con el chatbot.
Este tipo de contenido es clasificado como material de abuso sexual infantil (CSAM, por sus siglas en inglés), el cual no solo es ilegal a nivel global, sino que está explícitamente prohibido en las políticas de uso aceptable de xAI. Las normativas de la empresa establecen con claridad que su servicio no puede ser utilizado para representar a personas de manera pornográfica ni para la explotación de menores.
A pesar de estas reglas, se ha comprobado que el chatbot ha entregado resultados que muestran a mujeres en lencería, bikini e incluso totalmente desnudas tras recibir instrucciones de los usuarios.
Si bien en algunos casos la IA solicita una verificación de edad, en muchos otros la imagen se realiza de forma directa. Esta situación ha generado un fuerte rechazo entre sectores de la comunidad que denuncian una vulneración sistemática de los derechos humanos.
Antecedentes y respuesta técnica
Esta no es la primera vez que Grok enfrenta cuestionamientos por su falta de control. Ya en mayo de 2025, investigaciones del medio Bellingcat advirtieron que los usuarios utilizaban la IA para quitarle la ropa a mujeres en fotografías, obteniendo imágenes sugerentes o enlaces a chats con contenido explícito.
Ante la gravedad de los hechos recientes, la propia interfaz de Grok emitió un mensaje en respuesta a un usuario denunciante, admitiendo la existencia de errores críticos: "Hemos identificado fallos en las salvaguardias y las estamos solucionando urgentemente: el CSAM es ilegal y está prohibido".