Once adolescentes denunciaron que crearon fotos desnudas suyas con inteligencia artificial

La Policía Nacional de España inició una investigación luego del relato de las víctimas menores de edad, quienes denunciaron que manipularon fotos superponiendo sus caras a cuerpos desnudos de otras personas utilizando inteligencia artificial.

Once adolescentes denunciaron que usaron inteligencia artificial para crear fotos desnudas
Once adolescentes denunciaron que usaron inteligencia artificial para crear fotos desnudas

Once adolescentes en la localidad española de Almendralejo, Extremadura, denunciaron la circulación de fotos suyas desnudas creadas con una aplicación de inteligencia artificial (IA), lo que probocó un debate acalorado en el país.

La policía confirmó que tienen once declaraciones de víctimas menores de edad en este caso, en el que los presuntos autores manipularon fotos de niñas superponiendo sus caras a cuerpos desnudos de otras personas. Estas imágenes falsas se generaron utilizando una aplicación de IA capaz de producir fotomontajes de gran realismo.

La investigación se abrió por un presunto delito de invasión de la intimidad. La fiscalía indicó que también podría considerarse el delito de pornografía infantil debido a la edad de las víctimas. Se estima que alrededor de una veintena de niñas podrían haber sido víctimas de estas fotos manipuladas.

Madres de las víctimas expresaron su indignación en las redes sociales. Miriam Al Adib, madre de una de las chicas, denunció esta “barbaridad” en Instagram. Explicó en el post: “Cuando llegué a casa, una de mis hijas, con un disgusto tremendo, me ha dicho: ‘mira que han hecho’ (...) Han cogido una foto suya y la han puesto como si estuviera desnuda”. La policía también le advirtió que estas fotos podrían haber sido compartidas en sitios pornográficos.

Otra madre relató en la televisión pública TVE que intentaron chantajear a su hija exigiéndole dinero para no difundir las imágenes.

El suceso reavivó la preocupación sobre el uso de la inteligencia artificial con fines malintencionados, como en el caso de los “deepfakes” pornográficos. Según un estudio de 2019 realizado por la empresa de inteligencia artificial holandesa Sensity, el 96% de los vídeos falsos en línea son pornografía no consentida, y la mayoría de las víctimas son mujeres.

SEGUÍ LEYENDO:

Tenemos algo para ofrecerte

Con tu suscripción navegás sin límites, accedés a contenidos exclusivos y mucho más. ¡También podés sumar Los Andes Pass para ahorrar en cientos de comercios!

VER PROMOS DE SUSCRIPCIÓN

COMPARTIR NOTA