Circulan falsos desnudos de menores generados por IA, policía española investiga casos

96

Imágenes de falsos desnudos creados con Inteligencia Artificial circulan en redes sociales en España. Tras la denuncia de las familias de las afectadas, los casos están siendo investigados por la Policía Nacional, así lo reportaron medios españoles.

De acuerdo con lo reportado por el diario La Vanguardia, se trata de imágenes generadas con IA en las que se coloca la cara de niñas menores de edad reales, cuya edad oscila entre los 12 y 17 años, en un cuerpo desnudo que no es el suyo.

Dichas fotografías son difundidas principalmente por WhatsApp. Pero no se descarta que se hayan compartido en plataformas como Only Fans o páginas pornográficas.

Autoridades españolas investigan desnudos generados con IA

Hasta ahora 11 muchachas adolescentes denunciaron en España la circulación de fotos suyas desnudas elaboradas con una aplicación de Inteligencia Artificial, indicó  portavoz de la policía española a la agencia de noticias AFP.

Los presuntos autores de estas imágenes, que en algunos casos fueron identificados, “han manipulado fotos de niñas, menores de edad”, superponiendo sus caras a cuerpos desnudos “de otras personas”, añadió.

Sin embargo, según medios de comunicación españoles, una veintena de niñas podrían haber sido víctimas de estas fotos manipuladas.

Por su parte, la ministra de Justicia en funciones, Pilar Llop, declaró que este tipo de conductas son “gravísimas, muy graves, y no debe caber impunidad ni aunque se trate de imágenes manipuladas”.

La investigación se abrió por el presunto delito de invasión de la intimidad. No obstante, la Fiscalía indicó que también podría considerarse el delito de pornografía infantil, dada la edad de las víctimas.

Preocupa uso malintencionado de la Inteligencia Artificial

La Inteligencia Artificial está causando una creciente preocupación en todo el mundo. Esto debido a sus posibles usos malintencionados, como en el caso de los “deepfakes” pornográficos.

Según un estudio de 2019 de la empresa holandesa de inteligencia artificial Sensity, el 96% de los vídeos falsos en línea son pornografía no consentida y en la mayoría de ellos aparecen mujeres.