El número de imágenes y vídeos de agresiones sexuales a niños generadas por inteligencia artificial (IA) aumenta de forma «escalofriante» en internet, advirtió el viernes una organización británica encargada de detectar y eliminar estos contenidos.
Muchas de estas fotografías o vídeos que muestran a menores «siendo atacados y maltratados son tan realistas que es casi imposible distinguirlos de imágenes de niños de verdad», subraya en un comunicado la Fundación de Vigilancia de Internet (Internet Watch Foundation, IWF), una de las principales asociaciones del sector en Europa.
La IWF, que había recibido 70 denuncias entre abril de 2023 y marzo de 2024, ya contabilizó 74 en el espacio de seis meses, entre abril y finales de septiembre de este año.
Casi todas estas imágenes se encontraban en sitios abiertos, de fácil acceso para el gran público, principalmente de Rusia (36 %), Estados Unidos (22 %) y Japón (11 %).
Más de las tres cuartas partes de esas denuncias fueron hechas directamente a la asociación por internautas, tras haber visto las imágenes en «foros o galerías de fotos o vídeos de IA».
Según un analista de la organización, que prefirió guardar el anonimato por motivos de seguridad, el aumento de estas denuncias es «escalofriante y da la impresión de que hemos llegado a un punto crítico, con el riesgo de que organizaciones como la nuestra y la policía se vean abrumadas por cientos de nuevas imágenes, sin saber si un niño de verdad necesita ayuda en alguna parte».
«Para alcanzar el nivel de sofisticación observado, el software utilizado tuvo que aprender de imágenes y vídeos reales de agresiones sexuales a menores compartidos en internet», explica Derek Ray-Hill, director general interino de la IWF, citado en el comunicado.
Para hacer frente a esto, Ray-Hill insta a los parlamentarios británicos a adaptar las leyes existentes «a la era digital» y a sus herramientas en constante avance.