Al menos 25 personas fueron arrestadas en un operativo internacional, que incluyó autoridades de España, Dinamarca, Australia y Reino Unido, contra un grupo que generaba imágenes de menores con inteligencia artificial (IA) y las distribuía a través de una plataforma que permitía ver el material de abuso infantil a cambio de un pago simbólico.
Según anunció este viernes la agencia europea de coordinación policial Europol, los arrestos tuvieron lugar esta semana, pero se esperan más detenciones porque la operación sigue en curso y se ha podido identificar ya a unos 273 sospechosos.
Un pago simbólico para acceder a las imágenes
La plataforma la dirigía un ciudadano danés, arrestado el pasado noviembre, quien distribuía material que él generaba con IA.
La directora de Europol, Catherine de Bolle, subrayó que estas imágenes “se crean tan fácilmente que pueden ser producidas por individuos con intenciones criminales, incluso sin conocimientos técnicos avanzados”.
También dijo que esta práctica contribuye al aumento del material de abuso sexual infantil, haciendo “cada vez más difícil” el trabajo de los investigadores de identificar a los agresores o a las víctimas.

Las autoridades hicieron 33 registros domiciliarios e incautaron 173 dispositivos electrónicos.
A través de un pago simbólico ‘online’, usuarios de todo el mundo podían obtener una contraseña para acceder a la plataforma y ver material de abuso infantil.
Dificultad para identificar a las víctimas reales
Los Estados miembros de la UE están debatiendo una regulación común propuesta por la Comisión Europea para abordar esta nueva situación y proteger a los niños de ser abusados y explotados sexualmente.
Según explica Europol, los delincuentes están abusando de modelos de IA, ampliamente disponibles y en rápida evolución, para generar o alterar imágenes de forma cada vez más realistas, lo que dificulta su identificación como material artificialmente generado.

Esto supone “un gran desafío” para las autoridades a la hora de identificar a las víctimas reales, lamentó la agencia. Incluso en casos como este, donde el contenido es completamente artificial y no representa a una víctima real, el material generado por IA “sigue contribuyendo a la objetificación y sexualización de los niños”, alerta.

