Los expertos denuncian el alarmante aumento de contenidos de pornografía infantil generados por IA

Añadir a tus IAs favoritasQuitar de tus favoritasQuitar de favoritos 0
Puntuación+1

2023-10-26 10:25:18

La Internet Watch Foundation (IWF), organización sin ánimo de lucro centrada en la eliminación de material de abuso sexual infantil (CSAM) de Internet, informa de un aumento del CSAM generado por IA.

En un mes, los analistas de IWF encontraron 20.254 imágenes generadas por IA en un único foro de CSAM en la dark web. De ellas, 11.108 se consideraron potencialmente delictivas y fueron analizadas por 12 especialistas de IWF que les dedicaron un total de 87,5 horas.

Se consideró que las imágenes delictivas infringían una de las dos leyes del Reino Unido: la Ley de protección de menores de 1978 o la Ley de Forenses y Justicia de 2009. Un total de 2.562 imágenes se clasificaron como pseudoimágenes delictivas y 416 imágenes se clasificaron como imágenes delictivas prohibidas.

El FMI afirma que estos contenidos pueden crearse mediante sistemas de conversión de texto en imágenes de código abierto y sin restricciones, en los que al teclear una descripción se generan imágenes realistas que prácticamente no se distinguen de las fotografías reales.

Un nicho que podría crecer rápidamente

El informe también destaca otras conclusiones, como que los contenidos generados por IA son actualmente una pequeña parte del trabajo de la IWF, pero tienen potencial para crecer rápidamente.

Según el informe, los MFCS generados por IA también son cada vez más realistas, lo que plantea retos a la IWF y a las fuerzas del orden. También hay pruebas de que los CSAM generados por IA contribuyen a la revictimización de víctimas conocidas de abusos y de niños famosos. Además, los CSAM generados por IA ofrecen a los delincuentes otra vía para lucrarse con los abusos a menores.

La IWF esbozó una serie de recomendaciones para que los gobiernos, las fuerzas del orden y las empresas tecnológicas aborden el creciente problema de los CSAM generados por IA.

Entre ellas, promover la coordinación internacional en la gestión de contenidos, revisar las leyes de eliminación de contenidos en línea, actualizar la formación de la policía para que incluya los CSAM generados por IA, supervisar reglamentariamente los modelos de IA y garantizar que las empresas que desarrollen e implanten IA generativa y grandes modelos lingüísticos (LLM) incluyan prohibiciones sobre la generación de CSAM en sus condiciones de servicio.

En última instancia, el crecimiento de los CSAM generados por IA supone una amenaza significativa para la misión de la IWF de eliminar la pornografía infantil de Internet, afirma la IWF. A medida que avance la tecnología, las imágenes serán más realistas y podría aumentar el abuso de menores.

A finales de junio, el Centro Nacional para Menores Desaparecidos y Explotados de EE.UU. informó de un «fuerte aumento» de imágenes de abusos generadas por IA. Las imágenes complicarían las investigaciones y podrían dificultar la identificación de las víctimas.

En foros de pedofilia, los usuarios compartían instrucciones sobre modelos de código abierto para generar las imágenes. Los defensores de los niños y los funcionarios de justicia estadounidenses afirman que son punibles por ley, pero no ha habido resoluciones judiciales sobre clasificación o sentencia.

Deja una opinión

Deje una respuesta

🤖 AI MAFIA
Logo