2024-04-25 20:44:23
Importantes empresas de tecnología, encabezadas por OpenAI, se han unido para implementar los principios de «Seguridad por Diseño» en el desarrollo de inteligencia artificial generativa, priorizando la protección de menores.
En un esfuerzo por mitigar los riesgos que la inteligencia artificial generativa (IA) representa para los niños, OpenAI, junto con gigantes tecnológicos como Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft, Mistral AI y Stability AI, se han comprometido a adoptar medidas sólidas de seguridad infantil. Esta iniciativa, liderada por Thorn y All Tech Is Human, dos organizaciones enfocadas en la defensa de menores y abordar problemas complejos de tecnología y sociedad, busca implementar los principios de «Seguridad por Diseño» en cada etapa del ciclo de vida de los modelos de IA generativa.
Esta iniciativa está liderada por Thorn, una organización sin fines de lucro dedicada a defender a los niños contra el abuso sexual, y All Tech Is Human, una organización dedicada a abordar los problemas complejos de la tecnología y la sociedad, tiene como objetivo mitigar los riesgos que la IA generativa representa para los niños.
Un enfoque integral para la protección infantil
Según los informes, OpenAI y otras empresas involucradas han realizado esfuerzos previos para minimizar el potencial de daño a menores, como establecer restricciones de edad en ChatGPT y colaborar con el National Center for Missing and Exploited Children (NCMEC) y otras organizaciones gubernamentales en temas de protección infantil. Sin embargo, reconocen que se requiere un enfoque proactivo e integral.
De acuerdo con los principios de «Seguridad por Diseño», las compañías se comprometen a:
Desarrollo responsable
En la etapa de desarrollo, nos comprometemos a:
- Desarrollar, construir y entrenar modelos de IA generativa que aborden proactivamente los riesgos de seguridad infantil.
- Obtener nuestros conjuntos de datos de entrenamiento de manera responsable, detectar y eliminar material de abuso sexual infantil (CSAM) y material de explotación sexual infantil (CSEM) de los datos de entrenamiento, y reportar cualquier CSAM confirmado a las autoridades pertinentes.
- Incorporar bucles de retroalimentación y estrategias de pruebas de estrés iterativas en nuestro proceso de desarrollo.
- Implementar soluciones para abordar el mal uso adversarial.
Implementación segura
Durante la etapa de implementación, nos enfocaremos en:
- Lanzar y distribuir modelos de IA generativa después de que hayan sido entrenados y evaluados en cuanto a seguridad infantil, proporcionando protecciones a lo largo del proceso.
- Combatir y responder al contenido y conductas abusivas, e incorporar esfuerzos de prevención.
- Animar la propiedad del desarrollador en la seguridad por diseño.
Mantenimiento continuo
Finalmente, en la etapa de mantenimiento, nos comprometemos a:
- Mantener la seguridad del modelo y la plataforma continuando comprendiendo y respondiendo activamente a los riesgos de seguridad infantil.
- Eliminar el nuevo AIG-CSAM generado por actores malintencionados de nuestra plataforma.
- Invertir en investigación y futuras soluciones tecnológicas para luchar contra el CSAM, AIG-CSAM y CSEM en nuestras plataformas.
Un compromiso de largo plazo
Este compromiso conjunto marca un hito importante en la prevención del uso indebido de la IA generativa para crear o difundir material de abuso sexual infantil. Las empresas acordaron publicar actualizaciones anuales sobre sus avances.
Si bien es un paso crucial, los expertos señalan que la seguridad infantil en la era digital requiere esfuerzos coordinados de gobiernos, organizaciones, expertos y la sociedad en general. Solo mediante una colaboración proactiva podrá aprovecharse el potencial de la IA generativa, protegiendo a la niñez de sus peligros asociados.