OpenAI lanza una red de equipos rojos para erradicar los riesgos de la IA

Añadir a tus IAs favoritasQuitar de tus favoritasQuitar de favoritos 0
Puntuación0

2023-09-20 19:51:18

OpenAI ha anunciado una convocatoria abierta para que expertos de diversos ámbitos se unan a la OpenAI Red Teaming Network, cuyo objetivo es mejorar la seguridad de sus modelos de IA.

El Red Teaming forma parte del proceso de desarrollo iterativo de OpenAI, que incluye pruebas adversariales internas y externas. Con este lanzamiento formal, OpenAI pretende profundizar y ampliar su colaboración con expertos externos.

Los expertos de la red colaborarán en la evaluación de riesgos en función de su área de especialización a lo largo del ciclo de vida de desarrollo de modelos y productos. El objetivo es ofrecer aportaciones diversas y continuas para hacer del red teaming un proceso iterativo. La llamada a la acción de OpenAI está abierta a expertos de todo el mundo, independientemente de su experiencia previa con sistemas de IA o modelos lingüísticos.

Los miembros de la red recibirán una compensación por sus contribuciones a un proyecto de red teaming. Los expertos también tendrán la oportunidad de interactuar entre sí sobre prácticas generales de red teaming y lecciones aprendidas. No se les impedirá publicar sus investigaciones o buscar otras oportunidades, pero tendrán que respetar acuerdos de confidencialidad.

Solicitudes están abiertas hasta el 1 de diciembre de 2023.

Microsoft también hace equipos rojos

Si quieres saber más sobre los equipos rojos, echa un vistazo al proceso de equipos rojos de Microsoft. La empresa ha detallado su estrategia de «red teaming» de modelos de IA como GPT-4, utilizando equipos independientes para comprobar las vulnerabilidades del sistema antes de su despliegue.

El gigante tecnológico utiliza el red teaming a nivel de modelo y de sistema, incluso para aplicaciones como Bing Chat. La creación de equipos rojos para la IA es especialmente difícil debido a la naturaleza impredecible y a la rápida evolución de los sistemas de IA. Según Microsoft, se necesitan varias capas de defensa.

Deja una opinión

      Deje una respuesta

      🤖 AI MAFIA
      Logo