2023-11-04 06:48:43
Puntos destacados:
🚀 Microsoft comparte una actualización sobre sus políticas y prácticas de seguridad de la IA.
🔒 Han fortalecido su Equipo Rojo de IA y evolucionado su Cycle de Desarrollo de Seguridad.
🌐 Han implementado tecnologías de procedencia en Bing Image Creator y realizado nuevas subvenciones de investigación en IA.
Microsoft está compartiendo una actualización sobre sus políticas y prácticas de seguridad de IA antes de la Cumbre de Seguridad de IA del Reino Unido. Esta cumbre es parte de una importante y dinámica conversación global sobre cómo podemos asegurar los usos beneficiosos de la IA y anticipar y protegernos contra sus riesgos. Desde el G7 Hiroshima AI Process hasta los Compromisos Voluntarios de la Casa Blanca y más allá, los gobiernos están trabajando rápidamente para definir enfoques de gobernanza para fomentar la seguridad, la confianza y la seguridad de la IA. Microsoft da la bienvenida a la oportunidad de compartir su progreso y contribuir a un diálogo público-privado sobre políticas y prácticas efectivas para gobernar las tecnologías avanzadas de IA y su implementación.
Desde que adoptaron los Compromisos Voluntarios de la Casa Blanca y se comprometieron independientemente con varias políticas y prácticas en julio, Microsoft ha estado trabajando arduamente para operacionalizar sus compromisos. Los pasos que han dado han fortalecido su propia práctica de IA responsable y han contribuido al desarrollo adicional del ecosistema de gobernanza de IA.
La Cumbre de Seguridad de IA del Reino Unido se basa en este trabajo al pedir a las organizaciones de IA fronteriza que compartan sus políticas de seguridad de IA, un paso que ayuda a promover la transparencia y una comprensión compartida de las buenas prácticas. En su actualización detallada, Microsoft ha organizado sus políticas en las nueve áreas de práctica e inversión en las que se enfoca el gobierno del Reino Unido. Algunos aspectos clave de su progreso incluyen:
– Han fortalecido su Equipo Rojo de IA al agregar nuevos miembros y desarrollar más orientación interna de práctica. El equipo ayuda a evaluar los sistemas de IA de alto riesgo, avanzando en el Compromiso de la Casa Blanca sobre la evaluación de equipos rojos. Recientemente, este equipo ha trabajado en el red teaming de DALL-E3 de OpenAI y ha colaborado con expertos en la materia de la compañía para evaluar Bing Image Creator.
– Han evolucionado su Cycle de Desarrollo de Seguridad (SDL) para vincular su Estándar de IA Responsable. También han mejorado su orientación práctica interna para el requisito de modelado de amenazas.
– Han implementado tecnologías de procedencia en Bing Image Creator para revelar automáticamente que las imágenes son generadas por IA. Esta aproximación utiliza la especificación C2PA que co-desarrollaron con Adobe, Arm, BBC, Intel y Truepic.
– Han realizado nuevas subvenciones en su programa de Investigación de Modelos de Fundación Acelerada, que facilita la investigación interdisciplinaria en seguridad y alineación de IA, aplicaciones beneficiosas de IA y descubrimiento científico impulsado por IA en las ciencias naturales y de la vida.
– Han lanzado el Frontier Model Forum en colaboración con Anthropic, Google y OpenAI. También han contribuido a varios esfuerzos de buenas prácticas, incluido el esfuerzo del Forum sobre el modelado de amenazas y el esfuerzo en desarrollo de Partnership on AI sobre la implementación de modelos de fundación seguros. Se espera que contribuyan al grupo de trabajo de seguridad de IA lanzado por ML Commons en colaboración con el Stanford Center for Research on Foundation Models.
Cada uno de estos pasos es crucial para convertir sus compromisos en práctica. El diálogo público-privado en curso les ayuda a desarrollar una comprensión compartida de prácticas efectivas y técnicas de evaluación para los sistemas de IA. Microsoft espera con interés los próximos pasos del Reino Unido en la cumbre, el avance de sus esfuerzos en las pruebas de seguridad de la IA y el apoyo a una mayor colaboración internacional en la gobernanza de la IA.