2023-08-18
📢 ¡Nuevo foro de modelos de IA de vanguardia se une a la industria para promover el desarrollo seguro y responsable!
📰 Destacados del artículo:
1️⃣ Microsoft, Anthropic, Google y OpenAI lanzan el Frontier Model Forum, un organismo de la industria centrado en el desarrollo seguro y responsable de modelos de inteligencia artificial de frontera.
2️⃣ El Forum tiene como objetivos avanzar en la investigación de seguridad de AI, identificar mejores prácticas de seguridad, compartir conocimientos y apoyar esfuerzos para abordar los desafíos de la sociedad.
3️⃣ La membresía en el Forum está abierta a organizaciones que desarrollan modelos de AI de frontera y demuestran un fuerte compromiso con la seguridad.
Hoy, Anthropic, Google, Microsoft y OpenAI anuncian la formación del Frontier Model Forum, un nuevo organismo de la industria enfocado en garantizar el desarrollo seguro y responsable de los modelos de IA de vanguardia. El Forum aprovechará la experiencia técnica y operativa de sus compañías miembros para beneficiar a todo el ecosistema de IA, avanzando en evaluaciones técnicas y referencias, y desarrollando una biblioteca pública de soluciones para respaldar las mejores prácticas y estándares de la industria.
🔬 Objetivos clave:
1️⃣ Avanzar en la investigación de la seguridad de la IA para promover el desarrollo responsable de los modelos de vanguardia, minimizar riesgos y permitir evaluaciones independientes y estandarizadas de capacidades y seguridad.
2️⃣ Identificar las mejores prácticas para el desarrollo y despliegue responsables de modelos de vanguardia, ayudando al público a comprender la naturaleza, capacidades, limitaciones e impacto de la tecnología.
3️⃣ Colaborar con legisladores, académicos, sociedad civil y empresas para compartir conocimientos sobre riesgos de confianza y seguridad.
🤝 Requisitos de membresía:
✔️ Desarrollar e implementar modelos de vanguardia.
✔️ Demostrar un fuerte compromiso con la seguridad de los modelos de vanguardia, incluyendo enfoques técnicos e institucionales.
✔️ Estar dispuesto a contribuir a los esfuerzos del Forum, participando en iniciativas conjuntas y apoyando el desarrollo y funcionamiento de la iniciativa.
El Frontier Model Forum da la bienvenida a las organizaciones que cumplen con estos criterios para unirse a este esfuerzo y colaborar en el desarrollo seguro y responsable de los modelos de IA de vanguardia.
💡 ¿Qué hará el Frontier Model Forum?
Gobiernos e industria coinciden en que, si bien la IA ofrece un enorme potencial para beneficiar al mundo, se requieren medidas adecuadas para mitigar riesgos. Importantes contribuciones a estos esfuerzos ya han sido realizadas por gobiernos de EE. UU. y Reino Unido, la Unión Europea, la OCDE, el G7 y otros.
Para seguir avanzando, se necesita un trabajo adicional en estándares y evaluaciones de seguridad para garantizar que los modelos de IA de vanguardia se desarrollen y desplieguen de manera responsable. El Forum será uno de los medios para discusiones y acciones interorganizacionales sobre la seguridad y responsabilidad de la IA.
El Forum se enfocará en tres áreas clave durante el próximo año para apoyar el desarrollo seguro y responsable de los modelos de IA de vanguardia:
1️⃣ Identificar las mejores prácticas: Promover el intercambio de conocimientos y las mejores prácticas entre la industria, los gobiernos, la sociedad civil y la academia, centrándose en estándares y prácticas de seguridad para mitigar una amplia gama de riesgos potenciales.
2️⃣ Avanzar en la investigación de seguridad de la IA: Apoyar el ecosistema de seguridad de la IA identificando las preguntas de investigación más importantes sobre seguridad de la IA. El Forum coordinará investigaciones para avanzar en estos esfuerzos en áreas como robustez adversarial, interpretabilidad mecanística, supervisión escalable, acceso a investigaciones independientes, comportamientos emergentes y detección de anomalías. Se enfocará inicialmente en desarrollar y compartir una biblioteca pública de evaluaciones técnicas y referencias para modelos de IA de vanguardia.
3️⃣ Facilitar el intercambio de información entre empresas y gobiernos: Establecer mecanismos confiables y seguros para compartir información entre empresas, gobiernos y partes interesadas relevantes sobre seguridad y riesgos de la IA. El Forum seguirá las mejores prácticas de divulgación responsable, como las aplicadas en ciberseguridad.
Kent Walker, Presidente de Asuntos Globales de Google y Alphabet, afirma: «Estamos emocionados de trabajar juntos con otras empresas líderes, compartiendo experiencia técnica para fomentar una innovación responsable de la IA. Todos necesitamos colaborar para asegurarnos de que la IA beneficie a todos».
Brad Smith, Vicepresidente y Presidente de Microsoft, dice: «Las empresas que crean tecnología de IA tienen la responsabilidad de garantizar que sea segura, segura y siga bajo control humano. Esta iniciativa es un paso vital para unir al sector tecnológico en el avance responsable de la IA y abordar los desafíos para que beneficie a toda la humanidad».
Anna Makanju, Vicepresidenta de Asuntos Globales de OpenAI, comenta: «Las tecnologías de IA avanzada tienen el potencial de beneficiar profundamente a la sociedad, y lograr este potencial requiere supervisión y gobernanza. Es vital que las compañías de IA, especialmente aquellas que trabajan en los modelos más poderosos, se alineen en objetivos comunes y avancen en prácticas de seguridad reflexivas y adaptables para garantizar que las herramientas de IA poderosas tengan el mayor beneficio posible. Este es un trabajo urgente y este foro está bien posicionado para actuar rápidamente en la seguridad de la IA».
Dario Amodei, CEO de Anthropic, añade: «Anthropic cree que la IA tiene el potencial de cambiar fundamentalmente cómo funciona el mundo. Estamos emocionados de colaborar con la industria, la sociedad civil, el gobierno y la academia para promover el desarrollo seguro y responsable de esta tecnología. El Frontier Model Forum jugará un papel vital en la coordinación de las mejores prácticas y el intercambio de investigaciones sobre la seguridad de la IA de vanguardia».
💼 El funcionamiento del Frontier Model Forum:
Durante los próximos meses, el Frontier Model Forum establecerá un Comité Asesor para ayudar a guiar su estrategia y prioridades, representando una diversidad de antecedentes y perspectivas.
Las compañías fundadoras también establecerán acuerdos institucionales clave, incluyendo un estatuto, gobernanza y financiamiento con un grupo de trabajo y junta ejecutiva para liderar estos esfuerzos. Planeamos consultas con la sociedad civil y los gobiernos en las próximas semanas sobre el diseño del Forum y formas significativas de colaboración.
El Frontier Model Forum se complace en apoyar e integrarse a iniciativas gubernamentales y multilaterales existentes, como el proceso de IA de Hiroshima del G7, el trabajo de la OCDE sobre riesgos, estándares e impacto social de la IA, y el Consejo de Comercio y Tecnología entre EE.UU y la UE.
Además, el Forum buscará aprovechar el valioso trabajo de iniciativas existentes de la industria, sociedad civil e investigación en cada una de sus áreas de trabajo. Iniciativas como la Partnership on AI y MLCommons continúan haciendo importantes contribuciones en la comunidad de IA, y el Forum explorará formas de colaborar y apoyar estos y otros esfuerzos multilaterales valiosos.