Google, Microsoft, Anthropic y Open AI nombran al primer Director Ejecutivo del Foro de Modelos de Vanguardia

Añadir a tus IAs favoritasQuitar de tus favoritasQuitar de favoritos 0
Puntuación0

2023-10-31 11:15:21

📰 Puntos destacados:
1️⃣ Chris Meserole nombrado Director Ejecutivo del Frontier Model Forum, centrado en la seguridad y desarrollo responsable de modelos de IA de vanguardia.
2️⃣ Creación de un fondo de seguridad en IA de más de $10 millones para promover la investigación en este campo.
3️⃣ Lanzamiento de la primera actualización del grupo de trabajo técnico sobre red teaming y mejores prácticas de seguridad.

El Frontier Model Forum, integrado por Google, Microsoft, OpenAI y Anthropic, ha anunciado la designación de Chris Meserole como primer Director Ejecutivo y la creación de un fondo de seguridad en inteligencia artificial (IA) de más de $10 millones. El objetivo principal del Forum es garantizar el desarrollo y uso responsable de modelos de IA de vanguardia a nivel global.

Chris Meserole, con amplia experiencia en políticas tecnológicas y seguridad de tecnologías emergentes, asume el puesto para ayudar al Forum a promover la investigación en seguridad de IA y minimizar los riesgos potenciales en el desarrollo de modelos de vanguardia. El Forum también se enfocará en identificar las mejores prácticas de seguridad y compartir conocimiento con formuladores de políticas, académicos, sociedad civil y otros actores clave en el desarrollo responsable de la IA.

Además, se ha creado un fondo de seguridad en IA que financiará investigaciones independientes en instituciones académicas, centros de investigación y startups de todo el mundo. Los fondos iniciales provienen de Anthropic, Google, Microsoft y OpenAI, así como de importantes fundaciones filantrópicas y personalidades destacadas en el campo de la tecnología. Se espera que otros socios también realicen aportes adicionales al fondo.

El Forum ha trabajado en la definición de términos y procesos clave en la seguridad de IA y ha compartido las mejores prácticas en la técnica del red teaming, que consiste en probar y evaluar las capacidades potencialmente peligrosas de los sistemas de IA. Se está desarrollando un nuevo proceso de divulgación responsable para que los laboratorios de IA puedan compartir información sobre vulnerabilidades y capacidades peligrosas dentro de los modelos de IA. El Forum considera que esta combinación de investigación puede servir como estudio de caso para que otros laboratorios mejoren sus procesos de divulgación responsable.

En los próximos meses, el Forum establecerá una Junta Asesora para guiar su estrategia y prioridades, al tiempo que emitirá convocatorias para el fondo de seguridad en IA y compartirá nuevas investigaciones técnicas y hallazgos. El objetivo final es colaborar con la comunidad investigadora, organizaciones no gubernamentales y organizaciones internacionales para promover el desarrollo y uso seguro de la IA mientras se maximizan sus beneficios para la sociedad.

Deja una opinión

      Deje una respuesta

      🤖 AI MAFIA
      Logo