Observaciones de Mark Zuckerberg en el Foro de Inteligencia Artificial

Añadir a tus IAs favoritasQuitar de tus favoritasQuitar de favoritos 0
Puntuación0

2023-09-14 18:42:13

Puntos destacados:

– 📢 AI es una tecnología emergente que requiere el compromiso y colaboración de todos los sectores para minimizar los riesgos y maximizar los beneficios.
– 🛡 Meta está implementando medidas de seguridad en sus modelos de IA generativos y trabajando con expertos para establecer regulaciones adecuadas.
– 💻 El acceso a la IA de vanguardia será fundamental para el progreso y oportunidades futuras, y Meta destaca la importancia de un enfoque más abierto y colaborativo.


Discurso de apertura del fundador y CEO de Meta, Mark Zuckerberg, en el Foro de Inteligencia Artificial Insight, organizado por los senadores Schumer, Rounds, Heinrich y Young el 13 de septiembre de 2023.

Gracias, senador Schumer, por reunir a este grupo. Gran parte del progreso en IA recientemente está siendo impulsado por las organizaciones presentes en esta sala. No es sorprendente que tanto trabajo líder se esté realizando en los EE. UU., desde investigaciones fundamentales hasta productos de consumo. Las personas talentosas quieren construir cosas nuevas aquí y creo que eso ayuda a nuestra competitividad global. Y aunque la IA traerá progreso en todas partes, espero que nuestro liderazgo genere algún beneficio duradero para los Estados Unidos a largo plazo.

Entonces, estoy de acuerdo en que el Congreso debe involucrarse con la IA para apoyar la innovación y garantizar seguridad. Esta es una tecnología emergente, hay equidades importantes a equilibrar y el gobierno es en última instancia responsable de eso.

Aunque la conversación se centra principalmente en la IA generativa en este momento, no debemos perder de vista el progreso general en la visión por computadora, el procesamiento del lenguaje natural, la robótica y más, que también impactarán a la sociedad. Por lo tanto, damos la bienvenida a una participación reflexiva aquí para ayudar a garantizar los mejores resultados posibles para las personas.

Mirando hacia el futuro, veo dos temas clave para la IA.

El primero es la seguridad. La nueva tecnología a menudo trae nuevos desafíos, y las empresas tienen la responsabilidad de asegurarse de construir e implementar productos de manera responsable. En Meta, estamos incorporando salvaguardias en nuestros modelos de IA generativos y productos desde el principio, y trabajando con otros para colaborar en el establecimiento de límites. Y vamos a ser deliberados en cómo lanzamos estos productos.

Eso significa asociarnos con académicos y publicar investigaciones de manera abierta, compartir Model Cards y establecer políticas que prohíban ciertos usos, y en el caso de Llama 2, poner a prueba nuestros modelos y lanzar guías de uso responsable para los desarrolladores. También significa trabajar con expertos de toda la sociedad, por ejemplo, a través del esfuerzo de la Partnership on AI para determinar cómo identificar y marcar el contenido de IA.

Creemos que los responsables políticos, académicos, la sociedad civil y la industria deben trabajar juntos para minimizar los posibles riesgos de esta nueva tecnología, pero también para maximizar sus beneficios potenciales. Si crees que esta generación de herramientas de IA es un paso significativo adelante, entonces es importante no subestimar el potencial positivo.

El otro problema importante es el acceso. Tener acceso a IA de vanguardia será cada vez más importante para impulsar oportunidades en el futuro, y creo que eso será cierto tanto para las personas individuales como para las empresas y las economías en su conjunto.

En Meta, tenemos un largo historial de poner en código abierto nuestra infraestructura y trabajo de IA, incluido Llama2, que lanzamos en estrecha colaboración con varias otras empresas aquí hoy.

Pero quiero enfatizar que no somos fanáticos de esto. No abrimos todo en código abierto. Creemos que los modelos cerrados también son buenos, pero también pensamos que un enfoque más abierto crea más valor en muchos casos. Basado en donde está la tecnología ahora, creemos que este es el enfoque responsable, pero aquí hay algunas cosas en las que estamos pensando mientras intentamos equilibrar esto.

En primer lugar, creo que es importante que Estados Unidos continúe liderando en esta área y defina el estándar técnico que el mundo utilice. El próximo modelo de código abierto líder proviene de Abu Dhabi, y otros países también están trabajando en esto. Creo que es mejor que el estándar sea establecido por empresas estadounidenses que puedan trabajar con nuestro gobierno para dar forma a estos modelos en temas importantes.

En segundo lugar, somos capaces de incorporar salvaguardias en estos sistemas para hacerlos más seguros, incluida la selección de los datos con los que se entrenan, pruebas exhaustivas internas y externas para identificar y solucionar problemas, ajustar los modelos para alineación y asociarnos con proveedores en la nube que tienen en cuenta la seguridad para agregar filtros adicionales a los sistemas que lanzamos y que la mayoría de las personas realmente usarán.

En tercer lugar, se acepta generalmente que el software de código abierto es más seguro, porque más personas pueden examinarlo para identificar problemas y luego compartir y propagar soluciones que pueden ser utilizadas para fortalecer los sistemas.

Y en cuarto lugar, el código abierto democratiza el acceso a estas herramientas, lo cual ayuda a nivelar el campo de juego y fomenta la innovación para las personas y las empresas, lo cual creo que es valioso para nuestra economía en general.

Ahora, si en algún momento en el futuro estos sistemas se acercan al nivel de la superinteligencia, entonces estas equidades cambiarán y reconsideraremos este enfoque. Pero mientras tanto, hay una gran cantidad de valor por desbloquear para las personas con la generación actual de tecnología, y estamos listos para colaborar con el gobierno en esto también.

Deja una opinión

      Deje una respuesta

      🤖 AI MAFIA
      Logo