No basta con ampliar los modelos lingüísticos

Añadir a tus IAs favoritasQuitar de tus favoritasQuitar de favoritos 0
Puntuación+1

2023-11-18 16:39:47

Es poco probable que los grandes modelos lingüísticos por sí solos conduzcan a la AGI, afirma Sam Altman. Encontrar la solución es el próximo reto de OpenAI.

El consejero delegado y cofundador de OpenAI dio una charla y respondió a preguntas como parte del premio Hawking Fellowship 2023, que aceptó en nombre del equipo. Entre las preguntas de los estudiantes de Cambridge figuraban el papel del código abierto, la seguridad de la IA, la concienciación y, por último, el papel de la escalabilidad en el camino hacia la Inteligencia Artificial General (IAG).

A la pregunta de si un mayor escalado de los grandes modelos lingüísticos conduciría a la AGI, Altman respondió que, aunque los modelos han hecho grandes progresos y ve mucho potencial, es muy probable que se necesite otro avance. Aunque GPT-4 tiene unas capacidades impresionantes, también tiene puntos débiles que dejan claro que aún no se ha conseguido la AGI.

«Creo que necesitamos otro avance. Podemos insistir mucho en los grandes modelos lingüísticos, y deberíamos hacerlo, y lo haremos. Podemos tomar la colina actual en la que estamos y seguir escalándola, y la cima de eso está todavía bastante lejos. Pero dentro de lo razonable, si se empuja que super lejos, tal vez todas estas otras cosas surgieron. Pero dentro de lo razonable, no creo que eso haga algo que yo considere crítico para una inteligencia general», dijo Altman.

Utilizó la física para ilustrar su punto de vista: «Usemos ahora la palabra superinteligencia, como la superinteligencia no puede descubrir física novedosa, no creo que sea una superinteligencia. Entrenar sobre los datos de lo que se conoce, enseñar a clonar el comportamiento de los humanos y el texto humano, no creo que vaya a conseguirlo. Así que hay esta pregunta que se ha debatido en el campo durante mucho tiempo: ¿qué tenemos que hacer además de un modelo de lenguaje para hacer un sistema que puede ir a descubrir una nueva física? Y esa será nuestra próxima búsqueda».

El crítico del aprendizaje profundo Gary Marcus tradujo la afirmación de Altman como «El aprendizaje profundo está chocando contra un muro». Según Marcus, las redes pueden generalizar a veces, pero nunca de forma fiable. El jefe de IA de Meta Yann LeCun por otro lado, lo tradujo como «El escalado de los LLM autorregresivos está dando rendimientos decrecientes». Para él, el aprendizaje profundo sigue siendo la base, aunque con arquitecturas y objetivos de formación diferentes, similares a los de JEPA.

Altman: «La seguridad en teoría es fácil»

Cuando se le preguntó por el papel del código abierto, Altman se mostró partidario en principio de los modelos de código abierto, pero advirtió de los riesgos potenciales de poner todos los modelos a disposición del público sin pruebas y conocimientos exhaustivos.

«Creo que el código abierto es bueno e importante», dijo Altman, «pero también creo que la precaución es muy buena, discrepo respetuosamente de que debamos abrir instantáneamente en código abierto todos los modelos que entrenamos», respondiendo a preguntas sobre Entrevista reciente a Andrew Ngs sobre la normativa de la IA.

El tema de la seguridad también surgió en la presentación de Altman y en las preguntas. Reiteró la importancia de desarrollar la IA de forma segura y acorde con los valores humanos y explicó el planteamiento de OpenAI, que se basa en pruebas, expertos externos, sistemas y herramientas de control de la seguridad y buenas prácticas.

«La seguridad en teoría es fácil. Lo difícil es hacer un sistema que sea realmente útil para cientos de millones de personas y que sea seguro», dijo Altman. «No se puede hacer este trabajo sólo en teoría; hay que hacerlo en contacto con la realidad».

También habló de la importancia de la cooperación mundial en la regulación de la IA, sugiriendo que en el futuro podría ser necesario un regulador mundial, similar a la Autoridad Reguladora Nuclear.

Deja una opinión

      Deje una respuesta

      🤖 AI MAFIA
      Logo