Sam Altman, CEO de OpenAI, afirma que ChatGPT habría pasado por una AGI hace 10 años

Añadir a tus IAs favoritasQuitar de tus favoritasQuitar de favoritos 0
Puntuación0

2023-10-25 10:27:03

La inteligencia general artificial es el gran objetivo de OpenAI. Sin embargo, aún se debate qué es exactamente.

Según Sam Altman, consejero delegado de OpenAI, sistemas como GPT-4 o GPT-5 habrían pasado por AGI para «mucha gente» hace diez años. «Ahora la gente dice, bueno, ya sabes, es como un pequeño chatbot o lo que sea», afirma Altman.

El fenómeno que describe Altman tiene un nombre: Se llama «efecto IA». y el informático Larry Tesler lo resumió diciendo: «IA es cualquier cosa que aún no se ha hecho».

Se necesita una definición de AGI en la próxima década

El efecto IA demuestra lo difícil que es definir la inteligencia y cómo el término se utiliza de forma distinta en contextos diferentes, como el comportamiento o la cognición.

Altman no lo ve como un problema: «Me parece estupendo que se sigan moviendo los postes de la portería. Nos hace trabajar más».

Sin embargo, la tecnología se está acercando a una fase lo bastante próxima a la que OpenAI entiende por AGI como para que sea necesario acordar una definición en la próxima década, si no antes, afirma Altman.

La directora de tecnología de OpenAI, Mira Murati, define la inteligencia artificial como un sistema capaz de generalizar y asumir el trabajo humano en muchas áreas. Altman cree que al principio la IA se hará cargo de servicios medios, pero que los expertos humanos seguirán superando a las máquinas en sus campos.

Ambos representantes de OpenAI ven la IA como la herramienta más importante para el progreso humano en las próximas décadas. Coinciden en que la IA podría provocar grandes trastornos en la mano de obra. Según ellos, es importante prepararse para estos cambios e implicar al mayor número posible de personas en el debate sobre la IA.

Altman añade que los sistemas de IA son cada vez más personales. Por eso la gente debe ser consciente de que la IA es una herramienta, no una persona.

Microsoft y OpenAI son amigos, no enemigos

Ni Altman ni Murati quisieron hacer comentarios específicos sobre el estado de GPT-5. OpenAI trabaja constantemente en nuevas tecnologías, afirma Murati. A medida que los sistemas aumentan su capacidad, la fiabilidad y la seguridad se vuelven más importantes.

Por ejemplo, si GPT-5 dejará de producir información falsa, también conocida como alucinaciones, es una cuestión de investigación abierta, según Murati. «Es una incógnita, es investigación», dice Murati, que parece optimista respecto a que sea factible. El fundador de Microsoft, Bill Gates, afirmó recientemente que la tecnología OpenAI podría haber alcanzado ya un techo, pero también cree que puede llegar a ser más fiable en los próximos dos a cinco años.

Altman también comenta la relación con Microsoft. Ha habido informes de tensiones entre OpenAI y su principal inversor, por ejemplo por puntos de vista divergentes sobre la seguridad de la IA, y porque ambos luchan por los mismos clientes con productos similares.

«Sí, no voy a pretender que sea una relación perfecta, pero ni de lejos se acerca a la categoría de enemistad.
Es muy buena. Tenemos nuestras disputas», afirma Altman. Tanto Microsoft como OpenAI están «superalineados» en el objetivo de conseguir que los modelos de OpenAI se utilicen tanto como sea posible, dijo Altman.

Nuevos estándares para los datos de entrenamiento de IA

Altman subrayó que será importante que los futuros sistemas utilicen los datos para el entrenamiento de IA con el consentimiento de las personas, y que se desarrollen nuevas normas para el uso de los datos.

El consentimiento no significa necesariamente que OpenAI vaya a pagar por los datos. Altman sugiere que las partes interesadas pueden ofrecer datos voluntariamente si comprenden mejor los beneficios sociales generales de la IA. OpenAI está experimentando en este ámbito, incluso con asociaciones de pago.

«Puede ser una nueva forma de plantearse algunas de estas cuestiones en torno a la propiedad de los datos y el funcionamiento de los flujos económicos», afirma Altman.

Los modelos de IA también pueden necesitar menos datos de entrenamiento a medida que se vuelven más inteligentes y capaces, cambiando el enfoque de la cantidad al valor de los datos de entrenamiento, dijo Altman. «Lo que realmente importará en el futuro son los datos especialmente valiosos».

Altman ve la «prueba existencial» de esta tesis en la forma en que los humanos aprenden en comparación con las máquinas. Los humanos necesitan menos datos para aprender porque comprenden mejor conceptos más amplios.

OpenAI y otras empresas de IA están inmersas en numerosas demandas por infracción de derechos de autor por utilizar datos propios para entrenar a la IA.

Vea la entrevista completa con Altman y Murati en el video de arriba.

Deja una opinión

      Deje una respuesta

      🤖 AI MAFIA
      Logo