El jefe de IA de Meta dice que el optimismo de OpenAI y Google Deepmind sobre la IA es exagerado

Añadir a tus IAs favoritasQuitar de tus favoritasQuitar de favoritos 0
Puntuación0

2023-10-20 19:41:09

Una regulación prematura de la IA podría reforzar el dominio de las grandes empresas tecnológicas y ahogar la competencia, advierte Yann LeCun, investigador jefe de Meta.

LeCun cree que regular la investigación y el desarrollo de la IA podría ser contraproducente y conducir a una «captura reguladora» bajo el pretexto de la seguridad de la IA.

Achaca los llamamientos a la regulación de la IA al «complejo de superioridad» de las principales empresas tecnológicas, que afirman que sólo ellas son lo bastante fiables para desarrollar la IA de forma segura.

LeCun califica esta actitud de «increíblemente arrogante» y aboga por un enfoque más abierto del desarrollo de la IA. Según LeCun, Meta se basa en modelos de código abierto como LLaMA, que fomentan la competencia y permiten que una mayor variedad de personas desarrollen y utilicen sistemas de IA.

Por otra parte, a los críticos de la estrategia de Meta les preocupa que poner potentes modelos generativos de IA en manos de agentes potencialmente malintencionados pueda aumentar los riesgos de desinformación, ciberguerra y bioterrorismo.

El reputado investigador de IA hizo estas declaraciones al Financial Times antes de la Conferencia de Bletchley Park sobre seguridad de la IA, organizada por el gobierno británico en noviembre.

No temas a Terminator

LeCun calificó de «absurda» la idea de que la IA actual pueda conducir a la aniquilación de la humanidad. Según él, la ciencia ficción y Terminator han condicionado a la gente a creer que las máquinas inteligentes tomarán el poder en cuanto sean más inteligentes que los humanos.

Pero la inteligencia y el afán de dominación no son sinónimos, afirma LeCun, que considera al ser humano una especie superior incluso en la era de la superinteligencia artificial. Según LeCun, los modelos actuales de IA no son tan poderosos como algunos investigadores los pintan. Les falta comprensión del mundo, planificación y verdadero razonamiento.

LeCun acusa a OpenAI y Google DeepMind en particular de ser «sistemáticamente demasiado optimistas». Una IA similar a la humana, dice, es mucho más compleja que los sistemas actuales y requiere varios «avances conceptuales».

Sugiere que la IA podría controlarse incorporando «carácter moral» a estos sistemas, de forma similar a como las leyes regulan el comportamiento humano. La startup Anthropic está adoptando este enfoque con una constitución para el chatbot Claude, y OpenAI ha dicho que también está experimentando con este enfoque.

Al final, la máquina va por delante

Pero LeCun también cree que «no hay duda» de que las máquinas superarán a la inteligencia humana en la mayoría de los ámbitos, lo que considera positivo: Podría dar lugar a un segundo renacimiento del aprendizaje. Además, unos sistemas de IA capaces podrían ayudar a la humanidad a afrontar grandes retos como el cambio climático y la curación de enfermedades.

LeCun imagina un futuro en el que todo el mundo tenga acceso a asistentes de IA que apoyen la vida cotidiana y faciliten la interacción con el mundo digital. «Ya no utilizaremos motores de búsqueda», afirma.

En la primavera de 2022, LeCun presentó su visión de una futura «IA autónoma» que podría acercar la IA a una inteligencia similar a la humana. La arquitectura consta de seis módulos: configurador, percepción, modelo del mundo, coste, actor y memoria a corto plazo. El módulo del modelo del mundo se basa en arquitecturas predictivas de incrustación conjunta (JEPA) y es el núcleo de la arquitectura propuesta. Permite el aprendizaje no supervisado con grandes cantidades de datos complejos y genera representaciones abstractas. Sin embargo, aún quedan muchas cuestiones por resolver.

Deja una opinión

      Deje una respuesta

      🤖 AI MAFIA
      Logo