Por qué ChatGPT no es consciente, pero los futuros sistemas de IA podrían serlo

Añadir a tus IAs favoritasQuitar de tus favoritasQuitar de favoritos 0
Puntuación0

2023-09-27 07:05:02

Recientemente se ha vuelto a hablar de la posibilidad de que la IA adquiera conciencia. Pero, ¿qué hace falta para que un sistema artificial sea consciente de sí mismo?

En junio de 2022, Blake Lemoine, ingeniero de Google, saltó a los titulares al afirmar que el chatbot LaMDA de la compañía había alcanzado la capacidad de sentir. El software tenía la capacidad de conversación de un niño precoz de siete años, Lemoine dijoy debemos suponer que poseía una conciencia similar del mundo.

LaMDA, más tarde lanzado al público como Bard se basa en un «gran modelo lingüístico» (LLM) del tipo que también constituye el motor del bot ChatGPT de OpenAI. Otras grandes empresas tecnológicas se apresuran a desplegar una tecnología similar.

Cientos de millones de personas han tenido ya la oportunidad de jugar con los LLM, pero pocos parecen creer que sean conscientes. En cambio, en lingüista y científico de datos la poética frase de Emily Bender, son «loros estocásticos», que parlotean convincentemente sin entender. Pero, ¿qué ocurrirá con la próxima generación de sistemas de inteligencia artificial (IA), y la siguiente?

Nuestro equipo de filósofos, neurocientíficos e informáticos se fijó en las teorías científicas actuales sobre el funcionamiento de la conciencia humana para elaborar una lista de propiedades computacionales básicas que cualquier sistema hipotéticamente consciente debería poseer. En nuestra opinión, ningún sistema actual se acerca ni de lejos al listón de la consciencia, pero al mismo tiempo no hay ninguna razón obvia para que los sistemas futuros no lleguen a ser verdaderamente conscientes.

Encontrar indicadores

Desde que el pionero de la informática Alan Turing propuso su «Juego de imitación» en 1950, la capacidad de hacerse pasar por un ser humano en una conversación se ha tomado a menudo como un marcador fiable de consciencia. Esto suele deberse a que la tarea ha parecido tan difícil que debe requerir consciencia.

Sin embargo, como ocurrió con el ordenador de ajedrez Deep Blue en 1997 derrota del gran maestro Gary Kasparovla fluidez conversacional de los LLM puede que sólo mueva los postes de la portería. ¿Existe algún principio para abordar la cuestión de la conciencia de la IA que no dependa de nuestras intuiciones sobre lo que es difícil o especial en la cognición humana?

Nuestro reciente libro blanco pretende precisamente eso. Comparamos las teorías científicas actuales sobre lo que hace conscientes a los seres humanos para compilar una lista de «propiedades indicadoras» que luego podrían aplicarse a los sistemas de IA.

No creemos que los sistemas que poseen las propiedades indicadoras sean definitivamente conscientes, pero cuantos más indicadores, más en serio deberíamos tomarnos las afirmaciones sobre la consciencia de la IA.

Relacionado: Como detectar conciencia en un sistema de Inteligencia Artificial

Los procesos computacionales detrás de la consciencia

¿Qué tipo de indicadores buscábamos? Evitamos criterios de comportamiento evidentes, como la capacidad de mantener conversaciones con otras personas, porque suelen estar centrados en el ser humano y son fáciles de falsear.

En su lugar, nos fijamos en las teorías de los procesos computacionales que sustentan la conciencia en el cerebro humano. Éstas pueden indicarnos el tipo de procesamiento de la información necesario para sustentar la experiencia subjetiva.

Las «teorías del espacio de trabajo global», por ejemplo, postulan que la conciencia surge de la presencia de un cuello de botella de capacidad limitada que coteja la información de todas las partes del cerebro y selecciona la información para ponerla a disposición global. Las «teorías del procesamiento recurrente» hacen hincapié en el papel de la retroalimentación de los procesos posteriores a los anteriores.

Cada teoría sugiere a su vez indicadores más específicos. Nuestra lista final contiene 14 indicadores, cada uno centrado en un aspecto de cómo los sistemas funcionan en lugar de cómo se comportan.

No hay razón para pensar que los sistemas actuales son conscientes

¿Cómo son las tecnologías actuales? Nuestro análisis sugiere que no hay motivos para pensar que los sistemas de IA actuales sean conscientes.

Algunos sí cumplen algunos de los indicadores. Los sistemas que utilizan la arquitectura del transformador, una especie de modelo de aprendizaje automático detrás de ChatGPT y herramientas similarescumplen tres de los indicadores de «espacio de trabajo global», pero carecen de la capacidad crucial de retransmisión global. Tampoco satisfacen la mayoría de los demás indicadores.

Así que, a pesar de las impresionantes capacidades conversacionales de ChatGPT, probablemente no haya nadie en casa. Otras arquitecturas cumplen como mucho un puñado de criterios.

La mayoría de las arquitecturas actuales sólo cumplen, como mucho, algunos de los indicadores. Sin embargo, para la mayoría de los indicadores, hay al menos una arquitectura actual que los cumple.

Esto sugiere que no hay barreras técnicas obvias, en principio, para construir sistemas de IA que satisfagan la mayoría o todos los indicadores.

Probablemente sea cuestión de cuando en lugar de si se construye algún sistema de este tipo. Por supuesto, cuando eso ocurra seguirán planteándose muchas preguntas.

Más allá de la conciencia humana

Las teorías científicas que barajamos (¡y los autores del artículo!) no siempre coinciden entre sí. Utilizamos una lista de indicadores en lugar de criterios estrictos para reconocer este hecho. Esta puede ser una metodología poderosa frente a la incertidumbre científica.

Nos inspiramos en debates similares sobre la conciencia animal. La mayoría de nosotros pensamos que al menos algunos animales no humanos son conscientes, a pesar de que no pueden conversar con nosotros sobre lo que sienten.

A 2021 informe de la London School of Economics en el que se sostiene que los cefalópodos, como los pulpos, probablemente sienten dolor, fue decisivo en el cambio de la política británica de ética animal.. Centrarse en las características estructurales tiene la sorprendente consecuencia de que incluso algunos animales simples, como los insectos, podrían incluso poseer una forma mínima de conciencia.

Nuestro informe no hace recomendaciones sobre qué hacer con la IA consciente. Esta cuestión será más acuciante a medida que los sistemas de IA se vuelvan inevitablemente más potentes y se generalicen.

Nuestros indicadores no serán la última palabra, pero esperamos que se conviertan en un primer paso para abordar esta delicada cuestión con una base científica.

Deja una opinión

      Deje una respuesta

      🤖 AI MAFIA
      Logo