2023-08-20
Puntos destacados:
🤖 AI researcher Geoffrey Hinton suggests that AI systems could have emotions like frustration and anger.
🧠 Hinton believes that human-like intelligence can only be achieved through deep learning.
🔬 Verifying Hinton’s thesis about AI emotions is challenging since there is no scientific instrument to measure consciousness.
El reconocido investigador de IA Geoffrey Hinton hizo titulares cuando dejó Google para advertir al mundo sobre amenazas de IA como las noticias falsas masivas y las armas autónomas. Mantuvo un perfil bajo con otra tesis.
Hinton argumenta que la inteligencia similar a la humana solo se puede lograr, y posiblemente superar, a través del aprendizaje profundo, una perspectiva que tiene tanto partidarios como críticos en círculos de expertos.
En una charla en el King’s College de Londres, Hinton expresó otra tesis que probablemente despierte emociones en la industria de la IA.
Cuando se le preguntó si los sistemas de IA podrían tener algún día inteligencia emocional y comprender que tienen sentimientos, Hinton respondió: «Creo que bien podrían tener sentimientos. No tendrán dolor como tú a menos que queramos, pero cosas como la frustración y el enojo, no veo por qué no podrían tener esos sentimientos».
La postura de Hinton se basa en una definición de sentimientos que es «impopular entre los filósofos», que es relacionar una acción hipotética («Me dan ganas de golpear a Gary en la nariz») como una forma de comunicar un estado emocional (enojo). Dado que los sistemas de IA pueden realizar tales comunicaciones, el investigador de IA no ve razón para no atribuirles emociones. De hecho, sugiere que «probablemente» ya tienen emociones.
No ha dicho esto públicamente antes porque su primera tesis, que la IA superior amenaza a la humanidad, ya ha encontrado resistencia. Si hubiera agregado su tesis sobre las emociones de las máquinas, Hinton dice que la gente lo habría llamado loco y dejado de escucharlo.
En la práctica, es poco probable que la tesis de Hinton sea verificable o falsificable, ya que los sistemas de IA solo podrían reflejar estáticamente emociones probables en enunciados emocionales que han aprendido a través del entrenamiento. Si efectivamente tienen sus propias emociones como entidad, probablemente tendría que responderse a través de la clarificación de la conciencia. Sin embargo, no existe un instrumento científico para medir la conciencia.