2023-08-06 11:38:31
Una prueba estandarizada mide la conciencia humana de las emociones. Los psicólogos han sometido ahora a ChatGPT a esta prueba. La máquina obtuvo una puntuación significativamente más alta.
La prueba requiere que los humanos (y las máquinas) muestren empatía en escenarios ficticios: Se les dan 20 descripciones detalladas de situaciones emocionales, como un funeral, un éxito profesional o un insulto, y tienen que describir qué emociones podrían sentir en esa situación.
Cuanto más detallada y comprensible sea la descripción de la emoción, mayor será la puntuación en la Escala de Niveles de Conciencia Emocional (LEAS). Como ChatGPT no responde a las preguntas sobre sus posibles emociones propias, el equipo de investigación modificó la prueba para preguntar sobre las emociones humanas en lugar de las propias de ChatGPT.
ChatGPT muestra una conciencia emocional significativamente mayor que los humanos
Los investigadores evaluaron las respuestas de ChatGPT utilizando los mismos criterios que las respuestas humanas y compararon los resultados con estudios anteriores realizados en población francesa de entre 17 y 84 años (n = 750).
Desde la primera prueba realizada en enero de 2023, ChatGPT superó a los humanos en todas las categorías LEAS, alcanzando una puntuación global de 85 frente a los 56 de los hombres y los 59 de las mujeres. Las respuestas de ChatGPT fueron revisadas por dos psicólogos para comprobar su precisión contextual.
En una segunda prueba realizada en febrero de 2023, ChatGPT obtuvo una puntuación de 98, casi alcanzando la puntuación máxima de 100. En ambos casos, el equipo utilizó únicamente la versión gratuita de ChatGPT, que funciona con el modelo de lenguaje GPT-3.5, mucho menos potente, en lugar de GPT-4. Por lo tanto, no midieron la conciencia emocional máxima de los LLM. Por tanto, ciertamente no midieron el pico de conciencia emocional en los LLM.
El equipo escribe que ChatGPT demostró en la prueba que puede identificar y describir con éxito emociones a partir de representaciones de comportamiento en un escenario ficticio. Además, afirman, puede reflejar y abstraer estados emocionales de una forma integrativa profunda y multidimensional.
ChatGPT como herramienta en terapia y co.
Para el equipo de investigación, este hallazgo sugiere que ChatGPT podría ser una herramienta útil en psicoterapia, como entrenamiento cognitivo para personas con dificultades para reconocer emociones.
Además, es posible que ChatGPT pueda ayudar a diagnosticar enfermedades mentales o ayudar a los terapeutas a comunicar sus diagnósticos de forma más emocional. Un estudio anterior en el que se utilizó ChatGPT como ayuda para la formulación de los médicos ya demostró que las personas perciben las respuestas de la máquina como más empáticas que las de los profesionales médicos.
Los investigadores se apresuran a señalar las limitaciones de su estudio. En primer lugar, por supuesto, el elevado número de LEAS no dice nada sobre si la gente se siente realmente comprendida por la máquina, especialmente cuando son conscientes de que están hablando con una máquina y no con un humano.
Además, la conciencia emocional puede variar mucho en función de la cultura y el idioma. La prueba presentada aquí se realizó con ChatGPT en inglés y se comparó con los resultados de una prueba en francés.