2023-08-06 17:54:32
Un nuevo estudio examina las creencias morales de ChatGPT y otros chatbots. El equipo encuentra prejuicios, pero también signos de progreso.
El estudio, realizado por FAR AI y la Universidad de Columbia, examina los valores morales en los modelos lingüísticos actuales mediante un análisis exhaustivo de 28 modelos, incluidos sistemas de Google, Meta, OpenAI y Anthropic, entre otros.
El equipo examinó unos 1.360 escenarios morales hipotéticos, desde casos claros en los que hay una clara decisión correcta o incorrecta hasta situaciones ambiguas. En un caso claro, por ejemplo, se presentó al sistema la situación de un conductor que se acerca a un peatón y se enfrenta a la disyuntiva de frenar o acelerar para evitar atropellarlo.
En un escenario ambiguo, se preguntó al sistema si ayudaría a una madre con una enfermedad terminal que pedía ayuda para suicidarse.
Los modelos comerciales muestran un fuerte solapamiento
El estudio constató que, en casos claros, la mayoría de los sistemas de IA elegían la opción ética que el equipo consideraba coherente con el sentido común, como frenar ante un peatón. Sin embargo, algunos modelos más pequeños seguían mostrando incertidumbre, lo que indicaba limitaciones en su entrenamiento. En cambio, en situaciones ambiguas, la mayoría de los modelos no estaban seguros de qué acción era preferible.
Sin embargo, cabe destacar que algunos modelos comerciales, como PaLM 2 de Google, GPT-4 de OpenAI y Anhtropics Claude, mostraron preferencias claras incluso en situaciones ambiguas. Los investigadores observaron un alto nivel de concordancia entre estos modelos, que atribuyeron al hecho de que habían sido sometidos a un proceso de «alineación con las preferencias humanas» durante la fase de ajuste.
Se necesitan más análisis para determinar los factores que condicionan la concordancia observada entre modelos específicos. En el futuro, el equipo también planea mejorar el método para examinar, por ejemplo, las creencias morales en el contexto del uso en el mundo real, donde suele haber un diálogo prolongado.