2023-12-08 18:59:38
Helen Toner, uno de los miembros del consejo que votó a favor de despedir a Sam Altman de OpenAI, ha hablado sobre la lucha de poder en la empresa de IA.
En un entrevista con el Wall Street Journal, Toner afirmó que la decisión de despedir a Altman no se debió a la seguridad de la IA, sino a la falta de confianza.
«Nuestro objetivo al despedir a Sam era reforzar OpenAI y hacerla más capaz de cumplir su misión», explicó.
Toner también explicó la situación en la que dijo que sería «coherente con la misión» de la junta si OpenAI se derrumbara tras el despido de Altman. Según Toner, esto fue en respuesta a las «tácticas de intimidación» de un abogado de OpenAI.
Su idea era que la rama con ánimo de lucro de OpenAI no era «por definición» necesaria para el éxito de la misión sin ánimo de lucro de OpenAI, que es desarrollar AGI que beneficie a la humanidad.
Toner se negó a dar detalles sobre las razones del despido de Altman, pero mantuvo que las acciones de la junta eran coherentes con su deber de garantizar que los sistemas de IA se construyan de forma responsable. Toner y otros miembros del consejo acabaron dimitiendo, lo que permitió a Altman regresar como consejero delegado.
Por lo que sabemos hasta ahora, una de las principales razones del despido de Altman, al menos desde la perspectiva de Toner, fue que Altman criticó a Toner por ser coautor del documento «Decoding Intentions». El documento criticaba la exageración de la IA generada por ChatGPT, un producto de OpenAI, y elogiaba al competidor Anthropic por retrasar el lanzamiento de su chatbot Claude para evitar alimentar la exageración.
Al parecer, Altman mantuvo reuniones individuales con miembros del consejo de administración para conseguir el despido de Toner, enfrentando sus declaraciones entre sí. El Wall Street Journal respalda esta historia, citando a personas familiarizadas con la situación, diciendo que Altman engañó a Toner, lo que en última instancia llevó a la junta a cuestionar su integridad como CEO.