Dave Willner, responsable de confianza y seguridad de OpenAI, dimite

Añadir a tus IAs favoritasQuitar de tus favoritasQuitar de favoritos 0
Puntuación0

2023-07-21 12:04:39

Se avecina un importante cambio de personal en OpenAI, el gigante de la inteligencia artificial que ha introducido casi por sí solo el concepto de IA generativa en el discurso público mundial con el lanzamiento de ChatGPT. Dave Willner, un veterano de la industria que fue jefe de confianza y seguridad de la startup, anunció en un en LinkedIn anoche (descubierto por Reuters) que ha dejado el puesto y ha pasado a desempeñar un papel de asesor. Planea pasar más tiempo con su joven familia, dijo. Llevaba un año y medio en el cargo.

OpenAI dijo en un comunicado que está buscando un reemplazo y que el CTO Mira Murati dirigirá el equipo de forma interina. «Agradecemos a Dave sus valiosas contribuciones a OpenAI», dijo. El comunicado completo está más abajo.

Su marcha se produce en un momento crítico para el mundo de la IA.

Junto al entusiasmo por las capacidades de las plataformas de IA generativa -basadas en grandes modelos lingüísticos u otros modelos fundacionales y que producen a la velocidad del rayo textos, imágenes, música y otros elementos generados libremente a partir de sencillas indicaciones de los usuarios-, ha surgido una creciente lista de preguntas. ¿Cuál es la mejor manera de regular la actividad y las empresas en este nuevo mundo? ¿Cuál es la mejor manera de mitigar cualquier impacto perjudicial en toda una serie de cuestiones? La confianza y la seguridad son elementos fundamentales de estas conversaciones.

Hoy mismo, el presidente de OpenAI, Greg Brockman, comparecerá en la Casa Blanca junto a ejecutivos de Anthropic, Google, Inflection, Microsoft, Meta y Amazon para respaldar compromisos voluntarios que persigan objetivos compartidos de seguridad y transparencia antes de una orden ejecutiva sobre IA que está en preparación. Esto se produce después de que en Europa haya mucho ruido en relación con la regulación de la IA, así como cambios de opinión entre algunos otros.

La importancia de todo esto no pasa desapercibida para OpenAI, que ha tratado de posicionarse como actor consciente y responsable en este ámbito.

Willner no hace referencia a nada de esto en concreto en su mensaje de LinkedIn. En su lugar, se mantiene en un alto nivel, señalando que las exigencias de su trabajo en OpenAI pasaron a una «fase de alta intensidad» tras el lanzamiento de ChatGPT.

«Estoy orgulloso de todo lo que nuestro equipo ha conseguido durante el tiempo que llevo en OpenAI, y aunque mi trabajo allí era uno de los más geniales e interesantes que se pueden tener hoy en día, también había crecido enormemente en su alcance y escala desde que me incorporé», escribió. Aunque tanto él como su mujer -Charlotte Willner, que también es especialista en confianza y seguridad- se comprometieron a dar siempre prioridad a la familia, dijo, «en los meses siguientes al lanzamiento de ChatGPT, me ha resultado cada vez más difícil cumplir mi parte del trato».

Willner lleva solo un año y medio en su puesto de OpenAI, pero viene de una larga carrera en este campo que incluye dirigir equipos de confianza y seguridad en Facebook y Airbnb.

El trabajo en Facebook es especialmente interesante. Allí fue uno de los primeros empleados que ayudó a definir la primera postura de la empresa sobre las normas de la comunidad, que sigue siendo la base del enfoque actual de la empresa.

Fue un periodo muy formativo para la empresa, y posiblemente -dada la influencia que Facebook ha tenido en el desarrollo global de las redes sociales- para Internet y la sociedad en general. Algunos de esos años estuvieron marcados por posiciones muy abiertas sobre la libertad de expresión, y sobre cómo Facebook tenía que resistirse a las peticiones de frenar a los grupos polémicos y las publicaciones controvertidas.

Un ejemplo de ello fue una gran disputa, en 2009, en el foro público sobre cómo Facebook estaba manejando las cuentas y los mensajes de los negacionistas del Holocausto. Algunos empleados y observadores externos consideraban que Facebook tenía el deber de tomar partido y prohibir esas publicaciones. Otros creían que hacerlo era similar a la censura y enviaba un mensaje equivocado sobre la libertad de expresión.

Willner estaba en este último bando, pues creía que «incitación al odio» no era lo mismo que «daño directo» y, por tanto, no debía moderarse igual. «No creo que la negación del Holocausto, como idea en sí [sic] por sí misma, represente intrínsecamente una amenaza para la seguridad de los demás», escribió entonces. (Para una explosión del pasado TechCrunch, ver el post completo sobre esto aquí).

En retrospectiva, y teniendo en cuenta todo lo que ha sucedido, era una postura bastante ingenua y corta de miras. Pero parece que al menos algunas de esas ideas evolucionaron. En 2019, ya sin empleo en la red social. hablando en contra de cómo la empresa quería conceder a políticos y personajes públicos excepciones de moderación de contenidos más débiles.

Pero si la necesidad de sentar las bases adecuadas en Facebook era mayor de lo que se preveía en aquel momento, podría decirse que ahora lo es aún más en el caso de la nueva ola tecnológica. Según este New York Times de hace menos de un mes, Willner se había incorporado a OpenAI inicialmente para ayudarla a averiguar cómo evitar que DALL-E, el generador de imágenes de la startup, fuera utilizado indebidamente y para cosas como la creación de pornografía infantil con IA generativa.

Pero a medida que dice el refrán, OpenAI (y el sector) necesita esa política para ayer. «Dentro de un año, vamos a llegar a un estado muy problemático en este ámbito», declaró al NYT David Thiel, tecnólogo jefe del Observatorio de Internet de Stanford.

Ahora bien, sin Willner, ¿quién dirigirá la tarea de OpenAI para resolverlo?

Actualización: Después de la publicación, OpenAI proporcionó la siguiente declaración:

«Agradecemos a Dave sus valiosas contribuciones a OpenAI. Su trabajo ha sido fundamental para hacer operativo nuestro compromiso con el uso seguro y responsable de nuestra tecnología, y ha allanado el camino para futuros avances en este campo. Mira Murati dirigirá directamente el equipo de forma interina, y Dave seguirá asesorando hasta finales de año. Buscamos un líder con conocimientos técnicos para avanzar en nuestra misión, centrándonos en el diseño, desarrollo e implantación de sistemas que garanticen el uso seguro y el crecimiento escalable de nuestra tecnología.»

Deja una opinión

      Deje una respuesta

      🤖 AI MAFIA
      Logo