
2023-11-17 15:30:15
Ed Newton-Rex, jefe del equipo de audio de Stability AI, ha dimitido. Ha alegado un desacuerdo sobre la aplicación del «uso justo» en el entrenamiento de modelos generativos de IA.
En una declaración pública, Newton-Rex expresó sus preocupaciones: «No estoy de acuerdo con la opinión de la empresa de que entrenar modelos generativos de IA en obras protegidas por derechos de autor sea un ‘uso justo'».
Reconoció el enfoque reflexivo de muchos en Stability AI y elogió a la empresa por su apoyo en el desarrollo de Stable Audio, un generador de música de IA basado en datos de entrenamiento con licencia que comparte los ingresos con los titulares de los derechos. Sin embargo, afirmó que esto no había cambiado la opinión predominante en la empresa sobre el uso legítimo.
La Oficina de Derechos de Autor de EE.UU. estudia el uso justo en la IA generativa
La cuestión del uso legítimo de la IA generativa saltó a la palestra cuando la Oficina de Derechos de Autor de EE.UU. invitó recientemente al público a hacer comentarios sobre el tema, y Stability AI fue una de las muchas empresas que respondieron. En su presentación de 23 páginas, Stability AI declaró: «Creemos que el desarrollo de la IA es un uso aceptable, transformador y socialmente beneficioso de los contenidos existentes que está protegido por el uso justo.»
El uso legítimo es una doctrina legal que permite el uso limitado de material protegido por derechos de autor sin necesidad de permiso de los titulares de los derechos. Según Newton-Rex, un factor que afecta a si la copia es un uso justo es «el efecto del uso sobre el mercado potencial o el valor de la obra protegida por derechos de autor».
En su opinión, los modelos generativos de IA actuales pueden utilizarse para crear obras que compitan con las obras protegidas por derechos de autor sobre las que se han entrenado, lo que cuestiona la idea de que entrenar modelos de IA de esta manera pueda considerarse uso legítimo.
Entrenar IA sin consentimiento es moralmente incorrecto
Aparte del argumento del uso justo, Newton-Rex también cree que entrenar modelos generativos de IA sin permiso es moralmente incorrecto. Afirmó que empresas valoradas en miles de millones de dólares están entrenando modelos de IA en obras de creadores sin permiso, lo que podría socavar los medios de subsistencia de los creadores.
A pesar de su desacuerdo con la postura de Stability AI sobre el uso justo, Newton-Rex sigue siendo partidario de la IA generativa, ya que ha trabajado en este campo durante 13 años. Sin embargo, subraya que sólo puede apoyar una IA generativa que no explote a los creadores entrenando modelos con su trabajo sin permiso.
Newton-Rex espera que otras empresas de IA generativa se pronuncien sobre la cuestión del uso justo y presionen para que cambie la forma en que se trata a los creadores en el desarrollo de la tecnología de IA generativa.
Los elevados derechos de licencia podrían frenar la IA generativa, según las empresas de IA
Además de Stability AI, empresas de IA como Meta, Google y OpenAI también han enviado comentarios a la Oficina de Derechos de Autor de EE.UU., argumentando que el entrenamiento de modelos de IA con material protegido por derechos de autor es un uso justo y no infringe los derechos de los titulares de derechos de autor. Meta comparó la IA generativa con una imprenta, una cámara o un ordenador, y argumentó que los elevados derechos de licencia para los datos de entrenamiento de IA podrían ralentizar el desarrollo de la IA generativa.
Google y OpenAI abogaron por una interpretación flexible del uso justo y advirtieron contra una legislación prematura que podría ahogar la innovación y limitar el potencial de la tecnología de IA.