Puntos Claves:
- OpenAI afirma que las estrategias del New York Times de generar textos con GPT vulneran sus términos de uso.
- El uso intencionado de prompts específicos por parte del New York Times generaba reproducciones de contenido protegido por derechos de autor.
- El dilema legal radica en determinar si el uso indebido de los datos de entrenamiento o similitudes con obras protegidas constituye una infracción de los derechos de autor.
Infracciones a los Términos de Uso de OpenAI por el New York Times
OpenAI, a través del encargado de propiedad intelectual y contenidos, Tom Rubin, ha señalado al New York Times por emprender tácticas diseñadas con la intención de replicar sus contenidos protegidos por derechos de autor usando los modelos lingüísticos GPT. Esta maniobra, según OpenAI, consistía en alimentar al modelo con los inicios de artículos del diario para obtener un texto bastante parecido al original. Estas acciones rompen las reglas establecidas por OpenAI respecto al uso correcto y legítimo de sus tecnologías, y se encuentran lejos de ser un comportamiento estándar de los usuarios, informó el Washington Post.
El Dilema entre Intención y Resultado en la Inteligencia Artificial
El conflicto entre OpenAI y el New York Times destapa una cuestión más amplia de índole legal y ética sobre la inteligencia artificial: ¿Es la forma en que se genera un resultado tan importante como el resultado en sí? ¿Infringen los derechos de autor aquellos resultados que se asemejan demasiado a obras protegidas y no licenciadas? El punto central está en definir si la recordación de los datos por parte de los modelos lingüísticos constituye un comportamiento defectuoso o inherente a su funcionalidad.
La respuesta a estas interrogantes puede tener implicaciones significativas. De requerirse que solo se utilice material no sujeto a derechos de autor o bajo licencia para el entrenamiento, entonces una coincidencia exacta no sería una violación de derechos. Este debate se extiende a modelos de generación de imágenes, como Midjourney, y pone de relieve la incertidumbre legal sobre cómo se aplicará el concepto de «uso justo».
Actualmente, en un escenario donde las licencias de los datos de entrenamiento podrían traducirse en costos adicionales considerables, OpenAI junto a entidades como Microsoft, buscan resolver la situación a través de acuerdos extrajudiciales. Sin embargo, se menciona que empresas como Apple podrían estar adoptando enfoques más abiertos en términos de compensaciones a los editores por utilizar su contenido para entrenar IA.