Puntos Claves:
- Incidente de derechos de autor entre OpenAI y The New York Times.
- Acusaciones de The New York Times sobre reproducción no autorizada de su contenido.
- Mejoras de OpenAI para aumentar la resistencia de sus sistemas contra la repetición indebida de datos.
Impacto de la Inteligencia Artificial en el Periodismo: El Caso de OpenAI y The New York Times
Según OpenAI publico en su web:
Nuestra interacción con The New York Times avanzaba positivamente hasta que sorpresivamente nos notificaron sobre una demanda el pasado 27 de diciembre, que conocimos a través de su publicación, más que en comunicación directa. Discutíamos una alianza estratégica que permitiría al Times llegar a más lectores a través de ChatGPT, asegurando al mismo tiempo que su contenido no era un pilar fundamental para la capacitación de nuestros modelos actuales y futuros.
Compromiso con los Derechos de Autor
Hemos gestionado estas acusaciones con alta prioridad. Por ejemplo, en julio retiramos una función del ChatGPT inmediatamente después de identificar que podía replicar contenido en tiempo real accidentalmente. A pesar de las alegaciones del Times, nuestros modelos no suelen repetir contenido del modo que ellos insinúan, lo cual nos lleva a suponer que pudieron haber instruido al modelo para que actuara de esta manera o seleccionado ejemplos específicos de múltiples intentos.
Manejo de Incidentes y Repeticiones Involuntarias
Los casos reportados por el periódico parecen ser repeticiones de antiguos artículos, accesibles en varios sitios web de terceros, lo cual indica un posible manejo intencionado para que nuestros modelos repitan frases. A pesar de esto, la manipulación de nuestro sistema por usuarios para imitar al Times no es algo que OpenAI tolere o considere un uso permitido. Estamos dedicados a mejorar la resistencia de nuestros productos frente a usos adversos que intenten hacer repetir datos de entrenamiento, y hemos hecho progresos considerables con nuestros modelos más recientes.
Innovación y Seguridad en OpenAI
OpenAI reconoce la importancia crítica de no solo proporcionar herramientas innovadoras como ChatGPT, sino también de asegurar que estas herramientas no infrinjan los derechos de autor ni se presten para malas prácticas. Por ello, trabajamos incansablemente para avanzar en nuestros sistemas y proveer una experiencia fiable y segura tanto para creadores de contenido como para usuarios. El futuro de la inteligencia artificial en el periodismo se apoya en este compromiso con la ética y el respeto por la propiedad intelectual.