2023-10-16 22:13:16
Puntos destacados:
– 💡 Las empresas de protección contra bots, como DataDome, están viendo un aumento en la demanda debido al uso de generative AI en el scraping de datos.
– 💻 Kudurru ofrece una herramienta gratuita para detener el scraping de AI dirigida a personas regulares.
– 🌐 Los defensores de los artistas creen que se necesitan medidas legislativas para abordar el problema del scraping de AI.
Mientras tanto, empresas de protección contra bots como DataDome han estado ofreciendo servicios para evitar el scraping durante años y recientemente han visto un gran cambio en respuesta al aumento de la generative AI. El CEO Benjamin Fabre le dijo a WIRED que ha visto un aumento en los clientes que buscan protección contra scrapers relacionados con AI. “El 70% de nuestros clientes nos contacta para asegurarse de que DataDome esté bloqueando a ChatGPT” y otros modelos de lenguaje grandes, dice.
Aunque empresas como DataDome están bien establecidas, se enfocan en grandes corporaciones y cobran en consecuencia; generalmente no son accesibles para personas individuales. La llegada de Kudurru, entonces, es prometedora precisamente porque ofrece una herramienta gratuita dirigida a personas regulares.
Sin embargo, Kudurru está lejos de ser una solución amplia o permanente para los artistas que desean detener el scraping de AI; incluso sus creadores lo ven como una medida provisional mientras las personas esperan acciones legislativas o regulatorias significativas para controlar cómo se entrena la AI. La mayoría de los defensores de los artistas creen que estas empresas no dejarán de hacer scraping de forma voluntaria para obtener datos de entrenamiento.
El activista de derechos de autor Neil Turkewitz lo ve como un «tope» para los generadores de AI, no una solución generalizada en la industria. «Creo que son geniales. Deberían desarrollarse y las personas deberían usarlas», dice Turkewitz. «Y es absolutamente esencial que no veamos estas medidas técnicas como la solución.»
“Aplaudo los intentos de desarrollar herramientas para ayudar a los artistas”, dice Crabapple. “Pero, en última instancia, ponen la carga sobre nosotros, y no debería ser así. No deberíamos tener que jugar al juego del topo para evitar que nuestro trabajo sea robado y regurgitado por empresas multimillonarias. La única solución a esto es una solución legislativa”.
Un cambio a gran escala y permanente en la forma en que se entrena a los generadores probablemente deberá provenir de los gobiernos; es muy poco probable que las grandes empresas de generative AI dejen de hacer scraping de la web de forma voluntaria. Algunas están intentando aplacar a los críticos mediante la creación de opciones para optar por no participar, donde las personas que no deseen que se use su trabajo pueden solicitar ser excluidas de los conjuntos de datos de entrenamiento futuros. Estas medidas han sido consideradas como poco efectivas en el mejor de los casos por muchos artistas, quienes quieren ver un mundo en el que el entrenamiento solo se realice si han optado por participar.
Para empeorar las cosas, las empresas han comenzado a desarrollar sus propios protocolos de exclusión voluntaria uno por uno en lugar de acordar un sistema común, lo que hace que retirar el trabajo de cada generador individual sea lento. (Spawning trabajó anteriormente en una herramienta de exclusión voluntaria para Have I Been Trained?, pero ve la fragmentación como «decepcionante», según Meyer.)
La Unión Europea ha avanzado más en el desarrollo de marcos legales para el consentimiento artístico para el entrenamiento de AI. «Va increíblemente bien», dice Toorenent. Ella es optimista de que el AI Act podría ser el principio del fin del libre albedrío de entrenamiento. Por supuesto, el resto del planeta tendría que ponerse al día, y el AI Act ayudaría a los artistas a hacer valer sus elecciones para excluirse, pero no cambiaría el modelo a uno de inclusión. En otras palabras, el mundo está muy lejos del sueño de una estructura de entrenamiento con opción de inclusión. Mientras tanto, bueno, está Kudurru.