Puntos Clave:
- Las medidas de los artistas para poner freno al uso indebido de sus obras por las IA, como el «envenenamiento de datos».
- Cómo el «envenenamiento de datos» puede desencadenar respuestas erróneas y absurdas de los generadores de imágenes IA.
- Los esfuerzos por desarrollar soluciones tecnológicas y humanas para contrarrestar el «envenenamiento de datos» y respetar los derechos de autor.
- La gobernanza de la tecnología y la ética en la inteligencia artificial son temas esenciales que incluyen estrategias como el envenenamiento de datos.
- Los activistas y artistas usan métodos creativos, como maquillaje antivigilancia, para evitar el reconocimiento facial y salvaguardar los derechos morales.
- El envenenamiento de datos puede ser una respuesta frente a la violación de la privacidad y los derechos humanos, más que un simple inconveniente técnico.
Los artistas frente a la Inteligencia Artificial: La táctica del Envenenamiento de Datos
El mundo digital ha observado cómo varios artistas adoptan una táctica inédita denominada envenenamiento de datos para plantarle cara a la invasión de la inteligencia artificial (IA). Esta estrategia ha surgido como una maniobra radical ante la incesante intromisión tecnológica, pero surge la duda: ¿es realmente el método adecuado?
Las compañías tecnológicas ven el envenenamiento de datos como una molestia, pero podría representar una estrategia ingeniosa contra la IA indiscreta. Sin embargo, ¿será este el enfoque adecuado a largo plazo?
Imagina que requieres una ilustración de un globo para un proyecto laboral y decides utilizar un generador automático de imágenes como Midjourney o DALL-E. Solicitas un «globo rojo flotando en un cielo azul», pero, para tu sorpresa, el resultado es la imagen de un huevo. Tratas nuevamente, y el resultado es una sandía.
¿A qué se debe esto?
Podría ser que el generador de imágenes que estás utilizando ha sido víctima del «envenenamiento».
¿Qué involucra el «Envenenamiento de Datos»?
Los sistemas generadores de imágenes mediante textos se perfeccionan con extensos conjuntos de datos que comprenden millones de imágenes. Generadores, como los proporcionados por empresas como Adobe o Getty, solamente se capacitan con imágenes que el desarrollador tiene en propiedad o están formalmente licenciadas.
En cambio, otros generadores se han educado a través de la recolección masiva de imágenes encontradas en la red, muchas de las cuales estarían protegidas por derechos de autor. Esto ha llevado a situaciones de presunta violación de derechos de autor donde los artistas acusan a firmas de tecnología de lucrarse indebidamente con sus creaciones.
La herramienta «Nightshade» entra en escena como una propuesta para enfrentarse al scraping no consentido de imágenes.
Nightshade manipula sutiles aspectos de los píxeles en una imagen de tal manera que confunde a los sistemas de visión por computadora, aunque dichas alteraciones sean imperceptibles para el ojo humano.
Si un algoritmo incorpora estas imágenes «adulteradas» en su proceso de aprendizaje, la calidad de la data se vería «contaminada». Esto provoca un aprendizaje defectuoso, llevando a los algoritmos a clasificar erróneamente imágenes de manera que hasta un humano reconocería como incorrecta. Como resultado, el generador puede comenzar a arrojar resultados desconcertantes y erráticos.
Síntomas de una Base de Datos Contaminada
Retomando el ejemplo inicial, un globo puede ser confundido con un huevo. Una solicitud de retrato al estilo de Monet puede resultar en una obra asemejándose más a Picasso.
Particularidades que antes desafiaban a modelos antiguos de IA, como la representación inexacta de manos humanas, pueden resurgir. Igualmente, estos modelos pueden comenzar a introducir en las imágenes anomalías distintivas y descabelladas, como perros con más extremidades de lo normal o muebles con formas irregulares.
La persistencia y la acumulación de imágenes «envenenadas» en los datos de formación amplifican el trastorno. Y debido a la naturaleza de cómo opera la IA generativa, el impacto de las imágenes «contaminadas» puede extenderse más allá y afectar palabras clave relacionadas.
Un escenario posible es que si se entrena un modelo usando una imagen «envenenada» de un automóvil, aquellos términos asociados también podrían verse distorsionados, impactando otros modelos y tipos de vehículos.
El creador de Nightshade aspira a que su herramienta incentive a las empresas tecnológicas a respetar más rigurosamente los derechos de autor, aunque hay preocupaciones de que los usuarios puedan abusar de ella, cargando a propósito imágenes alteradas para desestabilizar los servicios de los generadores.
¿Hay un Antídoto Contra el Envenenamiento de Datos?
Como remedio, se han sugerido diferentes soluciones técnicas y humanas. Una de ellas es ser más selectivo en relación con el origen del conjunto de datos y su empleo, lo cual minimizaría la recolección de datos sin discernimiento.
Dicho enfoque desafía una creencia omnipresente en la informática: la premisa de que los datos disponibles en la red están allí para cualquier propósito que se considere adecuado.
Otras tácticas incluyen el uso de métodos de «modelado por conjuntos«, donde diferentes modelos se ejercitan en numerosos subconjuntos diversos y luego se comparan para identificar anomalías. Además, las «auditorías de IA» sugieren desarrollar series de pruebas con datos no utilizados en el entrenamiento para evaluar la fidelidad del modelo.
Los Desafíos Éticos de Proteger las Obras Creativas
El acto de envenenar datos es sólo una muestra de las tácticas adversarias que cuestionan las competencias de la IA. Desde reconocimiento facial hasta generación de contenido, artistas y activistas buscan métodos innovadores para salvaguardar la privacidad y derechos de autor en la era digital. Este desafío incita a debatir cuestiones éticas importantes.
El envenenamiento de datos va más allá de una cuestión técnica; es una reacción creativa contra la invasión de los derechos morales esenciales de los artistas y los ciudadanos. No se puede entender completamente sin considerar su contexto dentro de las discusiones sobre gobernanza tecnológica y ética de la inteligencia artificial (IA).
Estrategias contra la tecnología
Las tácticas adversarias, como el envenenamiento de datos, son herramientas que tienen como fin alterar o neutralizar los sistemas de IA. Estas estrategias surgieron como respuestas a preocupaciones legítimas sobre la privacidad y la ética, especialmente en el contexto de la vigilancia a través del reconocimiento facial. El uso de la tecnología de reconocimiento facial por parte de autoridades gubernamentales, como muestra el caso de Clearview AI, ha levantado alarmas sobre privacidad.
La firma, que mantuvo una vasta base de datos con rostros obtenidos de la web, fue declarada culpable de violar la privacidad en Australia por su enlace con la policía federal. Ante la amenaza de ser identificados injustamente por sistemas de reconocimiento facial, personas como los activistas de derechos humanos han promovido el uso de maquillaje antivigilancia que desorienta a la IA y protege su identidad. Estos patrones de maquillaje, con líneas y formas asimétricas, obstaculizan la capacidad de los algoritmos para identificar a las personas de manera precisa.
Esta táctica conecta directamente con la práctica del envenenamiento de datos y resalta la importancia de la gobernanza tecnológica. Es fundamental notar que muchas empresas tecnológicas podrían ver el envenenamiento de datos como una molestia a solucionar desde un enfoque puramente tecnológico; sin embargo, perspectivas más profundas sugieren que estas prácticas deberían considerarse como medidas ingeniosas de resistencia ante la violación de derechos y libertades fundamentales.