PhotoGuard del MIT pretende proteger las imágenes originales de la manipulación de la IA y los deepfakes

Añadir a tus IAs favoritasQuitar de tus favoritasQuitar de favoritos 0
Puntuación0

2023-08-04 10:28:01

Las imágenes generadas por IA son cada vez más realistas, y hasta ahora no hay una forma fiable de detectarlas. Los investigadores del MIT no pueden cambiar eso, pero al menos pueden proteger las imágenes existentes de la manipulación de la IA.

En lugar de intentar detectar la manipulación, los investigadores quieren hacer que las imágenes originales sean más resistentes, de modo que la manipulación sea imposible o muy difícil.

«PhotoGuard» es el nombre del sistema que introduce perturbaciones mínimas de píxeles en una imagen original que son invisibles para los humanos pero que pueden ser detectadas por los sistemas de IA.

Estas perturbaciones pretenden dificultar la manipulación de la imagen. El sistema fue desarrollado por el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del Instituto Tecnológico de Massachusetts (MIT).

PhotoGuard utiliza dos métodos para «inmunizar» una imagen contra la manipulación de la IA. El primer método, el llamado ataque «codificador», se dirige a la abstracción existente del modelo de IA de la imagen en el espacio latente y manipula los datos allí de tal manera que el modelo ya no reconoce claramente la imagen como tal e introduce fallos. El cambio es análogo a una frase gramaticalmente incorrecta, cuyo significado sigue siendo claro para los humanos, pero que puede confundir a un modelo lingüístico.

El segundo método, el ataque de difusión, es más sofisticado: para una imagen original, se define una imagen objetivo específica que se determina mediante cambios mínimos de píxeles en la imagen original durante la inferencia. Cuando el modelo de IA intenta entonces modificar la imagen original, es redirigido automáticamente a la imagen objetivo definida por los investigadores, y el resultado deja de tener sentido. Vea el vídeo a continuación para ver el sistema en acción.

Integrar la protección contra la manipulación directamente en los modelos

Los investigadores sugieren que los desarrolladores de modelos podrían ofrecer directamente sus protecciones o protecciones similares. Por ejemplo, podrían ofrecer un servicio a través de una API que permitiera inmunizar las imágenes contra las capacidades de manipulación de su modelo concreto. Esta inmunización también tendría que ser compatible con futuros modelos y podría incorporarse como puerta trasera durante el entrenamiento del modelo.

Según los investigadores, una amplia protección contra la manipulación de la IA requerirá un enfoque de colaboración entre desarrolladores, plataformas de redes sociales y responsables políticos, que podrían, por ejemplo, obligar a los desarrolladores de modelos a proporcionar también protección.

También señalan que PhotoGuard no proporciona una protección completa. Los atacantes podrían intentar manipular la imagen protegida, por ejemplo, recortándola, añadiendo ruido o girándola. En general, sin embargo, los investigadores ven potencial para desarrollar modificaciones robustas que puedan resistir tal manipulación.

Deja una opinión

      Deje una respuesta

      🤖 AI MAFIA
      Logo