
2023-08-30 15:35:32
Google Deepmind presenta SynthID, una forma de etiquetar de forma fiable las imágenes de IA y hacerlas reconocibles como tales.
SynthID es una herramienta que puede añadir una marca de agua invisible a las imágenes generadas por IA. Esta marca de agua puede ser vista por las máquinas, pero no por los humanos.
Como prueba, Deepmind muestra en su blog imágenes en las que la mitad con marca de agua tiene exactamente el mismo aspecto que la mitad sin marca, por si no te lo crees.
Según Deepmind, la marca se añade «directamente en los píxeles» de la imagen generada por IA, lo que debería hacerla resistente a manipulaciones de la imagen como recortes, filtros, cambios de color, alta compresión y otras modificaciones típicas de las imágenes web.

SynthID utiliza dos modelos de aprendizaje profundo para generar y detectar la marca de agua. Deepmind no entra en detalles sobre cómo funciona SynthID para minimizar el riesgo de un método adversario.
Google Imagen con lanzamiento exclusivo de SynthID
SynthID emite tres niveles de probabilidad de detección: El marcador fue detectado, no fue detectado, o puede haber sido detectado. El último mensaje va acompañado de una advertencia de que la imagen puede haber sido generada por la IA.
Deepmind planea desplegar SynthID primero para la IA de imágenes Imagen de Google, que actualmente está disponible en versión beta. Si el proceso tiene éxito, podría estar disponible para otros sistemas «en un futuro próximo». Además, SynthID es compatible con métodos de reconocimiento que utilizan metadatos para autenticar imágenes.
«Esperamos que nuestra tecnología SynthID pueda colaborar con una amplia gama de soluciones para creadores y usuarios de toda la sociedad», escribe Deepmind.
Un equipo de investigación del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del Instituto Tecnológico de Massachusetts (MIT) presentó recientemente «PhotoGuard», otra técnica de reconocimiento de imágenes basada en IA que utiliza la manipulación de píxeles para hacer rastreables las imágenes de IA. Sin embargo, los investigadores reconocieron que la manipulación de imágenes, como recortarlas, añadirles ruido o rotarlas, podría distraer al sistema.
El reconocimiento de imágenes por IA ha ganado protagonismo recientemente debido a los primeros intentos de manipulación política. Modelos recientes como Midjourney pueden generar fotos realistas de personajes famosos. Por ejemplo, las imágenes falsas de IA de Donald Trump esposado se hicieron virales en Twitter.