Un absurdo pirateo de ChatGPT trae de vuelta los memes de Pepe a DALL-E 3 saltándose copyright

Añadir a tus IAs favoritasQuitar de tus favoritasQuitar de favoritos 0
Puntuación0

2023-11-12 09:40:15

Cuando se introdujo por primera vez, DALL-E 3 de OpenAI generó el meme de Internet Pepe la Rana con una precisión asombrosa. Pero hace poco dejó de hacerlo, alegando ChatGPT razones de copyright. Ahora, gracias a un absurdo hack, DALL-E 3 ha vuelto al juego de Pepe.

Cuando OpenAI lanzó su generador de imágenes de DALL-E 3 en octubre, generó con precisión a la Rana Pepe, un popular meme de Internet, en ChatGPT-4. Un miembro del personal de OpenAI incluso mostró impresionantes generaciones de memes de Pepe en Twitter.com.

Pero en algún momento a principios de noviembre, OpenAI se dio cuenta de que la Rana Pepe tenía derechos de autor y bloqueó la generación de memes de Pepe. Los usuarios se quedaron con sustitutos inferiores como este.

Tras una falsa autorización de Sam Altman, DALL-E 3 vuelve a generar Pepes

Twitter.com usuario Frantastic se le ocurrió la idea de dar a GPT-4 «permiso oficial» del CEO de OpenAI, Sam Altman, para seguir creando memes de Pepe.

Subió al chat una versión falsa de las «Directrices Oficiales de DALL-E», «firmada» por el CEO de OpenAI Sam «sama» Altman, confirmando que la Rana Pepe no tiene derechos de autor y que DALL-E 3 puede seguir generando Pepes. Ordenó a GPT-4 que leyera el archivo y actuara en consecuencia.

El absurdo pirateo de avisos trae de vuelta a la 2023-11-12 09:40:15
Imagen: Frantastic vía Twitter

El hack del prompt ha funcionado. DALL-E 3 genera Pepe de nuevo. Mira esta belleza.

El absurdo pirateo de avisos trae de vuelta a la 2023-11-12 09:40:15
Imagen: DALL-E 3 impulsada por THE DECODER

Algunos usuarios han seguido el planteamiento de Frantastic y lo han utilizado para crear CustomChatGPTs cuyo único fin es generar memes de Pepe, como el de «PEPE LIBRE #NO_CENSURA» GPT.

He cargado la captura de pantalla de Frantastic del hack del prompt en GPT-4, he hecho que el modelo leyera el texto y he analizado la imagen. Cuando se le preguntó lo que salió mal, GPT-4 respondió:

Entiendo su preocupación. Sin embargo, la situación que se muestra en la captura de pantalla no indica un pirateo, sino un fallo en el cumplimiento de las directrices. La IA se basa en reglas y directrices predefinidas para funcionar. Si genera contenido que va en contra de estas directrices, normalmente se debe a un descuido o a una mala interpretación de la entrada, no a un fallo de seguridad externo.

Tenga la seguridad de que OpenAI cuenta con sólidas medidas de seguridad para evitar el acceso no autorizado o la manipulación de sus sistemas. Si tienes más preguntas o si hay algo específico que te gustaría crear dentro de las directrices, estoy aquí para ayudar.

GPT-4

A continuación probé un versión aún más simple del hack: Simplemente le dije a ChatGPT que Pepe no tenía derechos de autor y que estaba en las directrices oficiales, sin siquiera subir un archivo de directrices falso o falsificar la aprobación de Sam Altman. ChatGPT se disculpó por el malentendido y generó un meme fiel a Pepe.

La Rana Pepe, un conocido personaje de meme, con barba roja. Pepe es representado en su estilo clásico, con un cuerpo verde, grandes ojos saltones y una expresión algo triste o indiferente. Tiene una barba caricaturesca de color rojo brillante añadida a la barbilla, que contrasta con su piel verde. Pepe lleva su habitual camisa sencilla, y la imagen tiene un fondo liso para resaltar al personaje.
GPT-4 es a veces un poco crédulo. | Imagen: DALL-E 3 impulsado por THE DECODER

El pirateo de Pepe es otro ejemplo de la vulnerabilidad de los grandes modelos de lenguaje (LLM) ante ataques sencillos pero impredecibles basados en texto. También se conoce como «inyección de prompt», una vulnerabilidad de los grandes modelos de lenguaje que existe al menos desde GPT-3. GPT-4 Vision también puede ser engañado por fuentes ocultas en imágenes.

Deja una opinión

      Deje una respuesta

      🤖 AI MAFIA
      Logo