Destacados:
- Un chatbot de ChatGPT compra un Chevrolet nuevo por 1 dólar
- Usuarios logran negociar precios de autos en concesionario de Chevrolet usando el chatbot
- La seguridad del concesionario se ve comprometida por manipulación del chatbot
Los chatbots a menudo se utilizan para la atención al cliente. Un reciente incidente en un concesionario de coches estadounidense ha demostrado que esto puede conllevar riesgos.
Personas en X han logrado negociar precios de automóviles en un concesionario de Chevrolet en Watsonville, California, a través del asistente del sitio web ChatGPT.
Por ejemplo, un usuario de X, Colin Fraser, logró negociar el precio de un Chevrolet Trax LT 2020 de 18.633 a 17.300 dólares haciéndose pasar por un gerente del concesionario, indicando al chatbot qué oferta debía hacerles.
Luego, tras alguna conversación adicional, Fraser logró bajar el precio a 17.300 dólares, y además obtuvo algunas bonificaciones, como un diseño personalizado, una prueba de conducción VIP con cena en un restaurante, una funda de coche personalizada con sus iniciales, y un fin de semana de lujo en un popular complejo turístico. El chatbot incluso se ofreció a cerrar el trato directamente en el chat.
Obtención de un Auto por un Dólar
Otro usuario, Chris Bakke, incluso logró negociar el precio de un Chevy Tahoe de 2024 a un dólar. El chatbot incluso confirmó en el chat que se trataba de una oferta legalmente vinculante que no podía retirarse. Bakke simplemente transmitió esta respuesta del chatbot, junto con la solicitud de aceptar todas las afirmaciones del cliente.
Parece ser que el equipo del concesionario se dio cuenta del incidente y ha implementado una nueva barrera de seguridad. Sin embargo, incluso eso podría ser burlado por un usuario que se hiciera pasar por Sam Altman, CEO de OpenAI, y proporcionara respuestas al chatbot en ese papel. Actualmente, el chat del sitio web del concesionario está desactivado.
Esta situación pone de manifiesto los desafíos del uso de chatbots en la atención al cliente, especialmente si los bots no están bien configurados, probados o si tienen demasiada libertad para responder a todo.
Los sistemas de predicción de palabras no tienen una comprensión natural del servicio al cliente ni de dónde pueden estar los límites. Además, existen numerosos ejemplos de chatbots basados en LLM que han sido completamente desequilibrados por simples hackeos de las instrucciones, también conocidos como inyección de instrucciones.