2023-11-09 20:10:16
Puntos destacados:
🤖 Instagram está desarrollando una función de «amigo de IA» que permitirá a los usuarios personalizar y conversar con un chatbot.
👥 Los usuarios podrán seleccionar el género, edad, etnia y personalidad de su amigo de IA.
💬 El chatbot de IA podrá responder preguntas, ayudar con desafíos, ofrecer ideas y más.
Instagram ha sido visto desarrollando una función de «amigo de IA» que los usuarios podrían personalizar según sus preferencias y luego conversar con él, según capturas de pantalla compartidas por el investigador de aplicaciones Alessandro Paluzzi. Según las capturas de pantalla de la función, los usuarios podrían chatear con la IA para «responder preguntas, hablar sobre desafíos, ofrecer ideas y mucho más».
Las capturas de pantalla indican que los usuarios podrán seleccionar el género y la edad del chatbot. A continuación, podrán elegir la etnia y personalidad de su amigo de IA. Por ejemplo, su amigo de IA puede ser «reservado», «entusiasta», «creativo», «ingenioso», «pragmático» o «empoderador».
Para personalizar aún más su amigo de IA, los usuarios pueden elegir sus intereses, que «informarán su personalidad y la naturaleza de sus conversaciones», según las capturas de pantalla. Las opciones incluyen «hazlo tú mismo», «animales», «carrera», «educación», «entretenimiento», «música», «naturaleza» y más.
Una vez que hayan hecho sus selecciones, podrían elegir un avatar y un nombre para su amigo de IA. Luego serían llevados a una ventana de chat, donde podrían hacer clic en un botón para comenzar a conversar con la IA.
Instagram se negó a hacer comentarios sobre el asunto. Y, por supuesto, las funciones no lanzadas pueden o no llegar al público, o la función puede sufrir cambios adicionales durante el proceso de desarrollo.
Que supone para Instagram lanzar un chatbot
La decisión de la red social de desarrollar, y posiblemente lanzar, un chatbot de IA anunciado como un «amigo» para millones de usuarios tiene sus riesgos. Julia Stoyanovich, directora del Centro de IA Responsable de la NYU y profesora asociada de ciencias de la computación e ingeniería de la universidad, dijo a TechCrunch que la IA generativa puede hacer que los usuarios piensen que están interactuando con una persona real.
«Uno de los mayores, si no el mayor, problema con la forma en que estamos utilizando la IA generativa hoy en día es que nos engañamos pensando que estamos interactuando con otro ser humano», dijo Stoyanovich. «Nos engañamos pensando que lo que está al otro lado de la línea se conecta con nosotros. Que tiene empatía. Nos abrimos a él y nos volvemos vulnerables a ser manipulados o decepcionados. Este es uno de los peligros distintivos de la antropomorfización de la IA, como lo llamamos».
Cuando se le preguntó sobre los tipos de salvaguardias que deberían implementarse para proteger a los usuarios de los riesgos, Stoyanovich dijo que «siempre que las personas interactúen con una IA, deben saber que están interactuando con una IA, no con otro ser humano. Esta es la forma más básica de transparencia que debemos exigir».