
2023-09-19 12:02:10
Un nuevo estudio sugiere que el uso de sistemas de IA como ChatGPT para redactar mensajes a los amigos puede provocar una disminución de la satisfacción y un aumento de la inseguridad en las relaciones si se descubre el uso de la IA.
Utilizar aplicaciones de IA como ChatGPT para redactar mensajes para los amigos puede ser una mala idea, ya que un nuevo estudio ha descubierto que las personas perciben que los mensajes generados por IA requieren menos esfuerzo por parte del remitente.
Esta percepción, a su vez, hace que los destinatarios de los mensajes generados por IA se sientan menos satisfechos con su relación y más inseguros sobre la situación de su amigo.
En el estudio participaron 208 personas a las que se les plantearon varias situaciones, como que estaban agotadas y necesitaban apoyo, que tenían un conflicto con un compañero y necesitaban consejo, o que se acercaba su cumpleaños. Se les pidió que enviaran un mensaje a su amigo ficticio, Taylor, describiendo sus sentimientos.
Te necesitamos, Taylor
Se informó a los participantes de que Taylor, su amigo ficticio, les había enviado una respuesta, parte de ella asistida por IA, parte editada por un miembro de una comunidad de escritores y el resto escrita únicamente por Taylor.
Los resultados mostraron que los destinatarios de las respuestas mejoradas con IA las consideraron menos apropiadas que los que recibieron mensajes escritos únicamente por Taylor. Su juicio no tenía nada que ver con la calidad de la respuesta en sí, sino sólo con el esfuerzo que supuestamente había realizado Taylor.
Además, recibir mensajes mejorados por la IA hizo que los participantes se sintieran menos satisfechos con su relación y más inseguros sobre su amistad con Taylor. Curiosamente, recibir mensajes escritos con ayuda de otro humano, en lugar de sólo IA, tuvo el mismo impacto negativo en la relación.
La autora principal, Bingjie Liu, profesora adjunta de Comunicación en la Universidad Estatal de Ohio, tiene una explicación para este fenómeno: En su opinión, el esfuerzo es crucial en una relación, y utilizar IA o ayuda de terceros para elaborar mensajes puede percibirse como una forma de tomar atajos y una falta de sinceridad.
A medida que ChatGPT y servicios similares se hacen más populares, Liu sospecha que la gente puede desarrollar un comportamiento inconsciente de escanear los mensajes de sus amigos en busca de patrones de IA, algo que ella llama una «prueba de Turing en la mente». Si descubren que el mensaje ha sido escrito por una IA, podría dañar las relaciones.
Algunas reflexiones personales sobre la mensajería con IA
Ya he tenido pensamientos similares antes sobre las sugerencias de respuesta generadas por IA en mensajeros y correos electrónicos. Tengo que admitir que las utilizo, a veces incluso para responder a mi pareja o amigos. Puede parecer un atajo perezoso que no presta a mi interlocutor la atención que se merece en ese momento.
Curiosamente, para mí, esta sensación aumenta con la discrepancia entre la respuesta generada por la IA y la respuesta que yo habría dado si la hubiera escrito yo mismo. Pueden ser diferencias muy sutiles, como usar un emoticono concreto o decir «Hola amigo» en lugar de simplemente «Hola».
Pero si la sugerencia de la IA es 100% correcta, como «gracias» cuando lo que realmente quiero decir es «gracias», esa sensación desaparece.
Así que puede que no se trate del acto de teclear, sino de si tu respuesta es realmente auténtica para ti y no sólo una aproximación «suficientemente buena» de lo que querías decir.
Porque si una aproximación me parece extraña a mí como emisor, puede parecerle aún más extraña al receptor. Así que nuestro esfuerzo puede consistir en asegurarnos de que decimos lo que queremos decir.