El ChatGPT no es un buen psicoterapeuta, advierten los investigadores

Añadir a tus IAs favoritasQuitar de tus favoritasQuitar de favoritos 0
Puntuación+1

2023-10-22 13:39:09

Los investigadores advierten contra el uso de ChatGPT & Co. en psicoterapia – y piden un proyecto de investigación internacional para hacerlo posible.

Numerosas startups de IA y empresas consolidadas buscan casos de uso para grandes modelos lingüísticos y chatbots como ChatGPT. Los candidatos van desde el marketing y las ventas hasta la atención sanitaria y la psicoterapia.

Pero un grupo de investigadores, en un artículo titulado «Using large language models in psychology», advierte ahora contra el uso de estos modelos en psicología, y especialmente en psicoterapia. Su capacidad para generar información psicológicamente útil es fundamentalmente limitada, afirma la coautora Dora Demszky, profesora de ciencia de datos en educación en la Stanford Graduate School of Education. «No son capaces de mostrar empatía o comprensión humana», afirma Demszky.

ChatGPT no tiene Teoría de la Mente

Lo que el científico quiere decir es que los grandes modelos lingüísticos carecen de «teoría de la mente», es decir, de comprensión de los estados mentales de otras personas. David Yeager, catedrático de Psicología de la Universidad de Texas en Austin y también autor del artículo, señala que, aunque los modelos pueden generar textos similares a los humanos, no tienen la profundidad de comprensión de un psicólogo profesional o un buen amigo.

En su artículo, los investigadores abogan por una asociación entre el mundo académico y la industria a la escala del Proyecto Genoma Humano. Esta asociación debería incluir el desarrollo de conjuntos de datos clave, puntos de referencia estandarizados, por ejemplo para su uso en psicoterapia, y una infraestructura informática compartida para desarrollar LLM psicológicamente competentes.

Una mayor investigación podría permitir un despliegue transformador

La motivación de este llamamiento es doble: En primer lugar, los investigadores temen «un mundo en el que los creadores de sistemas de IA generativa sean considerados responsables de causar daños psicológicos porque nadie evaluó el impacto de estos sistemas en el pensamiento o el comportamiento humanos», afirma Yeager.

En segundo lugar, ven potencial en los modelos: Sostenemos que, aunque los LLM tienen el potencial de hacer avanzar la medición, la experimentación y la práctica psicológicas, aún no están listos para muchas de las aplicaciones psicológicas más transformadoras, pero una mayor investigación y desarrollo podrían permitir ese uso». «

Deja una opinión

      Deje una respuesta

      🤖 AI MAFIA
      Logo