ChatGPT diagnostica con precisión el dolor crónico de un niño tras el fracaso de 17 médicos

Añadir a tus IAs favoritasQuitar de tus favoritasQuitar de favoritos 0
Puntuación0

2023-09-14 13:29:51

Una madre luchó durante tres años para conseguir un diagnóstico para el dolor crónico de su hijo. Al parecer, ChatGPT le proporcionó el diagnóstico correcto.

Según la madre, visitó a 17 especialistas a lo largo de tres años, todos los cuales buscaron una posible causa para las dolencias del niño en sus áreas de especialización. Pero ningún médico pudo aliviar el dolor crónico de su hijo, según declaró la madre, que desea permanecer en el anonimato. [link]

A continuación, introdujo todos los síntomas de su hijo y los datos de la resonancia magnética en ChatGPT. El sistema de IA de OpenAI emitió un diagnóstico que los profesionales médicos no habían hecho antes: síndrome del cordón umbilical anclado.

Se trata de una afección infantil en la que la médula espinal queda anclada a sus vainas o al tejido circundante. La tracción resultante sobre las fibras nerviosas puede provocar dolores de cabeza y otros síntomas. Un neurocirujano confirmó el diagnóstico y operó al niño, que sigue recuperándose.

En una historia similar, GPT-4 diagnosticó una rara enfermedad canina basándose en los resultados de un análisis de sangre. Una clínica veterinaria no pudo hacer un diagnóstico, pero un segundo diagnóstico de otra clínica confirmó el diagnóstico de GPT-4.

Los chatbots de IA ayudan en el diagnóstico

Este tipo de anécdotas ilustran el potencial de los grandes modelos lingüísticos para responder a preguntas médicas de nivel experto, que ya se ha demostrado en estudios. GPT-4 está a la vanguardia de este campo. Con Med-PaLM, Google pretende comercializar el campo de los modelos lingüísticos especializados para medicina.

En comparación con las búsquedas tradicionales en Internet, los LLM tienen una experiencia potencialmente más amplia que puede aprovecharse de forma muy focalizada. La investigación es más rápida. Sin embargo, existe el riesgo de alucinaciones, es decir, de respuestas erróneas, que pueden tener consecuencias especialmente graves en el contexto sanitario.

Pero como demuestran los dos ejemplos anteriores, la gente comete errores. El debate sobre el uso de chatbots médicos podría ser similar al de los coches autoconducidos: ¿Basta con que los sistemas funcionen de forma fiable al nivel humano o ligeramente por encima, o es necesario que sean impecables? ¿Quién será responsable en caso de error?

Deja una opinión

      Deje una respuesta

      🤖 AI MAFIA
      Logo