2023-07-19
Un estudio de Stanford demuestra que ChatGPT supera a los estudiantes de medicina en preguntas complejas basadas en casos, lo que obliga a replantearse la educación médica.
Investigadores de Stanford han descubierto que ChatGPT puede superar a estudiantes de medicina de primer y segundo año en la respuesta a preguntas complejas sobre atención clínica.
El estudio, publicado en JAMA Internal Medicinedestaca la creciente influencia de la IA en la formación y la práctica médicas y sugiere que puede ser necesario ajustar los métodos de enseñanza de los futuros médicos.
«No queremos médicos que dependan tanto de la IA en la facultad que no aprendan a razonar los casos por sí mismos», afirma la coautora Alicia DiGiammarino, responsable de educación de la Facultad de Medicina. «Pero me asusta más un mundo en el que los médicos no estén formados para usar eficazmente la IA y la encuentren prevalente en la práctica moderna».
La IA gana a los estudiantes de medicina
Estudios recientes han demostrado La capacidad de ChatGPT para manejar preguntas de opción múltiple en el Examen de Licencia Médica de los Estados Unidos (USMLE).. Pero los autores de Stanford querían examinar la capacidad del sistema de IA para manejar preguntas más difíciles y abiertas utilizadas para evaluar las habilidades de razonamiento clínico.
El estudio descubrió que, de media, el modelo de IA obtuvo más de cuatro puntos más que los estudiantes de medicina en la parte del examen dedicada a los informes de casos. Este resultado sugiere el potencial de herramientas de IA como ChatGPT para alterar la enseñanza y las pruebas tradicionales de razonamiento médico a través de texto escrito. Los investigadores también observaron un salto significativo con respecto a GPT-3.5, que estaba «al borde del aprobado» en las preguntas.
ChatGPT y otros programas similares están cambiando nuestra forma de enseñar y, en última instancia, de practicar la medicina.
Alicia DiGiammarino
A pesar de su impresionante rendimiento, ChatGPT no está exento de defectos. El mayor peligro son los hechos inventados o las llamadas alucinaciones o confabulaciones. Esto se ha reducido considerablemente en el último modelo de OpenAI, GPT-4, disponible para clientes de pago y a través de API, pero sigue estando muy presente.
Se puede imaginar cómo incluso errores muy esporádicos pueden tener consecuencias dramáticas cuando se trata de temas médicos. Sin embargo, integrados en un plan de estudios global con múltiples fuentes de verdad, esto parece un problema mucho menor.
La Facultad de Medicina de Stanford corta la línea de los estudiantes al ChatGPT en los exámenes
La preocupación por la integridad de los exámenes y la influencia de ChatGPT en el diseño de los planes de estudio ya se deja sentir en la Facultad de Medicina de Stanford. Los administradores han pasado de exámenes a libro abierto a exámenes a libro cerrado para garantizar que los estudiantes desarrollen habilidades de razonamiento clínico sin depender de la IA. Pero también han creado un grupo de trabajo sobre IA para explorar la integración de herramientas de IA en la enseñanza de la medicina.
Más allá de la educación, hay otras áreas en las que la IA puede tener un impacto significativo en la asistencia sanitaria. Por ejemplo, la startup de IA médica Insilico Medicine administró recientemente la primera dosis de un fármaco de IA generativa a pacientes en un ensayo clínico de fase II.
Google está probando Med-PaLM 2, una versión de su gran modelo lingüístico PaLM 2 perfeccionada para responder a preguntas médicas. Otro estudio sugiere que GPT-4 puede ayudar a los médicos a responder a las preguntas de los pacientes con más detalle y empatía. Sí, ha leído bien: más empatía.