Los grandes modelos lingüísticos (LLM) pueden ayudar a la atención sanitaria, pero la privacidad sigue siendo un obstáculo

Añadir a tus IAs favoritasQuitar de tus favoritasQuitar de favoritos 0
Puntuación0

2023-10-11 08:09:46

El Prof. Dr. Felix Nensa es radiólogo y profesor del Instituto de Inteligencia Artificial en Medicina del Hospital Universitario de Essen. Se centra en el potencial de la IA en medicina.

Los grandes modelos lingüísticos (LLM) podrían ayudar a procesar la información médica traduciendo las cartas de los médicos a un lenguaje cotidiano comprensible o generando datos estructurados y legibles por máquina a partir de conversaciones grabadas entre médicos y pacientes. Sin embargo, estos modelos se enfrentarían a obstáculos normativos relacionados con la privacidad.

A pesar de los problemas de privacidad, los LLM pueden paliar la escasez de personal en el sistema sanitario y centrar más la atención médica en la persona, liberando al personal médico de tareas administrativas, afirma Prof. Felix Nensa.

¿Qué aplicaciones ve para sistemas similares a ChatGPT? ¿Para especialistas, para pacientes, para ambos?

Actualmente se está debatiendo la posibilidad de utilizar ChatGPT para generar cartas médicas. No estoy convencido de que tenga sentido. No necesitamos más información textual relativamente desestructurada.

En su lugar, necesitamos preparar la información médica para que pueda ser comprendida y utilizada por el destinatario lo más rápidamente posible. Aquí es donde los Modelos de Lenguaje Amplio (LLM) pueden ser de gran ayuda. Esta tecnología es excelente para traducir la medicina hablada y la interacción interpersonal en datos estructurados.

Es decir, veo una aplicación útil en la traducción de cartas de médicos a un lenguaje que los legos puedan entender y, a la inversa, en la generación o extracción de datos estructurados y legibles por máquinas a partir de información hablada, como conversaciones grabadas entre médicos y pacientes, que es lo que necesitan y quieren los profesionales médicos y los especialistas. Es importante que las «traducciones» para los pacientes estén verificadas médicamente.

Por supuesto, no hay nada malo en utilizar un LLM para volver a traducir información estructurada a una carta médica clásica, si el destinatario de la información lo desea, pero esto no debería ser el objetivo principal. En la práctica clínica diaria, es probable que se prefiera una representación tabular comprimida, que también podría generarse automáticamente.

¿Qué le falta a ChatGPT para que pueda utilizarse en estas aplicaciones?

Para muchas aplicaciones, aún estamos en fase de desarrollo y pruebas. Así que falta formación y experiencia, pero también transparencia y explicabilidad de los modelos. Ya estamos reescribiendo las cartas de los médicos según lo descrito, y estamos trabajando para que médicos y enfermeros puedan utilizar los LLM para buscar alergias y enfermedades en nuestro historial electrónico de pacientes en cuestión de segundos.

Pero se trata de utilizar datos patentados. Disponemos de la infraestructura informática de alta seguridad necesaria. En Essen tenemos acceso a más de 1.500 millones de paquetes de datos. Pero cuantos más datos puedan utilizarse para entrenar la IA, mejor. Aún faltan normas comunes e interoperabilidad de datos.

¿Qué obstáculos ve para que los LLM se incorporen a la medicina?

Como suele ocurrir cuando se utilizan datos con fines médicos, el uso de estas tecnologías se enfrenta actualmente a problemas de regulación. En otras palabras, la privacidad es un obstáculo. Los datos sensibles de los pacientes no pueden enviarse sin más a grandes servidores en la nube de empresas externas como OpenAI.

No me malinterpreten, la privacidad es enormemente importante y no creo que el uso de ChatGPT en este contexto sea justificable. Pero la privacidad no debería interponerse en el camino del progreso médico, y desde luego no en el de una terapia prometedora.

Es como dijo Paracelso: «La dosis hace el veneno».

Tengo la impresión de que Alemania y la Unión Europea carecen de valor para hacer concesiones en materia de protección de datos. Al mismo tiempo, a muchos pacientes no les importa si eso les ayuda. Están encantados de ceder sus datos para que se siga investigando si se garantiza el uso ético de los mismos y, en última instancia, se puede progresar para todos nosotros.

Actualmente, las empresas tecnológicas internacionales están estableciendo normas tecnológicas. En el futuro, las empresas europeas tendrán que confiar en ellas si no hay alternativas europeas.

Esto es preocupante porque en Alemania y en la UE nos basamos en valores diferentes y tenemos normas distintas en materia de protección de datos. Así que tenemos que ser más flexibles y pragmáticos en lo que respecta a la protección de datos, sobre todo si queremos que nuestros valores europeos en materia de ética y protección de datos estén preparados para el futuro.

¿Cómo podemos garantizar que estas tecnologías beneficien realmente a los pacientes y no sean utilizadas por las clínicas privadas para compensar la escasez de personal o incluso agravarla para aumentar sus beneficios?

Por supuesto, depende del marco adecuado. Los hospitales universitarios, por ejemplo, están en condiciones de asumir funciones de centro de confianza. También es cierto que nunca se puede impedir que las tecnologías se utilicen con fines delictivos.

Pero cuando sopeso los riesgos potenciales de la IA frente a los beneficios esperados, veo que el péndulo oscila fuertemente en la dirección de la tecnología. Esto se debe a que los beneficios de la IA son muchos, entre ellos aliviar la actual escasez de personal médico. Ya no podremos resolver esta escasez simplemente por el cambio demográfico.

Pero podemos mitigarla con la ayuda de tecnologías modernas como ChatGPT. Así que si un hospital, sea privado o no, puede utilizar la IA para mitigar la omnipresente escasez de personal, eso es algo bueno en primer lugar, y beneficiará sobre todo a los pacientes. Si sólo tienen que esperar una semana para una resonancia magnética en lugar de cinco semanas, por ejemplo, eso es bueno.

En contra de la creencia generalizada de que las soluciones de IA contribuirán a deshumanizar la medicina, yo las veo como una oportunidad para que la medicina del mañana vuelva a ser más humana. Porque la IA puede liberar a médicos y enfermeras de tareas administrativas, dándoles más tiempo para el contacto interpersonal.

Pero como sociedad, tenemos que asegurarnos de que el tiempo ganado por el personal se invierte en tiempo con los pacientes, no sólo en maximizar los beneficios.

Deja una opinión

      Deje una respuesta

      🤖 AI MAFIA
      Logo