La salud que viene

Julio Lorca

Director de Desarrollo Salud Digital en DKV Salud

ChatGPT: el final del principio

El autor reflexiona sobre las aplicaciones de la Inteligencia Artificial y la manera en que llegarán a afectar a la forma de hacer Medicina, con grandes oportunidades y limitaciones

EL año 2022 vino acompañado de una sorpresa inesperada: la democratización del acceso a la inteligencia artificial. Los que nos dedicamos a trabajar en innovación de base tecnológica, veníamos experimentando desde hace meses con el modelo de llamado GPT o Transformador pre-entrenado generativo; siendo ChatGPT (que utiliza su versión 3.5.) su contribución más revolucionaria hasta la fecha.

GPT es un algoritmo de aprendizaje profundo (Deep Learning). Esto es, una forma de entrenar a un ordenador para que realice de forma automatizada tareas consideradas humanas: reconocimiento del habla e imágenes e incluso predecir lo que ocurrirá; ¿Intuición? Y lo hace, organizando los datos suministrados superando la clásica ejecución de ecuaciones predefinidas, detectando relaciones subyacentes o patrones ocultos, que pasarían desapercibidos a “simple vista”. Mediante la superposición de múltiples capas de computación, aprenden a “clasificar, reconocer, detectar y describir…”. Emergen modelos entrenados de reconocimiento, procesamiento y aprendizaje automatizado, generando información de novo. Es decir, surgen máquinas artificiales capaces de “entender y generar ideas”. Lo de la consciencia, lo dejamos para más tarde…

Ahora bien, ha sido la puesta a disposición de la población general de estas capacidades, mediante una mecánica semejante al chatear por WhatsApp, lo que la hace de chatGPT una innovación revolucionaria. Sus usos generales son múltiples e Internet se ha llenado en las últimas semanas de cientos de ejemplos que no vamos a repetir aquí. Nos interesa, no obstante, reflexionar sobre la manera en llegará a afectar a la Salud y a la forma de hacer Medicina; tanto en las oportunidades que se abren, como en las limitaciones que durante algún tiempo conllevarán, incluyendo los riesgos y amenazas que deberemos sortear.

En primer lugar, después de muchas horas de uso de chatGPT, es fácil descubrir que se le puede “inyectar” información falsa y que a partir de ahí mantiene el error durante todo el hilo conversacional. De otro lado, la falta de conexión a Internet (aunque hay extensiones Web que ofrecen apaños “algo torpes”), hace que su capacidad se limite en la práctica a la información con la que ha sido entrenada. Incluso cuando se abra a Internet (lo que ocurrirá más pronto que tarde), en un campo tan sensible como la salud, se deberá garantizar que “bebe” solamente de fuentes acreditadas. Además, el acelerado ritmo de cambios en el conocimiento médico, junto con las sensibilidad de los datos de salud, representarán grandes trabas en comparación con cualquier otro sector en muchos de los supuestos.

A pesar de ello, las ventajas van a ser incuestionables y, aunque por mucho tiempo deberán ser entornos supervisados, vendrán nuevos negocios como la automatización de la anamnesis médica, en la generación de las historias clínicas electrónicas. Al tiempo, negocios relativamente nuevos -como los chequeadores de síntomas- van a quedar obsoletos. Estos sistemas podrán ir mucho más allá como la posibilidad de sugerir enfermedades subyacentes tras la interacción hombre-máquinas. A final de diciembre, la prestigiosa National Geographic reflejaba que “ChatGPT podría ayudar a detectar los primeros signos de Alzheimer con una precisión del 80 %”.

También cambiará la forma de realizar tareas cotidianas como la gestión de citas, los recordatorios de medicación, interpretar una analítica o sugerir una dieta vegana. En general, mejorará la interlocución con los pacientes, y, paradójicamente, a humanizar la sanidad.

Veremos desde ahora noticias cada día, como que una máquina será nuestro “psicólogo preliminar”, o que un call center telefónico le ha dicho a un cliente que puedo tener un “hígado grado”. (¡Ay la bebida!).

MÁS ARTÍCULOS DE OPINIÓN Ir a la sección Opinión »

Comentar

0 Comentarios

    Más comentarios