Ignacio Hernández Medrano, neurólogo y experto en inteligencia artificial.
La
inteligencia artificial (IA) ya está presente en el mundo sanitario y puede verse en
herramientas como el chatGPT que requieren de vigilancia humana. En los últimos años, se ha visto un boom en el uso de estas herramientas para el diagnóstico de algunas enfermedades como el
Covid-19 o trastornos como las arritmias. Poniendo la vista en el futuro, los especialistas afirman que la IA servirá para
identificar enfermedades de mayor gravedad, pero hay que tener precaución para que no genere
desigualdades entre pacientes y vigilar de cerca los
errores que puedan cometer estas máquinas.
"La
evolución del chatGPT es muy rápida y en pocos meses tendremos una versión 500 veces más potente. Los sistemas inteligentes empezarán a
diagnosticar patologías más graves y es lógico que empiecen por
la imagen y sigan hacia otro tipo de datos como los de laboratorio", explica Ignacio Hernández Medrano, neurólogo y creador de Savana, una plataforma de IA que lee y analiza millones de documentos clínicos. "Es importante entender que es una IA general, no experta, de forma que para utilizarla en Medicina (sea diagnóstico o predicción) hay que nutrirla con bases de datos expertas, que entiendan el matiz de lo que significa, por ejemplo, progresión en mieloma múltiple", añade.
¿Qué ocurre si la maquinaria de
inteligencia artificial falla? Tal y como indica el neurólogo, al igual que las
guías clínicas marcan el camino que debe seguir el médico en base a la evidencia científica, con la IA ocurre lo mismo. Estos dispositivos
estarán codificados en base a los estudios previos y seguirán lo definido para que el paciente sea beneficiado.
"Uno aplica lo que es
más probable en base a la herramienta; si el paciente resulta no ser predecible por el algoritmo, entonces
no hay responsabilidad (ni del médico ni de la herramienta). Sólo la hay para el profesional si éste se sale de lo que dice el algoritmo sin ninguna razón para ello, o para el fabricante de IA si hace
trampa en la validación o fraudes similares", sostiene.
Desigualdades en la atención sanitaria
Aunque estos dispositivos puedan actuar como sanitarios, nunca
sustituirán al ser humano, ya que su labor se limita a "resolver problemas pero sin consciencia". Por lo tanto, ahí entra el profesional médico con su ética, relacionada estrechamente con la consciencia: "Son herramientas que tienen que estar en
manos de un profesional".
En palabras de Medrano, cuando se juntan las máquinas y los humanos se obtiene "el mejor resultado posible". Ambas partes son necesarias porque los
dispositivos no piensan contrafactual ni contextualmente, de forma que hay variables que se escapan. De la misma manera, las máquinas permiten
asociar un número de alteraciones que el cerebro humano no es capaz.
En este sentido, existe un riesgo de que la asistencia sanitaria sea diferente según el nivel económico del paciente. "Tal vez empezamos a caminar hacia un mundo en el que aquellos que tienen menos recursos tienen acceso a una
sanidad muy robotizada, con poco humanos. Es lo que ocurre cuando llamamos a servicios de baja calidad, que nos atiende una máquina. Mientras que los ricos sean los que tengan el
privilegio de tener un médico, un ser humano apoyado por máquinas y que la interfaz sea humana", señala Medrano.
Normativa en materia de inteligencia artificial
No obstante, uno de los grandes retos con los que se ha encontrado la IA ha sido
la regulación. Actualmente, el reglamento de protección de datos a nivel europeo permite dar salida a muchos proyectos de big data que antes se paraban. Ahora tan solo se debe cumplir con dos premisas: que
los datos sean anónimos y que su uso no sea comercial.
A pesar de ello, la ley habla del
principio de minimización de datos, es decir, aboga por usar la menor cantidad de datos posible para llevar a cabo la investigación, lo cual sigue siendo un problema para los investigadores
"Nuestros sistemas se basan en
explorar relaciones de variables en inmensas cantidades de datos y, a priori, no sabes qué te vas a encontrar. Yo lo descubro cuando meto todos los datos y exploro
mediante técnicas de inteligencia artificial", argumenta Medrano, quien confía en que se resuelva esta contrariedad cuanto antes porque también supone "
una barrera competitiva enorme en relación con China o Estados Unidos".
Medrano: "Tenemos que asegurarnos de tener algoritmos de inteligencia artificial testados, verificados y actualizados"
|
Por otro lado, Europa también cuenta con el Reglamento de Inteligencia Artificial donde se recogen los aspectos más importantes como la
privacidad y la verificación. Sin embargo, tal y como subraya Medrano, quedan algunos temas por tratar. En primer lugar, la demanda de
explicabilidad a los sistemas de IA: "Se está empezando a entender que no es posible demandar explicabilidad a las máquinas porque funcionan como
sistemas de reconocimiento de patrones y no saben cómo han llegado hasta ahí".
Asimismo, algo que no contempla esta normativa es la monitorización y la
actualización de los algoritmos de IA. "Además de comprobar en la vida real que lo que hacemos en el laboratorio se aplica a los pacientes, tenemos que asegurarnos de tener
algoritmos testados, verificados y actualizados", concluye el experto.
Las informaciones publicadas en Redacción Médica contienen afirmaciones, datos y declaraciones procedentes de instituciones oficiales y profesionales sanitarios. No obstante, ante cualquier duda relacionada con su salud, consulte con su especialista sanitario correspondiente.