Jeremy Farrar, científico jefe de la OMS.
La
Organización Mundial de la Salud (OMS) ha publicado nuevas orientaciones sobre la ética y la gobernanza de
grandes modelos multimodales (LMM), un tipo de
tecnología de Inteligencia Artificial (IA) generativa de rápido crecimiento cuyas aplicaciones se ven en toda la atención sanitaria. En concreto, se trata de modelos que han sido diseñados para realizar
tareas precisas que mejoren los sistemas de salud. Por este motivo, una de las recomendaciones más destacadas se centra en
incluir a los profesionales de la salud y a los pacientes
en las primeras etapas de desarrollo de estas aplicaciones.
Según la OMS, la inclusión de estos trabajadores en la creación de estas tecnologías daría lugar a
diseños estructurados que sean inclusivos y transparentes. Al mismo tiempo, el trabajo conjunto entre sanitarios y desarrolladores, brindaría la oportunidad de
plantear cuestiones éticas, de expresar inquietudes y de proporcionar
información que mejore la creación de la IA. Junto a los sanitarios, este organismo destaca también a los
proveedores médicos y a los investigadores científicos como trabajadores que se deben tener en cuenta durante este proceso.
En total, la OMS ha publicado una guía que recoge
más de 40 recomendaciones para los Gobiernos en materia de
inteligencia artificial y del uso apropiado de los
grandes modelos multimodales (LMM). Los LMM son sistemas que pueden aceptar uno o más tipos de entradas de datos, como texto, vídeos e imágenes, y generar diversos resultados que no se limitan al tipo de datos introducidos. Se trata de
un sistema único a la hora de imitar la comunicación humana.
Según
Jeremy Farrar, científico jefe de la OMS, "las tecnologías de I
A generativa tienen el potencial de mejorar la atención sanitaria, pero solo si quienes las desarrollan, las regulan y las utilizan, identifican y tienen plenamente en cuenta los riesgos asociados". Por este motivo, considera que es necesario contar con "información y políticas transparentes para gestionar el diseño, desarrollo y uso de LMM que permitan lograr mejores resultados de salud y
superar las desigualdades sanitarias persistentes".
Aplicaciones de la IA en la Salud
La nueva guía de la OMS describe
cinco aplicaciones amplias de los LMM para la salud, entre las que se recogen
los diagnósticos y la atención clínica, dónde se enmarcan cuestiones como las
respuestas a las consultas escritas de los pacientes. También el uso guiado por el paciente, que se puede utilizar, por ejemplo, para investigar síntomas y tratamientos.
Otra de las aplicaciones es relativa a las
tareas administrativas y de oficina, como documentar y resumir las visitas de pacientes dentro de registros médicos electrónicos. Junto a esto, la IA tendrá un gran peso en la
educación médica y de enfermería (que incluye proporcionar a los alumnos encuentros simulados con pacientes), y en la
investigación científica y desarrollo de fármacos, incluida la identificación de nuevos compuestos.
Junto a esto, la OMS señala que, si bien los LMM están comenzando a utilizarse para fines específicos relacionados con la salud, “también
existen riesgos documentados de producir declaraciones falsas, inexactas, sesgadas o incompletas, que podrían perjudicar a las personas que utilizan dicha información”. Además, los LMM
pueden estar entrenados con datos de mala calidad o sesgados, ya sea por raza, etnia, ascendencia, sexo, identidad de género o edad.
Riesgos de la IA en los sistemas de salud
Los riesgos que presentan estas tecnologías de IA - en concreto los LMM -, para los sistemas de salud son muy amplios. Uno de ello es la posibilidad de
fomentar un "sesgo de automatización" por parte de los profesionales de la salud y los pacientes, mediante el cual
se pasan por alto errores que de otro modo se habrían identificado. "Los LMM, al igual que otras formas de IA, también
son vulnerables a riesgos de ciberseguridad que podrían poner en peligro la información del paciente o la confiabilidad de estos algoritmos y la prestación de atención médica en general", señala la OMS.
Por esto, para crear LMM seguros y eficaces, este organismo subraya la necesidad de la
participación de diversas partes interesadas, entre las que se encuentran gobiernos, empresas de tecnología,
proveedores de atención médica, pacientes y sociedad civil, en todas las etapas del desarrollo y despliegue de dichas tecnologías
, incluida su supervisión y regulación.
Recomendaciones para el uso de la IA en sanidad
La OMS sugiere a los gobiernos, que son quienes tienen la responsabilidad principal de
establecer estándares para el desarrollo y despliegue de LMM en su uso con fines médicos y de salud pública, que inviertan en
infraestructura pública o sin fines de lucro. Señalan que debe
incluir los conjuntos de datos públicos y que deben ser
accesibles para los desarrolladores de los sectores público, privado, que requiera que los usuarios se adhieran a principios y valores éticos a cambio de acceso.
Además, también recomienda que se utilicen
leyes, políticas y regulaciones para garantizar que los LMM en
la atención médica y la medicina cumplan con las obligaciones éticas y los estándares de derechos humanos que afectan, por ejemplo, la dignidad, la autonomía o la dignidad de una persona.
También especifica que se debería asignar “una agencia reguladora existente o nueva para evaluar y aprobar LMM y aplicaciones destinadas a su
uso en atención médica o medicina, según lo permitan los recursos”. Junto a esto, recogen la sugerencia de introducir auditorías obligatorias posteriores a la liberación y evaluaciones de impacto, incluso para la
protección de datos y los derechos humanos.
Las informaciones publicadas en Redacción Médica contienen afirmaciones, datos y declaraciones procedentes de instituciones oficiales y profesionales sanitarios. No obstante, ante cualquier duda relacionada con su salud, consulte con su especialista sanitario correspondiente.