La EMA acoge en su plan de trabajo hasta 2028 un listado de principios sobre cómo usar la tecnología sin riesgos

Principios rectores sobre el uso de modelos de lenguaje amplios en la ciencia regulatoria de medicamentos
Emer Cooke, directora ejecutiva de la Agencia Europea de Medicamentos (EMA).


6 sept. 2024 17:00H
SE LEE EN 4 minutos
La Agencia Europea de Medicamentos (EMA) ha publicado los principios y recomendaciones “de alto nivel” para la regulación en el uso de Modelos de Lenguaje Amplios (LLM, por sus siglas en inglés) en las actividades regulatorias de medicamentos. Se trata de un plan de trabajo planteado hasta 2028 que que busca garantizar un uso “seguro, responsable y efectivo” de estas tecnologías emergentes dentro del ámbito regulatorio y que señala los riesgos que acompañan a este tipo de modelos, como la posibilidad de generar información incorrecta, los peligros respecto a la protección de datos o los usos poco éticos.

La posibilidad de que los modelos para generar lenguaje mediante Inteligencia Artificial, es decir, los LLM generen información incorrecta o sesgada sobre medicamentos es uno de los principales riesgos que destaca la EMA. Esto puede afectar negativamente la toma de decisiones en áreas críticas y a la ciencia regulatoria de medicamentos. Según el informe, los LLM han demostrado “un sorprendente fracaso en tareas aparentemente triviales, dando respuestas irrelevantes o inexactas, conocidas como alucinaciones”.


Los modelos de lenguaje y la regulación de fármacos


Junto a esto, el informe publicado por la EMA resalta que, debido a la naturaleza de los LLM y su capacidad “para procesar grandes volúmenes de información”, existe la posibilidad de que se almacene y reutilice información sensible o confidencial. Es por esto que señala la probabilidad de que las indicaciones que se introduzcan en estos modelos “se almacenen y procesen” lo que da lugar, posteriormente, a “riesgos en términos de información confidencial, protección de datos y privacidad” dentro del campo farmacológico.

Por otra parte, la EMA señala que, como estos modelos tratan grandes cantidades de fuentes de texto, “los conjuntos de datos públicos extraídos de la web pueden ofrecer datos (personales) que podrían ser inexactos o contener información errónea”. Por esto, la EMA considera que es “muy difícil” contar con controles para abordar los riesgos en la protección de datos.


Usos poco éticos de los LLM


La EMA dedica también un apartado de este informe a señalar las consideraciones éticas generales en el uso de los LLM. Entre los principales riesgos en este aspecto señala que los LLM “pueden general daños sociales” al contener un “texto discriminatorio o excluyente, incluido contenido que perpetúa estereotipos, normas excluyentes y lenguaje tóxico”.

Junto a esto, destaca los “peligros de la información”, que pueden dar lugar a daños por violaciones en la protección de datos mediante el mal uso, un uso inseguro o la fuga de datos personales. No deja fuera tampoco los problemas que acompañan a la desinformación, en caso de que los LLM difundan materia “falsa o engañosa”, entre la que incluyen información médica poco ética o ilegal.


Responsabilidad de las autoridades reguladoras de fármacos


Los principios organizativos son un pilar fundamental a la hora de implantar estos modelos ligüísticos, que benefician en muchos aspectos a las autoridades reguladoras de medicamentos. Pero es evidente que también se pueden ver afectadas por la utilización que el personal haga de ellos, por lo que es necesario garantizar “un uso seguro y responsable” de los mismos.

Para ello, la EMA aconseja establecer una “gobernanza” sobre el uso de los LLM para ayudar a los usuarios a “navegar por los riesgos de estos modelos”, que sirva para brindar “conciencia y protección” sobre su uso. Además, esta también puede considerar si se requiere “capacitación obligatoria sobre el uso seguro y responsable de los LLM”.

Es por esto que el informe recoge dos recomendaciones. Por una parte, considerar la definición de la gobernanza sobre el uso de LLM, incluidos los casos de uso permitidos, qué información, es decir “proporcionar a los usuarios información sobre las aplicaciones LLM utilizadas (por ejemplo, qué no compartir en el mensaje y si un modelo está alojado interna o externamente), capacitación del personal y un enfoque de monitoreo de riesgos”.

Por otra parte, expresa que si se utilizan datos propios para mejorar el rendimiento de los LLM, se tomen “las debidas precauciones” y se tenga cuidado, de nuevo, con la información que se proporciona y la protección de datos.
Las informaciones publicadas en Redacción Médica contienen afirmaciones, datos y declaraciones procedentes de instituciones oficiales y profesionales sanitarios. No obstante, ante cualquier duda relacionada con su salud, consulte con su especialista sanitario correspondiente.