El ministro de Función Pública, Óscar López.
Obvia decir que la
inteligencia artificial tiene usos maravillosos, pero también perversos. El
Ministerio de Función Pública apunta a la necesidad de cubrir ambos frentes: por un lado, aprovechar este tipo de herramientas para disipar la
“visión de lentitud” que se tiene de la sanidad; y por otro, blindar el sistema de ‘hackers’ o de personas que quieran hacer un mal empleo de las mismas, por ejemplo para falsear la información de un fármaco o ‘cribar’ a solicitantes de un seguro en base a su información biométrica. El departamento de
Óscar López advierte de que habrá ‘mano dura’ contra los infractores, que se enfrentan a
multas de hasta 35 millones de euros.
La pasada semana, tras la reunión del Consejo de Ministros, el mismo López anunció la aprobación del anteproyecto de Ley ‘para el
buen uso y la gobernanza de la inteligencia artificial’, que viene a completar la estrategia iniciada por el Gobierno en 2020 y a
armonizar la legislación española con la que ‘exige’ la
Unión Europea. La citada norma señala a la sanidad como un sector ‘crítico’ o, dicho de otra manera, especialmente
vulnerable al impacto de la IA. Tanto para bien como para mal.
Ejemplos de las bondades de la IA en el campo de la salud hay muchos, aunque López puso especial énfasis sobre la aplicación ‘
Cardiomentor’, de naturaleza pública, que se apoyará sobre modelos de IA generativa y servirá de apoyo a los médicos generalistas en cuestiones referentes a cardiopatías. “La inteligencia artificial puede ser utilizada para
investigar el cáncer o el alzhéimer o conocer medicamentos -señaló-. Pero también para difundir
bulos, mentiras, esparcir odio y atacar a nuestra democracia”.
La sanidad, sistema de "alto riesgo" ante la IA
En este sentido, corroboró que la sanidad será considerada como un “sistema de alto riesgo” en cuestiones de inteligencia artificial. Fuentes del Ministerio de Función Pública detallaron posteriormente que el objetivo es “
reforzar la ciberseguridad” para que la ciudadanía no se vea expuesta a
ataques de ‘hackers’ o a información maliciosa referente, por ejemplo, a medicamentos. “Hay que asegurar que no se ‘vendan’ datos erróneos que puedan perjudicar a los usuarios”, resumen.
Otro frente es el que representa la capacidad de la IA para identificar información biométrica de las personas (o bien sus comportamientos sociales), lo que permitiría ‘clasificarlas’ según sean más “convenientes” para acceder a un seguro o un préstamo.
Las
sanciones que se pondrán para este tipo de sistemas oscilan entre los
7,5 y los 35 millones de euros, o bien entre el 2 y el 7 por ciento del volumen de negocio mundial del ejercicio anterior. Las autoridades encargadas de vigilar los sistemas prohibidos serán la Agencia Española de Protección de Datos (para sistemas biométricos y gestión de fronteras), el Consejo General del Poder Judicial (para asuntos que afecten a su ramo), la Junta Electoral Central (para los que atañan a procesos democráticos) y la Agencia Española de Supervisión de la Inteligencia Artificial en el resto.
Incitación al juego o a otras adicciones con el uso de IA
Al margen de la sanidad, también serán consideradas
prácticas ‘prohibidas’ el uso de
técnicas subliminales, como imágenes o sonidos imperceptibles, para manipular decisiones sin consentimiento, causando un perjuicio considerable a la persona (adicciones, violencia de género o menoscabo de su autonomía). El ministro puso como ejemplo un chatbot que identifica usuarios con
adicción al juego y les incita a entrar en una plataforma online.
Tampoco se podrán explotar vulnerabilidades relacionadas con la
edad, la discapacidad o situación socioeconómica para alterar sustancialmente comportamientos de modo que les provoque o pueda provocar perjuicios considerables.
Las informaciones publicadas en Redacción Médica contienen afirmaciones, datos y declaraciones procedentes de instituciones oficiales y profesionales sanitarios. No obstante, ante cualquier duda relacionada con su salud, consulte con su especialista sanitario correspondiente.