La ley europea que regulará la inteligencia artificial (IA), en vigor desde este jueves, tiene dos caras. Una, celebrada desde Bruselas como una «victoria de la democracia», es la que prohíbe los usos más peligrosos de estas tecnologías y dicta obligaciones para garantizar que no perjudican a los ciudadanos de la Unión Europea (UE).
La segunda es mucho más polémica. Y es que la normativa incluye una serie de excenciones que permiten un uso más laxo por parte de policía, ejército y agentes de fronteras, unos vacíos legales que, según denuncian decenas de organizaciones de la sociedad civil, suponen un doble rasero que amenaza los derechos fundamentales, especialmente los de los más vulnerables.
La nueva regulación contempla el uso de la IA para la gestión de la migración, el asilo y el control fronterizo. Por ejemplo, en la identificación biométrica de personas, en detectores de mentirar o para determinar solicitudes de acogida o visados. Dentro de la UE, el uso de esos sistemas es considerado de ‘alto riesgo’, lo que obliga a cumplir con estrictas normas establecidas para garantizar su transparencia y limitar su impacto social.
Exenciones en la frontera
Sin embargo, en el ámbito migratorio esas restricciones se diluyen de forma considerable. Así pues, las autoridades policiales que operan en las fronteras europeas no estarán obligadas a registrar los sistemas usados en portal de acceso público. Además, la IA utilizada en bases de datos migratorios a gran escala como Eurodac, que recopila las huellas dactilares de inmigrantes irregulares y solicitantes de asilo, no deberá acatar el nuevo reglamento hasta 2030. Para más inri, la ley permite que las empresas europeas exporten fuera de la UE las aplicaciones aquí prohibidas por su impacto nocivo sobre los derechos humanos.
Esas exenciones han despertado el malestar de decenas de organizaciones de la sociedad civil, que acusan a la UE de «limitar enormemente el escrutinio público» de la policía, de «alentar el secretismo» y de permitir «un uso cada vez mayor de la vigilancia racializada y discriminatoria». «La frontera se ha convertido en un campo de experimentación con la IA», advierte Albert Sabater, director del Observatorio de Ética en Inteligencia Artificial de Catalunya (OEIAC).
Esas controvertidas exenciones casan con la estrategia de defensa de la UE. Entre 2007 y 2022, Bruselas destinó 341 millones de euros a investigar las tecnologías de IA en las fronteras, según un informe de Statewatch, desde robots autónomos de control migratorio a enjambres de drones de videovigilancia. Esos fondos han financiado el despliegue de sistemas biométricos en España o el desarrollo de un sistema de predicción algorítmica de flujos migratorios desarrollado en Catalunya. «Europa se está fortificando de todas las formas posibles y la ley de la IA es clave para ir a más (…), una capa extra de la discriminación y violación flagrante de derechos que ya se da en la frontera», valora Judith Membrives, técnica de digitalización y experta en IA en Lafede.cat.
Exenciones para la policía
La fronteriza no es la única exención que ha despertado un alud de críticas. Aunque el Parlamento Europeo exigió la prohibición total de los sistemas de reconocimiento facial, la presión de los Estados logró que el texto definitivo permita ciertos usos por parte de la policía. Las autoridades no podrán usar la identificación biométrica a distancia en espacios públicos, pero si podrán desplegarla —con autorización judicial previa— en situaciones de emergencia como la prevención de un ataque terrorista, la identificación de un sospechoso o la localización de un desaparecido. Bajo ese pretexto también se permiten otros sistemas prohibidos como la policía predictiva o el reconocimiento de emociones, ambos con una alta tasa de errores. «Se están desplegando herramientas cuyo rendimiento es mucho peor de lo que estaríamos dispuestos a aceptar si se tratase de medicamentos», añade Membrives.
Organizaciones civiles como Amnistía Internacional o Access Now han denunciado que, de facto, esa «decepcionante» exención abre la puerta al uso de unos sistemas de IA «intrínsecamente discriminatorios» que «exacerbarán los abusos» contra la población. «En la práctica, significará que los gobiernos podrán invocar la seguridad nacional para introducir sistemas biométricos de vigilancia masiva sin tener que aplicar ninguna de las salvaguardias previstas en la ley, sin realizar una evaluación de su impacto y sin garantizar que no discrimina a determinados grupos», lamenta una alianza de oenegés en defensa de los derechos digitales. El actual nivel de alerta terrorista, advierte Membrives, sería suficiente para normalizar el despliegue de esas tecnologías en nuestro día a día.