Els límits de la tecnologia

Control dels fluxos migratoris a les fronteres

La normativa europea d'intel·ligència artificial entra en vigor amb clarobscurs, ja que podrà regular fluxos migratoris en els passos de frontera amb una legislació que voreja la vulneració de drets fonamentals dels ciutadans

Control dels fluxos migratoris a les fronteres
3
Es llegeix en minuts
Carles Planas Bou
Carles Planas Bou

Periodista

Especialista en tecnologia i el seu impacte sociopolític.

Ubicada/t a Barcelona

ver +

La llei europea que regularà la intel·ligència artificial (IA), en vigor des d’aquest dijous, té dues cares. Una, celebrada des de Brussel·les com una "victòria de la democràcia", és la que prohibeix els usos més perillosos d’aquestes tecnologies i dicta obligacions per garantir que no perjudiquen els ciutadans de la Unió Europea (UE). La segona és molt més polèmica. I és que la normativa inclou una sèrie d’exempcions que permeten un ús més lax per part de policia, exèrcit i agents de fronteres, uns buits legals que, segons denuncien desenes d’organitzacions de la societat civil, suposen un doble tracte que amenaça els drets fonamentals, especialment els dels més vulnerables.

La nova regulació contempla l’ús de la IA per a la gestió de la migració, l’asil i el control fronterer. Per exemple, en la identificació biomètrica de persones, en detectors de mentides o per determinar sol·licituds d’acollida o visats. Dins de la UE, l’ús d’aquests sistemes és considerat d’alt risc, circumstància que obliga a complir estrictes normes establertes per garantir la seva transparència i limitar-ne l’impacte social.

No obstant, en l’àmbit migratori aquestes restriccions es dilueixen de manera considerable. Així doncs, les autoritats policials que operen a les fronteres europees no estaran obligades a registrar els sistemes utilitzats en portal d’accés públic. A més a més, la IA utilitzada en bases de dades migratòries a gran escala com Eurodac, que recopila les empremtes dactilars d’immigrants irregulars i sol·licitadors d’asil, no haurà d’acatar el nou reglament fins al 2030. Per a més inri, la llei permet que les empreses europees exportin fora de la UE les aplicacions aquí prohibides pel seu impacte nociu sobre els drets humans.

Malestar d’organitzacions

Aquestes exempcions han despertat el malestar de desenes d’organitzacions de la societat civil, que acusen la Unió Europea de "limitar enormement l’escrutini públic" de la policia, d’"encoratjar el secretisme" i de permetre "un ús cada vegada més gran de la vigilància racialitzada i discriminatòria". "La frontera s’ha convertit en un camp d’experimentació amb la IA", adverteix Albert Sabater, director de l’Observatori d’Ètica en Intel·ligència Artificial de Catalunya (OEIAC).

Totes aquestes controvertides exempcions casen amb l’estratègia de defensa de la UE. En aquest sentit, entre el 2007 i el 2022, Brussel·les va destinar 341 milions d’euros a investigar les tecnologies d’IA a les fronteres, segons un informe de Statewatch, des de robots autònoms de control migratori fins a eixams de drons de videovigilància. Aquests fons han finançat el desplegament de sistemes biomètrics a Espanya o el desenvolupament d’un sistema de predicció algorítmica de fluxos migratoris desenvolupat a Catalunya.

"Europa s’està fortificant de totes les formes possibles i la llei de la IA és clau per anar a més (...), una capa extra de la discriminació i violació flagrant de drets que ja es dona a la frontera", valora Judith Membrives, tècnica de digitalització i experta en IA a Lafede.cat.

Exempcions per a la policia

Notícies relacionades

La fronterera no és l’única exempció que ha despertat una allau de crítiques. Tot i que el Parlament Europeu va exigir la prohibició total dels sistemes de reconeixement facial, la pressió dels estats va aconseguir que el text definitiu permeti certs usos per part de la policia. Les autoritats no podran utilitzar la identificació biomètrica a distància en espais públics, però sí que podran desplegar-la –amb autorització judicial prèvia– en situacions d’emergència com la prevenció d’un atac terrorista, la identificació d’un sospitós o la localització d’un desaparegut. Sota aquest pretext també es permeten uns altres sistemes prohibits com ara la policia predictiva o el reconeixement d’emocions, tots dos amb una taxa d’errors alta. "S’estan desplegant unes eines amb un rendiment que és molt pitjor del que estaríem disposats a acceptar en el cas que es tractés de medicaments", afegeix Judith Membrives.

Organitzacions civils com Amnistia Internacional o Access Now han denunciat que, de facto, aquesta "decebedora" exempció obre la porta a l’ús d’uns sistemes d’IA que són "intrínsecament discriminatoris" i que "exacerbaran els abusos" contra la població. "A la pràctica, significarà que els governs podran invocar la seguretat nacional per introduir sistemes biomètrics de vigilància massiva sense haver d’aplicar cap de les salvaguardes previstes en la llei, sense portar a terme una avaluació del seu impacte i sense garantir que no discrimina determinats grups", lamenta una aliança d’oenagés en defensa dels drets digitals. L’actual nivell d’alerta terrorista, adverteix Membrives, seria suficient per normalitzar el desplegament d’aquestes tecnologies en el nostre dia a dia.