Tecnologia
Catalunya desenvolupa un model pioner a Europa per prevenir que la intel·ligència artificial vulneri drets fonamentals
L’Autoritat Catalana de Protecció de Dades presenta la seva proposta coincidint amb la irrupció de la Xina en aquest mercat amb DeepSeek.
«Molts països poden invertir molt en tecnologia perquè la protecció dels drets té un cost molt baix», denuncia un expert.
DeepSeek punxa la bombolla de la IA a Wall Street, colpeja valors europeus i amarga les tecnològiques
Alessandro Mantelero, profesor en el Politecnico di Torino y líder de un grupo de trabajo de l’Autoritat Catalana de Protecció de Dades (APDCAT) /
Des que la intel·ligència artificial (IA) té un reglament que la reguli a Europa, les normes del joc han canviat per a aquesta indústria. Entre altres coses, perquè aquesta normativa obliga que cada nou producte, solució o servei que pugui comportar riscos per a les persones (perquè fa servir dades massives o perquè es mou en el camp de la salut, per exemple), passi per un filtre que asseguri que no envairà drets fonamentals. Així ho estableix l’article 27, que, malgrat tot, no especifica com fer-ho.
«No s’entén exactament quins són els paràmetres per transformar la norma en una cosa pràctica», denuncia Alessandro Mantelero, professor titular de dret civil i dret i tecnologia a la Universitat Politècnica de Torí i líder d’un grup de treball creat en el nucli de l’Autoritat Catalana de Protecció de Dades (APDCAT) per abordar precisament aquest repte. És aquest grup qui ha presentat aquest dimarts, Dia Internacional de la Protecció de Dades, un model pioner i amb vocació global per garantir el desenvolupament d’una IA que no topi amb drets bàsics.
Es tracta d’una eina molt inspirada en altres sistemes d’avaluació de riscos (industrials, per exemple), perquè les empreses o entitats interessades puguin aplicar-lo en bloc. Consisteix en tres parts: primer, un qüestionari que ajuda a determinar el tipus d’intel·ligència artificial i en quin context s’utilitzarà; segon, una eina d’avaluació basada en matrius que calcula la probabilitat que s’impacti sobre un dret fonamental; i, finalment, un quadre de gestió del risc que precisa la llibertat afectada, la gravetat, si és fàcilment solucionable o no, així com mesures per prevenir aquests impactes.
Mantelero ha explicat que ja existia algun model similar, però cap tan complet quant a fiabilitat i transparència i, sobretot, que ja s’hagi aplicat en quatre casos pràctics.
La Universitat Politècnica de Catalunya, per exemple, ho ha fet servir per validar les pràctiques d’un algoritme que predigui el risc d’abandonament d’un alumne mitjançant dades del campus virtual o de la seva matrícula. El model va advertir de riscos com la pèrdua d’autonomia de la persona, la invasió de la seva intimitat i fins i tot possibles biaixos, davant la qual cosa va suggerir comportaments com limitar l’accés a aquestes dades o revisar periòdicament les conclusions i el càlcul. CaixaBank va avaluar un possible sistema per predir el grau d’encaix a una vacant d’ocupació i ordenar els candidats en funció d’aquesta puntuació. Ho ha millorat després de detectar possibles invasions del dret a la protecció de les dades o a la no discriminació, ja que l’algoritme s’entrena amb dades històriques i pot perpetuar la desigualtat entre homes i dones.
El perill de DeepSeek
El document que recull tot això (inclosa la recepta secreta de la metodologia) es farà públic en tres idiomes perquè, en paraules de Mantelero, estan «convençuts que aquesta eina pot ser útil a moltes entitats». “Això no ha de ser per a les empreses que faran avaluacions com una ‘big four’ [les consultores EY, KPMG, Deloitte o PwC], la seva certificació és un segell final, i això és una eina de disseny”, ha apuntat el professor.
La directora de l’APDCAT, Meritxell Borràs /
«La IA està transformant la manera de treballar, la manera com s’investiga i fins i tot com ens relacionem les persones, i això implica un salt qualitatiu que afecta l’administració, el sector privat i tota mena de negocis», havia contextualitzat preliminarment la directora de l’APDCAT, Meritxell Borràs. «Hem tingut el do de l’oportunitat, presentant aquest model ara», ha afegit, en relació, entre d’altres coses, amb l’eclosió pública ahir de DeepSeek, una IA xinesa que ha demostrat que es pot desenvolupar aquesta tecnologia de forma molt més ràpida i barata del que es creia.
Això –ha conclòs després el professor Mantelero– demostra la importància de disposar de models com el que ha desenvolupat el seu grup de treball: «A la Xina es desenvolupa IA perquè moltes dades es poden recollir, però no sabem exactament com o quan es recolliran o si això s’ha fet de forma alineada amb la protecció dels drets fonamentals», ha apuntat. «Aquest és el problema de l’autocràcia: molts països poden invertir molt en tecnologia perquè la protecció dels drets tenen un cost molt baix».
- Gent Gerard Piqué abandona Catalunya: Clara Chía, afectada
- 5.337 persones es queden sense plaça en els cursos públics de català
- Un fitxatge per oblidar La ruïna saudita amb Neymar
- A L’AUDIÈNCIA DE MADRID Absolt de violació malgrat que la dona havia sigut drogada i «no era conscient» d’estar tenint sexe
- Música El llegat d’Ovidi Montllor enfronta les seves filles tres dècades després
- UN BARÇA-MADRID SENSE SEU De resar pel Camp Nou a la rocambolesca opció del Johan
- Iberdrola premia el foment de l’esport femení
- L’última jornada El City ressorgeix de la tragèdia i podria creuar-se amb el Madrid
- Les claus L’ensopegada que no fa mal a un Barça que ja havia fet la feina
- CHAMPIONS league | La crònica El Barça frena i el PSG s’acosta