Catalunya desenvolupa un model per evitar que la IA envaeixi drets

Alessandro Mantelero, profesor en el Politecnico di Torino y líder de un grupo de trabajo de l’Autoritat Catalana de Protecció de Dades (APDCAT)

Alessandro Mantelero, profesor en el Politecnico di Torino y líder de un grupo de trabajo de l’Autoritat Catalana de Protecció de Dades (APDCAT) / Parlament de Catalunya

1
Es llegeix en minuts
Paula Clemente
Paula Clemente

Periodista

Especialista en Consum, start-ups, sector emprenedor

ver +

Alessandro Mantelero, professor a la Universitat Politècnica de Torí, també és líder d’un grup de treball muntat en el si de l’Autoritat Catalana de Protecció de Dades (Apdcat) per abordar com es regula la intel·ligència artifical (IA). La normativa obliga que cada nou producte, solució o servei que pugui comportar riscos per a les persones passi per un filtre que asseguri que no envairà drets fonamentals, però no precisa com fer-ho. L’Apdcat va presentar ahir un model pioner i amb vocació global per garantir el desenvolupament d’una IA que no xoqui amb drets bàsics.

Es tracta d’una eina molt inspirada en altres sistemes d’avaluació de riscos (industrials, per exemple), perquè les empreses o entitats interessades puguin aplicar-la en bloc. Consisteix en tres parts: primer, un qüestionari que ajuda a determinar el tipus d’intel·ligència artificial i en quin context s’utilitzarà; segon, una eina d’avaluació basada en matrius que calcula la probabilitat que s’impacti sobre un dret fonamental; i, finalment, un quadre de gestió del risc que precisa la llibertat afectada.