Tecnologia i vigilància
El Govern d’Espanya i la Generalitat utilitzen algoritmes que poden ser discriminatoris
Les dues institucions recorren a l’automatització per determinar ajudes a l’atur, detectar denúncies falses o predir la reincidència de presos
Eticas Foundation llança una base de dades que recull 100 casos en què l’ús d’aquests sistemes comporta riscos socials no intencionats

Els algoritmes ja afecten la vostra vida. Els utilitzen gegants tecnològics com Google, Facebooko TikTok per conèixer-vos millor, recomanar-vos contingut i predir les vostres accions. Però també els utilitzen cada cop més governs i administracions públiques de tot el món per agilitar processos tan importants com la concessió d’ajudes a l’atur o la detecció de casos de Covid-19.
Els algoritmes són les fórmules matemàtiques que els ordinadors utilitzen per prendre decisions. No obstant, aquestes decisions no són neutrals, sinó que es fonamenten en dades recopilades per humans que poden comportar un biaix (racista, de gènere o socioeconòmic, entre altres) i traduir-se en conseqüències no volgudes com una vigilància perpètua dels ciutadans o una discriminació més gran que perjudica especialment les minories.
¿I si l’algoritme us acusa injustament de frau i us nega accés a les ajudes socials? ¿I si recompensa les notes de la selectivitat de només els estudiants dels barris rics? Això ja ha passat tant als Països Baixos com el Regne Unit.
¿Discriminació a Espanya?
¿Discriminació a Espanya?Aquesta mena de discriminació també està passant a Espanya i Catalunya. A més dels algoritmes creats per grans companyies com Twitter, Netflix, Microsoft i Uber, les institucions públiques espanyoles també recorren a uns sistemes que tenen potencials perills no intencionats per al ciutadà. És el cas de la Generalitat catalana, que utilitza un algoritme (Riscanvi) per calcular el risc de reincidència dels presos i que pot generar una discriminació socioeconòmica, o el Ministeri de l’Interior, que ha creat un algoritme per detectar els missatges d’odi a Twitter i que pot vulnerar drets fonamentals per vigilar els ciutadans.
Malgrat el seu profund impacte en les nostres vides els algoritmes són opacs i tenen poca supervisió. És per això que l’entitat Eticas Foundation ha posat en marxa l’Observatori d’Algoritmes amb Impacte Social (OASI), que reuneix en una base de dades (que podeu consultar aquí) més de 100 casos de tot el món en què l’ús d’algoritmes està tenint uns efectes socials perjudicials no volguts. El projecte identifica aquests casos en un cercador amb la intenció de ser accessible al públic i conscienciar sobre la necessitat d’auditar algoritmes.
Notícies relacionadesEstamos muy orgullos@s de presentar OASI, el primer buscador que ayuda a conocer los #algoritmos que el Gobierno y las grandes compañías utilizan contigo: https://t.co/gbrwBQGcmF
— Eticas Foundation (@EticasFdn) 8 de octubre de 2021
A més dels casos esmentats, OASI també assenyala uns altres dos algoritmes potencialment perillosos al territori: el que utilitza la Policia Nacional per detectar denúncies falses i el que fa servir el Servei Públic d’Ocupació Estatal (SEPE) per determinar ajudes socials als aturats.
OASI categoritza els tipus d’impactes que produeixen en set apartats: discriminació (racial, de gènere, socioeconòmica o religiosa), vigilància de l’Estat, polarització/radicalització, amenaça a la privacitat, manipulació del comportament, generació d’addicció i propagació de desinformació. Un impacte doblement perillós, ja que l’estès mite que les màquines són portadores d’una veritat racional i matemàtica fa que, la majoria de vegades, les seves conseqüències negatives quedin ocultes.
- Pòdcast José Elías ho deixa clar: en què invertir per tenir rendibilitat sense riscos
- Els treballadors podran avançar tres anys la jubilació parcial a partir de demà
- Automoció Seat prescindeix d’improvís de Griffiths, president de la companyia
- Jornada de dol Cinc morts per una explosió de grisú en una mina d’Astúries
- TRIBUNALS Alves podria cobrar una indemnització de fins a 20.200 euros
- Repartiment de migrants Catalunya declara una sobreocupació del 101% als seus centres de menors migrants
- ACTUALITAT BLAUGRANA Perillen els 100 milions dels seients VIP del FC Barcelona, claus per fitxar a l’estiu
- Pressupostos prorrogats El Govern urgeix ERC i els Comuns a avalar «ràpid» tota l’ampliació de crèdit si volen millores en habitatge i mobilitat
- Parlament ERC i els Comuns amenacen de tombar diversos decrets del Govern
- Seguretat viària El Govern instal·larà 700 quilòmetres de bandes sonores en carreteres de tot Catalunya per reduir els xocs frontals