Tecnologia i vigilància
El Govern d’Espanya i la Generalitat utilitzen algoritmes que poden ser discriminatoris
Les dues institucions recorren a l’automatització per determinar ajudes a l’atur, detectar denúncies falses o predir la reincidència de presos
Eticas Foundation llança una base de dades que recull 100 casos en què l’ús d’aquests sistemes comporta riscos socials no intencionats
Els algoritmes ja afecten la vostra vida. Els utilitzen gegants tecnològics com Google, Facebooko TikTok per conèixer-vos millor, recomanar-vos contingut i predir les vostres accions. Però també els utilitzen cada cop més governs i administracions públiques de tot el món per agilitar processos tan importants com la concessió d’ajudes a l’atur o la detecció de casos de Covid-19.
Els algoritmes són les fórmules matemàtiques que els ordinadors utilitzen per prendre decisions. No obstant, aquestes decisions no són neutrals, sinó que es fonamenten en dades recopilades per humans que poden comportar un biaix (racista, de gènere o socioeconòmic, entre altres) i traduir-se en conseqüències no volgudes com una vigilància perpètua dels ciutadans o una discriminació més gran que perjudica especialment les minories.
¿I si l’algoritme us acusa injustament de frau i us nega accés a les ajudes socials? ¿I si recompensa les notes de la selectivitat de només els estudiants dels barris rics? Això ja ha passat tant als Països Baixos com el Regne Unit.
¿Discriminació a Espanya?
¿Discriminació a Espanya?Aquesta mena de discriminació també està passant a Espanya i Catalunya. A més dels algoritmes creats per grans companyies com Twitter, Netflix, Microsoft i Uber, les institucions públiques espanyoles també recorren a uns sistemes que tenen potencials perills no intencionats per al ciutadà. És el cas de la Generalitat catalana, que utilitza un algoritme (Riscanvi) per calcular el risc de reincidència dels presos i que pot generar una discriminació socioeconòmica, o el Ministeri de l’Interior, que ha creat un algoritme per detectar els missatges d’odi a Twitter i que pot vulnerar drets fonamentals per vigilar els ciutadans.
Malgrat el seu profund impacte en les nostres vides els algoritmes són opacs i tenen poca supervisió. És per això que l’entitat Eticas Foundation ha posat en marxa l’Observatori d’Algoritmes amb Impacte Social (OASI), que reuneix en una base de dades (que podeu consultar aquí) més de 100 casos de tot el món en què l’ús d’algoritmes està tenint uns efectes socials perjudicials no volguts. El projecte identifica aquests casos en un cercador amb la intenció de ser accessible al públic i conscienciar sobre la necessitat d’auditar algoritmes.
Notícies relacionadesEstamos muy orgullos@s de presentar OASI, el primer buscador que ayuda a conocer los #algoritmos que el Gobierno y las grandes compañías utilizan contigo: https://t.co/gbrwBQGcmF
— Eticas Foundation (@EticasFdn) 8 de octubre de 2021
A més dels casos esmentats, OASI també assenyala uns altres dos algoritmes potencialment perillosos al territori: el que utilitza la Policia Nacional per detectar denúncies falses i el que fa servir el Servei Públic d’Ocupació Estatal (SEPE) per determinar ajudes socials als aturats.
OASI categoritza els tipus d’impactes que produeixen en set apartats: discriminació (racial, de gènere, socioeconòmica o religiosa), vigilància de l’Estat, polarització/radicalització, amenaça a la privacitat, manipulació del comportament, generació d’addicció i propagació de desinformació. Un impacte doblement perillós, ja que l’estès mite que les màquines són portadores d’una veritat racional i matemàtica fa que, la majoria de vegades, les seves conseqüències negatives quedin ocultes.
- Dos clubs de BCN repeteixen al top 10 mundial del 2024
- Tres hores que van canviar el Barça
- El jesuïta Peris, davant el jutge per la denúncia d’un abús no prescrit
- Dos milions de catalans es beneficiaran de la llei de salut bucodental
- El Govern agilitzarà els 10 tràmits ‘online’ més utilitzats per a la sol·licitud d’ajudes
- Al minut Guerra d’Israel en directe: última hora sobre el final de la treva a Gaza, l’ajuda humanitària i reaccions
- Shopping Black Friday 2022: les millors ofertes d’Amazon
- SHOPPING Helly Hansen té les millors rebaixes d’hivern: ¡a meitat de preu!
- Com més població, més recursos
- L’Advocacia de l’Estat veu compatible la condemna del procés i l’amnistia