Entrevista
Virgina Eubanks: «El Govern utilitza la tecnologia contra la classe obrera perquè tem el seu poder»
A ‘L’automatització de la desigualtat’, adverteix de com l’adopció de sistemes d’Intel·ligència Artificial estan servint per vigilar i castigar els més pobres
Una màquina pot decidir si tens dret a rebre ajudes públiques, si se’t concedeix un préstec bancari o si has de tenir accés a una vivenda social. L’ús d’eines d’Intel·ligència Artificial (IA) que s’alimenten de les nostres dades per automatitzar complexes decisions com aquestes és cada vegada més habitual. No obstant, aquest sistema té una víctima: els pobres.
Durant tres anys, Virgina Eubanks, professora associada de Ciència Política de la Universitat d’Albany (Nova York), va investigar com als Estats Units l’ús d’algoritmes en els serveis d’assistència social, en el sistema judicial i en la vigilància de barris serveix per castigar i disciplinar la classe treballadora i els sensesostre. Un exhaustiu estudi que analitza com el progrés tecnològic està accentuant la discriminació i exclusió social dels més vulnerables. Un model que, com ella mateixa va patir, es propaga cap a la classe mitjana. La automatización de la desigualdad (Capitán Swing) es publica aquest dilluns.
Ignorem els pobres com si fossin una cosa aliena a nosaltres
Als EUA pensem que la pobresa només afecta una petita part de la població, i gent amb patologies, però això és empíricament fals. Més de la meitat de la població caurà per sota del llindar de la pobresa en la seva edat adulta i gairebé un 65% recorrerà a ajudes socials. Els sistemes socials que acceptem construir per a pobres crònics, minories racials, discapacitats, migrants i marginats acabaran atrapant-nos.
¿És el que li va passar a vostè?
Sí. Jason, la meva parella, va ser apallissat per uns atracadors. Li van causar moltes ferides, una lesió molt greu al cervell i estrès posttraumàtic. Una setmana abans havíem contractat una nova assegurança mèdica, però la van cancel·lar. Tinc la sospita que va ser perquè ens van investigar per saber si estàvem enganyant l’asseguradora. Tot i que unes setmanes després van reprendre el servei, hem descendit en l’escala econòmica perquè ell va quedar discapacitat i no pot treballar i jo estic treballant a temps parcial per cuidar-lo. Ara nosaltres formem part d’aquest sistema d’ajudes. I no va ser per prendre cap mala decisió.
Més de la meitat de la població caurà per sota del llindar de la pobresa en la seva edat adulta
¿Aquest menyspreu al pobre ha crescut en paral·lel a l’animadversió a l’Estat del benestar?
La marginalització dels pobres no va començar amb el neoliberalisme, això ha estat aquí des de fa molt temps. Vaig buscar quan es van començar a utilitzar eines contra els pobres i vaig arribar al 1601, quan es va establir la idea que la pobresa és un fracàs moral. Tenim la tendència a descontextualitzar aquestes tecnologies de vigilància, però han sigut creades per les polítiques i la cultura que arrosseguem d’abans.
Els sistemes d’IA es proven als barris humils. ¿S’està utilitzant els pobres com a conillets d’índies?
Per a molts d’ells, dir no a l’assistència social no és una opció. Si no tens atenció mèdica ni ajuda alimentària i un assistent veu que et falta menjar a casa corres el risc que enviïn els teus fills a llars d’acollida. La classe treballadora té molt poder i l’Estat utilitza aquestes tecnologies perquè la tem. Podries negar-te a donar les teves dades al sistema sanitari però llavors et moriries al carrer.
«Cap raó justifica negar a una nena de cinc anys tenir accés al servei sanitari. És una manera inhumana i inacceptable d’organitzar la societat».
Aquestes tecnologies acaben classificant els pobres entre bons i dolents.
S’ha assumit l’austeritat, la idea que no hi ha suficient per a tothom, així que s’han de crear eines per fer un racionament moral en el qual es determini qui mereix més les ajudes. Als EUA és molt diferent d’Europa, on hi ha un acord bàsic que hi ha drets humans i un terra sota el qual ningú pot caure.
Una de les meves pors més grans és que l’ús d’aquesta tecnologia d’IA faci que aquest cribratge entre bons i dolents sembli una cosa lògica, raonable i justa, quan ens deixa penjats. De totes les famílies amb les quals vaig parlar, no hi ha cap raó legítima que justifiqui negar a una nena de cinc anys tenir accés al servei sanitari. És una manera inhumana i inacceptable d’organitzar la societat.
A Indiana l’ús d’algoritmes per repartir ajudes públiques va acabar denegant erròniament un milió de prestacions. De no destapar-se aquests casos seguiríem pensant que aquestes tecnologies són perfectes, que la màquina mai falla.
Tenim un pensament màgic amb la tecnologia, confiem irracionalment que les seves decisions són més fiables que les humanes. Però aquests anys he vist molta gent adonar-se que eren errònies i que els algoritmes arrossegaven biaixos racistes i de classe.
Aquestes eines s’utilitzen políticament per desautoritzar les decisions de gent treballadora, de minories racials i dones. El problema és que quan la decisió de l’algoritme és diferent de la del treballador, que coneix la situació del seu barri, s’acaba prioritzant la de l’algoritme, i això té molt a veure amb la raça i el gènere i la nostra desconfiança dels treballadors socials.
«Aquestes eines s’utilitzen políticament per desautoritzar les decisions de gent treballadora, de minories racials i dones»
Assenyala que aquests sistemes divideixen la classe obrera. ¿Dificulta això la seva organització política?
Als EUA l’oficina d’assistència social és una experiència horrible, perillosa, bruta, atapeïda i vigilada, però també és un molt bon lloc per a l’organització perquè s’ajunta gent que està emprenyada i al parlar construeixen xarxes de solidaritat. Sempre han portat a revoltes i a la resistència. Cal facilitar l’accés a les ajudes socials, però aquestes tecnologies priven d’aquest contacte humà.
¿El seu ús respon llavors a la motivació ideològica de reduir el públic i reemplaçar la política per l’algoritme?
La dissenyadora del sistema de cribratge de famílies que es va utilitzar al comtat d’Allegheny, a Pennsilvània, va dir que quan es despleguin aquests sistemes de dades es podrà eliminar totalment la burocràcia. Per a molts científics de dades es tracta d’una decisió d’eficiència, no política, però de vegades són molt ingenus.
Un dels perills més grans d’aquests sistemes és que són polítiques que pretenen no ser-ho. Utilitzar la tecnologia per fer llistes de qui mereix ajuda o decidir on van els recursos és una manera de dir que, com a comunitat, no volem lidiar amb aquestes decisions difícils. A Los Angeles hi ha 66.000 persones sense llar. Això no s’arregla amb tecnologia. Hem de tenir una discussió sobre els nostres valors, per què permetem que passi això i com ens preparem per renunciar a alguna cosa per arreglar-ho.
«Un dels perills més grans d’aquests sistemes és que són polítiques que pretenen no ser-ho»
Un altre perill és que aquests sistemes d’IA creen una situació de poder asimètric, on només qui té l’algoritme té el poder. ¿Ens fa això encara més vulnerables?
Ens centrem en solucions tècniques com auditar algoritmes, més transparència o regular les companyies tecnològiques, però les famílies amb les que parlo, tot i que no tinguin coneixements experts d’aquests sistemes, entenen el seu impacte. Són bones solucions però parcials, perquè el problema rau en com expliquem la pobresa i com valorem les vides dels altres. I en aquest país no hi ha un acord que tots els éssers humans tenen els mateixos drets.
Però fins i tot els qui utilitzen l’algoritme no entenen com arriba a les conclusions que extreu...
És cert, ho he vist en casos en els quals s’acusa un ciutadà de tenir un deute perquè ho diu l’algoritme. L’Estat no en té proves, però com que el ciutadà tampoc té proves per negar-ho la justícia acaba fent cas a l’Estat. En només dos Estats he vist desenes de milers de casos així i n’hi pot haver milions a tot el país. Com més se sofistiquen els algoritmes més important és entendre el seu funcionament. No obstant, no vull que la gent pensi que és una cosa tan complicada que no podem combatre-la, perquè hi ha maneres de detectar-ho sense haver estudiat computació.
Als EUA no es regula l’ús d’aquestes eines d’IA perquè es diu que frenen la innovació tecnològica. ¿Creu que lanova legislació europea permetrà un respecte més gran dels drets humans?
Estic molt il·lusionada amb una regulació que reconegui els usos inadequats d’aquestes eines. Prohibir els sistemes de reconeixement facial és una cosa crucial. Però, més enllà de la vigilància digital, aquestes tecnologies punitives estan passant a molts llocs que la gent no veu, com els programes d’assistència pública.
Notícies relacionadesEls algoritmes prenen decisions matemàtiques, no ètiques. ¿Hi pot haver progrés social si utilitzem dades esbiaixades que repliquen les injustícies del passat?
Crec que la solució no vindrà de la gent que crea aquesta tecnologia o de les agències que la utilitzen. El poder mai cedeix sense una demanda. Estem en un moment perillós en el que dividim entre pobres bons, els que ho són per culpa de la pandèmia, i els dolents, els que ja ho eren abans. Però aquest moment també ens permet repensar moltes coses que ens semblaven naturals o inevitables. A Austràlia han duplicat la quantitat d’ajuda que donen a la gent pobra per la pandèmia, i abans d’això semblava impossible fer-ho. La ciutadania ha de pressionar per lidiar amb tots aquests problemes.
- Dos clubs de BCN repeteixen al top 10 mundial del 2024
- Tres hores que van canviar el Barça
- El jesuïta Peris, davant el jutge per la denúncia d’un abús no prescrit
- Dos milions de catalans es beneficiaran de la llei de salut bucodental
- El Govern agilitzarà els 10 tràmits ‘online’ més utilitzats per a la sol·licitud d’ajudes
- Al minut Guerra d’Israel en directe: última hora sobre el final de la treva a Gaza, l’ajuda humanitària i reaccions
- Shopping Black Friday 2022: les millors ofertes d’Amazon
- SHOPPING Helly Hansen té les millors rebaixes d’hivern: ¡a meitat de preu!
- Com més població, més recursos
- L’Advocacia de l’Estat veu compatible la condemna del procés i l’amnistia