Tomás Chamorro: "La IA pot ser despietada, però sempre serà millor que un mal cap"

El responsable global d’innovació de ManpowerGroup i autor del llibre ‘I, Human’ alerta que els algoritmes poden minimitzar o amplificar les discriminacions laborals.

«Fa molt que les empreses fan servir eines per escanejar milers de currículums»

«És un risc que s’automatitzin processos que puguin perjudicar la igualtat»

Tomás Chamorro: "La IA pot ser despietada, però sempre serà millor que un mal cap"
4
Es llegeix en minuts
Gabriel Ubieto
Gabriel Ubieto

Redactor

Especialista en Mercat laboral, empreses, pensions i les diferents derivades del món del treball

Ubicada/t a Barcelona

ver +

Fa un any i mig de la irrupció de Chat GPT. ¿Com creu que ha canviat l’ocupació?

L’impacte principal és que la majoria dels treballadors intel·lectuals interactuen i depenen de la IA generativa en el seu dia a dia quotidià. No sabem exactament quanta gent la fa servir perquè també hi ha molt ús clandestí. Augmenta la productivitat no de la manera que volen els directors d’empreses, perquè la producció, en termes absoluts, moltes vegades no ha augmentat.

El Chat GPT ha generat treballadors més descansats.

Exacte. S’utilitza sobretot per fer presentacions, e-mails, resumir coses... També usos una mica més avançats, com gent que envia Chat GPT a una reunió i fa que hi participi i després li passi un resum. També s’utilitza en els processos de selecció de personal. Els candidats utilitzen una IA per generar 5.000 currículums perfectes i els envia perquè... ¡els acabi analitzant una altra IA!

¿Acabarem treballant per a Chat GPT, en el sentit d’anar complementant amb miques d’autenticitat un esquelet que ofereixi la IA?

Sí. Ara estem en una fase en què Chat GPT és el nostre copilot i no trigarem a ser nosaltres el copilot de Chat GPT.

¿Com afectarà les empreses?

L’estil de lideratge ja hauria d’haver canviat, perquè seleccionar un líder pel que sap, perquè té un MBA, ja no tenia gaire sentit. Ara un bon líder ha de saber inspirar, connectar, energitzar, fer el que no pot fer un xatbot. Ha de saber calmar una mica les ansietats i la incertesa de la gent.

¿Com es mesurarà la productivitat en l’era dels algoritmes?

És un dels desafiaments més importants que tenim per davant. S’hauria de fer d’una manera totalment transparent i honesta. Al món anglosaxó hi ha bastanta hipocresia respecte a això, perquè els executius d’empreses diuen que la seva estratègia no és automatitzar, sinó augmentar el potencial i desbloquejar la creativitat humana. I després aquestes mateixes empreses incorporen IA per acabar acomiadant treballadors perquè no produeixen tant com la IA. Tot i que, no ens enganyem, hi haurà acomiadaments, com n’hi va haver quan al petit botiguer li va sorgir la competència del comerç online.

¿Com impactarà en els processos de selecció?

La IA cada vegada serà més sofisticada en els processos. Fa molt que les empreses fan servir eines que t’escanegen el currículum, busquen paraules i les connecten. Si una empresa rep centenars o milers d’aplicacions l’acaba utilitzant no tant per seleccionar, sinó per excloure. Perquè si saps que en un 95% de probabilitat aquest candidat no té les qualificacions, el pots excloure.

¿L’automatització d’aquests processos agreujarà la discriminació cap a certs col·lectius?

Aquí peco d’optimista perquè en realitat el potencial que té la IA per corregir i millorar això està molt clar i és superior a éssers humans sense cap eina ni cap dada. La IA només troba patrons i repeteix el que hi ha. Si jo entreno el model per buscar gent de certa edat, de cert gènere, de certa experiència... la IA em donarà això. Però la IA també pot excloure variables, com l’edat o el gènere, i fins i tot penalitzar si prenen com referència, tot i que sigui indirecta, aquesta variable. El problema és que tot això ho avalua un ésser humà, amb tots els biaixos i els prejudicis que els éssers humans tenen.

Llavors evitar les discriminacions passa per més sensibilització en les empreses.

És clar. La IA et donarà el que li demanes. Jo sempre dic que es podrien reprogramar tots els algoritmes de Netflix, Spotify, Twitter, etc., no perquè no et donin el que més t’agrada, sinó perquè et donin material que et mostri com pensa altra gent.

Si les empreses no accepten frenar aquestes discriminacions, ¿la IA les superalimentaran?

És un risc real. Que s’automatitzi un procés que té dades ja corruptes o que perjudiquen la meritocràcia, la igualtat, la diversitat, la inclusió. Per això necessitem una regulació i per això justament hi ha tant èmfasi a revelar les dades que s’utilitzen per entrenar els algoritmes. Però insisteixo, si se’ls programa bé, els algoritmes et permeten realment ignorar moltes de les coses que els éssers humans no poden ignorar.

Notícies relacionades

¿Amb l’objecte d’aquesta eficiència, s’encarregarà la IA dels acomiadaments?

La intel·ligència artificial pot ser despietada en aquest sentit, per això és molt important que hi hagi un humà rere totes les decisions, amb la màxima informació possible, però amb criteri propi. I, al seu torn, que els possibles afectats sàpiguen quins seran els criteris per endavant perquè tinguin la possibilitat de millorar. Pensar en un cap artificial pot ser horrorós, excepte si ho comparem amb un molt mal cap. La IA pot ser despietada, però sempre serà millor que un mal cap. Almenys no et torturarà.

Temes:

Intel Netflix