Liliana Acosta: «Molts dels problemes amb la IA provenen de decisions humanes»
Filòsofa especialitzada en ètica aplicada a la tecnologia. El 2017 va fundar la consultoria Thinker Soul. També divulga sobre intel·ligència artificial (IA). Avui participa al fòrum Cornellà Creació.
«La tecnologia no pot ser neutral i menys quan treballa basant-se en dades de persones»
En els últims anys, Google i Microsoft, els dos gegants que lideren el desenvolupament de la IA, han acomiadat gran part del seu equip d’ètica. ¿Per què és preocupant aquest moviment?
La científica Timnit Gebru va ser la primera dona contractada per crear un departament d’ètica en IA a Google. Ella i el seu equip van analitzar models de llenguatge i van detectar molts problemes. No obstant, ningú els escoltava o responia, així que van publicar un paper en el qual explicaven que aquests sistemes funcionen com lloros que repeteixen coses. Per això la van acomiadar d’un departament que després van tancar. Quan assessoro empreses, la meva feina és barallar-me cada dia amb els enginyers perquè el seu concepte d’ètica difereix molt del que és, ells estan interessats a produir. El que a mi em passa en micro és el que passa en macro a totes aquestes empreses. No podem esperar a utilitzar una tecnologia per veure si és bona o no, se l’ha de concebre perquè ho sigui per disseny, i això és molt car. Per això molts departaments d’ètica han sigut retallats. És un problema de temps i eficiència de cost.
Es diu que la tecnologia és neutral i que només depèn de l’ús que se’n faci. ¿Aquesta idea no és certa?
Hem de deixar de pensar així. La tecnologia no pot ser neutral i menys quan treballa basant-se en dades de persones. Si una IA té biaixos no és culpa seva, són biaixos humans que hem traduït a la màquina.
Però aquestes empreses no expliquen amb quines dades entrenen aplicacions com ChatGPT. La seva opacitat dificulta la detecció de biaixos.
Per entrenar un model de IA es necessita un gran volum de dades i treure’ls d’internet és molt més barat que crear una base privada. El problema és que moltes de les dades que s’extreuen de la xarxa ja estan esbiaixades de base. OpenAI, per exemple, treballa amb 180.000 milions de paràmetres. Això fa que detectar un problema sigui molt difícil. Fins i tot Sam Altman va dir que no entén com funciona ChatGPT. Per això els equips d’ètica adverteixen que no es pot comercialitzar una cosa així abans de provar-la.
Cada vegada es pensa més en les màquines des de la por. Ens fan témer que ens robaran la feina o que es rebel·laran contra la humanitat. ¿Estem fent el joc a les grans empreses?
Pensem en la IA com robots que subjuguen la humanitat, però aquesta idea pertany a la ciència-ficció. La IA actual s’allunya molt d’això. El pitjor és que molts dels problemes que tenim amb algoritmes provenen de decisions humanes. És graciós que tinguem por de la IA quan som els humans els que creem aquests biaixos. L’ètica s’ha d’aplicar als humans abans que a la IA.
Les empreses dissenyen els seus productes d’IA perquè imitin les converses humanes o tinguin veu de dona. Aquesta simulació de l’humà desperta molta fascinació, però ¿deforma la nostra percepció d’aquesta tecnologia?
Des que l’humà té consciència ha antropomorfitzat el que té al voltant perquè li feia por i era una manera de dominar-ho. També va passar amb els robots. Als anys 60 el MIT va crear el projecte Eliza, un sistema que podia comunicar-se per telèfon amb els usuaris. La gent s’hi va enganxar i van tancar el projecte. Dotar la tecnologia d’aparença humana ens dona tranquil·litat, però hem d’anar amb compte perquè podem perdre el sentit de la realitat. Hem d’aplicar el pensament crític.
- Dos clubs de BCN repeteixen al top 10 mundial del 2024
- El jesuïta Peris, davant el jutge per la denúncia d’un abús no prescrit
- Tres hores que van canviar el Barça
- Dos milions de catalans es beneficiaran de la llei de salut bucodental
- El Govern agilitzarà els 10 tràmits ‘online’ més utilitzats per a la sol·licitud d’ajudes
- Al minut Guerra d’Israel en directe: última hora sobre el final de la treva a Gaza, l’ajuda humanitària i reaccions
- Shopping Black Friday 2022: les millors ofertes d’Amazon
- SHOPPING Helly Hansen té les millors rebaixes d’hivern: ¡a meitat de preu!
- Com més població, més recursos
- L’Advocacia de l’Estat veu compatible la condemna del procés i l’amnistia