Manifest publicat a ‘Science’
Els experts demanen la creació d’una xarxa de «hackers ètics»
Científics reclamen una «auditoria global» per estudiar els potencials danys de la intel·ligència artificial
Els experts suggereixen pagar als pirates informàtics que revelin fallades crítiques que «comprometin la seguretat o la confiança del públic»
El món necessita una xarxa global de ‘hackers ètics’ que s’encarregui de posar a prova les eines d’intel·ligència artificial i que alerti dels potencials perills d’aquestes tecnologies; ja sigui amb els engranatges que manegen un cotxe automàtic o amb els algoritmes que, a través de les xarxes socials, decideixen quan i com un contingut es converteix en viral. «Necessitem un equip de pirates informàtics de guant blanc que ataquin qualsevol plataforma nova i que dissenyin estratègies per utilitzar-la amb finalitats malicioses. Només així podrem saber quins danys potencials hi ha darrere d’aquestes eines i garantir la ‘confiança social’ en aquest tipus de tecnologies», reclama un grup internacional d’experts en un manifest publicat aquest mateix dijous a la revista ‘Science’.
La petició, encapçalada pel Centre per a l’Estudi del Risc Existencial (CSER) de la Universitat de Cambridge, reclama un canvi radical d’estratègia per fer front a la «crisi de confiança» que enfronta governs i societat amb aquestes tecnologies. Segons apunten els experts, en els últims anys la ciutadania ha sigut testimoni de diversos «comportaments qüestionables que ja estan entelant tot el camp» i que, des de ja, estan creant una «bretxa de confiança» en aquestes eines. «Estem començant a veure una reacció pública contra la tecnologia. Aquesta ‘fuetada tecnològica’ podria incloure-ho tot», adverteix l’investigador Shahar Avin.
«Necessitem un equip de pirates informàtics de guant blanc que ataqui qualsevol plataforma i dissenyi estratègies per utilitzar-la amb finalitats malicioses»
El manifest argumenta que «no és suficient que la indústria es comprometi amb uns principis ètics benintencionats» perquè, per garantir la confiança del públic, cal establir mecanismes d’«escrutini extern». Per això mateix, els impulsors d’aquesta iniciativa també presenten una llista actualitzada de pautes i recomanacions per crear una «intel·ligència artificial digna de confiança».
Recompenses econòmiques
Notícies relacionadesUna de les propostes que plantegen els experts és crear un sistema de «recompenses econòmiques» per a qualsevol investigador, o ‘hacker’, que reveli «fallades a les eines d’intel·ligència artificial que puguin comprometre la confiança o la seguretat del públic». És a dir, pagar qui trobi errors que fomentin, per exemple, la discriminació «racial o socioeconòmica» a les plataformes d’atenció mèdica o recerca de feina (una cosa que, com revelen diverses investigacions, ja està passant). Empreses com Twitter ja utilitzen aquesta estratègia per «recompensar els que trobin biaixos en els seus algoritmes».
«Les empreses es beneficiarien d’aquests descobriments i tindrien temps per abordar-los abans que es revelin públicament», argumenten els signants de l’article publicat a ‘Science’. Avin, per la seva banda, també explica que en aquests moments gran part d’aquestes iniciatives «es realitzen de forma limitada i ad hoc per part d’acadèmics i periodistes d’investigació» però que, tot i així, fa falta crear un sistema d’auditories més robust. «Es necessiten auditories per part d’agències externes fiables, estàndards oberts sobre com documentar aquest procés i plataformes dedicades a compartir aquests incidents», reclama el manifest a favor dels ‘hackers’ ètics.
- NENS TUTELATS El Govern va adjudicar cent milions a dit en centres de menors del 2016 al 2020
- SANITAT El cribratge neonatal topa amb la desigualtat territorial
- Medi ambient El polit becfí, la primera au que s’extingeix a l’Europa continental
- VIOLÈNCIA CONTRA LES DONES Una de cada 10 agressions sexuals a BCN és grupal
- Catalunya El mapa de càmpings inundables s’actualitzarà abans del 2025