Sense consentiment
«Qualsevol noia hi pot ser exposada»: els nus falsos creats per intel·ligència artificial es disparen

El juny del 2019, el mitjà nord-americà Vice va denunciar l’existència de DeepNude, una «horrible» aplicació que podia despullar qualsevol dona. L’usuari només hi havia de penjar una foto de la víctima, pagar 50 dòlars i esperar que la intel·ligència artificial (IA) del programa s’encarregués de treure-li la roba. Els resultats eren tan creïbles que el seu ús es va disparar, però l’allau de crítiques rebudes va obligar els seus creadors a tancar el projecte al cap de poques hores.
Quatre anys després, el problema és molt més gran. DeepNude va desaparèixer, però al seu lloc han sorgit desenes d’altres ‘apps’ similars. Una d’aquestes és la que ha utilitzat un grup de nens de Badajoz per despullar sense consentiment les seves companyes d’escola, menors d’edat. «La imatge és superrealista i, a més de viralitzar-les entre ells, les poden haver pujat a llocs d’internet tipus ‘Onlyfans’», ha explicat a EL PERIÓDICO Miriam Al Adib, mare d’una de les víctimes.
Tot i que aquest cas ja ha sigut denunciat davant la Policia Nacional, il·lustra un nou mètode de violència digital contra les dones cada vegada més popular. Un simple cop d’ull a Google Trends és suficient per constatar com les recerques sobre aquestes aplicacions s’han disparat durant l’últim any. «És un fenomen que comença a preocupar moltíssim perquè no hi ha cap tipus de regulació sobre això i és molt difícil tant quantificar l’ús d’imatges que circulen com identificar els que ho fan», explica Eva Cruells, coordinadora de la línia d’atenció de Fembloc, una iniciativa feminista contra les violències masclistes digitals.
De nenes a famoses
Al principi, aquest tipus de continguts manipulats –coneguts com a ‘deepfakes’– apuntaven principalment contra dones famoses. Les cares de Gal Gadot, Jennifer Lawrence o Scarlett Johansson eren retallats i incrustats en escenes pornogràfiques que després eren penjades en pàgines per a adults. El gener del 2021 s’havien detectat més de 82.000 d’aquests vídeos il·lícits, segons un recompte de la companyia Sensity. Tot i que és molt difícil de comptabilitzar, les xifres actuals serien molt superiors.
Aquest auge es deu a la normalització del mercat de laIA, en plena expansió. És en aquest context que han sorgit multitud d’‘apps’ que intenten fer-se un lloc a costa de despullar noies sense consentiment. El seu ús és cada vegada més senzill i els seus resultats, més creïbles. Aquesta suma de factors ha facilitat que aquesta tecnologia pugui ser utilitzada de forma problemàtica per tota mena de públics.
«El missatge és que qualsevol noia hi pot ser exposada, és un assenyalament molt clar sobre la sexualitat de moltes adolescents».
coordinadora de la línia d’atenció de Fembloc
Els personatges públics, com Rosalía o la ‘influencer’ Laura Escanes, continuen estant a la diana d’aquests atacs. No obstant, la facilitat d’accés a aquests programes està propagant el seu impacte a tota mena de dones, també nenes, com mostra el cas de Badajoz. «El missatge és que qualsevol noia hi pot ser exposada, és un assenyalament molt clar sobre la sexualitat de moltes adolescents», afegeix Cruells.
Ansietat i baixa autoestima
Aquesta forma de violència digital de gènere pot colpejar la salut mental de les víctimes. Un 54% de les dones que han patit assetjament a internet han experimentat atacs de pànic, ansietat o estrès, mentre que un 42% de les joves han mostrat estrès emocional, baixa autoestima i pèrdua d’autoconfiança, segons un estudi de l’Observatori Nacional de Tecnologia i Societat (ONTSI) de l’any passat. «Així és sentir-se violat, així és sentir-se explotat», va denunciar al gener la ‘streamer’ QTCinderella, víctima dels ‘deepfakes’.
Ir a buscar clout faltando el respeto y sexualizando a alguien es un tipo d violencia y da asco pero hacerlo por 4 plays de + lo q da es pena
— R O S A L Í A (@rosalia) 23 de mayo de 2023
Tot i que es tracti d’una simulació, la distribució de continguts sexuals d’aquesta índole és un delicte. Fins i tot podria tractar-se de pornografia infantil si afecta una menor. És per això que des de Fembloc asseguren que la denúncia pública és una bona pràctica per exposar l’impacte que té i per «apel·lar al sentit comú». «Cal sensibilitzar molt [...] i generar una comunitat que rebutgi aquest tipus d’agressió», afegeix Cruells.
Recrear imatges sexuals falses és il·legal, però tot i així és molt fàcil trobar aquest tipus de continguts a internet. En una recerca ràpida a Google hi apareixen tota mena d’enllaços, des dels quals recomanen les millors ‘apps’ d’IA per crear nus a portals on es pengen.
- Habitatge El milionari José Elías opina sobre comprar o llogar el 2025: "Si guanyes 2.000 euros al mes..."
- Consum Bon Preu accelera la seva expansió i obrirà 12 nous súpers aquest any
- 1.080 vivendes i un gran parc Una inversió milionària i el futur Clínic rellancen el sector Can Rigalt al nord de l’Hospitalet
- Educació L'escola 'miracle' al barri del Besòs de Barcelona: de suspendre a estar per sobre de la mitjana en català i extraescolars
- Totes les estrenes i tornades Les 10 sèries que no et pots perdre aquest febrer
- Criança El pediatre Carlos González aclareix la importància d’entendre i gestionar els desitjos infantils: «Cedir no és perdre autoritat…»
- Després les polèmiques declaracions de la 'consellera' Parlon Estigmatizar és pensar que trastorn mental és sinònim de violència
- Consells pràctics El truc casolà perquè la goma de la rentadora quedi com nova
- Nations league Espanya remunta contra Bèlgica amb dos gols en l’afegit
- EL PARTIT DE MENDIZORROtZA L’Espanyol afronta un partit amb valor doble a Vitòria