OCT. 15 2023 ADIMEN ARTIFIZIALA ETA SEXU INDARKERIA «Deepfake» sexualak: irudi ultrafaltsuen ondorio hiperrealak Adimen artifizialaren bitartez sortutako bideo, irudi eta audio ultrafaltsuek, «deepfake» izenez ezagutzen direnek, aukera mugagabeak zabaltzen dituzte. Hala ere, sexu edukia dute sorkuntza horien %96k, eta emakumezkoak dira beren irudia pornografiara bideratzeko baimenik eman ez zuten biktima guztiak. Maddi Txintxurreta Getty Images Jendaurrean erakutsi zen lehen pelikuletako bat “L’arrivée d’un train en gare de la La Ciotat” izan zen, Lumiere anaiena. Pentsatzen da 1896ko abenduaren 28an eman zela lehenengoz Lyonen eta, legendak dioenez, estreinakoz irudi bat mugimenduan ikusi zuten herritarrek ihes egin zuten aretotik, izuaren izuaz, geltokira iristen ari zen trenak harrapatuko zituela sinistuta. Lumiere anaien 50 segundoko filma estreinatu eta 127 urtera, orduan zinematografo batek izan zuen engainatzeko gaitasunak ez du indarrik gaur, ikus-entzunezkoen kulturan hezi eta hazitako gizartean; gaitasun hori Adimen artifizialak (AA) bereganatu du. Gaur, edozein da gai jakiteko Lumiere anaien trena, behin, La Ciotat hiriko geltokira iristen grabatu zutela zinematografo batekin, eta edonork daki Spielberg-en dinosauroak ez direla errealak, errealistak diren arren. Baina AAk sortutako irudiak engainatzeko gaitasuna daukate, eta gehiago izango dute teknologia garatu ahala; tren honek bai, edonor eraman dezake aurretik. Eta abiadura handian doa. Hau hasi besterik ez da egin eta hazi besterik ez da egingo. AArekin funtzionatzen duten teknologien erabilgarritasuna mugagabea da. Hizkuntza desberdinetara itzulpenak egin ditzakete aplikazio batzuek, jatorrizko ahotsa errespetatuz; aurpegi bat zahartu edo gaztetu dezake 2019an sare sozialetan bogan jarri zen Fake App-ek; Thispersondoesnotexist.com orriak existitzen ez den pertsona baten irudia sortzen du orrian sartu aldiro; testuak sortu, laburtu, galderak erantzun... ditzake ChatGPT ezagunak. Getty MILIOIKA IKUSTALDI IZANGO ZITUEN 2018KO APIRILEAN BUZZFEED KOMUNIKABIDEAK ZABALDUTAKO BIDEO BATEK Itxuraz, Barack Obama Estatu Batuetako presidente ohia azaltzen da hizketan, besteak beste, Donald Trump «guztiz ergela» dela esanez, baina irudikoa ez da egiazko Obama, Jordan Peele aktore bentrilokuoa baizik, AArekin Obamaren gorputzarekin eta ahotsarekin jantzita. Teknologia berriek pertsona baten nortasuna ordezteko duten erraztasunak dakarren arriskuaz ohartarazten du bideoak, eta, grabazioaren hasieran, hala dio Obama faltsuak: «Edozein pertsona edozer esaten ari dela dirudien garai batean sartzen ari gara». «Deepfake» deritze Obamarena bezalako sorkuntzei; izen hori hartzen dute AArekin faltsututako bideo, audio edo irudiek; funtsean, sakonki (ingelesezko ‘deep’) faltsuak (‘fake’) direlako, ultrafaltsuak. Eta aukera mugagabeak eskaintzen ditu teknologia honek ere. Adibidez, Airbus hegazkin-ekoizleak egitura aerodinamiko berriak diseinatzeko erabiltzen ditu “deepfake”-ak, ez dira errealak, baina aireontzien funtzionamendua hobeto ulertzen laguntzen dute. Gaur egun, “deepfake”-ak hainbeste garatu dira, ezen gai baitira iraganeko pertsonak egungo testuingurura egokituta bizitza digitalera berreskuratzeko. Kasurako, “Unifinished Votes” (“Amaitu gabeko botoak”) kanpainaren baitan, Joaquin Oliver 17 urteko gaztea “berpiztu” zuten 2020an bideo faltsu baten bitartez, mezu argi bat zabaltzeko: eman botoa suzko armak mugatu nahi dituzten politikariei. Oliver 2018ko otsailaren 14an hil zen, Parkland-eko (Florida, AEB) Marjory Stoneman Douglas eskolan izandako tiroketa batean. Antzeko zerbait egin zuen Cruzcampo garagardo etxeak “Con mucho acento” kanpainarekin: Lola Flores abeslari espainiarra “berpiztu” zuen iragarkiko bideoan. Kontua da “deepfake”-en teknologiak zabaltzen dituen aukera mugagabeen artean badela gailentzen den erabilera bat: Deeptrace Labs enpresaren arabera, 2019an, Interneteko “deepfake”-en %96 pornografikoak ziren, ziur aski gehiengoa inongo baimenik gabe sortua. Obamaren bideo faltsua lortzeko, besteak beste, AArekin funtzionatzen duen FakeApp aplikazioa erabili zuten ekoizleek, zeina ezaguna den pertsona -emakume- famatuen bideo sexual faltsuak egiteko erabili izan delako. Hala, gaur egun, badira “deepfake” pornoan espezializatuta dauden webguneak. 2019an, Sensity etxearen arabera, eduki pornografikoa eskaintzen duten lau atari nagusietan AArekin ekoiztutako 134,4 milioi bideo zeuden. Eta haien irudia pornografiara bideratzeko baimenik eman ez zuten biktimen %100 emakumeak ziren. Hori gertatu zaie, beste askoren artean, Scarlett Johansson aktoreari, Greta Thunberg aktibistari, Rosalia musikariari eta QTCinderella ‘streamer’-ari. «Bortxatu banindute bezala sentitzen naiz», esan zuen azken honek. Eta hori gertatu zaie Almendralejo (Badajoz, Espainia) herriko 11 eta 17 urte arteko 20tik gora neskatori: hainbat neskak beren irudiekin topo egin zuten WhatsApp edo Telegram taldeetan, AArekin “biluztuta”. 12-14 urte arteko hamaika mutiko ikerketapean daude irudi faltsuen egileak izan daitezkeelakoan. Eta honek, gutxienez, bi gauza frogatzen ditu: tresna hauek edozeinek erabil ditzakeela eta, beraz, edonor izan daitekeela biktima. Getty BAINA NOLA FUNTZIONATZEN DU «DEEPFAKE» BATEK? ‘Deep learning’ izeneko teknologia ulertzeko, neurona biologiko baten irudia gogoan hartzeko eskatu du Asier Urio Larrea Nafarroako Unibertsitate Publikoko doktoregai eta Adimen Artifizialean masterdunak. «Neurona biologiko batek informazioa jasotzen du bere dendritetatik eta, informazio horren arabera, bere axoiak seinale bat bidal dezake. Neurona baten axoia, aldi berean, beste neurona batzuen dendritekin konektatuta dago. Neurona artifizialek antzera funtzionatzen dute», azaldu du. Gakoa hau da: neurona artifizial hori gai izan behar da ematen zaion sarrerako informazioa garrantzitsua den edo ez bereizteko, eta kale egiten duen bakoitzean -ez badu bilatzen zen emaitza ematen irteeran- zuzendu egiten da. Horrela, datuak jaso eta portaerak zuzendu ahala, ikasi egingo du sarrerako informazioaren garrantzia bereizten. Hau neurona artifizial bakarra duten sistemen kasuan gertatzen da, «baina gaur egun erabiltzen diren sistemek neurona artifizial asko dituzte, geruzetan antolatuta -zehaztu du Uriok-: sare konplexuek informazio gehiago behar dute entrenatzeko eta emaitza hobeak lor ditzakete». Hala, bitxikeria gisa esan duenez, idatzizko deskribapenetatik irudi errealistak sortzen dituen Dall-E2 sistemak «12.000 miloi parametro erabiltzen ditu». «‘Deepfake’-en kasuan, sare hauek sarrerako irudi bat eraldatzen ikasten dute eta emaitza izan daiteke, adibidez, pertsona baten gorputzean berea ez den aurpegi bat jartzea edo, Almendralejoko kasuan bezala, gorputz bat biluztea», esan du adimen artifizialean adituak. Eta irudi ultrafaltsuak ultrarrealistak izan daitezen lortzen du. Oraindik «ez dira perfektuak», esan du Uriok, baina denbora gutxian izan daitezkeela uste du. «Zoritxarrez edo zorionez, ez dakit, baina ohitu beharko dugu honekin bizitzen», agertu du. Inork, honaino iritsita, pentsatuko zuen AA gurean agertu aurretik ere posible zela argazki eta bideoak editatzeko programen bitartez irudi faltsuak sortzea, baita eduki sexualekoak ere. Eta hala da. Kontua da inoiz ez dela gaur bezain erraza izan. «Lehen, horrelako zerbait egin ahal izateko, argazki laborategi bat behar zenuen. Gero, agian, Photoshop erabiltzen jakitea. Orain, ez da ezagutzarik behar», esan du NUPeko doktoregaiak. Getty BESTE NORBAITI AGIAN IRUDITUKO ZAIO «DÉJÀ-VU» BAT BIZITZEN ARI DELA «Gogoan dut sare sozialak erabiltzen hasi ginenean antzeko komentarioak egiten genituela. Sare sozialak onak ala txarrak dira? Eta beti planteatzen genuen erantzun bat: segun eta nola erabiltzen ditugun. AArekin hori bera gertatzen ari zaigu. Tresna berri baten aurrean gaude, baina tresna horren atzean, beti bezala, pertsona bat dago», ihardetsi du Estibaliz Linares Deustuko Unibertsitateko irakasle eta ikerlariak. Emakumeen kontrako indarkerian aditua da Linares, eta lupaz begiratzen die sareetan jazotzen diren indarkeriei; batez ere, haur eta gazteen erabileran jartzen du arreta, mundu digitala jaiotzatik bizi baitute belaunaldi berriek. «Eta orain AArekin heziko dira», ohartarazi du. Horregatik, hausnartzeko garaia dela uste du. Irudi edo bideo sexual bat, erreala edo faltsua izan, baimenik eman gabe sarean zabaltzeak biktimarengan sor dezakeen orbaina handia da, irakasle eta ikerlariak ohartarazi duenez, areago haurra bada, ez baitu izango behar adina adimen emozional horrelako egoera bati aurre egiteko edo gertatutakoa interpretatzeko. Eta handiak izan ohi dira irudi sexualen zabalpena eta iraupena ere. «Almendralejokoa, adibidez, izugarri azkar zabaldu da eta orain denok ari gara horretaz hitz egiten. Bestalde, horrelako kasuetan, ez dugu ahazten. Kasu asko ikusi ditut; adibidez, herri batean norbaiten argazkia zabaltzen bada, herritar guztiek dakite zein den neska hori eta, agian, gerora berriz agertu da irudia. Memoria kolektiboa dago kasu hauetan, eta indarkeria behin baino gehiagotan bizitzeko arriskua handiagoa da», ohartarazi du Linaresek. Biktimen «erreparazioa», beraz, funtsezkoa dela azpimarratu du. Baina berak nahiago du arreta prebentzioan jarri. Erabilera desegokien prebentzioan, zeren, Interneten mundu zabalean, momentuz, arraroa da zenbait webgune edo aplikazioetarako sarbiderako mugak topatzea, adibidez, adinaren arabera. Almendralejoko neskatoak “biluzteko” erabili zuten programak -«Erantzi neskak dohainik!» leloarekin aurkezten da aplikazioa- ez du erregistratzea besterik eskatzen. Web orrialdean erabiltzaileari ohartarazten zaio gutxienez 18 urte izan behar dituela eta ezin duela webgune hau erabili «legez kanpoko edo baimendu gabeko helburuetarako», baina ez da egiaztatzen erabiltzailearen adina eta argi esaten da erabiltzailea izango dela sortzen den edukiaren erantzule bakarra. «Ez dugu erantzukizunik hartzen webgunea erabilita sortutako irudiengatik», dio, zehazki. Horrela, sexu erasoak edo bestelako erabilera desegokiak prebenitu nahi badira, errora jo behar dela baieztatu du Deustuko Unibertsitateko irakasle eta ikertzaileak, eta, bere iritziz, prebentziorako tresna boteretsuena hezkuntza da. «Garrantzitsua da horren inguruan ez soilik hezkuntza teknikoa izatea, baita hezkuntza pedagogiko eta emozionala ere. Zer emozio izango ditugu? Nola zaindu dezakegu gure burua? Zer da zaintza digitala? Honen inguruan asko hitz egin behar dugu», esan du. Eta hezkuntzara jo behar da, gaineratu duenez, ez haurrengandik hasita, guraso eta gainontzeko helduengandik baizik. «Egun osoa ematen badugu mugikorrarekin, sare sozialetara haurren argazkiak igotzen, nola esango diogu umeari ‘ez egin hau, kontuz argazki hau igotzearekin’?», hausnartu du. Errora, hezkuntzara, murgiltzeko deia egin du Estibaliz Linaresek, batez ere legeak ez dituelako oraindik AA erabilita egin daitezkeen sexu-delitu guztiak aterpetzen. «Gauzak oso azkar doaz eta legezko esparrua, aldiz, motel», agertu du. Getty LEGEAK BADIRA ETA EZ DIRA «Zaila da, horrelako kasuetan, egin ahal izan diren delituak zedarritzea», adierazi du Jorge Campanillas abokatu eta zuzenbide digitalean adituak. Almendralejoko kasuari begira jarri da: 20 neska adin txikikoren irudi faltsuak, haien aurpegiak errealak ez diren gorputz biluziei lotuta. Irudiak faltsuak diren arren, delitua izan daiteke hauek sortu eta zabaltzea, haur pornografia, zehazki. Eta badago hori berresten duen lege heldulekurik. «Espainiako Kode Penalean jasota dago marrazki errealistak haur-pornografia izan daitezkeela», zehaztu du Campanillasek. Japonian sortutako manga estiloko ‘lolicon’ marrazkiak, kasurako, delitu dira, fikzioa izan arren. Material pornografiko modura erabiltzen diren adin txikiko nesken marrazkiak dira horiek. «AAk gero eta errealismo handiagoa dakar, ‘lolicon’ eta antzeko marrazkiek baino askoz gehiago; beraz, bat etor daiteke haur pornografiaren delituarekin. Teknologia berriak agertzen diren aldiro iruditzen zaigu arautu egin behar ditugula, baina askotan erantzuna Kode Penalean daukagu. Egia da Kode Penalarekin kontu handia izan behar dela, zeren bertan tipifikatuta ez dagoena ez da delitutzat hartzen, baina kasu batzuetan, delituari ematen zaion interpretazioaren arabera jokatzen da», adierazi du Iurismatica enpresako abokatuak. Campanillasen ustez, denborak esango du AA erabilita egin daitezkeen sexu delituek araudi espezifiko bat behar ote duten. «Teknologia honen hastapenetan gaude, ikusi beharko dugu zer kasu agertzen diren honi lotuta, ikusteko ea gure kodeak prestatuta dauden horretarako. Almendralejoko kasuan irudi dezake baietz, gure Kode Penala prestatuta dagoela, baina ez dakigu zein beste erabilera eman dakiokeen AAri», agertu du. Getty «OROKORREAN, INDARKERIA DIGITALEN LEGE-ESPARRUA KONPLEXUA DA» , abisatu du Laia Serra abokatu penalistak. Eta azalpenari ekin dio: «Indarkeria digitala jurisdikzio bakoitzean partzialki araututa dagoen fenomeno bat da» eta, beraz, indarkeria hau pairatu duen pertsona batek arau-sorta desberdinetara jo dezake. Lege eta arau horietako batzuk zerrendatu ditu Serrak: «Har dezakegu datuen babeserako araudia, zeren indarkeria digitalak forma asko ditu, horien artean identifikagarriak diren pertsonen irudiak zabaltzea. Eta jo dezakegu Kode Penalera. Bertan, badira delitu desberdinak, indarkeria digitalaren forma gehienak, ez guztiak, barne hartzen dituztenak. Kodean jasotzen dira haurren kontra egiten diren delituak, haurren pornografia adibidez, irainak eta kalumniak aterpetzen dituzten delituak, edo sekretuak ezagutaraztea debekatzen duen delitu espezifikoa. Azken honek modalitate desberdinak ditu, eta horietako bat da baimenik gabe irudi sexualak zabaltzea. Badira jazarpena arautzen duten beste delitu batzuk, zeintzuek barne har dezaketen ziberjazarpena eta bada delitu orokorrago bat, tratu txarrak edo laidoak arautzen dituena eta delitu espezifikorik ez duten emakumeen kontrako indarkeria kasuak barne hartzen dituena». “Soilik baietz da baietz” legearekin, gainera, zenbait berrikuntza egin dira indarkeria digitalei eragiten dieten araudietan: batetik, eduki sexuala duen irudi bat lehen aldiz zabaldu duenaz gain, ondorengo zabaltzaileak ere zigortzen ditu; bestetik, debekatzen du sare sozialetan profilak sortzea hartzaileak nahi ez dituen proposamen edo eskaintza sexualak egiteko. «Laidoen delitu arina ere gaurkotu du, nahiko ohikoak diren jarrerak arautzeko; adibidez, hartzaileak nahi gabe, zakilen argazkiak bidaltzea», azaldu du Serrak. Bestelako oinarri berritzaile bat ere ezarri du “Soilik baietz da baietz” legeak: delitu sexualak epaitzerakoan, biktimaren baimena ekarri du erdigunera. Hala beharko luke “deepfake”-en kasuan ere, abokatuaren iritziz: «Garrantzi handia ematen ari zaio zehazteari irudiak errealak edo faltsuak diren, baina nik uste dut garrantzia delituaren ondorioetan kokatu behar dela. Zeren, irudi biluzi batek eragin ditzakeen ondorio sozialak, irudia erreala edo faltsua izan, antzekoak izango dira: epai soziala egongo da, lan aukerak gal daitezke, komunitatearen arbuioa egon daiteke...» Alta, Espainiako Berdintasun Ministeriotik bultzatutako lege honek pertsona baten ohoreari edo intimitateari kalte egiten dieten “deepfake”-ak arautzeko aukera galdu zuen. Junts talde parlamentarioak egin zuen proposamena, baina ganberak ez zuen onartu. Tren hau galduta, Europatik iritsiko denaren zain dira, espainiarra bezala, Europar Batasuneko gainontzeko estatuak. Getty ADIMEN ARTIFIZIALAREN MARKO ARAUTZAILEA ONTZEN ARI BAITA EUROPAKO BATZORDEA AI Act izenarekin ezagutzen den Adimen Artifizialaren Legea AA modu integralean arautuko duen munduko lehen legea izango da eta hiru arrisku mailatan egituratzen da. «Praktika batzuk zuzenean debekatzen dira; beste batzuk arrisku altukoak bezala definitzen dira eta badira arrisku arin modura definitutako praktikak. ‘Deepfake’-ak garatzeko gai den AA, bideoak, irudiak edo audioak izan, maila baxuko arriskutzat hartzen da», esplikatu du abokatuak. Hala, arrisku maila desberdinek erregulazio handiagoa edo txikiagoa ekarriko dute. Bideo, irudi edo audio ultrafaltsuen kasuan, soilik gardentasuna bermatzeko neurriak hartzera behartuko ditu lege berriak ‘deepfake’-ak sortu eta zabaltzen dituzten enpresak eta ez da neurri zigortzailerik aurreikusten. «AI Act onartzen denean, erabiltzen dugun software-aren aplikazioak AA baldin badu, jakinarazi beharko du AA duela; enpresak horretara behartuta egongo dira. Adibidez, Youtube-k edukiak gomendatzen dizkizu aurretik egin dituzun bilaketetan oinarrituta. Bada, legea onartzen denean, Youtube-k jakinarazi beharko du AA erabiltzen duela. Herritarrek aplikazio hauen bitartez sortzen dituzten edukiek ere ohartarazpen hau izango dute, ur-marka baten bidez-edo, edozeinek jakin dezan ikusten ari dena guztiz edo partzialki fikziozkoa dela», agertu du abokatu eta ekintzaile feminista kataluniarrak. Bestalde, Europako Zerbitzu Digitalen Legea (DSA Act) onartuta dago jada; aplikazio fasean dago. Eremu digital seguruagoa sortzea, erabiltzaileen oinarrizko eskubideak babestea eta enpresentzako lehia-baldintza zuzenak ezartzea du helburu eta, horretarako, enpresa teknologikoei lotutako ardura- sistema bat aurreikusten du. Enpresaren tamainaren araberako ardurak zehazten ditu: zenbat eta txikiagoa, orduan eta betebehar gutxiago izango ditu. Hala ere, Serrak agertu duenez, «oraindik ikusteko dago nola ezarriko diren DSA Act-en zehazten diren betebeharrak». Ardurak bilatzeko orduan, garrantzitsua da Laia Serrarentzat begirada enpresengana destatzea. «Zer gertatzen ari da orain? -galdetu du-. Almendralejon eta antzeko kasuetan mundu guztia ari zaie begira adin txikiko ustezko arau-hausleei, harago begiratu eta ikusi beharrean enpresek hau guztia gertatzen laguntzen dutela milioiak irabazten ari diren bitartean. Enpresa farmazeutikoek, edo enpresa armamentistikoek, adibidez, araudi zorrotzak bete behar dituzte. Enpresa teknologikoen kasuan, oraindik ez gara iritsi ulertzera dirutza irabazten dutela eta, beraz, herritarrek zilegi dutela exijitzea beraien eskubideak errespeta ditzatela». BAINA ZER EGIN DEZAKE «DEEPFAKE» BATEN BIKTIMA IZAN DEN PERTSONA BATEK? Lehenengo egin behar dena da, eta garrantzitsuena, froga gordetzea, nabarmendu du Laia Serrak. Izan ere, irudia sarean duen plataformari eskatzen bazaio eduki hori ezabatzea, froga hori galdutzat ematen da, pantaila-argazkiek ez baitute froga gisa balio. Eta, froga gordeta, Datuen Babeserako Estatuko Agentzian salaketa aurkeztea gomendatu du abokatuak, edo, nahi bada, salaketa epaitegiaren edo indar polizial baten aurrean ere aurkez daiteke. Lumiere anaien pelikulan La Ciotat geltokira iristen ari zen trena ez zen hirugarren dimentsiora mudatu aurrean zituen ikusle izutuak harrapatzeko, ezta beharrik ere: horrek ez baitu esan nahi pantailetan gertatzen denak ez duenik ondorio errealik, jendeak ihes egiteko adina efekturik. «Mundu birtual bat daukagu eta bertan pasatzen dena erreala da, pantailetatik harago ondorioak eragiten ditu. Mezu bonbardaketa etengabea bizi dugu momentu sozial honetan: Eliza, eskuin muturreko alderdiak, antolatutako matxismoa... gazteria bonbardatzen ari dira, esanez, adibidez, feminismoa eskubideak kentzen ari zaizkiela eta gizonari eraso egiten ari gatzaizkiola. Orduan, erreakzio defentsibo bat dago, eta gazteriaren parte batek, erasota edo nahastuta sentitzen denak, batzuetan, indarkeria sexualean oinarritutako portaerak ditu. Liturgia bat da: ekintza kolektibo identitarioa da», eman du aditzera Laia Serrak. Fikzioa eta errealitatea nahasten dituen film honen bukaeran, indarkeria sexualen legitimazioa gertatzen da. Eta ‘spoiler’-ik egitea ezin zaio egotzi inori, abokatuak zehaztu duenez: «Ezin gara harritu gehiengoak abala ematen dion sistema baten sintoma bat agertzen denean». Hain da erraza AArekin eduki faltsuak sortzea, ezen erreportaje honetako argazki gehienak teknologia horrek sortutakoak baitira. Inor «deepfake» sexual edo mingarri baten biktima izan bada, lehenik eta behin froga gorde behar du, Laia Serra abokatuak gomendatu duenez. Gero, salaketa aurkez dezake.