Maitane MARTINEZ EGUILUZ
Donostiako Informatika Fakultateko irakasle eta ikerlaria, UPV/EHU

Adimen Artifizialaren alborapena jorratzen: sistema zuzen eta etikoetarantz

Stable Diffusionek sortutako bi irudiak.
Stable Diffusionek sortutako bi irudiak. (GAUR8)

Adimen Artifizialak (AA) gero eta eragin handiagoa du gure bizitzetan. Klima iragartzeko edo nahi ez diren mezuak (spam mezuak) iragazteko ez ezik, pertsonen berrerortze kriminalaren arriskua ebaluatzeko edo norbait kreditu bat jasotzeko egokia den zehazteko ere erabiltzen da. Hala ere, sistema horiek alborapena izan dezakete eta estereotipoak areagotu, behar bezala zuzentzen ez badira.

Demagun AA sistema bat erabiltzen dela pertsona bati banku-kreditua eman ala ez erabakitzeko. Sistema horrek datu historikoetatik ikasiko du, eta datu horietan oinarrituta bereiziko ditu kreditua itzuliko duten pertsonak eta itzuliko ez dutenak. Datu historiko horietan alborapenak badaude -hau da, kredituak emateko probabilitatea pertsona talde jakin bati lotuta badago- algoritmoak erabaki bidegabeak har ditzake. Adibidez, software garatzaile ezagun bat Twitterren kexatu zen Apple Pay aplikazioa "sexista" zela esanez, bere kreditu-lerroa emaztearena baino 20 aldiz handiagoa baitzen, errenta-aitorpena elkarrekin aurkeztu eta denbora luzez ezkonduta egon arren.

Beste esparru batzuetako sistemek ere joera nabarmenak dituzte. Esate baterako, Stable Diffusion irudiak sortzeko AAeko sistemak “Doctor” (”medikua” ingelesez) hitza erabiliz gero, gizonen irudiak sortzen ditu; baina, “Compassionate” (”errukiorra” ingelesez) adjektiboa gehituta, berriz, itzultzen dituen irudiak emakumeenak dira, batez ere. Itzultzaile automatikoetan ere topatzen ditugu adibideak: “él es enfermero, ella es presidente” esaldia gaztelaniatik euskarara itzultzean, “bera erizaina da, bera presidentea” emaitza ematen digu. Baina, esaldi hori euskaratik gaztelaniara berriro itzulita, aldiz, “ella es enfermera, él es el presidente” esaldia itzultzen digu. Probatu Googleko itzultzailean.

Baina, zergatik gertatzen da hori? AA sistemak gizakiek sortzen dituztelako. Pertsonak inplikatuta daude prozesu osoan: datuak biltzetik algoritmoa diseinatzeraino. Beraz, hainbat puntu ditugu non alborapenaren arazoa gerta daitekeen:

- Datuak etiketatzea, giza akatsagatik edo irizpide subjektiboengatik. Aurreko adibidera itzuliz, demagun, datu-multzo bat banku bateko kredituen hautagarritasuna zehazteko etiketatzen dela. Etiketaz (kreditua eman ala ez) arduratzen diren gizakiek aurreiritziak edo estereotipoak errotuta badituzte, errazago eman diezazkiekete kredituak talde batzuei edo beste batzuk diskriminatu ditzakete. Adibidez, emakumeei kredituak uka diezazkiekete ordaintzeko gaitasunari buruzko pertzepzio okerrak dituztelako.

- Datuen desoreka, erabiltzen diren datuak errealitatearen azpimultzo bat direlako eta maiz gertatzen delako horietako azpimultzo bat diskriminatzea. Adibidez, testuinguruaren arabera, gerta daiteke emakumezkoak edo afro-amerikarrak gutxiagotan agertzea laginean.

Arazo horiek desagerrarazteko, ez da nahikoa arraza, sexua edo beste aldagai sentikor batzuk sistematik ezabatzea. Izan ere, AAeko sistemak gu baino askoz hobeak dira haiekin korrelazioa duten beste aldagai batzuk bilatzen. Adibidez, hezkuntza-maila generoarekin lotuta egon daiteke, historikoki emakume gutxik egiten zituztelako goi-mailako ikasketak.

Arazo horri aurre egiteko, adituak irtenbideak proposatzen ari dira. EAEko ikertzaile batzuek itzulpen automatikoan genero-alborapena zuzentzeko teknika berritzailea sortu dute. Arazo bat ikusi zuten komunztaduran, genero gramatikalik gabeko hizkuntzatik genero gramatikala duen hizkuntzara itzultzean. Esaterako, euskaratik gaztelaniara:

Bera medikua da - Él es médico

Hori gertatzen da ezaugarri jakin batzuk emakumeei edo gizonei lotuta daudelako, batez ere enpleguan, eta esaldiaren testuingurua anbiguoa delako. Proposatzen duten teknikaren bidez, euskaratik gaztelaniara itzultzeko orduan genero-alborapenak nabarmen murriztea lortu dute.

Finean, funtsezkoa da AA modu zuzen eta etikoan erabiltzea. AA sistemek saihestu egin behar dute gure datu eta gizarteetan dauden estereotipoak eta aurreiritziak anplifikatzea. AAeko algoritmoetan alborapena identifikatu eta murrizteko neurriak hartuta, teknologia benetan inklusiboa eta ekitatiboa izango den etorkizun baterantz egin dezakegu aurrera. •