Iratxe ESNAOLA
Hezkuntzan doktorea
GAURKOA

Algoritmoak ez dira neutralak

Matematika objektiboa da, ustez. Baina kalkulu matematikoak ez beti. Algoritmo bat instrukzio bat edo instrukzio multzo bat da, arazo baten ebazpena ahalbidetzen duena. Hortaz, hizkuntza matematikoan adierazten den erabakiak hartzeko prozesu bat da. Eta atzean matematika dagoenez, algoritmoak objektiboak eta neutralak diren sinismena oso zabaldua dago. Are, teknologiak dena konpon dezakeen esperantza edo ilusio faltsutik, algoritmoek sesgo edo alborapenik gabeko erabakiak hartzen dituztela ere sinisten dugu. Baina errealitatea beste bat da: algoritmoak, ustezko neutraltasunean, gizartea polarizatzen eta jada existitzen diren ezberdintasunetan sakontzen ari dira.

Herritar askok albisteak Facebooken bitartez jasotzen dituzte, hedabidearen webgunetik zuzenean jaso ordez. Eta albisteez harago, Facebookek erakusten digun informazioak inongo filtrorik ez duela pasatu barneratua dugu gure iruditerian. Berdin Google bilatzailearekin: iduri du bilatzen duguna erakusten digula, filtrorik gabe, lehentasunezko edukirik gabe. Iduri du plataforma hauetan zein eduki ikusiko dugun eta noiz, ez dela erabakitzen. Denok ikusten dugula berdina. Neutralak direla. Gardenak. Sarearen dagoenaren isla zuzena. Helbururik gabe. Ideologia guztietatik urrun. Sakon azaltzen da gaia “Rage Against the Machine Learning: a critical approach to the algorithmic mediation of information” artikuluan. Bertan, informazioak jasaten duen filtroak plataforma multinazionalen interes ekonomiko jakinei erantzuten diela baieztatzen da. Eta hori oztopo handi bat dela gizarte demokratikoetan oinarrizkoa den informazioaren aniztasun eta eta herritarren informazio autonomiarako. Informazioaren filtro sesgatu honi fake news-ak batuta, herritar digital gisa pentsamendu kritikoa eta informazioaren eta datuen kudeaketari lotutako konpetentziak garatzea aurrez inoiz baino esentzialagoa bilakatu da.

Ildo horretan, Cathy O’neil matematikari estatubatuarrak “Weapons of math destruction” (Suntsipen matematikoko armak) liburua argitaratu zuen 2016an. Zenbait erabaki garrantzitsu hartzeko erabiltzen diren algoritmoak sekretuak eta baztertzaileak direla dio, eta pertsona eta gizarte gisa gure etorkizunari forma ematen diotela. Algoritmoek eta matematikak gizartean desberdintasunak areagotu eta demokrazia jokoan jartzen dutela. Adibide andana eskaintzen ditu, errealitate estatubatuarretik abiatuta: algoritmoek eta machine learning-ak irakasleak eta ikasleak ebaluatu, finantza prestazioak onartu edo ukatu, lanpostu baterako hautagaiak ordenatu edota baztertu, hauteskundeetan botoa bideratu, eskariaren arabera denden eta bertako langileen ordutegiak ezarri edota sententzia judizialetako erabakiak hartzeko erabiltzen direla baieztatzen du. Dio, Facebook eta Google gisako plataformek gure nabigazio patroiak gordetzen dituztela eta gure emozioak ukitzen dituzten edukiak erakusten dizkigutela (publizitatea barne). Gustatuko zaigun informazioa erakusten digutela. Klik egingo duguna. «Oihartzun ganbera» deitzen zaio horri (echo chamber): gure sinismenak indartzen dituen edukia erakusten digutela, alegia. Eta neutraltasunaren izenean, egungo demokrazietan eragin handia dute (Trump eta Brexit-aren kasuak argiak dira). Horrek gizartea polarizatzen du, poliki-poliki. Hori guztia gogor salatzen du O’neilek: plataforma hauek botere asko baina erantzukizunik ez izatea.

O’neilek, batez ere, algoritmoek sortzen duten bazterketa eta kaltea salatzen ditu. Gutxiengoak ez dituztela laguntzen. Iraganeko patroiak aplikatu eta horietan sakontzen dutela. Algoritmoak eta bakarrik ikasten duten makinak iraganeko datuetan oinarritzen baitira: datuak historiaren isla dira. Eta iraganeko datuekin entrenatzen diren makinak, iraganeko gizarteak proiektatzen dituzte. Eta betikotu. Horixe gertatzen da itzulpen automatikoak duen genero alborapenarekin ere: entrenatzeko erabiltzen diren datuak genero desberdintasunean oinarritzen badira, eta hori konpontzeko neurrik hartzen ez bada, kalkuluaren emaitzak ez du berdintasuna sustatuko. Alderantziz: desberdintasunean sakonduko du.

Ideia berbera lantzen du Netflix-en “Coded Bias” dokumentalak. Joy Buolamwini ingeniaria da protagonista, emakumea eta beltza. Doktorego tesia egitera zihoan eta aurpegia ezagutzeko sistema batekin lanean hasi zen. Hara non konturatu zen sistemak ez zuela bere aurpegia ezagutzen, maskara zuri bat aurpegian jarri arte. Metafora bisual horrekin hasten da dokumentala. Algoritmoek diseinatu dituztenen sesgo edo alborapenak islatzen dituztela erakusten du. Eta atzoko pentsalarietatik (gehienak zuriak eta gizonezkoak) egungo aberats teknologikoetara (gehienak zuriak eta gizonezkoak) jarraikortasun argi bat dagoela: zein ziren boteretsuak orduan, eta zein diren boteretsuak egun. “Coded Bias” dokumentalak ere adibide andana eskaintzen ditu, osasun, etxebizitza, hezkuntza, lana eta gisako arloetan ematen diren injustizia matematikoak erakutsiz.

Teknologia neutrala den ideia oso erakargarria da. Zailagoa da askoz algoritmoen atzean helburuak eta ideologiak daudela sinetsi eta teknologiarekin dugun harremana horren arabera eraikitzea. Shoshanna Zuboffek «bigilantzia kapitalismoa» deitzen duen hori dago honen guztiaren atzean, non algoritmoak ez diren sistema justuago, parekideago, inklusiboago eta anitzago izateko diseinatu. O’neil matematikariari etorkizuna nola irudikatzen duen galdetzean, honakoa erantzuten du: «Txinara begiratu dezakegu zer datorren ikusteko. Txinak algoritmoak erabiltzen ditu finantza prestazioak onartu edo ukatzeko, eta baita pertsonak euren ideologiaren arabera puntuatzeko ere. Kontrol eta bigilantzia sistema konplexu bat sortzen ari da, nazioartean esporta daitekeena». Txina eta AEBen errealitateak ikusita, Europak kultura algoritmiko honen oraina eta etorkizuna marrazteko ardurari lehenbailehen erantzun behar lioke.