Oier IMAZ ALIAS
{ DATORRENA }

The moral (war) machine

«Teknikaren arazoa, Santamariarentzat, pertsonaren arazoa izango da beti.» (Azurmendi, 1997)

Berriki ikusi dugu Israelgo gobernua Nazioarteko Justizia Auzitegian. Tembeka Ngcukaitobi abokatuak defendatu du kasua, Hego Afrikaren izenean. Bere hitz-hartzean, Israelgo estatuaren ordezkari politiko eta militarren hitzak hartu ditu ardatz. Bestela esanda, Israelgo estatuaren narrazioa berreraiki du abokatuak bere akusazioa eraikitzeko. Jakina da Gazan gertatzen ari dena, eta jakin nahi ez duenari debalde da erakustea. Horiek horrela, abokatuaren erronka da Israelgo estatuak genozidioa egiteko asmoa duela argudiatzea. Finean, hori baita definizioz genozidioa. Nazio Batuen Konbentzioan (1948) adostutako ebazpenaren bigarren artikuluak honela dio: «Genocide means any of the following acts committed with intent to destroy, in whole or in part, a national, ethnical, racial or religious group».

Salaketari erantzunez, Benjamin Netanyahuk ukatu du halakorik. Argudiatu du «ahal bezainbesteko moralitatearekin» ari dela Israelgo armada. Hortxe geratu naiz kateatuta. Ahal bezainbeste? Zer esan nahi du ahal bezainbesteko moralitatearekin aritzeak? Eta berriki irakurritako beste berri bat etorri zait gogora.

Habsora (Gospel ingelesez) izena jarri omen dio Israelek armadak baliatzen duen adimen artifizialari. Harry Davies, Bethan McKernan eta Dan Sabbagh kazetariek aztertu zuten kasua, “The Guardian” aldizkarian (2023/12/01). Habsora helburu militarrak zehazteko plataforma da. Plataformak bi funtzio omen ditu. Batetik, helburu militarren identifikazioa erraztu eta azkartzen du. 2021ean, egunean 50 helburu militar zehazteko gai zen Israelgo armada. Egun, 100 helburu zehazteko gai da. Bestetik, eraso bakoitzaren albo kalteak aurreikusi eta erasoak sailkatzen ditu kolore bat esleituz; gorria, horia edo berdea. Semaforoa bezala. Teorian, erasoa burutzeko erabakia hartzen duena beti da pertsona bat. Aldiz, automatizaziorako joera aipatzen dute; erabakiak adimen artifizialaren ebazpenean “automatikoki” oinarritzeko joera.

Horrenbestez, «ahal bezainbesteko moralitatearekin» aritzeak esan nahi du semaforoa errespetatzea. Gorria denean gelditu, horia denean tentuz aurreratu eta berdea denean erasoa burutu. Beraz, adimen artifiziala gai da «ahal bezainbesteko moralitatearekin» norbait hiltzea erabakitzeko. Eta zergatik ez. Edo hori pentsatu omen dute The Massachusetts Institute of Technology-ko (MIT) ikertzaileek. Aurrekoan ikasle batek aipatu zidan “The Moral Machine” esperimentua. Adimen artifizialak dilema moralak ebatz ditzan entrenatzen ari dira. Hautatu duten testuingurua kotxe automatikoena da. Dilemak klasikoak dira. Kotxean zoaz eta bi moto dituzu parean. Maniobra arraroa egin eta baten edo bestearen kontra joan behar duzu. Gidarietako batek kaskoa jantzia du. Besteak ez. Helburua da ahalik eta min gutxiena egitea. Zer egin behar dugu, kaskoa duenaren kontra jo? Bizirauteko aukera gehiago du. Baina ez litzateke hori, hain zuzen, arduraz jokatu duena zigortzea?

Posible da adimen artifizialak dilema moralak ebazten ikastea. Agian guk baino hobeto. Adimen artifizialak guk egiten dugun ariketa bera egin dezake. Dilemak “pentsatu”, baina aldagai gehiago kontuan hartuz eta azkarrago. Horiek horrela, Israelgo estatuak argudia lezake erasoak «ahal bezainbesteko moralitatearekin» ebazten saiatu dela, adimen artifiziala baliatuz. Ez zuen genozidioa egiteko asmorik. Ondorioz, ez dauka ardurarik. Baina, zientziak ez dakien bezala ongiaz eta gaizkiaz, moralak ez daki egiaz. Nire ustez arazoa da dilema moralek ez dutela erantzun zuzenik. Arazoa ez da erantzun zuzena kontatzea, hartutako erabakien ardura hartzea baizik. Eta hori ezin du makina batek egin. Joxe Azurmendik ondo laburtu zuen, Carlos Santamariaren hitzetan, “Tenikaren Meditazioa” (1997) lanean. Teknikaren arazoa, finean, pertsonaren arazoa da eta erantzukizunaren amaiera humanitatearen azkena. Honen aurrean zer? «Labur esanda: humanismo berri bat behar da aro teknologiko berrirako». •