Paula Guerra: «Adimen artifiziala ikuspuntu bat da»
Paula Guerra militante antirrazistak (Santiago, Txile, 1976) adierazi du teknologia arduraz erabili behar dela, estigmarik elikatu ez dezan. Izan ere, algoritmoak ere arrazistak izan daitezke, eta «botere harreman historikoak iraunarazi».
Europako Batasunak aurki onartuko du Adimen Artifizialaren Legea, eta aurrerapauso bat izango dela uste du, baina ez dela nahikoa.
closeLatinez, 'berez', 'norberak erabakita'.
Algoraceren azken txostenak dio adimen artifiziala ideologia bat dela, eta ez teknologia. Zergatik?
Adimen
artifiziala ikuspuntu bat da. Gizaki batek programatzen ditu hura
osatzen duten algoritmoak, eta gehienetan pertsona hori gizon
zisgeneroacloseBere ezaugarri biologikoengatik jaiotzean ezarri zaion generokoa sentitzen dena.
, zuria, heterosexuala, arrazista eta abar izaten da. Beraz,
algoritmoak egiten dituen horren ikuskeracloseZerbait ikusteko era.
islatzen dute programa horiek.
Nola izan daiteke adimen artifiziala arrazista?
Joy Buolamwini ikerlari afro-amerikarrak, esaterako, aurpegiak identifikatzeko sistemen algoritmoen alboraketa frogatu zuen. Maskara zuri bat jantzi behar izan zuen algoritmoak aurpegia irakur ziezaion.
«Joy Buolamwini ikerlari afro-amerikarrak maskara zuri bat jantzi behar izan zuen algoritmoak aurpegia irakur ziezaion».
Beste kolektibo batzuei ere kalte egiten die?
Noski.
Botere harreman historikoak iraunarazten ditu. Pribilegiodunei mesede
egiten die, eta gehien estigmatizatucloseNorbaiti marka iraingarri edo lotsagarri bat ezarri.
riko sektoreei kalte.
90eko hamarkadako urtekaria irudikatzen duen aplikazioa da adibideetako bat.
Bai,
eta gogor salatu dugu hori. Aplikazio horrek edozein pertsona gizen
argal bilakatzen du automatikoki, norberaren institutuko garaiak
irudikatu nahian, ustez. Lodifobia closePertsona lodiek pairatzen duten indarkeria.
da hori. Mezu argia helarazten du:
horrelakoa izan behar zenuen institutuan. Horrek eragin dezake
gaindituriko elikadura nahasmenduetan edo depresio batean berriz
erortzea.
Izan ere, arintasunez hartzen dira maiz gisa horretako aplikazioak.
Orokorra da hori, bai. Jendeak uste du adimen artifiziala darabilten aplikazioak guaiak direla, sinpatikoak, eta bizitza errazten dutela; hala izan daiteke, baina, eskubideez ari garenean, kontuz ibili behar da.
«Jendeak uste du adimen artifiziala darabilten aplikazioak guaiak direla (...) baina, eskubideez ari garenean, kontuz ibili behar da».
Gainera, Wikipedia izan ohi da aplikazio horien iturri nagusia.
Askorentzat,
Wikipedia da gauza askoren iturri ofiziala. Han agertzen bada, egia da;
baina ez da hala. Gainera, boterearen asimetriacloseSimetriarik eza.
betikotzen du horrek,
webgune horretako eduki gehienak Mendebaldeko hizkuntzetan idatzirik
baitaude.
Europako Batasunak aurki onartuko du Adimen Artifizialaren Legea.
Legedia eztabaidatzen ari dira oraingoz, baina espero dugu abenduan-edo martxan jartzea.
Zer arautuko du legeak?
Adimen artifizialaren garapena, erabilera eta berrikuspena.
Nahikoa izanen da?
Aurrerapauso bat da, baina mugimendu sozial batzuendako ez da aski.
Zer dela eta?
Legearen arabera, giza eskubideen aurkakoa da aurpegiak identifikatzeko sistemetan adimen artifiziala erabiltzea toki publikoetan, baina, aldi berean, modua ematen du herrialdeetako mugetan erabiltzeko, segurtasun kontuak argudiatuta. Beraz, beste behin, pertsonak mailakatu egiten ditu EBk. Izugarrizko kontraesana da hori.
LobbyclosePresio taldea.
teknologikoen rola ere salatu duzue.
Bai.
Adimen artifiziala arriskuaren arabera sailkatzeko zerrenda moduko bat
biltzen du legeak, baina produktu hori bera sortu duten enpresariek
ezarriko dute arriskua zenbatekoa den. Noski, ez dute motu propriocloseLatinez, 'berez', 'norberak erabakita'.
beren produktua arriskutsutzat joko. Hain zuzen, lobbyei esker gertatu
da hori, testu originalak ez baitzien aitortzen halako eskumenikcloseAhalmenik.
. Hori
salatzen ari gara, preseski, gizarte mugimenduok.
«Adimen artifiziala arriskuaren arabera sailkatzeko zerrenda moduko bat biltzen du legeak, baina produktu hori bera sortu duten enpresariek ezarriko dute arriskua zenbatekoa den».
Zeozer onuragarria izanen du, ez?
Bai. Legea martxan
jartzen denean, EBko enpresa eta administrazio guztiak beharturik egonen
dira beren esku dagoen adimen artifizialeko teknologia guztiaren berri
ematera, datu base komuncloseGuztiei dagokiena.
batean. Izan ere, enpresek nahi dutena egin
dezakete orain, inongo muga eta araudirik gabe.
Adibide bat?
Espainiako Gobernuaren VioGen sistema, esaterako. Genero indarkeria sufritu duten
biktimek hainbat itemcloseMultzo bateko banakoa.
neurtzen dituen galdetegi bati erantzuten diote, eta
horren arabera erabakitzen du algoritmoak zer-nolako laguntza behar
duten. Arazoa da hainbatetan algoritmoak ez duela detektatzen arriskua:
hala, emakume askok ez dute beharrezko laguntza lortzen, eta, beraz,
arriskuan egoten dira.
Nola konpondu hori?
Algoritmo
bat giza eskubideak ukitzen ari bada, publikoa izan behar du, ikuskatua
izateko, eta espero diren emaitzak eman ezean ezeztatzeko. Egun ez dago
modurik teknologia horiek kontrolatzeko. Baina errotik heldu behar zaio
arazoari: nork bere burua deseraikicloseEraiki dena desegin.
behar du, eta horretan lan egin.
«Algoritmo bat giza eskubideak ukitzen ari bada, publikoa izan behar du, ikuskatua izateko».
Jatorrizko artikuluak
- «Adimen artifiziala ikuspuntu bat da» Iñaki R.Mendoza | |