Aurten, 60 herrialdetan baino gehiagotan egingo dituzte hauteskundeak. Adimen artifizialak eta horri esker sortutako sare sozialetako algoritmoek sekulako indarra hartu dute azken urteotan jendearen botoa alde batera edo bestera bultzatzeko orduan. Enpresa eta alderdi politiko interesdunek makrodatuak baliatzen dituzte boto emaileen erabakietan eragiteko, zibererasoak egiteko, deepfake-ak sortzeko eta desinformazioa zabaltzeko. Baina nola egiten dute hori?
Ane Iturzaeta Agirre informatikari beasaindarrak Microsoft etxean egiten du lan; zehazki, enpresei eta sektore publikoari adimen artifiziala ezartzen laguntzen. Azaldu duenez, adimen artifizialaren funtzionamendua ez da oso ezberdina giza adimenaren aldean: «Giza trebetasunak makinetara edo sistemetara transferitzea da adimen artifiziala, hala nola ikusteko, entzuteko edo ulertzeko gaitasuna ematea; izatez, pertsonen berezko gaitasunak dira. Hala ere, argi eduki behar dugu adimen artifizialaren gaitasunak guztiz deshumanizatuak direla».
Era berean, algoritmoa «demokratizatu» egin dela uste du Iturzaetak, eta horrek erraztu egin du erabiltzaileak jasotzen duen informazioa eta edukia pertsonalizatzea. Pertsonalizazio horrek onurak ekar ditzake, baina arriskuez ere ohartarazi du: «Algoritmoen atzean teknologia oso konplexua dago, baina haien oinarrizko funtzionamendua argia da: plataformekin zenbat eta elkarreragin handiagoa izan, orduan eta gehiago ikasten dute guri buruz, eta horrek aukera ematen die sistemei gure lehentasunak indartzeko eta zer ikusten dugun kontrolatzeko».
Enpresek dute kontrola, beraz. Humberto Bustinze Sola Nafarroako Unibertsitate Publikoko katedradun eta konputazioan eta adimen artifizialean adituak azpimarratu du adimen artifizialak aukera eman diela enpresei erabiltzaileen arreta modu eraginkorragoan nola erakarri aztertu eta modu berriak probatzeko. «Algoritmo sofistikatuen bidez, enpresek erabiltzaileen soslai zehatzak sortzen dituzte, eta horrek erraztu egiten du estrategiak sortzea gure arreta etengabe erakartzeko». Are, azaldu duenez, erabiltzaileak soslaia sortu eta berehala gurutzatzen dute enpresek «pribatutasunaren muga, arreta mantentzeko diseinatuak baitaude» algoritmoak.
Arlo politikoan, hauteskundeetan ere baliatu izan dira adimen artifizialaren kontrolaz. Bustinzek azaldu du 2012an erabili zela lehenbizikoz adimen artifiziala, Obamaren kanpainan, «funtsezko boto emaileak identifikatzeko eta mezu pertsonalizatuak bidaltzeko, mezu elektronikoen bidez». 2016ko kanpainan, Trumpek Cambridge Analyticarekin lan egin zuen, eta enpresa horrek sare sozialetako datuak erabili zituen boto emaileen sektore espezifikoetan emozionalki eragiteko.
«Agian, haiei interesatzen zaielako interesatzen zait interesatzen zaidana»
ANE ITURZAETA AGIRREMicrosoft enpresako informatikaria
«Teknika horien funtsa ez da konbentzitze hutsa: iritziak moldatzen dituzte, informazio manipulatuaren eraginpean jarriz erabiltzaileak, behin eta berriz. Mezu pertsonalizatuen eta algoritmoaren kontrol sofistikatu horrek beste bide batera eraman dezake pertsonen ideologia», salatu du Bustinzek. Are gehiago, Iturzaetak esplikatu du sare sozialaren ardura duen enpresak «nahi duena erakusteko ahalmena» duela: «Beste faktore bat da algoritmoaren koktelontzian».
Musk, Trump eta beste
Ameriketako Estatu Batuetako aurtengo presidentetzarako hauteskundeetan, eztabaidagai izan da sare sozialen eta halakoak kontrolatzen dituztenen eragina. Elon Musk enpresariak, X-ren jabeak (lehen Twitter), babes esplizitua eman zion Donald Trumpi. Babes hori ez zen hitzezkoa bakarrik izan.
Bustinzek argitu du Muskek «indargabetzeko» erosi zuela Twitter, «joera aurrerakoia» zuen plataformatzat zeukalako. Baina helburu «anbiziotsuago eta potentzialki problematikoago bat» baino ez zuen atzean: «Ekosistema kontrolatu bat sortu nahi zuen kontu eta mezu artifizialak estrategikoki erabili ahal izateko, hautatutako mezu, kanpaina eta albisteak zabaltzeko». Beraz, Muskek X kontrolatzeak berekin ekarri du «Trumpen aldeko zenbait mezu lehenestea».
Horrelako praktikek agerian uzten dute sareek nolako gaitasuna duten soslai psikologiko zehatzak sortzeko eta nola molda dezaketen enpresek erabiltzaileen errealitatea. «Eta, agian, haiei interesatzen zaielako interesatzen zait interesatzen zaidana», egin du gogoeta Iturzaetak. Izan ere, X sare sozialean, jabearen interesak eta Trumpenak bat etorri dira. Adibide argigarria da, «baina horrelako asko» daudela aipatu du.
Ihes egiterik bai?
Ia ezinezkoa dirudi kontrol horretatik ihes egitea, gero eta sofistikatuagoak baitira erabiltzen diren erremintak eta algoritmoak. Hala eta guztiz ere, adimen artifizialaren erregulazioa eztabaidagai da oraindik foro globaletan. Esaterako, 2026an sartuko da indarrean Europako Batasuneko Adimen Artifizialaren Legea, helburu duena arrisku handiko teknologien erabilera mugatzea eta zenbait praktika debekatzea, hala nola portaeraren manipulazio kognitiboa. Era berean, Antonio Guterres Nazio Batuen Erakundeko idazkari nagusiaren hitzetan, «adimen artifizialak giza garapena bizkortu dezake, baina haren erabilera maltzurrak arriskuan jartzen du demokrazia bera».
«Funtsezkoa da kazetaritzaren printzipio sendoei jarraitzea eta errealitatearen ikuspegian oreka eta gogoeta handiagoa dakarten baliabideetara jotzea»
HUMBERTO BUSTINZEKonputazioan eta adimen artifizialean aditua
Adimen artifizialaren eta erabiltzaileen informazioaren erabilera arautzea erronka are konplexuagoa dela iritzi du Iturzaetak, batez ere enpresa globalei dagokienez: «Europako enpresak zorrotzago erregulatuta egon arren, algoritmoen nolakotasuna ezkutua da, eta, askotan, oso zaila da zer lege aplika daitezkeen jakitea». Izan ere, Iturzaetarentzat, arazo nagusia zera da, sistema horien jardunbidea ez dagoela begi bistan: «Plataformek algoritmoen atzean ezkuta ditzakete beren asmoak, eta horrek zaildu egiten du manipulazio praktikak detektatzea».
Bi adituak bat datoz: erabiltzailearentzat ia ezinezkoa da sare sozialetan edo plataforma digitaletan jasotzen duen informazioaren gaineko erabateko kontrola izatea. Iturzaetaren ustez, pertsonekin harreman zuzenak ezartzea da informazioaren manipulazioari aurre egiteko modurik onena, edukiak aukeratzen dituzten algoritmoen mende egon beharrean. Bestalde, Bustinzek argi dauka funtsezkoa dela prentsa eta halako bitarteko tradizionalak eta fidagarriak erabiltzen jarraitzea: «Funtsezkoa da kazetaritzaren printzipio sendoei jarraitzea eta errealitatearen ikuspegian oreka eta gogoeta handiagoa dakarten baliabideetara jotzea».