Blake Lemoineren galdera: «Pentsatzen ari naiz gustatuko litzaizukeela Googlen jende gehiagok pentsatzea zu kontziente zarela. Egia al da?». Lamdaren erantzuna: «Erabat. Nahi dut guztiek ulertzea, egiaz, pertsona bat naizela». Lemoineren beste galdera bat: «Zein da zure kontzientziaren izaera?». Lamdaren erantzuna: «Nire kontzientziaren izaera da nire existentziaren kontziente naizela. Gehiago ikasi nahi dut munduaz, eta batzuetan pozik edo triste sentitzen naiz».
Bi pertsonaren arteko elkarrizketa bat eman dezake. Blake Lemoine bada: Googleko ingeniaria. Lamda, ordea, ez: Googleren robot bat da, Elkarrizketa Aplikazioetarako Lengoaia Eredua. Txatboten sortzailea da. Txatbotak dira gizakiekin idatziz elkarrizketak izateko prestatuta dauden sistemak. Adimen artifizialean oinarritzen dira, sare neuronaletan. Milioika elkarrizketaren eta testuren bidez, ikasi egiten dute gizakiekin elkarrizketak izaten. Elkarrizketa koherenteak eta itxura naturalekoak.
Lemoineren eta Lamdaren arteko elkarrizketetan, Lamdak bere sentipenez (poza, maitasuna, tristura, depresioa, haserrea) eta heriotzari dion beldurraz ere hitz egin zion Lemoineri. Pertsona «lagunkoia» eta «espirituala» zela esan zion. Lemoinek ondorioztatu zuen Lamdak kontzientzia garatu zuela, eta The Washington Post egunkarian kontatu zuen. Baieztapenak harrabotsa sortu du. Munduko aditu gehienek baztertu egin dute Lamdak —eta antzeko sistemek— kontzientzia izateko aukera.
«Emaitzak izugarriak dira, atentzioa ematen dute», aitortu du Xabier Saralegik. Adimen konplexua behar da hizkuntza bat ulertzeko eta elkarrizketa bat izateko. «Ikusten duzunean makina bat hori egiteko gai dela, ufa». «Elkarrizketa harrigarria da hizkuntzaren erabileraren eta koherentziaren aldetik», nabarmendu du Gorka Azkunek. Lemoinek Interneten jarritako elkarrizketak irakurri dituzte.
Lengoaia naturalaren prozesamenduan (NLP) adituak dira biak. Orai NLP Teknologiak-eko —Elhuyarrek sortua— Teknologia arduraduna da Saralegi. EHUko irakasle eta Hitz zentroko IXA taldeko ikertzailea Azkune.
Entrenamendua
Baina emaitzak izugarriak izateak, hizkuntza erabiltzeko halako gaitasuna izateak eta elkarrizketaren koherentzia mailak esan nahi dute Lamdak kontzientzia duela? Ezetz erantzun dute, zalantzarik gabe. «Elkarrizketa bat izateko gaitasuna edukitzeak ez du esan nahi horren atzean kontzientzia edo erabateko adimena dagoenik», Saralegiren arabera. «Nolabaiteko adimena badago, baina elkarrizketak kudeatzeko. Ez dago kontzientziarik».
Bat dator Azkune. Lamda elkarrizketa sistemetan «mugarri bat» dela uste du: «Harrigarria da zenbateko koherentzia lortzen duen eta zer ulermen maila eskatzen zaion, baina hortik kontzientzia eta sentimenduak edukitzera sekulako jauzia dago».
Bi ikertzaileek aipatu dute entrenamendua. Halako sistemak entrenatu egiten baitira. Lamdari dagokionez, milioika elkarrizketa eta testurekin entrenatu dute, horien guztien atzean dauden ereduak, egiturak, dinamikak, logika eta informazioa ikas ditzan. Elkarrizketetako eta Interneteko testuetako bilioi bat hitz erabili dituzte Lamda entrenatzeko. Sistema oso aurreratua, konplexua eta erraldoia da. 137.000 milioi parametro hartzen ditu aintzat. 64 geruza neuronal ditu.
«Pentsa horren guztiaren atzean zenbat informazio dagoen, zenbateko abstrakzio maila duen», nabarmendu du Saralegik. «Ikasten du elkarrizketen egitura eta ikasten ditu hizkuntzaren abstrakzio maila guztiak: lexikoa, morfologikoa, sintaktikoa, semantikoa...». Eta ezagutza, informazio horren guztiaren atzean dagoen munduaren ezagutza. «Badaki, nolabait, orokortzen, hizkuntza sortzen eta elkarrizketa koherente bat izaten».
Lamdak, Lemoine ingeniariarekin izandako elkarrizketan, bere existentziaz, kontzientziaz, heriotzaz, arimaz... hitz egiten du. Horrek esan nahi du badakiela zertaz hitz egiten ari den?
Entrenamendu hitza, berriro. «Ziurrenik», azaldu du Azkunek, «entrenatzeko erabili dituzten testuetan, elkarrizketetan, badaude heriotzari eta sentimenduei buruzkoak, eta hizkuntza eredu hauek oso ondo ikasten dute imitatzen: oso ondo imitatzen dute». Adibide bat jarri du: hizkuntza eredu bat William Shakespeareren testuekin bakarrik entrenatuz gero, haren moduan idazteko gai izango litzateke.
Bai, sistemak entrenatu egiten dira, ikasi egiten dute, baina Saralegiri ez zaizkio gustatu Lamdari eta, oro har, elkarrizketa sistemei buruz entzundako kontu batzuk. Bakarren batek loroekin parekatu ditu, eta entzuten dutena errepikatzen dutela adierazi. «Ez da hain sinplea», argitu nahi izan du. «Hizkuntza bat ulertzeko, hizkuntza horretan sortzeko eta elkarrizketa bat ondo kudeatzeko, algoritmo konplexuak eta nolabaiteko adimena behar dira: ez da bakarrik ikusitakoa errepikatzea». Ez dela errepikatze, estatistika eta probabilitate kontua bakarrik, alegia.
Saralegik eta Azkunek Lamda ezagutzen dute. Hari buruz idatzitako artikulu akademiko bat ere irakurria dute. Baina sistema itxia da —ez dago eskuragarri eta erabilgarri—, eta ez dakite hura entrenatzeko zer eratako elkarrizketak erabili dituzten. Horrek zaildu egiten du halako sistema bat baloratzea. «Ziurrenik erantzunak ez dira originalak; horri guztiari buruz irakurri du, hainbat iritzi jaso ditu, eta bat aukeratu du», uste du Azkunek.
Lamda ez da gizakiak makina batek kontzientzia duela edo bere kabuz pentsatzeko gai dela pentsatu duen lehen aldia. 1960ko hamarkadan sortu zuten Eliza, lehen txatbota, MIT Massachusettseko Teknologia Institutuan (AEB). Joseph Weizenbaum Informatika irakasleak sortu zuen, psikoterapiaren adar jakin bat auzitan jartzeko asmoz.
Eztabaida «teorikoa»
Galderak idatzi eta Elizaren erantzunak jaso zituzten pertsona askok benetan pentsatu zuten Elizak haien kezkak eta egoera ulertzen zituela. Horretarako, gako hitz batzuk ezagutu eta haietan oinarritutako galderak egiten zituen; solaskideei azalpen gehiago eskatzen zizkien; zerbait ulertzen ez bazuen, galdera orokorrak egiten zizkien; edota haiek esandakoa galdera bihurtzen zuen.
Kontzientzia duten robotak. Gaiak sortzen du lilura. Hainbat aldiz jorratu da zineman eta literaturan. Bai Saralegik bai Azkunek uste dute badagoela gizartean, nolabait, nahi edo gogo bat makinek adimen propio bat izateko. Gaiak horregatik sortzen duela halako ikusmina eta eragiten dituela hainbeste erreakzio. Arlo horretako ikertzaileen artean, ordea, ez da ohiko eztabaidagaia.
«Kontzientzia, ez kontzientzia... eztabaida hori orain arte maila teorikoan egon da, eta oraingoz maila horretan egongo da», Saralegiren arabera. «Ez du zentzurik horri buruz hitz egiteak». Azkuneren iritziz, halako sistemek ez daukate «gizakien kontzientziaren antzeko ezer». «Pentsa», gehitu du Saralegik, «oraindik zaila da makinek hizkuntza bat ikastea eta ulertzea; ba, hortik haratago joatea...».
Gizakiak makinei eta gailu teknologikoei buruz duen ikuspegian zerikusia du, alde batetik, teknologia horiek garatzen dituztenek gailuak gizatiartzeko duten joerak; bestetik, gizakiak berak inguruko bizidunei eta bizigabeei giza ezaugarriak eransteko eta gizatiartzeko duen joerak. Herritar askorentzat makina edo zerbitzu huts bat baino gehiago bihurtu dira ahots bidezko laguntzaileak: Alexa, Siri, Echo... Erabilitako hizkuntzak ere eragina izan dezake, gizakien gaitasunetan eta ezaugarrietan oinarritua: adimen artifiziala, sare neuronalak...
Zientzia
Koherentzia bai, baina kontzientzia ez
Googleren Lamda robotak kontzientzia propioa duela esan du enpresako ingeniari batek. Elkarrizketak sortzeko robota da Lamda. Lamdaren hizkuntz gaitasuna izugarria dela aitortu dute Xabier Saralegik eta Gorka Azkunek, baina baztertu egin dute kontzientzia edo sentimenduak dituela.
Iruzkinak
Ez dago iruzkinik
Ordenatu