Gašper Beguš / »Znanstvena fantastika je že postala del resničnosti«
Jezikoslovec in strokovnjak za umetno inteligenco
© Luka Dakskobler
Gašper Beguš je raziskovalec in docent na lingvističnem oddelku kalifornijske Univerze v Berkeleyju. Diplomiral je na Univerzi v Ljubljani in doktoriral na Harvardu, kasneje pa je kot docent deloval tudi na Univerzi Washington. Osrednji vprašanji njegovih študij sta, kako se ljudje učimo govoriti in ali je jezik nekaj unikatno človeškega, kar raziskuje na presečišču jezikoslovja, strojnega učenja in nevroznanosti. Po drugi strani poskuša razumeti tudi, kako delujejo nevronske mreže in veliki jezikovni modeli, s tovrstnimi raziskavami pa išče vzporednice in razlike med tem, kako se jezika učimo ljudje in kako umetna inteligenca.
Glede vprašanja prihodnosti umetne inteligence in potencialnih zlorab te tehnologije ste se na nedavnem predavanju na Inštitutu za kriminologijo opredelili kot »doomer«, skrbi vas torej njen pogubni potencial. Zakaj ste pesimistični?
Nisem pesimističen, ko govorimo o tem, da kot družba ne bomo znali regulirati umetne inteligence in da bo ta na kratek rok povzročila več negativnih kot pozitivnih izidov. Pravzaprav menim ravno nasprotno: umetna inteligenca ima med drugim enormen potencial za medicino, znanost, vodenje ali organizacijo dela, za pravno stroko in še za marsikaj. Seveda pa vsaka nova tehnologija prinaša izzive in probleme. Črnogled oziroma previden sem v dokaj znanstvenofantastičnem smislu: skrbijo me predvsem dolgoročne implikacije teh tehnologij. V bistvu gre za to, da ustvarjamo parainteligenco, ki je vzporedna biološki in ima seveda svoje prednosti. Zlorabe so tukaj neizogibne, a kot družba imamo veliko vzvodov, da jih nadziramo. Ko pa razmišljamo dolgoročno in skozi bolj znanstvenofantastične leče, je perspektiva polarizirana na optimiste, ki menijo, da umetna inteligenca ne bo nikoli dosegla človeških sposobnosti in da nikoli ne bo pomenila eksistenčne nevarnosti za človeka, drugi pol, tako imenovani doomerski kamp, pa je prepričan, da nekaterih prednosti in potencialnih nevarnosti nebiološke inteligence ne smemo prezreti, saj lahko presežejo človeka in postanejo eksistenčna grožnja. V tem smislu se strinjam s slednjimi: že zdaj moramo razmišljati o tovrstnih možnih posledicah.
Zakup člankov
Celoten članek je na voljo le naročnikom. Če želite zakupiti članek, je cena 4,5 EUR. S tem nakupom si zagotovite tudi enotedenski dostop do vseh ostalih zaklenjenih vsebin. Kako do tedenskega zakupa?
© Luka Dakskobler
Gašper Beguš je raziskovalec in docent na lingvističnem oddelku kalifornijske Univerze v Berkeleyju. Diplomiral je na Univerzi v Ljubljani in doktoriral na Harvardu, kasneje pa je kot docent deloval tudi na Univerzi Washington. Osrednji vprašanji njegovih študij sta, kako se ljudje učimo govoriti in ali je jezik nekaj unikatno človeškega, kar raziskuje na presečišču jezikoslovja, strojnega učenja in nevroznanosti. Po drugi strani poskuša razumeti tudi, kako delujejo nevronske mreže in veliki jezikovni modeli, s tovrstnimi raziskavami pa išče vzporednice in razlike med tem, kako se jezika učimo ljudje in kako umetna inteligenca.
Glede vprašanja prihodnosti umetne inteligence in potencialnih zlorab te tehnologije ste se na nedavnem predavanju na Inštitutu za kriminologijo opredelili kot »doomer«, skrbi vas torej njen pogubni potencial. Zakaj ste pesimistični?
Nisem pesimističen, ko govorimo o tem, da kot družba ne bomo znali regulirati umetne inteligence in da bo ta na kratek rok povzročila več negativnih kot pozitivnih izidov. Pravzaprav menim ravno nasprotno: umetna inteligenca ima med drugim enormen potencial za medicino, znanost, vodenje ali organizacijo dela, za pravno stroko in še za marsikaj. Seveda pa vsaka nova tehnologija prinaša izzive in probleme. Črnogled oziroma previden sem v dokaj znanstvenofantastičnem smislu: skrbijo me predvsem dolgoročne implikacije teh tehnologij. V bistvu gre za to, da ustvarjamo parainteligenco, ki je vzporedna biološki in ima seveda svoje prednosti. Zlorabe so tukaj neizogibne, a kot družba imamo veliko vzvodov, da jih nadziramo. Ko pa razmišljamo dolgoročno in skozi bolj znanstvenofantastične leče, je perspektiva polarizirana na optimiste, ki menijo, da umetna inteligenca ne bo nikoli dosegla človeških sposobnosti in da nikoli ne bo pomenila eksistenčne nevarnosti za človeka, drugi pol, tako imenovani doomerski kamp, pa je prepričan, da nekaterih prednosti in potencialnih nevarnosti nebiološke inteligence ne smemo prezreti, saj lahko presežejo človeka in postanejo eksistenčna grožnja. V tem smislu se strinjam s slednjimi: že zdaj moramo razmišljati o tovrstnih možnih posledicah.
Vaši pomisleki torej izhajajo iz dejstva, da se še nikoli v zgodovini nismo srečali z nečim, kar je v številnih razsežnostih zmogljivejše in bolj inteligentno od nas.
Računalniki doslej niso delovali po principu človeških možganov. Kalkulator računa bolje kot jaz in tudi kot umetna inteligenca, a še zdaleč ni inteligenten na enak način. Najnovejši jezikovni modeli pa imajo neke zametke inteligence, ki je podobna naši, in zato moramo z njimi previdno ravnati. Ne pravim, da bi morali ustaviti razvoj, a moramo biti previdni. Kratkoročno gledano vidim predvsem veliko pozitivnih premikov in verjamem, da bomo lahko kot družba to uredili tako, da se bo ta tehnologija razvijala v dobrobit človeštva. Na daljši rok pa se moramo zavedati, da se v tej tehnologiji skrivajo zametki vzporedne inteligence, pri katerih moramo biti pazljivi, saj lahko ta začne presegati naše sposobnosti.
Naj dam primer: poznamo računalniške viruse in napade na računalniške sisteme, a za vsakega slabega igralca, ki izvršuje te napade, imamo 10 dobrih hekerjev, ki jih nadzorujejo in preprečujejo njihove zločine. Če pa ustvarimo nekaj, česar ne razumemo in je bolj inteligentno od nas, se to ravnovesje podre. Prav v pisanju računalniške kode so ti najnovejši modeli umetne inteligence zares zmogljivi in v nekem trenutku jih morda ne bomo več razumeli, to pa lahko pomeni veliko nevarnost.
Nekaterih prednosti in potencialnih nevarnosti nebiološke inteligence ne smemo prezreti, saj lahko presežejo človeka in postanejo eksistenčna grožnja. Že zdaj moramo razmišljati o tovrstnih možnih posledicah.
Pred nedavnim ste na Twitterju izrazili skrb, ki izhaja iz preproste logike »več glav več ve«: prepoznavate potencialno nevarnost tega, da se začnejo jezikovni modeli povezovati med sabo in tvoriti neko novo superinteligentno entiteto. Gre tukaj za neko čisto teoretično idejo, ki je za zdaj zakoreninjena v znanstveni fantastiki, ali gre za resnično grožnjo?
V vseh teh primerih gre za rahlo znanstvenofantastična ugibanja, ampak problem tukaj je, da je znanstvena fantastika nekako že postala del resničnosti. Tisti, ki so prepričani, da umetna inteligenca ne bo nikoli pomenila eksistenčnega tveganja, pravijo, da so ti modeli še vedno precej manj sposobni od ljudi, kar drži. Po drugi strani pa za zdaj načelno gledamo v en sam model ali pa mogoče vse skupaj pet modelov. Vemo, da je lahko neki posameznik zelo inteligenten, deset ljudi skupaj pa doseže veliko večjo inteligenco. Kot pravite, več glav več ve. No, tudi pri velikem jezikovnem modelu GPT-4 gre za tako imenovano mešanico strokovnjakov (ang. mixture of experts, op. p.): v njem je več modelov in vsak se specializira za svojo stvar.
Skratka, če razmišljava v smeri znanstvene fantastike, si lahko predstavljamo scenarij, v katerem ti modeli napredujejo tako, da začnejo komunicirati med sabo. Vprašanje je, ko neki model treniraš na podlagi sintetičnih podatkov – je lahko to uspešno ali ne? Če bodo ti modeli v prihodnosti začeli med sabo sodelovati, se bodo naučili reševati probleme z različnih zornih kotov, tako kot jih rešujemo ljudje. Velike organizacije probleme rešujejo s timskim delom posameznikov, ki so vsak specializirani za svoje področje, podobna kooperacija pa se lahko, vsaj v teoriji, zgodi tudi med različnimi modeli, čemur pravimo kolektivna umetna inteligenca.
Sistemi umetne inteligence vseeno sledijo našim ukazom. Bo tako ostalo tudi, če se med seboj povežejo v kolektivno inteligenco? Se pri tej kolektivizaciji modelov pojavi nevarnost, da se začnejo sami odločati, ali še vedno govoriva o zlorabah sistemov, ki jih vrši človek?
Temeljna grožnja je tukaj seveda človek. Že zdaj lahko kdo v teoriji ustvari model, ki prepričljivo imitira na primer vašo babico, vas pokliče in prosi, da ji nakažete denar na bančni račun, vse to pa je generirala umetna inteligenca. Tovrstne zlorabe smo v preteklosti že uspešno spravili pod nadzor, a razlika zdaj je, da je izvedba takšnih prevar dokaj enostavna, če ima neka kriminalna entiteta dostop do teh modelov.
Znanstveniki v večini verjamemo, da za zdaj na obzorju še ni nevarnosti avtonomnosti teh modelov, a pri nadaljnjem razvoju je treba upoštevati tudi to možnost. Nihče dejansko ne ve, kako verjetne so možnosti, da pride do te superinteligence. Že zdaj pa smo prišli na točko, kjer smo ustvarili zares zanimivo stvar: princip, po katerem delujejo naši biološki možgani, smo prestavili na grafične čipe in dosegli nekaj, kar prinaša možnosti podobnih razsežnosti, kot jih je pred nekaj desetletji prinesel internet, nekateri to primerjajo celo z izumom elektrike, tiska ali ognja. Kot rečeno, nevarnosti, o katerih razglabljava, so za zdaj stvar znanstvene fantastike, a znanstveniki se moramo že zdaj, ko razvijamo posamezne modele, zavedati, da delamo z nečim, kar deluje po izjemno podobnih principih kot človeški možgani, zato moramo razvoj usmerjati v dobrobit človeštva.
Mar ni to, kaj je korist človeštva, stvar interpretacije? Ker je razvoj umetne inteligence predvsem v rokah korporacij, ne pa v rokah znanstvenikov, se zdi, da ta »dobrobit« postaja vse ohlapnejši koncept, saj industrija umetne inteligence seveda stremi k ustvarjanju dobička.
To drži in tukaj postane to politično in družbeno vprašanje. Znanost je to razvila, začelo se je že v šestdesetih letih, ko so pravzaprav psihologi poskušali matematično približati delovanje naših nevronov v možganih, potem pa je ta program za dolga leta zamrl, ker so v računalništvu prevladovale druge stvari. Na Institutu Jožef Stefan so ta pristop, ki je bil na koncu zmagoslaven, vseskozi razvijali, tako da imamo v Sloveniji pravzaprav močno znanstveno tradicijo nevronske umetne inteligence. Nato so to razvijali v osemdesetih letih in naprej – vse do leta 2012, ko so prvič pokazali, da je ta pristop boljši od vseh ostalih, ko so torej uspešno natrenirali tako imenovani AlexNet, sistem, ki prepoznava objekte v vizualnem svetu.
Znanost je tu opravila precej impresivno nalogo, zdaj pa to postaja del družbe. Tako kot so danes internet, mobilna telefonija ali elektrika v številnih državah del javne infrastrukture, se zna zgoditi, da bo tudi umetna inteligenca nekoč del javne infrastrukture. Ta pa bo seveda povezana tudi s komercialnimi podjetji, ki so jo vzela iz znanosti in jo postavila v uporabo. Mislim, da je ključna vloga znanosti, ki je to pravzaprav ustvarila, da informira javnost, javnost pa se bo morala odločiti, kaj zdaj s tem narediti.
Skrbi vas tudi vprašanje nevrozasebnosti, torej popolnoma nove veje razmišljanja o etičnih dilemah, ki so povezane z branjem misli s pomočjo skeniranja možganov. Kako daleč je prišla tehnologija, ki s pomočjo umetne inteligence bere misli?
S tem se veliko ukvarjam v laboratoriju, saj me zanima, kako človeški možgani organizirajo jezik, kako organizirajo misli in kako to opravijo modeli umetne inteligence. Drugi znanstveniki so pokazali, da so si predstave, ki jih zgradijo umetni in biološki možgani, med seboj izjemno podobne, vendar so za odkrivanje podobnosti potrebovali dodatne korake. Mi smo kot prvi pokazali, da so si predstave podobne v surovi obliki. Napredek, do katerega je lani prišlo na tem področju, je zelo impresiven. Znanost si je doslej branje misli bolj ko ne le zamišljala, zdaj pa počasi prihajajo študije, ki kažejo, da je to dejansko mogoče. Seveda so te raziskave še na začetku, tehnologija še ni tam, ampak dokaz o možnosti tega že imamo. To pa seveda odpira neka čisto nova vprašanja: kar se tiče zasebnosti, smo imeli doslej vselej neko notranjo cenzuro: lahko smo se na primer odločili, kaj bomo napisali in česa ne, če pa imamo tehnologijo, ki lahko na neki način ljudem bere misli, je tu precej novih potencialnih področij zlorabe.
Po eni strani ta tehnologija seveda prinaša ogromno prednosti: zagotovo bomo lažje odkrivali nekatere bolezni in jih potencialno tudi zdravili, pa tudi na primer tehnologijo bomo lahko imeli pod nadzorom na način, ki je bil doslej popolnoma nepredstavljiv. Moji kolegi z Berkeleyja so nedavno naredili izjemno zanimivo raziskavo, v kateri je kolega nevrokirurg vstavil elektrode oziroma nevronski vmesnik v možgane pacientke, ki je izgubila motorične sposobnosti in prenehala govoriti zaradi tako imenovanega sindroma zaklenjene osebe, s pomočjo nevronskega vmesnika pa je ponovno spregovorila. Skratka, premiki s pozitivnega stališča so lahko tukaj enormni, sočasno pa moramo biti seveda pozorni, kakšne nevarnosti prinaša ta tehnologija. Nevrozasebnost je popolnoma nov pojav, s katerim se bomo morali seznaniti kot družba in ga na neki točki regulirati. Zdaj seveda še nismo tako daleč, a ti procesi vselej potekajo precej podobno: znanost nekaj začne, komercialna podjetja to dostavijo do uporabnika, potem pa družba oziroma politika to regulira zato, da se zadeva premakne v našo dobrobit.
Že zdaj lahko kdo v teoriji ustvari model, ki prepričljivo imitira na primer vašo babico, vas pokliče in prosi, da ji nakažete denar na bančni račun, vse to pa generira umetna inteligenca.
Razvoj nevronskih vmesnikov stremi tudi k transhumanističnim vizijam. Ko na primer Elon Musk govori o potencialu nevronskih vmesnikov, ki jih razvija njegovo podjetje Neuralink, pogosto razlaga o izboljšavi naših kognitivnih sposobnosti v smislu nekakšnega inženirstva superljudi, o futurističnih načinih komuniciranja, ki so kot nekakšna telepatija, pa celo na primer o tem, da si bomo glasbo pretakali neposredno v možgane. So tovrstne zamisli zakoreninjene v realnosti ali gre morda za malce blodnjave ideje?
Vprašanje je, kako hitro bo mogoče te tako imenovane živčne vmesnike »spraviti v komercialo«. Številna podjetja so to že poskušala, a za zdaj ni uspelo še nobenemu. Premiki se sicer odvijajo hitro, a doslej so ti programi malce zamirali in še zdaleč niso tako daleč, da bi lahko bili komercialno uspešni. Težko je predvideti prihodnost, težko je razumeti, kaj se bo dejansko zgodilo. Vzpostavitev interakcije med računalniki in ljudmi, v kateri torej na primer ne potrebuješ miške ali tipkovnice, da upravljaš računalnik, je absolutno v interesu uporabnika, in prvo podjetje, ki bo znalo to tehnologijo izpopolniti do točke, ko bo to tehnologijo lahko tržilo, bo vsekakor zelo uspešno. A pred tem bo treba premagati vrsto težav.
Podoben primer je virtualna resničnost: veliko ljudi meni, da je to neizogiben del naše prihodnosti, a še zdaleč nismo tam. Trenutno živimo v podobnem času, kot je bilo obdobje preloma tisočletja oziroma konca devetdesetih let, ko se je začel resneje razvijati internet, a si še zdaleč nismo znali zamisliti njegovih vseh mogočih rab in še zdaleč ni bil tako vseprisoten kot danes. Potrebovali smo nekaj desetletij, da smo ga izkoristili v polnosti. Ali pa na primer dlančniki: ti so prišli na trg leta pred pametnimi telefoni, pa jih je uporabljal izjemno majhen delež ljudi. Ko na neki točki tehnologija postane tako izpopolnjena, da jo želijo vsi uporabljati, potem se odprejo čisto novi načini uporabe teh inovacij. Pri umetni inteligenci smo še precej na začetku.
Pri debatah o nevronskih vmesnikih in potencialnem branju misli so številni strokovnjaki izjemno skeptični. Noam Chomsky je na primer v intervjuju za Inverse povedal, da so dolgoročni cilji te tehnologije nemogoči, saj »ne poznamo niti dobre definicije, kaj misel sploh je«.
On je nasploh zelo skeptičen. Njegovo razmišljanje je pravzaprav diametralno nasprotje vsega, kar trenutno dela umetna inteligenca. To je zelo aktualen spopad idej v kognitivni znanosti, s katerim se veliko ukvarjam tudi sam. Na eni strani imamo odnos do jezika Chomskega oziroma simbolično umetno inteligenco, torej sisteme, ki so bili v razvoju pred trenutnim boomom. Na drugi strani je pristop, ki pravi, da se lahko inteligenca sama od sebe razvije v nekaterih nevronskih povezavah in da to ni unikatno človeku. To je res veliko vprašanje. Prav zato se ukvarjam z živalmi, umetno inteligenco in jezikom, saj gre pravzaprav za eno najpomembnejših polj v znanosti, ki raziskuje vprašanje, kaj je v nas unikatno človeškega in kaj edinstvenega je v našem jeziku. Umetna inteligenca je prišla do točke, ko jezik precej dobro upravlja, zna ga razumeti, kar je bilo pred desetimi leti še popolnoma nepredstavljivo. Chomsky je nasprotnik ideje, da so elementi našega jezika prisotni tudi pri živalih, prepričan je, da vse to deluje popolnoma drugače kot človeški jezik, sočasno pa je tudi velik nasprotnik umetne inteligence, saj je jezik zanj nekaj unikatno človeškega. Prepričan je, da jezik potrebuje edinstveno človeške prvine, da sploh lahko obstaja. Velik del mojega raziskovanja je preizkušanje te hipoteze. Bolj ko jo testiramo, bolj kaže na to, da se veliko vidikov jezika zgodi tudi v umetni inteligenci in pri živalih.
© Luka Dakskobler
Kaj je pravzaprav fokus teh raziskav – večje razumevanje našega jezika ali razumevanje delovanja velikih jezikovnih modelov?
Raziskujemo oboje, gre za dvostranska spoznanja. Če je naša inteligenca unikatno človeška, pomeni, da nas umetna inteligenca nikoli ne bo mogla doseči, da nikoli ne bo takšna, kot smo mi. Po drugi strani pa, če upoštevamo, da možgani muhe niso tako zelo različni od naših, evolucija pa je od možganov muhe prišla do človeških, lahko to primerjamo z umetno inteligenco. Seveda je GPT-4 na številnih ravneh precej pametnejši od muhe. Če bomo modele umetne inteligence naprej razvijali in bogatili, bodo vedno večji in vedno zmogljivejši. Kaj bo iz tega nastalo, ne ve nihče, je pa to zelo zanimivo vprašanje, ki nam lahko pomaga razumeti, ali je v nas resnično nekaj unikatno človeškega. Kaj je to, pa je vprašanje za milijon dolarjev, pa ne zgolj s filozofskega vidika, temveč tudi s čisto praktičnega: lahko nam pojasni, na kaj moramo biti pozorni, ko razvijamo modele umetne inteligence.
Smo že na točki, kjer smo ustvarili zares zanimivo stvar: princip, po katerem delujejo naši biološki možgani, smo prestavili na grafične čipe in dosegli nekaj, kar prinaša možnosti podobnih razsežnosti, kot jih je pred nekaj desetletji prinesel internet, nekateri to primerjajo celo z izumom elektrike, tiska ali ognja.
Zakaj pa to vprašanje razvijate s pomočjo primitivnejših sistemov umetne inteligence, ki jih imenujete »umetni dojenčki«?
Velikih jezikovnih modelov sploh še ne razumemo, tudi manjših modelov pravzaprav ne razumemo prav dobro. Manjše, enostavnejše modele je precej lažje razumeti. Modeli tipa GPT-4 in Bard se učijo iz enormne količine podatkov, kar ni realistično z vidika človeka, mi pa v laboratoriju poskušamo zgraditi modele, ki se učijo na realističen način – torej s premikanjem ust, s poslušanjem jezika, govora, ne pa besedila. Veliko stvari, ki bi jih na primer Chomsky razumel kot unikatno človeške, se je pojavilo v teh naših modelih, kar kaže na to, da je pravzaprav malo lastnosti našega jezika unikatnih človeku.
Kakšno vlogo pa pri raziskovanju tega vprašanja odigrajo kiti glavači?
Kite glavače opazujemo in poskušamo dekodirati njihovo komunikacijo, pri čemer je umetna inteligenca krasen peskovnik, kjer lahko preverjamo razne hipoteze. Sprašujemo se, ali je sploh kaj edinstveno človeškega na jeziku, ali smo pravzaprav samo zelo inteligentne živali. Tukaj pridemo do zelo filozofskih vprašanj in s tega vidika se mi to raziskovanje zdi tudi izjemno fascinantno.
Znanost si je doslej »branje misli« bolj ko ne le zamišljala, zdaj pa počasi prihajajo raziskave, ki kažejo, da je to dejansko mogoče. Doslej smo imeli neko notranjo cenzuro, če pa imamo tehnologijo, ki lahko na neki način ljudem bere misli, je tu precej novih potencialnih področij zlorabe.
Zakaj pa ste si za predmet opazovanja izbrali prav to žival?
Kiti glavači so izjemno zanimivi, saj so socialna bitja, ki tvorijo zelo zanimive družbe, imajo družine in klane. Predvsem so zanimive samice, ki so del družbe, samci pa so bolj samotarji, zelo pozno postanejo spolno aktivni, obdobje zorenja je pri samcih torej zelo dolgo. Mladiči z mamami ostanejo tudi od osem do trinajst let, kar je v živalskem svetu izjemno redko. Kiti glavači so polni presežkov, od tega, da imajo največje možgane med vsemi bitji, do tega, da se potopijo tudi kilometer globoko. Drugače kot pri orkah in delfinih, ki jih je lažje raziskovati in jih je vsepovsod zelo veliko, so kiti glavači od nekdaj velika neznanka. Na žalost imajo zelo tragično zgodovino, kar poznamo tudi na primer iz romana Moby Dick: res so jih ogromno pobili. Ta čudovita inteligentna bitja veliko komunicirajo med seboj. Splošna javnost pozna predvsem petje kitov grbavcev, ki je pravzaprav paritveni klic, kiti glavači pa med sabo komunicirajo predvsem takrat, ko lovijo velike globokomorske lignje. Mimogrede, nedavno smo posneli tudi rojstvo kita glavača, kar je bilo precej odmevno, saj to še nikoli prej ni bilo dokumentirano s fotografijo ali videom.
Skratka, ustvarjamo eno prvih zares velikih podatkovnih baz posnetkov kitov glavačev, saj gre za eno najinteligentnejših vrst na planetu, a jo zelo slabo poznamo. Raziskovanje te komunikacije je pravi znanstveni užitek. Tezo, da obstaja človeška edinstvenost, lahko namreč preizkušamo tudi na živalih. Njihova komunikacija je po eni strani zelo drugačna od naše: so pod vodo, nimajo tako izrazite obrazne mimike, gest ali na primer rok, s katerimi bi lahko kaj povedali. Njihovi svetovi so zelo različni od naših: če pogledamo na primer šimpanze ali bonobe, vidimo, da je njihov svet precej bolj podoben našemu kot svet kita glavača. Z nekega vidika so torej izjemno drugačni od nas, po drugi strani pa so nam precej podobni, v smislu socialnih struktur, komunikacije z glasom. Resnično gre za zanimivo kombinacijo različnosti in podobnosti z ljudmi.
Sočasno pa poskušamo razvijati modele umetne inteligence, ki pomagajo odkrivati stvari v komunikaciji ali situaciji, o kateri zelo malo vemo. V laboratoriju razvijamo nove pristope razumevanja umetne inteligence, ki nam omogočajo uvide v zadeve, ki jih prej nismo razumeli, kar lahko apliciramo na kite glavače, je pa ta pristop koristen tudi za napredke v matematiki, geometriji ali odkrivanju novih zdravil. Z razumevanjem, kako se ti modeli učijo, lahko dobimo uvide, ki so izjemno zanimivi in jih kot ljudje nimamo.
Ne morem mimo dejstva, da vaš projekt preučevanja kitov močno spominja na zasnovo filma Prihod (2016, Dennis Villeneuve), kjer skušajo lingvisti in fiziki z dokaj podobnim pristopom dekodirati kompleksen jezik Nezemljanov.
Niste prvi, ki ste opazili te vzporednice. Dejansko gre za problem, ki je v bistvu isti: imaš neko inteligenco, ki komunicira med sabo, ti pa ne razumeš njenega jezika. Kako se lotiti tega razumevanja? V laboratoriju smo se tega lotili tako, da smo vzeli našo umetno inteligenco, ki se uči kot dojenček in je torej bolj podobna človeku kot na primer GPT-4. Ko smo jo razvili, smo jo trenirali na ljudeh, pri delu s kiti pa se je morala naučiti govoriti v njihovem jeziku. Potem smo pogledali v to inteligenco in smo se lahko vprašali, kaj se je umetna inteligenca naučila o kitih, ko se je učila njihove komunikacije. Šli smo še dlje in opazovali zadeve, ki so pomenljive. Ta pristop je zelo univerzalen: lahko ga uporabimo pri dekodiranju komunikacije med živalmi ali pri odkrivanju zdravil, potencialno pa bi ga lahko uporabili tudi pri razumevanju komunikacije zunajzemeljskih bitij. Res fascinantno je, da smo neko živalsko vrsto, ki je na tem planetu že milijone let, šele zdaj začeli dokumentirati in bolje razumevati. In ja, vzporednica s filmom Prihod je res precej zgovorna.
Pisma bralcev pošljite na naslov pisma@mladina.si. Minimalni pogoj za objavo je podpis z imenom in priimkom ter naslov. Slednji ne bo javno objavljen.