Datamorgana

Jezikovni modeli, kot je ChatGPT, so nezanesljiv vir informacij, nagnjeni so k haluciniranju, torej navajanju izmišljotin, ki jih prodajajo kot dejstva. To je lahko tudi smrtno nevarno.

Podoba, ustvarjena s pomočjo umetne inteligence, je simbolična.

Podoba, ustvarjena s pomočjo umetne inteligence, je simbolična.

Kecia Abbott je hiperproduktivna avtorica gobarskih priročnikov. Piše in izdaja jih kot po tekočem traku – obseg literarnega opusa bi ji lahko zavidali celo nekateri najplodnejši pisatelji. Tudi če spadate v tisti del populacije, ki se z vso strastjo ukvarja z nabiranjem gob, in več polic vaše domače knjižnice krasijo številni gobarski priročniki, morda celo mikološka strokovna literatura, za Abbottovo skoraj gotovo slišite prvič, pa čeprav je v rekordnem času – v pičlih dveh dneh! – izdala kar devet različnih knjig o glivah. Zakaj? Ta oseba sploh ne obstaja. Kecia Abbott je izmišljeni psevdonim oportunističnih prevarantov, ki gobarske priročnike pišejo ob pomoči razvpitega jezikovnega modela ChatGPT, paradnega konja panoge umetne inteligence. To morda niti ne bi bilo tako sporno, če bi bil ChatGPT zanesljiv vir informacij. A ker si pogosto kaj izmisli, laži pa nam prodaja kot dejstva – stroka temu samozavestnemu blebetanju nesmislov (gobarski tematiki prikladno) pravi »haluciniranje« –, so ti priročniki pravzaprav smrtno nevarni.

 

Zakup člankov

Celoten članek je na voljo le naročnikom. Če želite zakupiti članek, je cena 4,5 EUR. S tem nakupom si zagotovite tudi enotedenski dostop do vseh ostalih zaklenjenih vsebin. Kako do tedenskega zakupa?

Članke lahko zakupite tudi s plačilnimi karticami ali prek storitve PayPal ali Google Pay

Tedenski zakup ogleda člankov
Za ta nakup se je potrebno .

4,5 €

Za daljše časovne zakupe se splača postati naročnik Mladine.

Mesečna naročnina, ki jo je mogoče kadarkoli prekiniti, znaša že od 16,20 EUR dalje:

Podoba, ustvarjena s pomočjo umetne inteligence, je simbolična.

Podoba, ustvarjena s pomočjo umetne inteligence, je simbolična.

Kecia Abbott je hiperproduktivna avtorica gobarskih priročnikov. Piše in izdaja jih kot po tekočem traku – obseg literarnega opusa bi ji lahko zavidali celo nekateri najplodnejši pisatelji. Tudi če spadate v tisti del populacije, ki se z vso strastjo ukvarja z nabiranjem gob, in več polic vaše domače knjižnice krasijo številni gobarski priročniki, morda celo mikološka strokovna literatura, za Abbottovo skoraj gotovo slišite prvič, pa čeprav je v rekordnem času – v pičlih dveh dneh! – izdala kar devet različnih knjig o glivah. Zakaj? Ta oseba sploh ne obstaja. Kecia Abbott je izmišljeni psevdonim oportunističnih prevarantov, ki gobarske priročnike pišejo ob pomoči razvpitega jezikovnega modela ChatGPT, paradnega konja panoge umetne inteligence. To morda niti ne bi bilo tako sporno, če bi bil ChatGPT zanesljiv vir informacij. A ker si pogosto kaj izmisli, laži pa nam prodaja kot dejstva – stroka temu samozavestnemu blebetanju nesmislov (gobarski tematiki prikladno) pravi »haluciniranje« –, so ti priročniki pravzaprav smrtno nevarni.

Abbottova med fiktivnimi avtorji poljudnoznanstvene literature o nabiralništvu še zdaleč ni osamljena. Tu so še denimo Chris M. Wilson, avtor leksikona Užitne divje rastline Srednjega zahoda, Edwin J. Smith, ki je med drugim podpisal Biblijo psihedeličnih gob – ja, umetna inteligenca halucinira tudi o halucinogenih gobah –, ne smemo pa pozabiti niti na Stephanie Jason, avtorico kuharske knjige Od gozda do gurmanskega krožnika. V zadnjih mesecih so po spletnih knjigarnah, kot sta Amazon in Barnes & Noble, kakor gobe po dežju – oprostite izrazu – vzniknili gobarski e-priročniki, v katerih najdemo vrsto popolnoma zgrešenih napotkov. Tako zgrešenih, da bi bralca/nabiralca zlahka ugonobili.

Več omenjenih knjig denimo navaja, da je okušanje zanesljiva metoda za identifikacijo vrste gob. Ne potrebujemo ravno doktorata iz mikologije, da prepoznamo nesmiselnost in tveganost takšnega nasveta. Za nameček si umetna inteligenca svobode ni vzela le pri navajanju kvazidejstev, temveč tudi pri slogovni izumetničenosti proznega oziroma – točneje rečeno – praznega govoričenja. »Iskanje divjih gob je izjemno izpolnjujoče doživetje, ki nas poveže z obiljem narave in bogato tapiserijo cvetja, katero ponuja Zemlja,« se glasi eden od navedkov iz serije spornih priročnikov, ki so drug za drugim pogrnili na preverjanju z analitičnimi orodji za presojo, ali je besedilo napisal stroj ali človek. »Prosimo, kupujte zgolj knjige znanih avtorjev in nabiralcev, saj gre dobesedno za življenje in smrt,« je v opozorilu na družbenih omrežjih zapisalo newyorško društvo mikologov. Amazon je uslišal glasne krike in sporne knjige umaknil iz spletne knjigarne: smrtno nevarni gobarski priročniki so resda vzniknili kot gobe po dežju, a so šli prav tako hitro po gobe.

Vendar so ti knjižni ponaredki le kaplja v morje škodljivih dezinformacij, ki jih proizvajajo halucinacije jezikovnih modelov, kakršen je ChatGPT. Odkar so ti pred slabim letom prišli v javno rabo, se je nanje v lenobnem iskanju bližnjic spomnil tudi marsikateri pravnik. Denimo newyorški odvetnik Steven A. Schwartz, ki je spomladi zastopal potnika letalske družbe Avianca, ki je proti njej vložil tožbo, ker naj bi bil med poletom pretrpel hudo poškodbo, ko ga je član posadke s strežnim vozičkom zadel v koleno. Schwartz se je skliceval na ducat sodnih primerov, ki so bili na prvi pogled verodostojni – to je nekaj, v čemer se jezikovni modeli brez dvoma odlikujejo –, pravzaprav pa je šlo za popolne izmišljotine, priskrbel pa jih je ChatGPT. »Nisem se zavedal, da lahko ChatGPT ponareja sodne primere,« je odvetnik junija v svoj zagovor povedal sodniku. In dodal: »Domneval sem, da gre za superiskalnik.« Pravni komentator David Lat je za New York Times povedal, da je »ta primer dvignil obilo prahu v pravni stroki. Je nekako tako, kot bi gledali avtomobilsko nesrečo.«

Amazon je uslišal glasne krike in sporne knjige nemudoma umaknil iz spletne knjigarne: smrtno nevarni gobarski priročniki so resda vzniknili kot gobe po dežju, a so šli prav tako hitro po gobe.

Zadevo je za Mladino pred nedavnim zgovorno komentiral Filip Dobranić z inštituta Danes je nov dan: »Ko odvetnik na sodišču dejansko vloži izmišljene sodne primere, ki jih je pridobil z uporabo ChatGPT-ja, ima to seveda resne posledice. Ta odvetnik se načeloma lahko izgovarja, da ga je ChatGPT zavedel, a če kot odvetnik na sodišču lažeš o primerih, ki jih dejansko nikoli ni bilo, je to dober razlog za odvzem odvetniške licence.« Vendar se to ni zgodilo: sodnik je presodil, da »raba umetne inteligence za pomoč ni neprimerna, saj je tehnološki napredek nekaj povsem običajnega«, dodal pa je, da se morajo »odvetniki prepričati o točnosti tega, kar vložijo«. Schwartz je moral plačati le globo 5000 ameriških dolarjev, še naprej pa mu je dovoljeno opravljati odvetniški poklic. A prepričani smo lahko, da se bo v prihodnje zanašal na zanesljivejše vire, kot je zavajajoči ChatGPT.

Ko ChatGPT halucinira, je nagnjen tudi k obrekovanju: Brian Hood, župan avstralskega mesteca Hepburn Shire, je spomladi grozil s tožbo podjetju OpenAI, stvarniku tega klepetalnega robota, saj je napredni klepetalnik trdil, da je župan zaradi prejemanja podkupnin prestal zaporno kazen, kar je v popolnem nasprotju z dejstvi: Hood je kot žvižgač pravzaprav odigral pomembno vlogo proti tistim, ki so dejansko izvajali korupcijo. Razvpiti chatbot je kasneje po krivem blatil še Jonathana Turleyja, profesorja prava z Univerze Georgea Washingtona: dodal ga je na seznam akademikov, ki naj bi bili obtoženi spolnega nadlegovanja, pri tem pa je navedel članek iz časnika The Washington Post, ki sploh ne obstaja. Isto napako je storil Microsoftov pogovorni robot Bing. Oba sta suvereno zatrdila, da je profesor med ekskurzijo na Aljasko otipaval študentko, vendar te ekskurzije ni nikoli bilo, prav tako ne otipavanja. »To je le najnovejše opozorilo o tem, kako umetna je lahko umetna inteligenca,« je Turley povedal za Washington Post.

Za vpogled v to, kakšni nakladači so ChatGPT in njemu podobni programi, pravzaprav ne potrebujemo podrobne analize sumljivih gobarskih priročnikov, sramotnih spodrsljajev ameriških odvetnikov ali blatenja avstralskih županov. Kadarkoli ga lahko preprosto preizkusimo sami in zelo hitro ga bomo zasačili pri samozavestnem trosenju nesmislov in izmišljotin. Ko sem ga denimo vprašal, kdo je moja žena in kaj počne, je nemudoma izstrelil, da je frontmanka zasedbe Siddharta. Kot verjetno veste, bend pravzaprav vodi glasbenik Tomi Meglič, ki – kot sem nazadnje preveril – ni moja žena. Ko sem ga vprašal, kdo je odgovorni urednik revije Mladina, mi je odgovoril, da je to Igor Mekina. Tudi to ne bo držalo. Ko sem ga pobaral po dobrih slovenskih filmih, je prvo mesto na seznamu petih mojstrovin namenil mladinskemu filmu Košarkar naj bo (2017, Boris Perkovič), ki so ga slovenski kritiki skorajda soglasno popljuvali. In tako naprej … Vse to so dokaj nedolžne, skorajda nekoliko prikupne zmote, ki ne terjajo ravno naprednih detektorjev laži, da v njih prepoznamo nesmisle. Težava se pojavi pri halucinacijah, ki se zdijo tako verodostojne, da uporabniki njihove verodostojnosti ne preverijo pri drugih virih.

Googlov jezikovni model Bard je pred nedavnim dvignil ogromno prahu, saj je na seznam velikih voditeljev vključil diktatorje, kot sta Mao Cetung in Adolf Hitler.

Jezikovni modeli so usposobljeni le za predvidevanje, katera beseda sledi prejšnji v dani povedi, zato nimajo sposobnosti preverjanja resničnosti navedenih podatkov, temveč le sposobnost pisanja verodostojno zvenečih trditev – poudarek je na »zvenečih«. Kot je za časnik The Guardian zgovorno povzel analitik Benedict Evans, je ChatGPT »kot študent, ki samozavestno odgovarja na izpitna vprašanja, čeprav se ni udeležil niti enega predavanja. Očitno lahko samozavesten nakladač napiše zelo prepričljiv nesmisel.«

Vodilni akterji razvoja umetne inteligence so o težavi haluciniranja jezikovnih modelov že neštetokrat odkrito spregovorili – Sundar Pichai, prvi mož korporacije Google, je denimo v nedavnem intervjuju za CBS priznal, da je to potencialno nerešljiva težava –, zato se zdi skorajda absurdno, da jim slepo zaupamo in se nanje zanašamo kot na zanesljive vire.

Na Fakulteti za družbene vede v Ljubljani gredo tako v korak s časom, da jezikovne modele pri navajanju priznavajo kot legitimen vir. Fakulteta kot plagiatorstvo obravnava le »zamolčanje uporabe različnih orodij umetne inteligence«, kot je zapisano v njenem posodobljenem pravilniku citiranja, ki rabo jezikovnih modelov sicer malodane spodbuja. To je ploden teren za poplavo seminarskih, morda celo diplomskih nalog, ki bodo natrpane z nesmiselnimi cvetkami. Če bi se denimo kak študent pri pisanju seminarske naloge o velikih voditeljih obrnil na Googlov jezikovni model Bard, ki je pred nedavnim dvignil ogromno prahu, saj je na seznam velikih voditeljev vključil diktatorje, kot sta Mao Cetung in Adolf Hitler, to ne bi bil ravno zgleden izdelek.

Sistemi umetne inteligence se učijo iz nepredstavljivo velikih zbirk podatkov. Slovenski pionir strojnega učenja Ivan Bratko je v nedavnem intervjuju za Mladino podal zgovorno analogijo: »Če bi vse te številke, ki poganjajo velike jezikovne modele, kot je ChatGPT, natisnili na liste formata A4 in te liste zložili drugega ob drugega v vrsto, bi z njimi prišli od Zemlje do Lune in nazaj.« Zaradi tega niti največji strokovnjaki ne morejo razumeti, zakaj se je sistem v nekem trenutku odločil točno tako, kot se je. Halucinacije so zato, vsaj za zdaj, neizogibne.

Pisma bralcev pošljite na naslov pisma@mladina.si. Minimalni pogoj za objavo je podpis z imenom in priimkom ter naslov. Slednji ne bo javno objavljen.