22. 9. 2023 | Mladina 38 | Družba
Datamorgana
Jezikovni modeli, kot je ChatGPT, so nezanesljiv vir informacij, nagnjeni so k haluciniranju, torej navajanju izmišljotin, ki jih prodajajo kot dejstva. To je lahko tudi smrtno nevarno.
Podoba, ustvarjena s pomočjo umetne inteligence, je simbolična.
Kecia Abbott je hiperproduktivna avtorica gobarskih priročnikov. Piše in izdaja jih kot po tekočem traku – obseg literarnega opusa bi ji lahko zavidali celo nekateri najplodnejši pisatelji. Tudi če spadate v tisti del populacije, ki se z vso strastjo ukvarja z nabiranjem gob, in več polic vaše domače knjižnice krasijo številni gobarski priročniki, morda celo mikološka strokovna literatura, za Abbottovo skoraj gotovo slišite prvič, pa čeprav je v rekordnem času – v pičlih dveh dneh! – izdala kar devet različnih knjig o glivah. Zakaj? Ta oseba sploh ne obstaja. Kecia Abbott je izmišljeni psevdonim oportunističnih prevarantov, ki gobarske priročnike pišejo ob pomoči razvpitega jezikovnega modela ChatGPT, paradnega konja panoge umetne inteligence. To morda niti ne bi bilo tako sporno, če bi bil ChatGPT zanesljiv vir informacij. A ker si pogosto kaj izmisli, laži pa nam prodaja kot dejstva – stroka temu samozavestnemu blebetanju nesmislov (gobarski tematiki prikladno) pravi »haluciniranje« –, so ti priročniki pravzaprav smrtno nevarni.
Zakup člankov
Celoten članek je na voljo le naročnikom. Če želite zakupiti članek, je cena 4,2 EUR. S tem nakupom si zagotovite tudi enotedenski dostop do vseh ostalih zaklenjenih vsebin. Kako do tedenskega zakupa?
Pisma bralcev pošljite na naslov pisma@mladina.si. Minimalni pogoj za objavo je podpis z imenom in priimkom ter naslov. Slednji ne bo javno objavljen.