Gregor Kocijančič

 |  Mladina 50  |  Družba

Bolj lažno kot lažne novice

Prepričljiva manipulacija z videoposnetki z rabo umetne inteligence

Buzfeed je za prikaz političnih implikacij tehnologije deepfake ustvaril posnetek Baracka Obame, ki v kamero suvereno pove, da je Donald Trump usrane. V okencu desno zgoraj je režiser Jordan Peele, ki je ponarejeni različici Obame posodil glas.

Buzfeed je za prikaz političnih implikacij tehnologije deepfake ustvaril posnetek Baracka Obame, ki v kamero suvereno pove, da je Donald Trump usrane. V okencu desno zgoraj je režiser Jordan Peele, ki je ponarejeni različici Obame posodil glas.

Če slika pove več kot tisoč besed, videoposnetek pove več kot tisoč slik. Verjetno menite, da ni prepričljivejšega dokaznega gradiva, kot je razločen video, podkrepljen s čistim zvočnim posnetkom? Pomislite še enkrat. Splet so začeli preplavljati t. i. deepfake posnetki, hiperrealistični videoponaredki, ustvarjeni z umetno inteligenco in algoritmi strojnega učenja. Njihova prepričljivost je milo rečeno skrb zbujajoča in poraja številne pomisleke, vse skupaj pa spominja na scenarije znanstvenofantastičnih distopij. Manipuliranje z videoposnetki sicer ni nič novega, a doslej je bila za ustvarjanje prepričljivih videoponaredkov potrebna mala vojska tehničnih strokovnjakov. Hollywood je napredne tehnike sinteze podob zadnja leta predstavljal v znanstvenofantastičnih uspešnicah, kot sta Vojna zvezd in nadaljevanje kultne klasike Iztrebljevalec, v katerih so namesto že umrlih igralcev nastopale njihove sintetične različice. Ob digitalnem obujanju preminulih igralcev se je zaradi odsotnosti njihovega nadzora nad postumno zapuščino dvignila marsikatera obrv, a fotorealistične videorekonstrukcije pokojnih so doslej vseeno veljale za nekaj, kar lahko ponudijo zgolj visokoproračunski hollywoodski projekti. Tehnologija deepfake, ki ustvarjanje prepričljivih videomanipulacij omogoči tako rekoč komurkoli, pa briše mejo med resničnostjo in fikcijo ter pomeni naslednjo stopnjo v razvoju lažnih novic.

 

Zakup člankov

Celoten članek je na voljo le naročnikom. Če želite zakupiti članek, je cena 4,5 EUR. S tem nakupom si zagotovite tudi enotedenski dostop do vseh ostalih zaklenjenih vsebin. Kako do tedenskega zakupa?

Članke lahko zakupite tudi s plačilnimi karticami ali prek storitve PayPal ali Google Pay

Tedenski zakup ogleda člankov
Za ta nakup se je potrebno .

4,5 €

Za daljše časovne zakupe se splača postati naročnik Mladine.

Mesečna naročnina, ki jo je mogoče kadarkoli prekiniti, znaša že od 16,20 EUR dalje:

Gregor Kocijančič

 |  Mladina 50  |  Družba

Buzfeed je za prikaz političnih implikacij tehnologije deepfake ustvaril posnetek Baracka Obame, ki v kamero suvereno pove, da je Donald Trump usrane. V okencu desno zgoraj je režiser Jordan Peele, ki je ponarejeni različici Obame posodil glas.

Buzfeed je za prikaz političnih implikacij tehnologije deepfake ustvaril posnetek Baracka Obame, ki v kamero suvereno pove, da je Donald Trump usrane. V okencu desno zgoraj je režiser Jordan Peele, ki je ponarejeni različici Obame posodil glas.

Če slika pove več kot tisoč besed, videoposnetek pove več kot tisoč slik. Verjetno menite, da ni prepričljivejšega dokaznega gradiva, kot je razločen video, podkrepljen s čistim zvočnim posnetkom? Pomislite še enkrat. Splet so začeli preplavljati t. i. deepfake posnetki, hiperrealistični videoponaredki, ustvarjeni z umetno inteligenco in algoritmi strojnega učenja. Njihova prepričljivost je milo rečeno skrb zbujajoča in poraja številne pomisleke, vse skupaj pa spominja na scenarije znanstvenofantastičnih distopij. Manipuliranje z videoposnetki sicer ni nič novega, a doslej je bila za ustvarjanje prepričljivih videoponaredkov potrebna mala vojska tehničnih strokovnjakov. Hollywood je napredne tehnike sinteze podob zadnja leta predstavljal v znanstvenofantastičnih uspešnicah, kot sta Vojna zvezd in nadaljevanje kultne klasike Iztrebljevalec, v katerih so namesto že umrlih igralcev nastopale njihove sintetične različice. Ob digitalnem obujanju preminulih igralcev se je zaradi odsotnosti njihovega nadzora nad postumno zapuščino dvignila marsikatera obrv, a fotorealistične videorekonstrukcije pokojnih so doslej vseeno veljale za nekaj, kar lahko ponudijo zgolj visokoproračunski hollywoodski projekti. Tehnologija deepfake, ki ustvarjanje prepričljivih videomanipulacij omogoči tako rekoč komurkoli, pa briše mejo med resničnostjo in fikcijo ter pomeni naslednjo stopnjo v razvoju lažnih novic.

Z demokratizacijo programske opreme, ki zajema t. i. strojno učenje, nevronske mreže in algoritme za prepoznavanje obrazov, lahko domala vsak malce spretnejši uporabnik računalniške opreme ustvari prepričljiv videoponaredek. Aplikacije, kot je vse bolj priljubljeni FakeApp – brezplačni program, ustvarjen na temeljih Googlove odprte kode –, so razmeroma preproste za rabo in njihov namen je prav to, da lahko tudi slehernik brez resnega računalniškega znanja ustvari prepričljiv videoponaredek. Zdaj si lahko na spletu čas krajšate z ogledom odlomkov iz filmov o Indiana Jonesu, v katerih telo Harrisona Forda krasi obraz Nicolasa Cagea. Nadaljujete lahko z ogledom filmov o Jamesu Bondu, v katerih tajnega agenta britanske obveščevalne službe igra Nicolas Cage. Ali pa z epizodo Zvezdnih stez, v kateri Cage igra poveljnika vesoljske ladje. Cage je pač pogosta tarča spletnih šaljivcev, zato si ga bomo verjetno s tehnologijo deepfake sčasoma lahko ogledali v vseh mogočih inkarnacijah. A pri tem gre za nedolžno, zabavljaško plat tehnologije, ki pa v drugih kontekstih zbuja številne skrbi. Čeprav je razvoj te tehnologije še v povojih, so nekateri njeni sadovi že zdaj zastrašujoče prepričljivi in uporabljeni v sporne namene: deepfake je prah sprva dvignil zaradi nekonsenzualnih pornografskih montaž, kmalu pa se je začel razkrivati tudi njegov politični potencial: deluje lahko kot učinkovito propagandno ali sabotažno orodje, ki pomeni resno grožnjo demokraciji.

Tehnologija deepfake je ime dobila po uporabniku spletne platforme Reddit, ki je FakeApp uporabljal za to, da je obraze različnih zvezdnic lepil na telesa pornografskih igralk. Sprevržena raba umetne inteligence je spletnim perverznežem omogočila, da gledajo pornografske filme, v katerih igrajo na primer Cameron Diaz, Angelina Jolie in Emma Watson. Deepfake je omogočil poplavo nekonsenzualnih, neprostovoljnih in izkoriščevalskih videoponaredkov, ki ženske objektivirajo v nepredstavljivih razsežnostih. Pri številnih takšnih posnetkih manipulacija podob nikakor ne deluje ceneno, umetno ali zmontirano: videti so izjemno pristno – čeprav so jih amaterski posamezniki ustvarili po načelu naredi sam. Odkar je Redditov uporabnik deepfakes decembra lani objavil prvi računalniško generirani pornografski posnetek, so se takšni videi razbohotili po številnih obskurnih kotičkih medmrežja – od Reddita prek več pornografskih spletnih strani do Twitterja. Redditova podstran za objavljanje prispevkov deepfake je v enem letu – do trenutka, ko jo je vodstvo spletne strani zaprlo zaradi nasprotovanja objavam neprostovoljne pornografije – pridobila skoraj sto tisoč aktivnih uporabnikov. Med seboj so si izmenjevali pornografske stvaritve in napotke za produkcijo. Pornografijo, izdelano s tehnologijo deepfake, so pred nedavnim prepovedali tudi Twitter, Pornhub, Discord in druge spletne platforme, ki prepoznavajo težavo z morebitno etično sporno rabo te tehnologije.

Z montažo deepfake lahko kogarkoli pripravimo do tega, da reče karkoli.

Deepfake je napredna tehnika sinteze, ki podobe izbranih ljudi izjemno prepričljivo združi v nove, edinstvene videoposnetke, pri čemer obrazna mimika sledi mimiki osebe z izvirnega posnetka. Vse, kar potrebuješ za takšen videoponaredek, sta zmogljiv računalnik in zajetna podatkovna zbirka fotografij ali videoposnetkov osebe, ki je tarča manipulacije. Pri javnih osebnostih, kot so zvezdniške žrtve pornografije deepfake, to ni nikakršna težava, saj njihovih portretov na medmrežju kar mrgoli. A tudi podob navadnih smrtnikov je na spletu v dobi družabnih omrežij na pretek: na pornografskih spletnih straneh se zato pojavljajo posnetki spolnih odnosov, ki se niso nikoli zgodili, v njih pa namesto pornografskih igralcev spolno občujejo izbrani sleherniki. Tako tudi sami zlahka postanete tarča takšnih montaž, če je na splet naložena zadostna količina vaših portretov. S tehnologijo deepfake dobita javno sramotenje in t. i. maščevalna pornografija popolnoma nove razsežnosti.

Ta tehnologija ima tudi druge skrb zbujajoče potenciale. Mogoče jo je uporabiti za ustvarjanje prepričljivih lažnih novic, podtikanje zločinov in sramotenje politikov. Z montažo deepfake lahko kogarkoli pripravimo do tega, da reče karkoli: strojno učenje obraz na posnetku zmanipulira tako, da sledi zvočnemu posnetku govora, ki ga vnesemo v program. Buzfeed je za nazorni prikaz te tehnike in njenih morebitnih političnih implikacij v sodelovanju z režiserjem Jordanom Peelom ustvaril posnetek Baracka Obame, ki v kamero suvereno pove, da je Donald Trump navaden usrane. Zaradi šaljivega besedila, ki ga na posnetku izreče Obamov posnemovalec, je jasno, da gre za montažo: kot bi bil v oddaji Radio Ga Ga zvok podprt s prepričljivim videom naših politikov, ki kvasijo karikirane neumnosti. A pravzaprav ni dvoma, da bo tehnologija uporabljena tudi v nešaljive, političnopropagandne ali sabotažne namene. Takšni videi bi lahko vplivali denimo na izide volitev, če bi v ključnem trenutku splet preplavil škandalozen (ponarejen) posnetek kakega politika, ki bi počel ali govoril kaj nezaslišanega. Do takrat, ko se po spletu razširi novica, da video ni pristen, je lahko že prepozno. Članki, ki neko laž razkrinkajo, imajo veliko manjši domet kot tisti, ki širijo senzacionalistične in šokantne lažne novice. O tem, da je velik del spletnega občinstva naiven, ni dvoma: če nekateri uporabniki spleta verjamejo norčavim člankom parodične medijske hiše The Onion, smo lahko prepričani, da bo še precej več ljudi verjelo lažnim videom.

Največja grožnja je v tem, da z razvojem še bolj prefinjene programske opreme za videomanipulacijo tudi resničnim posnetkom ne bomo mogli več verjeti.

Ob razglabljanju o nevarnih družbenopolitičnih posledicah teh si pesimisti zamišljajo celo, da bi lahko pametno zastavljeni ponaredki deepfake – če bi se na spletu pojavili v času političnih napetosti – potencialno sprožili jedrsko vojno: predstavljajte si na primer prepričljiv videoponaredek, v katerem Trump napove, da bodo ZDA izstrelile jedrsko raketo, video pa si ogleda prenagljeni in vzkipljivi državni voditelj in v afektu »pritisne na gumb«. Gre za črnogledo skrajnost, ki ni nemogoča, čeprav je malo verjetna. Negativne posledice videov, izdelanih s tehnologijo deepfake, pa so seveda bolj mogoče v manjšem obsegu – tudi takrat, ko so mišljene kot šala. Belgijska oziroma flamska stranka Socialistische Partij Anders je spomladi s to tehnologijo ustvarila posnetek Donalda Trumpa, ki državne voditelje poziva, naj odstopijo od pariškega okoljskega sporazuma. Flamska stranka je moč lažnega videa podcenila: želela ga je uporabiti zgolj kot šalo, s katero bi zbudila pozornost in podpornike spodbudila, naj podpišejo peticijo, ki belgijsko vlado poziva k nujnim okoljskim ukrepom. Predstavniki stranke so se zagovarjali, da je bil video načrtno slabo zmontiran, očitno nepristen in mišljen zgolj kot potegavščina. Kljub temu je dobršen del tistih, ki so si lažni video ogledali, posnetek vzel za resničnega. Ponesrečena šala nazorno priča o velikih potencialih politične rabe takšnih videov.

A morda je največja grožnja v tem, da z razvojem še bolj prefinjene programske opreme za videomanipulacijo tudi resničnim posnetkom ne bomo več mogli verjeti. S tehnologijo deepfake lahko domišljija postane resničnost – in nasprotno: s tem, ko vednost o takšnih posnetkih prodre v splošno zavest, lahko prepričljive videomanipulacije postanejo izgovor za vse obdolžene, ki jih je kamera ujela med kaznivim dejanjem. Tehnologija deepfake lahko zato postane koristno orodje za sprenevedanje in za izločanje videogradiva, ki dokazuje korupcijo in druga nezakonita dejanja. Sočasno z razvojem novih postopkov manipuliranja z videoposnetki se zato razvijajo tudi tehnike za zaznavanje ponaredkov. DARPA, ameriška zvezna agencija za obrambne raziskovalne projekte, je letos v razvoj mehanizmov za avtomatizirano zaznavanje ponaredkov deepfake vložila kar 68 milijonov ameriških dolarjev. Nekatere lastnosti, ki dokazujejo, da videi niso pristni, so že znane: pri zaznavanju ponaredkov so raziskovalci na primer pozorni, kolikokrat ljudje pomežiknejo, saj to lahko izda, da je video ponarejen. Analitiki pa naj bi poznali tudi druge mehanizme za preverjanje pristnosti videoposnetkov, a jih javnosti raje ne zaupajo. Takoj, ko kdo najde način za zaznavo ponarejenih vsebin, producenti lažnih videov to že upoštevajo in zakrijejo sledi manipulacije. Glede na to, kako zelo se je tehnologija deepfake razvila v manj kot letu dni, morda čez nekaj let ne bomo več vedeli, čemu verjeti in čemu ne.

Pisma bralcev pošljite na naslov pisma@mladina.si. Minimalni pogoj za objavo je podpis z imenom in priimkom ter naslov. Slednji ne bo javno objavljen.