Matic Tomšič

Ponedeljek,
26. 7. 2021,
22.00

Osveženo pred

3 leta, 4 mesece

Termometer prikazuje, kako vroč je članek.

Termometer prikaže, kako vroč je članek.

Thermometer Red 9,25

6

Natisni članek

Natisni članek

OneCoin kriptovaluta prevara Onecoin Ruja Ignatova

Ponedeljek, 26. 7. 2021, 22.00

3 leta, 4 mesece

Vrnitev ene od najbolj iskanih žensk na svetu vzbuja skrbi

Matic Tomšič

Termometer prikazuje, kako vroč je članek.

Termometer prikaže, kako vroč je članek.

Thermometer Red 9,25

6

Ruja Ignatova deepfake | Foto YouTube / Posnetek zaslona

Foto: YouTube / Posnetek zaslona

Bolgarka Ruja Ignatova, obraz Onecoina, ene od največjih piramidnih shem zadnjega desetletja, zaradi katere ji v ZDA grozi večdesetletna zaporna kazen, je neznano kam z metaforično malho denarja, domnevno težko več sto milijonov evrov, izginila pred skoraj štirimi leti. Za nekatere opeharjene vlagatelje, ki še vedno verjamejo njenim obljubam, je prejšnji petek nato posvetil žarek upanja: Ignatova se je pojavila v štiriminutnem videoposnetku na YouTubu in obljubila vrnitev k stari slavi. Toda čeprav se na prvi pogled zdi, da gre za Ignatovo, oseba v videoposnetku ni Bolgarka. Njen obraz so ponaredili s, po mnenju marsikoga, tudi FBI, zelo skrb vzbujajočo tehnologijo, katere potencial so v zadnjem obdobju začeli prepoznavati tudi goljufi in kriminalci.  

Ruja Ignatova se je po skoraj štiriletnem umiku iz javnosti zdaj vrnila in želi blaginjo vsem, ki so od leta 2014 pod pretvezo nakupa izobraževalnih paketov vložili na tisoče evrov v fiktivno kriptovaluto onecoin, katere vrednosti še danes ne določa trg, temveč obstaja zgolj v zaprtem ekosistemu. Promotorjem sheme OneCoin so po serijskih hotelskih predstavitvah pretežno v letih 2016 in 2017 nasedli tudi številni Slovenci, neuradno jih je bilo celo do 15 tisoč.

Onecoin
Novice Skrivnost nabirk v ljubljanskih hotelih: kam je šel denar na tisoče Slovencev

V petkovem videoposnetku se domnevna Ruja tako zaklinja k vrnitvi projekta OneCoin na pota stare slave, a za to seveda, to pove šele proti koncu, potrebuje podporo v obliki donacij.

Gre za trik, ki ga je poveljstvo OneCoina po izginotju Ruje Ignatove izvedlo že konec leta 2018. Takrat so nestrpnim vlagateljem namesto uvrstitve onecoina na katero od menjalnic za kriptovalute, kar bi ga legitimiziralo in jim navrglo izredne dobičke, ponudili nakup novega kriptožetona.

V najnovejšem primeru sicer skoraj zagotovo ne gre za kaj podobnega, temveč najverjetneje za poskus izvabljanja še več denarja od najbolj fanatičnih vernikov Ruje Ignatove.

V videoposnetku namreč ne nastopa ona, temveč gre za ponaredek z uporabo tako imenovane tehnologije deepfake, ki omogoča izjemno prepričljivo ponarejanje človeških obrazov.

Nobena od oseb na teh 12 fotografijah ni resnična. Vse smo ustvarili z generatorjem človeških obrazov na spletni strani This Person Does Not Exist, ki ga poganja umetna inteligenca. Kliknite na fotografijo za preizkus generatorja. | Foto: Matic Tomšič / Posnetek zaslona Nobena od oseb na teh 12 fotografijah ni resnična. Vse smo ustvarili z generatorjem človeških obrazov na spletni strani This Person Does Not Exist, ki ga poganja umetna inteligenca. Kliknite na fotografijo za preizkus generatorja. Foto: Matic Tomšič / Posnetek zaslona
Deepfake ali globoki ponaredek, če izraz poskusimo prevesti v slovenski jezik, temelji na umetni inteligenci oziroma na tako imenovanem strojnem učenju. Gre za načelo samoizobraževanja, pri katerem, če za primer uporabimo ponarejanje določene osebe, specializirani računalniški program analizira na desetine ali celo stotine ur videoposnetkov določene osebe, da bi razumel, kako se premika, govori, kako je videti pod različnimi koti in ob spremenljivi osvetlitvi. Tak postopek strojnega učenja lahko, če želimo izdelati res prepričljiv ponaredek človeškega obraza, traja tudi več dni.

V videoposnetku, ki nas poskuša prepričati o ponovnem vstajenju Ruje Ignatove, je na več mestih mogoče opaziti odstopanje njenega obraza od obraza igralke (oziroma igralca z lasuljo), ki je posodila telo, prav tako se v več kadrih spreminja oblika las. Lažna Ruja sicer govori z močnim ruskim naglasom, angleščina pa ji gre z jezika tudi nekoliko težje kot resnični Ignatovi.

V videoposnetku se v nekaterih kadrih to sicer vidi bolje kot na mirujočih posnetkih zaslona: domnevni Ruji Ignatovi občasno izginejo in se nato znova pojavijo lasje. Ob ušesih, ki jih v tem primeru spretno zakriva nekaj, kar je najverjetneje lasulja, je to še vedno eden od glavnih pokazateljev, da gre najverjetneje za posnetek deepfake. Lažni Ruji občasno preskakuje tudi obraz, toda videoposnetek je sicer zelo kakovosten in marsikdo, sploh tisti, ki hoče verjeti, da bo nekoč res obogatel oziroma vsaj dobil nazaj svoj prvotni vložek, ne bo opazil, da gre za ponaredek. | Foto: YouTube / Posnetek zaslona V videoposnetku se v nekaterih kadrih to sicer vidi bolje kot na mirujočih posnetkih zaslona: domnevni Ruji Ignatovi občasno izginejo in se nato znova pojavijo lasje. Ob ušesih, ki jih v tem primeru spretno zakriva nekaj, kar je najverjetneje lasulja, je to še vedno eden od glavnih pokazateljev, da gre najverjetneje za posnetek deepfake. Lažni Ruji občasno preskakuje tudi obraz, toda videoposnetek je sicer zelo kakovosten in marsikdo, sploh tisti, ki hoče verjeti, da bo nekoč res obogatel oziroma vsaj dobil nazaj svoj prvotni vložek, ne bo opazil, da gre za ponaredek. Foto: YouTube / Posnetek zaslona

Resnična grožnja, opozorila so vse glasnejša

Grožnja tehnologije deepfake, s katero je mogoče ustvarjati prepričljive replike resničnih oseb ali pa iz nič narediti nove ljudi, je v zadnjem obdobju postala dovolj velika, da je ob strokovnjakih za informacijsko varnosti uradno opozorilo izdal tudi ameriški zvezni preiskovalni urad FBI.

Prepričani so, da bomo v prihodnjih 12 ali 18 mesecih doživeli poplavo tako imenovanih sintetičnih avdiovizualnih vsebin, torej zvočnih in videoposnetkov, katerih namen bosta predvsem manipuliranje z javnim mnenjem v politične namene in pa spletne goljufije.

Pri FBI so opozorili, da že od leta 2019 odkrivajo politično motivirane kampanje, pri katerih osrednjo vlogo igrajo vse bolj prepričljivi ponaredki, in dodali, da njihovo število narašča.

S tehnologijo deepfake so do zdaj že ponarejali glas in stas svetovno znanih politikov, kot sta Donald Trump ali Vladimir Putin, a je bilo v tako rekoč vseh primerih, ki so dobili večjo pozornost javnosti, večinoma jasno, da gre za parodije oziroma prikaze delovanja tehnologije. | Foto: Reuters S tehnologijo deepfake so do zdaj že ponarejali glas in stas svetovno znanih politikov, kot sta Donald Trump ali Vladimir Putin, a je bilo v tako rekoč vseh primerih, ki so dobili večjo pozornost javnosti, večinoma jasno, da gre za parodije oziroma prikaze delovanja tehnologije. Foto: Reuters

Diskreditiranje političnih nasprotnikov in tretjih oseb, poskus ustvarjanja javnega mnenja s tako imenovanimi sintetičnimi osebami ter kraja denarja z goljufijo, pri katerih je bila zlorabljena tehnologija deepfake, sta se že znašla na očeh javnosti.

Leta 2019 se je na spletu pojavil predelan videoposnetek Nancy Pelosi, predsednice predstavniškega doma ZDA. Njegov namen je bil gledalca prepričati, da je bila med javnim nagovorom pod vplivom alkohola, a se je pozneje izkazalo, da je šlo za deepfake. Videoposnetek je takrat na Twitterju delil tudi nekdanji predsednik ZDA Donald Trump.

Leta 2019 se je v Veliki Britaniji zgodila tudi najverjetneje precedenčna poslovna prevara, pri kateri je direktor podjetja verjel, da ga je poklical njegov šef, prvi mož starševskega podjetja iz Nemčije, in madžarskemu dobavitelju po navodilih šefa nakazal 220 tisoč evrov. Pozneje se je izkazalo, da je bil žrtev prevaranta, ki je s pomočjo umetne inteligence izdelal sintetični glas šefa:

heker
Novice Prihodnost zločina? Na nenavaden način so ukradli 220 tisoč evrov.

Za nekaj najbolj branih judovskih časnikov je pred časom vsebine, ki so med drugim diskreditirale znanega palestinskega pravnika, pisal britanski študent in občasni novinar Oliver Taylor, za katerega se je zatem izkazalo, da v resnici ne obstaja.

Kdo je bil v resnici avtor Oliver Taylor, ki se je predstavljal s fotografijo, izdelano z orodjem za računalniško generiranje prepričljivih človeških obrazov, še vedno ni znano.  | Foto: Reuters Kdo je bil v resnici avtor Oliver Taylor, ki se je predstavljal s fotografijo, izdelano z orodjem za računalniško generiranje prepričljivih človeških obrazov, še vedno ni znano.  Foto: Reuters

Marca letos je medtem odmevalo ameriško dejanje mame, ki je s kontroverzno novo tehnologijo za ponarejanje človeških obrazov nadlegovala in ustrahovala vrstnice svoje najstniške hčere.

Petdesetletna Raffaela Spone iz zvezne države Pensilvanije v ZDA je z aplikacijami, ki omogočajo prepričljivo preslikavo obraza resnične osebe na telo nekoga drugega, ustvarila deepfake fotografije in videoposnetke, ki so vsaj tri članice srednješolske navijaške skupine, v kateri sodeluje tudi njena hči, prikazovali v kočljivih položajih.

Sponova, ki je fotografije obrazov vrstnic hčere našla na družbenih omrežjih, je ponarejene posnetke anonimno poslala tako dekletom kot trenerju navijaške ekipe. Posnetki so navijačice prikazovali gole oziroma med uživanjem alkohola in pri kajenju. Njen namen je bil doseči izključitev deklet iz skupine navijačic. Hči Sponove za mamino početje ni vedela. Motiv za dejanje Sponove uradno še ni znan, po besedah očeta ene od žrtev pa naj bi šlo za zamero, ki je ušla z vajeti. Oče navijačice, ki jo je s ponarejeno fotografijo ustrahovala 50-letnica, je to pred časom namreč prosil, naj se neha družiti s hčerko Sponove, saj naj bi s svojim vedenjem slabo vplivala na druga dekleta.  | Foto: Policijska postaja Hilltown, Pensilvanija Sponova, ki je fotografije obrazov vrstnic hčere našla na družbenih omrežjih, je ponarejene posnetke anonimno poslala tako dekletom kot trenerju navijaške ekipe. Posnetki so navijačice prikazovali gole oziroma med uživanjem alkohola in pri kajenju. Njen namen je bil doseči izključitev deklet iz skupine navijačic. Hči Sponove za mamino početje ni vedela. Motiv za dejanje Sponove uradno še ni znan, po besedah očeta ene od žrtev pa naj bi šlo za zamero, ki je ušla z vajeti. Oče navijačice, ki jo je s ponarejeno fotografijo ustrahovala 50-letnica, je to pred časom namreč prosil, naj se neha družiti s hčerko Sponove, saj naj bi s svojim vedenjem slabo vplivala na druga dekleta. Foto: Policijska postaja Hilltown, Pensilvanija

To je bilo sicer bolj nedolžno, a konec februarja letos so marsikomu nelagodne občutke vzbujali videoposnetki, na katerih je filmski zvezdnik Tom Cruise čaral s kovancem, igral golf in se spotikal ob preproge.

Čeprav je bilo na replikah obličja filmskega zvezdnika mogoče opaziti nekaj anomalij, ki so pozornemu očesu izdajale, da gre za ponaredek, je bil splošen konsenz spletne javnosti jasen: videoposnetki so strašljivo realistični in marsikdo bi z lahkoto verjel, da so pristni oziroma da v njih zares nastopa Cruise:

Predloge za zakonsko regulacijo in sankcije za ponarejanje človeških obrazov je obravnavalo že kar nekaj svetovnih vlad, a na tem področju stvari za zdaj bolj ali manj stojijo, delno tudi zaradi aktualnih prioritet, saj se večina svetovnih držav bojuje proti epidemiji bolezni covid-19.

Eden od redkih primerov, kjer je bila obravnavana tehnologija zares vključena v veljavni zakon, se je zgodil decembra 2019, ko je nekdanji predsednik ZDA Donald Trump podpisal zakon o obrambnem proračunu Združenih držav Amerike za leto 2020.

Zakon je vladi ZDA med drugim naložil odgovornost, da pripravi poročilo o morebitni zlorabi tehnologije deepfake proti ZDA s strani tujih akterjev, da o morebitnih zaznanih primerih uporabe tehnologije deepfake za vmešavanje v ameriške volitve obvesti kongres ZDA in da spodbudi razvoj tehnologij za zaznavanje manipuliranih posnetkov.

Preberite tudi: