Matic Tomšič

Četrtek,
18. 4. 2024,
22.24

Osveženo pred

6 dni, 10 ur

Termometer prikazuje, kako vroč je članek.

Termometer prikaže, kako vroč je članek.

Thermometer Blue 1,36

Natisni članek

Natisni članek

deepfake generativna UI umetna inteligenca umetna inteligenca Microsoft

Četrtek, 18. 4. 2024, 22.24

6 dni, 10 ur

Osebe, ki prinašajo čas velike negotovosti: dobro poglejte, kaj jih izdaja #video

Matic Tomšič

Termometer prikazuje, kako vroč je članek.

Termometer prikaže, kako vroč je članek.

Thermometer Blue 1,36

Microsoftova raziskovalna veja v Aziji je ta teden razkrila rezultate projekta VASA-1, v sklopu katerega je nastal istoimenski umetnointeligenčni model za računalniško ustvarjanje izredno prepričljivih videoposnetkov govorečih ljudi. Tehnologije, ki ima ogromen uporabni potencial, a hkrati odpira tudi neskončne možnosti zlorab, saj bi lahko z njo kdorkoli manipuliral ali zavajal z uporabo fotografije resnične osebe, Microsoft vsaj za zdaj ne bo delil z javnostjo.

Umetna inteligenca MCD
Novice Fotografija iz McDonaldsa buri duhove: kaj je v ozadju?

Bi ugotovili, da ne gre za posnetke resničnih oseb?

Kot je razvidno v zgornjem videoposnetku, je z umetnointeligenčnim modelom VASA-1 mogoče ustvarjali hiperrealistične videoposnetke govorečih človeških obrazov, ki ne premikajo zgolj ustnic, temveč predstavijo velik del spektra obrazne mimike.

Kot poudarjajo pri Microsoftu (vir), so vse rezultate dosegli s samo eno fotografijo obraza in posnetkom govora, temu pa je videoposnetek nato prilagodila umetna inteligenca, ki poganja VASA-1.

Pohvalili so se tudi s hitrostjo delovanja modela VASA-1, ki je na navadnem osebnem računalniku z grafično kartico Nvidia RTX 4090, ki sicer res predstavlja vrh aktualne ponudbe, videoposnetke formata 512 x 512 slikovnih pik po izbiri fotografije in zvočnega posnetka generiral tako rekoč v trenutku. Primer v spodnjem videoposnetku:

Kako prepoznati ljudi z "računalniškim" DNK?

Pri Microsoftu priznavajo, da so v večini videoposnetkov še vedno prisotni določeni t. i. artefakti, grafične napake, ki razkrivajo, da so bili videoposnetki govorečih oseb ustvarjeni z umetno inteligenco. "Za dosego avtentičnosti, kakršno lahko vidimo pri resničnih videoposnetkih, bo še vedno treba zapolniti določeno vrzel," so zapisali v sporočilu za javnost.

David Zupančič
Novice Znani slovenski zdravnik opozarja in se čudi: "Pa tega ne moreš verjeti!" #video

Pozorno oko tako lahko opazi, da računalniški DNK oseb v Microsoftovih videoposnetkih izdajajo predvsem njihovi lasje, ki so videti zelo rigidno, skoraj gumijasto, zobje, ki se med trajanjem videoposnetka povečujejo ali zmanjšujejo oziroma dobijo drugačen barvni odtenek, ušesa, ki se v nekaterih primerih tako rekoč premikajo neodvisno od glav umetnointeligenčnih oseb. VASA-1 ima tudi manjše težave z okvirji očal, ki se občasno upogibajo oziroma obliko spreminjajo glede na obrazno mimiko. 

Nobena od oseb na teh dvanajstih fotografijah ni resnična. Vse smo ustvarili z generatorjem človeških obrazov na spletni strani This Person Does Not Exist, ki ga poganja umetna inteligenca.  | Foto: This Person Does Not Exist Nobena od oseb na teh dvanajstih fotografijah ni resnična. Vse smo ustvarili z generatorjem človeških obrazov na spletni strani This Person Does Not Exist, ki ga poganja umetna inteligenca. Foto: This Person Does Not Exist

Dekle, par, posesivnost
Novice Ljubice iz nočne more: "Izredno moteče je, kaj vse sprašujejo"

"Sintetični" ljudje niso težava, ta se pojavi, če bi uporabili fotografije resničnih oseb

Vse osebe v videoposnetkih v resnici ne obstajajo, temveč so bile ustvarjene s pomočjo drugih umetnointeligenčnih generativnih modelov, konkretno StyleGAN2 in DALL·E-3. 

S tehnologijo VASA-1 bi bilo seveda mogoče ustvariti tudi videoposnetek govorjenja resnične osebe, če bi imeli le eno njihovo fotografijo in posnetek govora. Tega je z določenimi orodji do neke mere že mogoče narediti povsem računalniško.

Ameriški FBI je že v začetku leta 2021 opozoril, da je samo še vprašanje časa, kdaj bo svetovni splet doživel poplavo tako imenovanih sintetičnih vsebin, računalniško generiranih fotografij in videoposnetkov resničnih ali izmišljenih ljudi, katerih namena bosta predvsem manipuliranje z javnim mnenjem v politične namene in pa spletne goljufije.

Dejstvo, da bi model VASA-1 lahko bil uporabljen prav z namenom ponarejanja besed ali manipuliranja izjav tako rekoč katerekoli osebe na svetu z ustvarjanjem t. i. posnetkov deepfake, je najverjetneje eden od glavnih razlogov, da Microsoft po navedbah podjetja dostopa do tehnologije (še) ne bo omogočil javnosti.

Pred leti smo poročali o Oliverju Taylorju, študentu, blogerju in občasnem novinarju, ki ga je po razkritju tiskovne agencije Reuters nekdo ustvaril izključno za poskus diskreditacije palestinskega pravnika. Ta je bil v zadnjih letih trn v peti kontroverznemu izraelskemu podjetju NSO Group, ki razvija visokotehnološke rešitve za prisluškovanje in vdiranje v informacijske sisteme. Taylor je bil kot lažna oseba tako prepričljiv, da mu je prispevke uspelo objaviti v uglednih judovskih medijih The Jerusalem Post, Algemeiner Journal in The Times of Israel. | Foto: Reuters Pred leti smo poročali o Oliverju Taylorju, študentu, blogerju in občasnem novinarju, ki ga je po razkritju tiskovne agencije Reuters nekdo ustvaril izključno za poskus diskreditacije palestinskega pravnika. Ta je bil v zadnjih letih trn v peti kontroverznemu izraelskemu podjetju NSO Group, ki razvija visokotehnološke rešitve za prisluškovanje in vdiranje v informacijske sisteme. Taylor je bil kot lažna oseba tako prepričljiv, da mu je prispevke uspelo objaviti v uglednih judovskih medijih The Jerusalem Post, Algemeiner Journal in The Times of Israel. Foto: Reuters

Microsoft tudi opozarja, da je bil model VASA-1 v prvi vrsti ustvarjen za raziskovanje učinkovitejšega generiranja umetnointeligenčnih avatarjev na spletu, ima pa tudi potencial za drugačno uporabo, na primer za zaznavanje ponarejenih oziroma drugih umetnointeligečnih videoposnetkov ali fotografij.

"Naša raziskava ni namenjena ustvarjanju vsebin, ki bi lahko zavajale ali manipulirale," so zapisali v izjavi za javnost.

Strici in tete iz ozadja, ki z javnim mnenjem manipulirajo tudi v Sloveniji

Spletni provokatorji (troli) oziroma ustvarjalci lažnih uporabnikov (botov), ki so na družbenih omrežjih, predvsem nekdanjem Twitterju (zdaj X) zlorabljeni v politične, ideološke ali tudi komercialne namene, v zadnjem času sicer res vse pogosteje posegajo tudi po orodjih, ki dobesedno naredijo novega človeka, temeljijo pa na generativni umetni inteligenci.

Eno najbolj znanih in tudi najširše uporabljanih orodij za ponarejanje obrazov z umetno inteligenco je spletna stran This Person Does Not Exist (v prevodu Ta oseba ne obstaja), ki vsakič, ko jo osvežimo, ustvari nov obraz. 

Predstavljanje za lažne osebe z računalniško ustvarjenimi fotografijami profila ni omejeno le na Twitter oziroma X. Na slovenskem Facebooku je pred časom, na primer, potekala organizirana kampanja deljenja povezav do novic v različne skupine z več tisoč uporabniki, v katerih so sodelovali izključno profili s fotografijami, ki so jih pridobili na eni od spletnih strani za generiranje človeških obrazov. Kdo je bil v ozadju, ni znano, novice pa so vodile na spletne strani, ki uporabnika zasujejo z oglasi. Tudi sicer računalniško ustvarjene profilne fotografije na Facebooku uporablja precej oseb, ki se zaradi objavljanja provokativnih ali neprimernih komentarjev ali podpore določeni politični opciji ali udeležencu oboroženega spopada ne želi izpostaviti z lastnim obrazom, imenom in priimkom. | Foto: posnetek zaslona/Marine Traffic Predstavljanje za lažne osebe z računalniško ustvarjenimi fotografijami profila ni omejeno le na Twitter oziroma X. Na slovenskem Facebooku je pred časom, na primer, potekala organizirana kampanja deljenja povezav do novic v različne skupine z več tisoč uporabniki, v katerih so sodelovali izključno profili s fotografijami, ki so jih pridobili na eni od spletnih strani za generiranje človeških obrazov. Kdo je bil v ozadju, ni znano, novice pa so vodile na spletne strani, ki uporabnika zasujejo z oglasi. Tudi sicer računalniško ustvarjene profilne fotografije na Facebooku uporablja precej oseb, ki se zaradi objavljanja provokativnih ali neprimernih komentarjev ali podpore določeni politični opciji ali udeležencu oboroženega spopada ne želi izpostaviti z lastnim obrazom, imenom in priimkom. Foto: posnetek zaslona/Marine Traffic

Indicev, da se resnični uporabnik družbenega omrežja skriva za obrazom, ki ga je ustvarila umetna inteligenca, je več: ozadje fotografije je pogosto abstraktno, v laseh se pojavljajo anomalije, meja med morebitnimi očali, lasmi in kožo je slabo zabrisana, zobje, predvsem kočniki, so izrisani zelo grobo, če ima oseba oblačilo z ovratnikom, je ta pogosto nesimetričen.

Če naletimo na več potencialno lažnih uporabnikov, za katere menimo, da zlorabljajo računalniško generirane fotografije profila, moramo biti pozorni tudi na razdaljo med njihovimi očmi, saj bo pri vseh tako rekoč enaka.