Ugotovite Združljivost Z Znakom Zodiaka
Poskušali smo ustvariti globoko ponaredek Marka Zuckerberga in Alexa Jonesa - in nam ni uspelo. Evo, kaj se je zgodilo.
Preverjanje Dejstev

Narediti videti, kot da je nekdo naredil ali rekel nekaj, kar se nikoli ni zgodilo, je težje, kot je videti.
To je tisto, kar se je Poynter naučil v zadnjih nekaj tednih, ko je poskušal ustvariti 'deepfake' video Alex Jones, gostitelj Infowars in pogost teoretik zarote, ki daje pripombe, ki jih je dejansko podal izvršni direktor Facebooka Mark Zuckerberg. Deepfakes, poimenovan po uporabniku Reddita ki so izumili metodo, so v bistvu ustvarjeni tako, da iz enega videa izvlečejo veliko število okvirjev in jih naložijo drug na drugega.
Cilj: Naj bo videti, kot da nekdo počne ali govori nekaj, kar ne. In to je Poynter poskušal narediti, da bi ugotovil, kako enostavna je pravzaprav uporaba te tehnologije.
Uporaba FakeApp , brezplačno spletno orodje, ki uporabnikom omogoča ustvarjanje lastnih globokih ponaredkov, smo poskušali ustvariti osnovni video Zuckerberga, ki izžareva Jonesove neutemeljene teorije zarote. Spodaj je videoposnetek, ustvarjen s pomočjo Poynterjevega spletnega razvijalca Warrena Fridyja s krajšim delovnim časom.
Jasno je, da to ni dobra različica nečesa amaterska pornografija , ljudje na obrobnih spletnih mestih in celo politične stranke so postale zaskrbljujoče vešče. Medtem ko je Zuckerbergov obraz res prekrit z Jonesovim, je FakeApp vključil njegov celoten obraz, zaradi česar je videti kot nekakšen zamegljen demon brez opaznih oči. Potem je tu dejstvo, da se zvok ni prestavil.
Skratka: ohraniti bi morali svoje dnevne službe.
Šalo na stran, potrebovali smo tedne, da smo pripravili nekaj, kar še zdaleč ni sprejemljiv deepfake video. In to zato, ker – kljub pogostemu medijskemu poročanju o tehnologiji globokega ponaredka – pravzaprav je res težko ustvariti enega.
'Deepfake zahteva kar nekaj ročnega truda,' je dejal Matthias Niessner , profesor na Tehnični univerzi v Münchnu, katerega lab raziskave deepfakes, v e-poštnem sporočilu Poynterju. »Na nek način bi ga lahko videli kot podobno Photoshopu. To je le malo pretirano.'
Vzpon globokih ponaredkov - o katerem so razpravljali med panelom na svetovnem vrhu o preverjanju dejstev v Rimu - je po besedah iz grozljive internetne stvari postal resnična grožnja demokraciji. Rolling Stone . je napisal Vox da bi lahko manipulirani videoposnetki spremenili naše spomine, The Verge je rekel ustvarjanje deepfake pornografskih videoposnetkov bo kmalu zelo enostavno in Ožičen celo pokrit startup blockchain, ki se je posvetil boju proti formatu.
Ob istem času, nekateri so poročali da je splošnih globokih ponaredkov že konec in 'globoki video portreti' so tisto, zaradi česar bi morali vsi skrbeti.
Medtem smo po več kot mesecu dni poskusov komaj uspeli izdelati nekaj, kar je bilo videti celo malo realistično. Seveda bi to (upravičeno) lahko pripisali naši lastni nepoznavanju modelov strojnega učenja - drugo novinarji so imeli več uspeha — a bistvo je v tem, da ustvarjanje bistveno spremenjenega videa še ni tako enostavno kot objava lažne novice na Facebooku (in verjetno ni tako donosna).
'Mislim, da ljudje, ki nimajo izkušenj s poglobljenim učenjem, ne morejo ustvariti prepričljivega globokega ponaredka z uporabo aplikacije deepfake, ki je na voljo na spletu,' je dejal. Annalisa Verdoliva , docent na Univerzi v Neaplju Federico II, v elektronskem sporočilu Poynterju. 'Tudi za strokovnjake je to precej težko.'
Verdoliva je z raziskovalno skupino poskušala ustvariti lasten globoko ponarejen video in dejala, da se je izkazalo za slabo, ker niso dobili dovolj variacij v slikah, da bi natančno usposobili model, ki ustvarja deepfake. To je tudi ključni izziv za morebitne prevarante, kot je Poynter.
Tu so koraki, ki smo jih naredili:
- Prenesli smo FakeApp in ga namestili na oddaljeno namizje sistema Windows (Poynter uporablja skoraj izključno računalnike Mac, s katerimi FakeApp ni združljiv.)
- Prenesli smo dva video posnetka — eden od Zuckerbergov govori o preiskavi ruskega vmešavanja v ameriške volitve leta 2016, in še en Jones govori o 'globoki državi' in politični agendi predsednika Donalda Trumpa. To FakeApp ponuja veliko slik obraza, med katerimi lahko izbirate.
- Dovolili smo, da »umetna inteligenca«, ki poganja FakeApp, najde in obreže obraze v vsakem videoposnetku, da ustvari model strojnega učenja, ki bi združil Jonesa in Zuckerberga, da bi bilo videti, kot da prvi govori kot drugi. To je trajalo cel vikend oziroma približno tri dni.
- Končno je FakeApp ustvaril video. Fridy je dejal, da bi model lahko treniral dlje in z več fotografijami Zuckerbergovega obraza, da bi bil bolj natančen, vendar bi to trajalo dlje.
Zdaj za zabavni del. Tukaj je nekaj težav, na katere smo naleteli pri uporabi FakeApp:
- FakeApp ne morete zagnati v Applovem macOS-u – pri nas je deloval samo v sistemu Windows.
- Morate imeti Grafična kartica, ki temelji na NVIDIA , ki je v bistvu kos strojne opreme, ki vam omogoča obdelavo vseh slik in njihovo preoblikovanje skupaj.
- V računalniku morate imeti veliko pomnilnika - približno 10 GB.
- Naleteli smo na težave z združljivostjo z različnimi različicami TensorFlow, knjižnice programske opreme, ki omogoča FakeAppu, da ustvari svoj model strojnega učenja.
- Iz izvirnega videoposnetka smo potegnili zvok, da bi ga poskusili vstaviti v deepfake, vendar FakeApp z njim ni storil ničesar.
'FakeApp se sliši dobro, toda ko se usedete in poskusite, ne deluje 100-odstotno,' je dejal Fridy. 'To ni orodje iz škatle.'
FakeApp je po poročanju bilo preneseno več kot 100.000-krat. Obstajajo celotni kanali 4chan in Reddit, namenjeni ustvarjanju globokih ponaredkov. Toda za zdaj je tehnologija v najboljšem primeru rudimentarna - tudi za tiste, ki jo vedo pravilno uporabljati.

(Posnetki zaslona iz FakeApp)
Fridy je rekel, da je tehnologija všeč Adobe After Effects in Lyrebird , tako dobro, kot Face2Face in Pixel2Pixel , bi bile verjetno boljše stave za ustvarjanje globokega ponarejenega videa. S.pa, belgijska politična stranka, ki ustvaril globoko ponaredek Trumpa prejšnji mesec, uporabljen After Effects.
Kljub zapletom z orodjem so globoki ponarejeni videoposnetki še vedno zaskrbljujoči - le ne v bližnji prihodnosti in z nekaj opozorili.
'Smo šele na začetku te tehnologije in mislim, da se bo kmalu izboljšala in postala enostavna za uporabo za vsakogar,' je dejal Verdoliva. 'Trenutno je ločljivost še vedno prenizka, vendar bo to vprašanje v bližnji prihodnosti, saj je prišlo do osupljivega napredka pri generaciji visokokakovostnih sintetičnih obrazov.'
Hkrati bi lahko nerazumevanje in pretiravanje vpliva in možnosti globokih ponaredkov predstavljalo večjo grožnjo kratkoročno.
'Trenutno me največ skrbi napačno razumevanje mnogih od teh pristopov,' je dejal Niessner. »Filmska industrija zadnjih 30 let dela precej realistične 'lažne' slike. Toda zdaj, ko dodamo AI kot modno besedo, je nenadoma problem - čeprav niti ne deluje tako dobro.'
Deepfake o videoposnetkih bodo danes razpravljali na panelu na Global Fact 5. Sledite @factchecknet in #GlobalFactV za posodobitve v živo.