Deepfakes 101
By: Joshua Glick
Ordet “deepfake” — en kombination af “deep learning” og “fake” — refererer til ethvert medie, der bruger kunstig intelligens til at simulere folk, der gør eller siger ting, de aldrig har gjort eller optræder i opdigtede situationer. Alt sammen uden deres samtykke.
Deepfakes blev kendt i offentligheden i slutningen af 2017 med udbredelsen af AI-manipulerede face-swap-videoer på internettet. Mange af de mest almindelige eksempler drejede sig om berømtheders hoveder sat på kroppen af pornofilmstjerner.[1] Deepfakes og debatten om dem er siden flyttet fra Reddit og 4chan til mainstream fora og sociale medier.
Der er ganske vist mange kunstneriske og civile anvendelser af syntetiske medier. AI kan hjælpe med at skabe nye former for offentlig historie, levere innovative løsninger på infrastrukturelle udfordringer i byer og give social kritik. In Event of Moon Disaster selv, et flerdelt installations- og digitalt projekt, viser AIs kreative potentiale og advarer mod farerne ved desinformation. Deepfakes er dog ofte beregnet til mere ondsindede formål — den mest almindelige brug af deepfakes er pornografi, hvor ansigtsbytning udgør en form for digital vold, der bruges til at ydmyge og chikanere. Der er også potentiale til, at deepfakes kan skabe forvirring eller til at forstærke “fake news.”
Mediemanipulation er et århundreder gammelt fænomen, der spænder over alt fra spektakulære svindelnumre til film, der er vildledende redigeret, og billeder manipuleret i Photoshop.[2] Som forskerne Britt Paris og Joan Donovan anfører, er deepfakes en del af et bredt spektrum af audiovisuelle medier, der har til formål at narre eller forvirre seerne. Medier, der har til formål at vildlede, trækker på en række forskellige teknikker, såsom at sætte hastigheden op, sænke hastigheden, genklippe (med nye indsættelser) og gen-kontekstualisere det originale klip. “Cheapfakes” eller “shallowfakes” refererer til mere lavteknologiske, hurtigt skabte medier, der involverer manipulerede billeder og forvrænget kontekst.[3]
Fire faktorer har bidraget til fremkomsten af deepfakes:
- Fremskridt inden for deep learning-teknologier og computerhardware
- Udvikling af sociale medieplatforme, der gør det nemmere for folk at dele billeder og andet samt få adgang til information
- Et ureguleret miljø for medieproduktion og -distribution
- Journalistikkens trængte tilstand
Troværdige nyhedsorganisationer er tvunget til at kæmpe med udbydere, der er specialiseret i clickbait-indhold, angreb mod en fri og uafhængig presse og svindende personale og ressourcer.
For at lave den mest almindelige form for deepfake, face-swap-videoen, erstattes et “målansigt” med et “kildeansigt” af skaberen af videoen. Ideen er at give indtryk af, at kildepersonen rent faktisk udførte handlingen afbildet i målpersonens video. Skaberen af videoen har først brug for en “træningsmodel” for at foretage udskiftningen, som involverer algoritmer, der behandler et stort datasæt af billeder relateret til det menneskelige ansigt. Dette omfatter en bred vifte af ansigtstræk (øjne, ører, hår osv.) samt en lige så bred vifte af særlige kvaliteter (toner, teksturer osv.). Resultatet er en træningsmodel, der ikke blot besidder en omfattende forståelse af et menneskes ansigtstræk, men også forbindelsen mellem disse træk; for eksempel placeringen af øret på siden af hovedet og næsen i midten.
I DENNE VIDEO ÆNDRER YOUTUBE-BRUGER CTRL SHIFT FACE SKUESPILLEREN BILL HADERS ANSIGT TIL BÅDE AL PACINO OG ARNOLD SCHWARZENEGGER. (KREDITERING: ctrl shift face)
Ved at trække på træningsdataene begynder AI en billede-for-billede-rekonstruktion af kildepersonens ansigt i sammenhæng med målpersonens video. Personen i videoen bevarer målindividets udtryk, opførsel og ord, men får ansigtstræk fra kilden — den person, seeren skal tro, udfører handlingen. Som et sidste trin kan postproduktions-effekter påføres deepfake for at sikre, at bevægelserne af hoved og nakke ser smidige og overbevisende ud.
Der er adskillige avancerede teknikker til at højne kvaliteten af deepfakes. En af de mest populære inddrager noget, der hedder Generative Adversarial Networks. I denne teknik lærer både en generativ og en diskriminerende algoritme af hinanden for at skabe en træningsmodel. Mens sidstnævnte forsøger at differentiere “rigtige” versus “falske” iterationer af træningsdataene, forsøger førstnævnte at narre det diskriminerende netværk til at acceptere falske gentagelser som ægte. Da de to algoritmer konfronteres, producerer den generative algoritme til sidst syntetiske medier, som hverken den diskriminerende algoritme (eller det menneskelige øje eller øre) kan opdage er falske, i hvert fald ikke uden nøje granskning.
Politikere og berømtheder er lette mål for deepfake-skabere, ikke kun fordi de er så genkendelige, men fordi der er masser af tilgængelige træningsdata for en AI til at bygge sin model. Tidlige eksempler omfattede Barack Obama, Nicolas Cage, Mark Zuckerberg, Angela Merkel, Manoj Tiwari, Nancy Pelosi, Vladimir Putin og Zulkifli “Zul” Ariffin.[4] Ifølge en rapport fra cybersikkerheds-virksomheden Deeptrace Labs var der tæt ved 49.000 deepfake-videoer og 20 centre for udvikling af indhold og websteder online i juni 2020, og det antal er fortsat med at vokse.[5]
I 2018 ADVAREDE JORDAN PEELES MONKEYPAW-PRODUCTIONS, I SAMARBEJDE MED NYHEDSSITET BUZZFEED, OM DEEPFAKES’ MAGT — VED AT LAVE DENNE DEEPFAKE-VIDEO MED BARACK OBAMA. (KREDITERING: BUZZFEED VIDEO)
Deepfakes er hurtigt blevet et kulturelt fænomen, der har infiltreret de overlappende verdener inden for politik, underholdning og journalistik. De skal undersøges som både en særskilt form for syntetiske medier, der trækker på en teknologisk værktøjskasse i udvikling, såvel som en del af et bredere landskab af desinformation.
Kreditering foto indledning: Kilde: Joan Donovan og Britt Paris, Deepfakes og Cheap Fakes: The Manipulation of Audio and Visual Evidence, Data & Society, september 2019
[1] “Deepfake” blev kendt omkring november 2017 af Reddit-brugeren u/deepfakes, som efterfølgende oprettede et deepfake-forum dedikeret til at bytte ansigter på kvindelige berømtheder til pornografi. Reddit forbød efterfølgende gruppen. For omtale, se for eksempel Adi Robertson, “Reddit bans ‘deepfakes’ AI Porn Communities,” The Verge, 7. februar 2018.
[2] For denne længere historie, se Kevin Young, “Bunk: The Rise of Hoaxes, Humbug, Plagiarists, Phonies, Post-Facts and Fake News” (Minneapolis: Graywolf Press: 2017); Alexandra Juhasz og Jesse Lerner, red. “F is for Phony: Fake Documentary and Truth’s Undoing” (Minneapolis: University of Minnesota Press, 2006).
[3] Joan Donovan og Britt Paris, “Beware the Cheapfakes,” Slate, 12. juni 2019; Joan Donovan og Britt Paris, “Deepfakes and Cheap Fakes: The Manipulation of Audio and Visual Evidence”, Data & Society, september 2019; Sam Gregory, “Deepfakes Will Challenge Public Trust in What’s Real. Here’s How to Defuse Them,” Diffusing Disinfo, 19. februar 2019.
[4] Samantha Cole, “AI-Assisted Fake Porn Is Here and We’re All Fucked,” Motherboard, 11. december 2017; Kevin Roose, “Here Come the Fake Videos, Too,” New York Times, 4. marts 2018; Maheen Sadiq, “Real v Fake: Debunking the ‘drunk’ Nancy Pelosi Footage,” The Guardian, 24. maj 2019; Allyson Chiu, “Facebook Wouldn’t Delete an Altered Video of Nancy Pelosi. What About One of Mark Zuckerberg?” Washington Post, 12. juni 2019; Aja Romano, “Jordan Peele’s Simulated Obama PSA is a Double-Edged Warning Against Fake News,” Vox, 18. april 2018; Sheith Khidhir, “Malaysian Actor in ‘Porn’ Video Blames Deepfake,” The Asean Post, 16. december 2019; Sarah Cahlan, “How Misinformation Helped Spark an Attempted Coup in Gabon,” Washington Post, 13. februar 2020.
[5] Henry Ajder et. al, “The State of Deepfakes: Landscape, Threats, and Impact”, Deeptrace Labs, september 2019; Henry Ajder, “Deepfake Threat Intelligence: A Statistics Snapshot from June 2020,” Deeptrace Labs, 3. juli 2020.