Deepfake Dystopi
By: Pakinam Amer
Ved at lave en omvendt billedsøgning fandt Noelle Martin en pornografisk video af sig selv.
Hun har ikke selv lavet videoen. Faktisk var den ikke engang virkelig. Det var en “deepfake”, altså en form for AI-drevet videomanipulation, og Martin opdagede senere, at videoen var sammensat af en helt fremmed, der stjal hendes billeder og selfies fra hendes konti på de sociale medier.
“Jeg fik en sugende fornemmelse i maven,” sagde hun til Earshot, ABC Radios flagskibsprogram, i et interview i 2019, hvor hun fortalte om det øjeblik, hvor hun stødte på videoen. “Jeg fik det dårligt.”
Hjælpeløs så hun, hvordan videoen blev spredt på nettet, ledsaget af meget seksuelt eksplicitte kommentarer. “Jeg kan huske, at jeg græd i telefonen til tilfældige mennesker og sagde: ‘Dette sker for mig lige nu. Er der ikke noget, der kan gøres ved det?'”, sagde hun. Hun sendte endda en e-mail til webmasterne på alle de websteder, hvor billederne af hende blev vist.
Da hun bragte sagen til politiet, fik hun at vide, at de ikke kunne gøre noget.
Martin var 18 år, dengang det skete.
En rapport fra 2019 fra DeepTrace Labs viste, at 96 procent af de deepfakes, der cirkulerer online, er pornografi, hovedsageligt med kvinder og med flere end 134 millioner visninger. De resterende fire procent omfatter brug af syntetiske medier til positive uddannelsesmæssige, underholdningsmæssige og akademiske formål, som dette websted gør. Hovedparten af deepfakes anvender face-swapping-teknologi til at udskifte ansigterne på rigtige pornoskuespillere med Hollywood-skuespillere, uden deres samtykke. Men privatpersoner som Martin — der er blevet aktivist mod billedbaseret misbrug på nettet i sit hjemland Australien — er tydeligvis ikke fritaget.
Det er kompliceret at skabe et meget realistisk stykke syntetisk medie, og det kræver generelt avancerede teknikker og en høj grad af ekspertise.
I tilfældet med In Event of Moon Disaster — en “komplet deepfake”, der omfatter syntetisk lyd og visuelt materiale, som er understøttet af betydelig computerkraft og finansielle ressourcer — tog det instruktørerne, en skuespiller og to medievirksomheder tre måneder at færdiggøre videoen. Et sådant niveau af troværdighed er svært, nærmest umuligt, at skabe for en almindelig person.
Men for deepfakes, der blot er afhængige af face-swapping, er det en anden sag. En hobbyudøver eller amatør kan fikse en overbevisende deepfake per uge. En teknisk kyndig person med adgang til den rigtige software og de rigtige computerprogrammer kan gøre det på få dage eller nogle timer. I december sidste år skabte Timothy B. Lee, der er seniorreporter for teknologipolitik på Ars Technica, sin egen deepfake-video, da han vidnede for kongressen. Her byttede han Mark Zuckerbergs ansigt ud med et af kaptajnløjtnant Data fra Star Trek. Det kostede ham omkring 500 dollars at lave videoen.
I en omfattende artikel om fremstillingen af hans deepfake beskrev han detaljeret sin træningsproces med ansigtsbytning og angav den software, han brugte. Ideen bag hans eksperiment var at belyse både teknologiens muligheder og begrænsninger. Men måske utilsigtet viste det også, hvor let tilgængelig den er.
DEEPTRACE OPSUMMERER DATA OM DEEPFAKES ONLINE (KREDITERING: Deeptrace)
ANONYMITET GØR DET VÆRRE
Bortset fra porno hører de fleste deepfakes til under komedie eller politisk satire. Andre nævner farerne ved selve teknologien, som fx en meta-deepfake af Barack Obama, hvor han advarede folk om betydningen og stigningen af deepfakes. “Vi er på vej ind i en epoke, hvor vores fjender kan få hvem som helst til at sige hvad som helst på et hvilket som helst tidspunkt”, siger den falske Obama i den manipulerede video, der er skabt af nyhedsmediet Buzzfeed.
Kommentaren afslører en dyb bekymring for, hvor overbevisende AI-genereret materiale kan være for et publikum, der er vant til at tage videooptagelser for pålydende. Særligt bekymrende er spørgsmål vedrørende privatlivets fred, og hvordan deepfakes kan bruges til at forstærke chikane og cybermobning.
En anden udfordring er, at skaberne ofte er anonyme. “Det er ikke altid klart, hvem der leverer dette indhold,” siger Joan Donovan, direktør for Technology and Social Change Research Project ved Harvard Kennedys Shorenstein Center og medforfatter til “Deepfakes and Cheap Fakes”. En rapport fra 2019 om, hvordan AI-drevet audio-visuel manipulation har ændret vores opfattelse af sandhed og beviser.
“Er folk dem, de siger, de er? Og hvis ikke, hvordan finder vi så ud af det?” Donovan siger: “Det er den sammenhæng, vi ønsker, at folk skal forstå: altså hvor denne teknologi kommer fra, og hvor den er på vej hen.”
Rapporten advarer om, at teknologien kan være særlig skadelig for de befolkningsgrupper, der allerede er udsat for vedvarende diskrimination. Rapporten angiver, at enhver løsning på stigningen af deepfakes derfor bør undgå at forstærke en strukturel ulighed, ellers “vil de, der ikke har magt til at forhandle om sandheden — herunder farvede, kvinder og LGBTQA+-samfundet — være blottede over for øget skadevirkning.”
Adam Berinsky, professor i statskundskab ved Massachusetts Institute of Technology (MIT) og leder af Political Experiments Research Lab, siger, at der er håb at finde i nye teknologiske løsninger.
Evnen til at opdage forfalskninger i videoer har udviklet sig sideløbende med teknologien, siger Tim Hwang, direktør for Ethics and Governance of AI Initiative ved Berkman-Klein Center og MIT Media Lab. Og våbenkapløbet fortsætter: “Det vil altid være noget af et katten efter musen-spil, hvor bedragere konstant udvikler nye måder at undgå at blive opdaget på, og hvor detektorerne arbejder på hurtigt at indhente dem,” skriver han i Undark Magazine.
Men det kan vise sig risikabelt at vente på, at teknologerne træder i karakter, når sandheden er på spil.
Nogle frygter stadig, at offentligheden kan blive fanget i et teknologisk tovtrækkeri mellem to lejre: slyngelagtige deepfake-udviklere, der sælger open source-koder, og forskere og deeptech-virksomheder, der kæmper for at skabe pålidelige detektionsredskaber. Og indtil videre er der ingen afslutning i sigte.
SAMME SPIL, NY TEKNOLOGI
Nogle eksperter siger, at der ikke er noget nyt i den kultur, der ligger bag skabelsen af deepfakes. “Vi er allerede oversvømmet af så mange videoer, som ikke er det, de giver sig ud for at være. Deepfakes er blot endnu en form af dette,” siger Judith Donath, der er stipendiat ved Harvard Berkman Center og forfatter til bogen The Social Machine.
Donath, der er forfatter og kunstner, undersøger, hvordan nye teknologier ændrer samfundet, og hun siger, at det er nemt at blive foruroliget over de mulige farer ved falske videoer, især for sårbare befolkningsgrupper og risikogrupper, der allerede udsættes for mobning og diskrimination.
“En del af problemet er, at vi har en tendens til at have en overdreven sikker opfattelse af, hvor meget sandhed der er i ikke-falske videoer. Hvis man ser på, hvor meget misinformation der er videobaseret nu, [vil man indse] at det ikke kræver denne særlige teknologi,” siger hun og nævner som almindelige eksempler videoer, der er redigeret ud af deres kontekst, eller gamle videoer, der fejlagtigt præsenteres som nye. Denne form for selektiv redigering er det, som forskerne kalder “shallow fakes”. Et godt eksempel er den berygtede video af den demokratiske formand for Repræsentanternes Hus, Nancy Pelosi, der viser hende snøvle, som om hun er fuld. Klippet, som stadig ligger på Facebook, blev sat ned i hastighed for at give denne effekt.
Hun tilføjer, at det spørgsmål, folk skal stille sig selv, er, hvorfor de skal stole på denne kilde. “Hvorfor anses dette for at være en pålidelig information, uanset om det er tekst eller video?” siger hun.
JOURNALISTIK: DEN YDERSTE GRÆNSE
Hwang, Donath, Donovan og andre forskere, der står i spidsen for AI- og etikforskning, siger, at desinformation har været her før den sofistikerede teknologi og altid har været en del af informationsspredningen. “En gammel magtkamp i en ny forklædning”, som Britt Paris og Joan Donovan udtrykker det i “Deepfakes and Cheap Fakes”.
Uanset om der er tale om en artikel, et forfalsket foto eller en dyrt produceret deepfake-video, vil det altid være op til journalister og erfarne eksperter at skille sandhed fra løgn, selv om grænsen mellem de to bliver mere og mere uklar, mener Donath og Donovan. Da teknologien nærmer sig det punkt, hvor menneskelige sanser ikke længere kan opdage forfalskningen, kan det betyde, at man skal analysere konteksten, kilderne og alle ledsagende oplysninger, der følger med en given video.
Og pressen kan også være en del af løsningen. “Deepfakes vil ikke kunne spredes så hurtigt uden forstærkning fra nyhedsmedierne,” siger Donath. For at vildledende medier skal nå ud til et bredt publikum og få stor gennemslagskraft, skal de bakkes op af traditionelle medier, tilføjer hun. “Journalisterne kommer til at spille en rolle i at rette folks opmærksomhed mod det.”
Videoer blev engang betragtet som den usminkede sandhed, eller i det mindste en version af den. Nu er de blot en form for vidneudsagn, siger Donath. I sidste ende handler det om kildens omdømme, og om man har tillid til den person eller institution, der videregiver oplysningerne.
Selv om et enkelt tilfælde af vildledning let kan afhjælpes, kan fænomenet på lang sigt fortsætte med at undergrave den allerede vaklende tillid mellem medierne og offentligheden. “Med tiden vil folk blive skeptiske over for beviser som billeder og videoer,” siger Donovan. “Med den faldende tillid til medierne er det en meget giftig kombination.”
“Det kommer til at tage os et stykke tid at skabe nye normer for, hvad der tæller som sandhed,” tilføjer hun.
EFTER AT HAVE FUNDET DEEPFAKE-VIDEOER AF SIG SELV PÅ NETTET BLEV NOELLE MARTIN AKTIVIST OG TEDXPERTH-TALER, DER KÆMPER MOD CHIKANE PÅ NETTET (KREDITERING: NOELLE MARTIN / TEDXPERTH)
FORORDNING OM DATABESKYTTELSE ONLINE
Ifølge Donovan er de sociale platforme selv en magtfuld kraft, der kan mobiliseres til at beskytte mod deepfakes. “De har været meget svage i håndhævelsen i forhold til chikane, opfordring til vold og hadefuld tale.”
Den udbredte brug af pornografi i deepfakes – den mest populære brug af teknologien i øjeblikket – er et eksempel herpå, ifølge Donovan. Eksemplerne omfatter tyveri af identiteter, deling af billeder uden samtykke, herunder “hævnporno”, og afpresning gennem deling af seksuelt eksplicit materiale, der er skabt ved hjælp af billeder af kvinder, som ikke er involveret i pornografi.
I Martins tilfælde blev den person, der manipulerede hendes billeder og offentliggjorde dem mod hendes vilje, aldrig fanget. Men oplevelsen har formet hendes vej: Seks år efter at hun opdagede det seksuelt eksplicitte materiale er hun nu aktivist, forkæmper i en kampagne for en lovreform og TEDxPerth-taler, der kæmper mod chikane på nettet. Hun var med på Forbes’ liste “30 under 30 Asia”, og hun holder nu det meste af sine sociale medier skjult for offentligheden.
Donovan siger, at folk måske bliver nødt til at genoverveje deres egne strategier for beskyttelse af personlige oplysninger på nettet – ligesom Martin gjorde – for at opdele og beskytte adgangen til deres personlige medier. “Vi er kommet ind i en tid, hvor “online” ikke er noget, vi går på, men vi har det med os hver dag, i vores lommer,” siger Donovan. “Platformsvirksomheder har en pligt til at afbøde visse skader, især chikane.”
En måde at gøre det på er, at platformene tydeligt markerer medierne efter den kilde, der har produceret dem. “Hvis man går op i, hvad der er virkeligt, skal man holde øje med, hvor det kommer fra,” siger hun.
En version af denne artikel udkom på tryk den 22. november 2019. Artiklen er blevet revideret og opdateret med henblik på offentliggørelse online den 3. juli 2020.
Kreditering foto indledning: University of Washington / Supasorn Suwajanakorn, Steven M. Seitz, Ira Kemelmacher-Shlizerman.
Se den originale version af artiklen på engelsk hér: Deepfake Dystopia