Kan Teknologi Redde Os Fra Deepfakes?
By: Pakinam Amer
Deepfakes er bedre og mere udbredte end nogensinde. Videoerne er en kompleks form for manipulerede medier genereret af kunstig intelligens-software. De er ikke kun afhængige af realistiske billeder, men også perfekt syntetiseret menneskelig tale.
Selv Disney investerer i deep learning-drevet teknologi. I et dokument offentliggjort i begyndelsen af 2020 hævdede forskere fra Disney Research Studios, at de med succes havde trænet en algoritme til at gengive fotorealistisk ansigtsbytning i billeder og videoer i hidtil uset kvalitet. Underholdningsgiganten vil bruge effekten til blandt andet at portrættere skuespillere som yngre, eller når en skuespiller ikke er tilgængelig, skriver forfatterne.
ROBERT DE NIRO BLEV “FORYNGET” TIL FLASHBACK-SCENERNE I NETFLIX-FILMEN “THE IRISHMAN” (KREDITERING: LUCASFILM, LTD.)
Men selv efter teknologien er blevet mainstream, er den præget af uløste problemer. Fra det øjeblik, deepfake-videoer begyndte at dukke op på nettet i form af parodier, politisk satire og falsk celebrity-porno, er de blevet mødt med en blanding af fascination og frygt. En rapport udgivet af AI-virksomheden Deeptrace Labs i 2019 anslog, at der var omkring 49.000 deepfakes i omløb. Men den hurtige vækst af ansigtsbytte-filtre på tværs af sociale platforme og applikationer, drevet af ansigtsgenkendelses-motorer, betyder, at der sandsynligvis er mange flere.
Kunstnere og journalister har udforsket måder, hvorpå de kan bruge teknologien konstruktivt til at skabe sociale og politiske reportager, eller til at beskytte privatlivet for marginaliserede og udsatte grupper. For eksempel brugte den Oscar-nominerede dokumentarfilmskaber David France deepfake-teknologi til at maskere identiteten på homoseksuelle tjetjenere i sin afslørende film “Welcome to Chechnya”, som er udgivet på HBO. Teknologien blev endda brugt af en Star Wars-superfan til at forbedre en gæsteoptræden med unge prinsesse Leia i “Star Wars: Rogue One”.
Men selvom enkeltpersoner og store medievirksomheder som Disney udnytter teknologien til ikke-ondsindede formål, afføder deepfake-teknologi en voldsom debat om falske nyheder, individuelt privatliv og vægten af videobeviser.
GRUNDLÆGEREN AF YOUTUBE-KANALEN “DERPFAKES” BRUGTE DEEPFAKE-TEKNOLOGI TIL AT FORBEDRE UDSEENDET PÅ EN YNGRE CARRIE FISHER I “STAR WARS: ROGUE ONE”. PROJEKTET, SOM BLEV SET TUSINDVIS AF GANGE INDEN FOR DE FØRSTE DAGE, BLEV UDFØRT “I LØBET AF DEN TID, DET TAGER AT SE EN EPISODE AF THE SIMPSONS”, FORTALTE HAN THE GUARDIAN.
UDFORDRINGEN VED DETEKTION
I januar meddelte Facebook, at de ville forbyde manipulerede medier, der fordrejer virkeligheden eller vildleder offentligheden, formentlig for at kvæle problemet i opløbet til valget i 2020.
Det inkluderer videoer “der er redigeret eller syntetiseret, bortset fra justeringer med hensyn til klarhed og kvalitet, på måder, så det ikke opdages af en almindelig person og derfor kan vildlede nogen til at tro, at personer i videoen siger ting, som de faktisk ikke har sagt,” skrev Monika Bickert, VP for Global Policy Management hos Facebook, i et blogindlæg. Hun tilføjede, at lyd eller video, uanset om det er deepfake eller ej, også ville være omfattet af Facebooks generelle standarder og ville blive fjernet, hvis det omfattede nøgenhed, udpenslet vold, undertrykkelse af vælgere eller hadefulde ytringer.
Denne standard gælder også for annoncer. Men ifølge en artikel fra New York Times vil princippet sandsynligvis ikke blive anvendt med tilbagevirkende kraft.
På statsligt niveau har Californien forbudt distribution af “ondsindede” manipulerede videoer, lyd og billeder, der efterligner ægte optagelser og bevidst forfalsker en politisk kandidats ord eller handlinger inden for 60 dage af et valg. Marc Berman, parlamentsmedlemmet, der fremlagde lovforslaget som reaktion på en forfalsket Nancy Pelosi-video, (der fik USAs formand for Repræsentanternes Hus til at fremstå beruset) kaldte deepfakes “en magtfuld og farlig ny teknologi, der kan bruges som våben til at så misinformation og splid blandt en allerede hyperpartisk vælgerskare.”
WASHINGTON POSTS ANALYSE AF DEN MANIPULEREDE VIDEO AF NANCY PELOSI. VIDEOEN ER SAT NED I HASTIGHED OG FÅR HENDE TIL AT SE UD TIL AT SNØVLE. (KREDITERING: WASHINGTON POST)
Sidste år vedtog senatet i USA “the Deepfake Report Act”, der krævede, at Department of Homeland Security iværksætter en årlig undersøgelse af deepfakes og ethvert AI-drevet medie, der søger at “underminere demokratiet.”
Paul Barrett, en adjungeret professor i jura ved New York University, fortalte NPR-programmet Troll Watch, at desinformation i stigende grad retter sig mod billeder i stedet for tekst. Enhver med grundlæggende viden om kodning og “ønsket om at blande sig i valg kan begynde at flette disse meget overbevisende, men falske videoer sammen,” sagde Barrett. “Og virksomhederne er klar over dette og forsøger fortumlede, måske for sent, at reagere på det.”
Det er for tidligt at vide, om lovgivning kan være en effektiv strategi til at forhindre deepfakes i at cirkulere eller gå viralt, især i betragtning af hvor mange hjørner af det dybe web, der er utilgængelige for søgemaskiner. En anden udfordring er, at sådanne lovforslag potentielt kan begrænse ytringsfriheden. Så nogle eksperter foretrækker en anden strategi for at dæmme op for bølgen af deepfakes: at bekæmpe teknologi med teknologi.
ER MODTEKNOLOGI REDNINGEN?
Når det drejer sig om at afsløre deepfakes, halter teknologer og nystartede virksomheder bagefter. Nogle investerer dog i at udvikle fremtidssikrede metoder til at beskytte sig mod den mørkere side af deepfakes.
I juni fremlagde Facebook resultaterne af en deepfake-detektionsudfordring, der samlede flere end 2.000 teknologer og AI-forskere til at skabe og teste algoritmer til at opdage manipulerede videoer lavet af Facebook.
Den bedste model opnåede 82,56 procent præcision, når den blev testet mod Facebooks test-datasæt, men kun en nøjagtighed på 65,18 procent, når den blev testet mod et “blackbox”-datasæt indeholdende videoer fra den virkelige verden (der ofte er mere komplekse og desuden ukendte). Blackbox-algoritmer er fortsat en af de største udfordringer, detektionsteknologien står over for.
Witness, en international nonprofitorganisation, der bruger video- og teknologibaserede strategier til at afsløre korruption og støtte menneskerettighedsaktivisme, har lobbyet for bedre investeringer i det tekniske arbejde med mediekriminalitet. De henviser til USA’s DARPA’s MediFor-program som et lovende skridt fremad.
Brookings Institute, en tænketank i Washington, DC, opfordrer politiske beslutningstagere til at skabe en “ekstra strøm af finansieringspriser til udvikling af nye værktøjer, såsom omvendt videosøgning eller blockchain-baserede verifikationssystemer, der kan være mere vedholdende stillet over for skjulte deepfakes.” Instituttet opfordrer også politikere til at investere i at træne journalister og fakta-tjekkere og støtte samarbejde med AI-baserede detektionsfirmaer.
Deeptrace Labs er et sådant detektionsfirma. En nystartet virksomhed, der bruger deep learning og computersyn til at opdage og overvåge deepfakes. Den fremstiller sig selv som “antivirussen” i kampen mod virale, AI-baserede syntetiske videoer — et ikke særlig subtilt vidnesbyrd om intelligenskampen ved deep techs fronter.
Deeptrace udvikler analytiske back-end-systemer, der kan opdage falske videoer og anvendes af individuelle brugere og medievirksomheder til at hjælpe dem med at afsløre manipulation. “Slagordet opsummerer ganske godt, hvordan vi ser på nogle af de måder, hvorpå problemet manifesterer sig, og hvordan vi ser potentielle teknologiske løsninger til at forhindre det,” siger Henry Ajder, chef for kommunikation og forskningsanalyse hos Deeptrace Labs.
Reality Defender er en anden intelligent software, der er bygget til at køre parallelt med dig, mens du surfer på nettet, og opdage et potentielt falsk medie samt advare brugerne.
Forskere er også med i kampen. Amit Roy-Chowdhury, professor i el- og computerteknik ved University of California, Riverside, og leder af Center for Research in Intelligent Systems, har udviklet en dyb neural netværksarkitektur, der kan genkende ændrede billeder og identificere forfalskninger med hidtil uset præcision.
Roy-Chowdhurys system kan kende forskel på manipulerede billeder og ikke-manipulerede billeder ved at detektere kvaliteten af grænser omkring objekter, helt ned til den enkelte pixel. Disse grænser kan blive “forurenet”, hvis billedet er blevet ændret eller modificeret, og det kan hjælpe forskere med at fastslå, hvor en eventuel bearbejdning har fundet sted.
Hvor hans system arbejder med stillbilleder, kan det samme princip — med nogle justeringer — i teorien anvendes på deepfake-videoer, som består af tusindvis af frames og billeder.
Trods en solid indsats er de fleste forskere enige om, at processen med at opdage deepfakes “i det fri” er i en helt anden liga. Desuden er disse eksperimentelle detektionsteknikker, i det store og hele, kun i hænderne på eksperter og utilgængelige for den brede offentlighed.
INDSATSEN FOR AT IMØDEGÅ DEEPFAKES MED DETEKTIONSTEKNOLOGI VOKSER SIG STÆRKERE — MEN DET GØR DEEPFAKES OGSÅ (KREDITERING: FRANCESCA PANETTA)
MEN TEKNOLOGI KAN IKKE LØSE ALT
“Efterhånden som vores teknologi bliver bedre, vil det blive stadig sværere at bekæmpe deepfakes,” siger Aleksander Madry, lektor i datalogi ved MIT, hvis forskning tackler vigtige algoritmiske udfordringer inden for databehandling og udvikling af pålidelig AI. “Så i øjeblikket er dette mere et kat og mus-spil, hvor man kan forsøge at opdage dem ved at identificere nogle artefakter, men så kan modstanderne forbedre deres metoder for at undgå disse artefakter.”
“Bedre fremgangsmåder kan snyde detektionsmekanismen,” siger Roy-Chowdhury enigt. Datalogen siger, at det er højst usandsynligt, at “vi vil få et system, der er i stand til at detektere hver eneste deepfake. Sikkerhedssystemer er typisk defineret af det svageste led i kæden.”
Ifølge Nick Roy, professor ved MIT Computer Science & Artificial Intelligence Lab, arbejder videnskabsmænd ofte i mørke. “I mange tilfælde har forskerne ingen idé om, hvad neurale netværk laver,” siger Roy, hvis forskning i AI, maskinlæring og computersystemer er fokuseret på de problemer, der skyldes usikkerhed.
Forskere “kan ikke altid tyde, når noget går galt. Neurale netværk er ikke sort magi. Vi forstår meget af det grundlæggende, men vi når ikke rundt om grænserne … vi skal forstå, hvad grænserne er,” forklarer han.
Efterhånden som kapaciteten for deep learning-baseret teknologi fortsætter med at udvikle sig, siger Madry, at “min bekymring er, at vi ikke længere automatisk vil kunne stole på videoer som et bevis.”
FREMTIDEN FOR DEEPFAKE-TEKNOLOGI OG DETEKTION
Når det gælder de dårligt udviklede deepfake-videoer — den slags med tydelige fejl, der typisk skyldes grov redigering — er det nemt for smart software og et trænet øje at opdage manipulationen. Men efterhånden som audiovisuelle medieudviklere får fjernet børnesygdommene, vil det blive eksponentielt sværere at finde afslørende tegn på forfalskning.
I de seneste år har forskere udviklet software til at spotte deepfakes ved at overvåge hyppigheden af blinken; mennesker blinker i gennemsnit 17 gange i minuttet, men ældre deepfakes blinkede ofte langt sjældnere. “Hvis du ser på en video fra januar 2018, kan manglen på blinken stadig være gældende der,” siger Ajder. “Men lad os sige året efter, eller to eller fem, vil det ikke længere være pålideligt til at måle gyldigheden.”
Og efterhånden som deepfakes udvikler sig, kan detektionsværktøjer, der er afhængige af AI til at opdage redigeringsfejl (som skiftende billeder, ændringer i belysning eller hudtone) snart blive forældede.
Ajder siger, at metoder til “folke-detektion” “næsten helt sikkert vil forsvinde med udviklingen af avancerede versioner af falske medier. De almindelige metoder er kun brugbare, hvis de anvendes med forsigtighed og kombineres med analytiske metoder.”
Et andet problem er delingsteknologierne. De bliver brugt af sociale medier, som lader deepfakes formere sig uden at blive opdaget.
For eksempel sagde Matthew Stamm, lektor ved Drexel University, på teknologi- og mediekonferencen South by Southwest, at nogle detektionsteknikker leder efter “virkelig små digitale signaturer”, der er indlejret i videofiler. Men når en videofil deles på sociale medier, bliver den formindsket og komprimeret, hvilket fjerner alle tegn på manipulation.
“Der findes mange teknikker til autentificering af billeder og videoer, men et område, hvor de alle fejler, er på sociale medier,” sagde Stamm.
Barrett fra NYU Law opfordrer i mellemtiden folk til at være “meget skeptiske over for, hvad de ser på” og siger, at virksomheder bør reagere aggressivt mod falsk information og måske “degradere” disse opslag eller videoer. “Jeg vil holde på, at de bare burde fjerne den slags ting helt fra deres websteder,” tilføjer han.
I sidste ende vil kampen mod de negative virkninger af forfalskede videoer kræve en samlet handling, især hvis videoerne bruges til at skabe falske nyheder med den hensigt at vildlede folk. Problemet er omfattende nok til, at det ikke kan løses alene: AI-firmaer, medievagthunde, regeringer og enkeltpersoner må dele ansvaret for faktatjek og beslutning om, hvad der gælder som sandt, og hvad der ikke gør.
En version af denne artikel udkom på tryk den 22. november 2019. Artiklen er blevet revideret og opdateret med henblik på offentliggørelse online den 3. juli 2020.
Kreditering foto indledning: Kilde: NASA / Behandling: Halsey Burgund
Se den originale version af artiklen på engelsk hér: Can Tech Save Us From Deepfakes?