Media Literacy I Desinformationens Tidsalder
By: Joshua Glick
In Event of Moon Disaster er en deepfake-video, der er designet til at være både en kunstinstallation og et pædagogisk værktøj. Den understreger det presserende behov for undervisning i media literacy i en tid med sofistikeret desinformation. Videoen er produceret i MIT’s Center for Advanced Virtuality og havde premiere på International Documentary Film Festival Amsterdam. Den består af genklippede tv-optagelser af månefærden i 1969 og en AI-genereret Richard Nixon, der læser den tale, hans administration havde forberedt i tilfælde af, at missionen mislykkedes.
Som et casestudie fremhæver In Event of Moon Disaster farerne ved desinformation såvel som vigtigheden af pålidelige medier for bevarelsen af demokratiet. Folks bekymringer er opstået på det helt rigtige tidspunkt og er mere relevante end nogensinde: I en æra med stigende autoritær populisme, med nedbrydning af sandfærdig journalistisk produktion, og hvor græsrodsbevægelser samtidig sætter fokus på miljø- og racemæssig retfærdighed, har borgerne brug for både troværdig information og en bedre forståelse af, hvordan de kan engagere sig i det fragmenterede mediemiljø.
Selvom initiativer til at fremme media literacy varierer meget på tværs af grundskole, ungdomsuddannelser og universiteter, fokuserer de alle på en konstellation af fortolkningspraksis, der udstyrer eleverne med de nødvendige værktøjer til at undersøge, hvordan forskellige former for medier oprettes, bruges og fortolkes.[1]
Som en ny og innovativ form for ondsindet manipulation bruger “deepfakes” (et udtryk, der kombinerer “deep learning” og målet om at bedrage) kunstig intelligens til at simulere folks handlinger eller ytringer og fremstille ting, der faktisk aldrig er sket, som var de virkelige. De deepfakes, der er mest almindelige og nemmest at skabe ved digital hjælp, omfatter at placere en berømtheds ansigt på en anden persons krop. Andre, mere komplekse typer syntetiske medier (som In Event of Moon Disaster) bruger en mere nuanceret kombination af ægte og AI-genererede medier. I dette tilfælde leverer en person en tale, der aldrig har fundet sted.
Siden deres fremkomst i slutningen af 2017 er deepfakes hurtigt flyttet fra celebrity-pornografi til verdensunderholdning og politik. Deepfakes truer med at kunne afbryde valg, skabe ødelæggende rygter og kompromittere virksomhedernes sikkerhed.[2] Efterhånden som de bliver stadig mere almindelige og bliver lettere at producere, vil deres konsekvenser intensiveres.
Media literacy kan selvfølgelig ikke give en magisk modgift mod den enorme ophobning af desinformation. Men som en kernepædagogisk strategi kan det hjælpe studerende med at styrke deres indre kritiker, og omdanne dem fra passive medieforbrugere til en kvalitetsbevidst offentlighed. Undervisning i deepfakes vil sige undervisning om den skadelige trussel, de udgør, de forskellige tilgange til bekæmpelse af dem, og de alternative anvendelser af syntetiske medier. Denne indsats består af fire supplerende undersøgelsesmetoder: historisk bevidsthed, finkornet fortolkning, kontekstuel undersøgelse, og fælles-kreativ produktion.
Disse metoder trækker på disciplinerne informations- og biblioteksvidenskab såvel som kommunikation; imidlertid er den analytiske praksis, der stammer fra humanistiske områder som film- og medievidenskab, danskfaget og historie, lige så vigtig.
Her er en række muligheder for at bringe nye medier og emnet deepfakes ind i klasseværelset.
1. DEEPFAKES’ LANGE HISTORIE
Jeg vil anbefale først at placere dem i en århundreder lang historie med desinformation, inklusive iscenesat bedrageri, forfalskede dokumenter og billeder. Lad eleverne komme med eksempler.
- Hvad findes af eksempler på manipulerede medier fra popkulturens nutid eller fortid?
- Hvordan vidste man, at produktet var blevet ændret? Af hvilken grund var det ændret?
Udarbejdelsen af en tidslinje hjælper med at kontekstualisere farerne ved deepfakes som en del af et bredere og vedvarende kulturelt fænomen snarere end noget hidtil uset eller unikt.[3]
At sætte deepfakes i historisk perspektiv dæmper også alarmerende retorik og overdrevne overskrifter, der indvarsler en “info-apokalypse” eller “virkelighedens sammenbrud”. Som Sam Gregory fra Witness bemærker, giver det oppustede sprog, der så ofte bruges til at diskutere deepfakes, “brændstof til deres våben.”[4]
Samtidig giver det mening at fremhæve det særlige i forbindelse med mediemanipulation. Fremkomsten og populariseringen af deepfakes i midten af 2010’erne fulgte udviklingen inden for AI, sociale mediers udbredelse og stadig tættere forbindelser mellem digital teknologi og politiske valg. At præsentere den nylige stigning i deepfakes på denne måde hjælper eleverne med at forstå, at nye medier ikke blot “opfindes“ af enkeltpersoner i et vakuum, men dukker op ved hjælp af flere, krydsende kræfter.
VÆGUDSMYKNING AF “RIGTIGE“ OG “FALSKE“ MINIATUREPORTRÆTTER FRA WITNESS MEDIA BLOG, DEL AF DERES SAMLING AF DEEPFAKE RESSOURCER (KREDITERING: RETSMEDICINSK ANSIGTDATABASE)
2. ANALYSE AF NØGLEEKSEMPLER
Overvej at gennemgå bestemte casestudier sammen. Finkornet analyse kan være en effektiv metode til at opdage deepfakes, især når det gælder lavteknologi, hurtigt lavede “shallowfakes” eller “cheapfakes.” Afspil en video to gange, og bed eleverne om at notere alt, hvad der virker “forkert” eller mærkeligt. Ved tredje gennemsyn skal seeroplevelsen kommenteres, påpeg afslørende tegn på manipulation såsom manglende blinken, visuelle anomalier i munden eller nakken, hak mellem bevægelser (især når hastigheden sænkes), skiftende ansigtstræk (områder af uregelmæssigt glattet eller rynket hud), og uregelmæssige mønstre af lys og skygge.[5]
Ved at bruge In Event of Moon Disaster som eksempel kan en lærer spørge eleverne:
- Hvad gør, at videoen virker overbevisende?
- Hvad, hvis noget overhovedet, antyder manipulation?
Et opmærksomt gennemsyn afslører, at der faktisk er nogle ændringer i Nixons vokalfrekvens (som om den blev komprimeret ved en lav bitrate) såvel som rysten i området mellem nakke og hoved.
Selvfølgelig er en nærundersøgelse af en video på ingen måde en sikker metode til at detektere manipulation. Deepfakes bliver dag for dag bedre til at modstå kritiske blikke. In Event of Moon Disaster selv virker, selv efter flere visninger, overbevisende! For at vurdere rigtigheden af en bestemt video er det derfor vigtigt at se på den bredere konfiguration af billeder, tekster og lyde, der omgiver den på skærmen, for grundlæggende at behandle websiden som en komposition, der skal fortolkes.
- Har videoen en klart angivet ophavsperson?
- Hvad er URL’en, og hvem ejer domænet?
- Er den produceret internt af en organisation, eller vises det på en social medieplatform?
- Vises videoen andetsteds på nettet, og i så fald hvilken sammenhæng?
- Er der andre kilder, der bekræfter produktet?
Sekvensen i slutningen af In Event of Moon Disaster og de kontekstualiserende ressourcer på hjemmesiden (herunder “Interactive Behind the Scenes“) afslører processen bag. De viser faldgruber og farer ved deepfakes på en nuanceret måde.
Opfølgende øvelser, hvor studerende på egen hånd sammenligner deepfakes med autentiske medier, og derefter deler deres opdagelser i små grupper, styrker opmærksomheden på det audioveisuelle. At udforske redigeringsteknikker, belysning, lyddesign, indramning af information og rumlige forhold mellem objekter øger elevernes forståelse af, hvordan deepfakes laves. Det forbedrer også deres ordforråd, når de skal formulere, hvordan æstetisk form og stil orienterer seerne mod bestemte emner, mens de presses til at konfrontere grænserne for, hvad øjet og øret kan opdage.
3. BEKÆMPELSE AF TRUSLEN
En tredje metode kan involvere en researchopgave med fokus på en større bredde af strategier til bekæmpelse af deepfakes. De studerende vil da lære om den flerstrengede indsats for at bekæmpe desinformation ved at udforske nogle af disse forskellige tilgange. Digital efterforskningsteknik indrager billede- og lydbehandlings-software (FaceForensics, InviD, DARPAs MediFor), der analyserer indhold for at opdage computermanipulation. Verifikationsteknikker omfatter apps (ProofMode, TruePic) og journalistiske initiativer (New York Times, Google New Initiative, First Draft), der bruger krypterede digitale “signaturer“ til at identificere legitime repræsentationer. Politisk støtte indebærer oprettelse eller organisering omkring branchens retningslinjer og statslig lovgivning for at regulere deepfake-produktion og forbyde uetisk eller ulovlig brug af deepfakes.[6]
Undersøgelse af disse strategier og præsentation af dem i klassen vil øve de studerende i at få adgang til, evaluere og citere forskellige primære og sekundære kilder. Det vil også gøre de studerende bekendte med vigtige debatter på området.
- Hvad skal regeringens rolle være i reguleringen af landets medieinfrastruktur?
- Hvordan kan platforme holdes mere ansvarlige for de medier, de distribuerer?
- Hvad er effektive måder til at demokratisere teknologier, der kan opdage deepfakes?
- Hvordan styrker man bedst lokal og samfundsjournalistisk produktion?
Præsentationer giver studerende mulighed for at dele deres opdagelser, lære af deres jævnaldrende og afveje, hvordan man reviderer eller udvider en bestemt tilgang.
4. AT PRODUCERE MEDIER TIL ALMENVELLET
Et fjerde og sidste læringsmodul kan bede eleverne om at forestille sig og designe en prototype af medier, der ville tjene almenvellet. Ved at arbejde i teams kan de gennemtænke de etiske udfordringer i mulige digitale projekter sammen. Et eksempel kunne være at lade de studerende undersøge Apollo 11-missionen og skabe deres eget videoessay om, hvad der skete, baseret på primære og sekundære kilder. En sådan opgave ville ikke kun lære eleverne at skabe en “sand” beretning om begivenheden (i kontrast til den “falske” fortælling), men også at forstå, at historien ikke opdages, men konstrueres. Det understreger også, hvordan adgang til og vurdering af kilder er afgørende for konstruktionen af historiske fortællinger.
Alternativt kunne en klasse vælge at lave projekter med fokus på syntetiske medier. Det kan variere fra udformning af databaserede prognosemoduler, der forbedrer nødhjælpssystemer, sundhedspleje og byinfrastruktur, til at lave simuleringer af historiske begivenheder og taler til uddannelsesmæssige formål.
Gruppearbejdet vil gøre de studerende opmærksomme på kraften i kollektiv intelligens og samarbejde. At opleve dynamikken i et professionelt team er en fordel, hvis de senere skal indgå i et filmhold, arbejde i laboratorier, skrive artikler eller udføre feltforskning.
IN EVENT OF MOON DISASTER-SKUESPILLER LEWIS D. WHEELER OMDANNES TIL PRÆSIDENT NIXON (KREDITERING: DOMINIC SMITH)
VEJEN FREMAD
Det er svært at forestille sig, at deepfakes måske en dag vil være udryddet. Efterhånden som teknologien fortsætter med at forbedres, bliver de lettere at skabe og sværere at identificere, og de vil hverken blive besejret af en “dræber-app“ eller ved finpudsning af det menneskelige sensoriske apparat.
Det betyder dog ikke, at vi som undervisere skal give op.
I stedet bør vi fortsætte med at tackle truslen i klasseværelset, undervise studerende i kritisk tænkning, research og produktionsfokuserede færdigheder. Vi er også nødt til at fortsætte med at behandle deepfakes mere holistisk, som en del af et bredere og hurtigt skiftende landskab af desinformation. Hvis vores studerende begynder at se mediekendskab mindre som sæt statiske kompetencer, der skal erhverves, eller som viden, der skal optages, men som en konstant, løbende fortolkning blandt folk, vi vil have opnået meget. Hvis vi giver dem mulighed for samvittighedsfuldt at engagere og omvende denne teknologi til vores alles bedste, vil vi have opnået endnu mere.
Kreditering foto indledning: Media Manipulation and Disinformation Online, Alice Marwick og Rebecca Lewis, Data & Society 2017 — Behandling: Halsey Burgund
[1] Media literacy indtager en mere fremtrædende plads inden for tværfaglige frie kunstkurser om nutidigt medborgerskab, samfund og politik samt enkeltstående moduler og kurser i forskningsmetode. For bredden af tilgange til media literacy, se hvidbøger og særlige rapporter udgivet af professionelle konsortier (Association of College & Research Libraries), uddannelsesorganisationer (Media Literacy Now, National Association for Media Literacy Education), og fonde og tænketanke (Alliance of Democracies Foundation, Knight Foundation, Data & Society, First Draft, Berkman Klein Center for Internet & Society). For monografier om media literacy i desinformationens tidsalder, se for eksempel Donald A. Barclay, “Fake News, Propaganda, and Plain Old Lies: How to Find Trustworthy Information in the Digital Age” (Lanham: Rowman & Littlefield, 2018); Paul Mihailidis, “Civic Media Literacies: Re-Imagining Human Connection in an Age of Digital Abundance” (New York: Routledge, 2018); W. James Potter, Media Literacy (New York: SAGE Publications, 2018).
[2] For mere om teknologien bag deepfakes og deres nylige stigning, se Witness and First Draft, “Mal-uses of AI-generated Synthetic Media and Deepfakes: Pragmatic Solutions Discovery Convening” 11. juni 2018; Witness Media Lab’s initiative, “Prepare, Don’t Panic: Synthetic Media and Deepfakes” inkluderer en række oversigtsartikler, undersøgelser, og ressourcesæt om emnet.
[3] Robert E. Bartholomew og Benjamin Radford, “The Martians Have Landed! A History of Media-Driven Panics and Hoaxes” (New York: McFarland, 2011); James W. Cortada og William Aspray, “Fake News Nation: The Long History of Lies and Misinterpretations in America” (New York: Rowan and Littlefield, 2019); Kevin Young, “Bunk: The Rise of Hoaxes, Humbug, Plagiarists, Phonies, Post-Facts and Fake News” (Minneapolis: Graywolf Press, 2017); Lee McIntyre, Post-Truth (Cambridge: MIT Press, 2018).
[4] Sam Gregory in conversation with Craig Silverman, Episode 7, Soundcloud, DataJournalism.com, maj 2020; Charlie Warzel, ,”He Predicted 2016 Fake News Crisis. Now He’s Worried About an Information Apocalypse,” BuzzFeed News, 11. februar, 2018; Jackie Snow, “AI Could Send Us Back 100 years When It Comes to How We Consume News,” MIT Technology Review, 7. november, 2017; Franklin Foer, “The Era of Fake Video Begins,” The Atlantic, maj 2018.
[5] Ian Sample, “What Are Deepfakes and How Can You Spot Them,” The Guardian, 13. januar 2020; Jane C. Hu, “It Is Your Duty to Learn How to Spot Deepfake Videos,” Slate, 27. juni 2019; Craig Silverman, “How to Spot a Deepfake Like the Barack Obama-Jordan Peele Video,” BuzzFeed, 18. april 2018; Samantha Sunne, “What to Watch for in the Coming Wave of ‘Deep Fake’ Videos”, Global Investigative Journalism Network, 28. maj 2018; Haya R. Hasan and Khaled Salah, “Combating Deepfake Videos Using Blockchain and Smart Contracts,” IEEE Access 7 (2019): 41596-606; Gregory Barber, “Deepfakes are Getting Better, But They’re Still Easy To Spot,” Wired, 26. maj 2019.
[6] Melissa Zimdars and Kembrew McLeod, red., “Fake News: Understanding Media and Misinformation in the Digital Age” (Cambridge: MIT Press, 2020); Robert Chesney and Danielle Keats Citron, “Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security” 107 California Law Review 1753 (2019); Tim Hwang, “Deepfakes: Primer and Forecast,” NATO Strategic Communications Center of Excellence, maj 2020.