Kunstig intelligens

Afsløring af AI-manipuleret indhold er et vanskeligt våbenkapløb

Falske billeder og videoer florerer på sociale medier, og virksomheder bliver udsat for svindel i millionklassen. AI-modeller forsøger at afsløre såkaldte deepfakes, som er udviklet af kunstig intelligens, men flere deepfake-værktøjer trænes netop ved at lære at snyde de samme AI-modeller.

Deepfake af den sydkoreanske kunstner Haegue Yang
 En gruppe DTU-studerende udviklede en deepfake, der gjorde det muligt for den sydkoreanske kunstner Haegue Yang at tale dansk, i forbindelse med en udstilling på Statens Museum for Kunst. Foto: DTU.

Fakta

Deepfake er computerudviklet tekst, billede, lyd, tale eller video, der skal forstille at være virkeligt, men slet ikke er det. Det kan være meget svært for et menneske at se forskel på, om det er virkeligt eller skabt af AI – i nogle tilfælde næsten umuligt. Deepfake bliver i mange tilfælde genereret ud fra GAN-læringsprincippet, men i dag findes der også mange andre metoder at generere deepfakes ud fra.

Tech-virksomheder og forskere arbejder på at udvikle AI-modeller, der kan afsløre deepfakes, men også de kan få problemer med at kende forskel.

Se om du kan kende forskel (Hjemmesiden er fra 2019 og baseret på GAN. Der er siden blevet udviklet endnu bedre deepfake-værktøjer.)

Deklarering er ingen garanti

En undersøgelse fra DR viser, at hvert tredje barn i aldersgruppen ni til 14 år aldrig tænker over, at fotos og videoer på sociale medier kan være manipuleret. De mange tilfælde af deepfakes har nu fået Meta, der ejer Facebook og Instagram, til at gå ind i kampen for at afsløre billeder og videoer, der er computergenereret. Samtidig vil EU’s AI Act – verdens første AI-lovgivning – gøre det lovpligtigt at deklarere, hvis indhold er produceret ved brug af en computer. Men selvom der kommer regulering på området og tech-virksomheder vil forsøge at opdage deepfakes, er det ifølge Morten Mørup ingen garanti for, at vi kan undgå meget mere deepfake-indhold i fremtiden.

”Det er helt klart et vigtigt skridt at begynde at deklarere deepfakes, men det ændrer bare ikke på, at der stadig vil være folk, der kan generere indhold, uden det bliver deklareret. Der bliver forsket i at udvikle deepfake-detektorer, der ved brug af AI skal afsløre deepfakes, men så er vi tilbage til våbenkapløbet. Og det er et våbenkapløb, jeg tror, bliver rigtig, rigtig svært at vinde. Vi må derfor ikke vende det blinde øje til og bare forvente, at alt, der ikke er deklareret som deepfake dermed er ægte,” siger Morten Mørup.

Lige nu er der en anden metode til at afsløre deepfakes ved helt at se bort fra brug af AI og i stedet benytte sig af grundigt researcharbejde.

”Man kan forsøge at holde et deepfake op imod anden information. Hvis et videoklip viser noget, der f.eks. er foregået i Ukraine, så kan man sammenligne det med satellitfotos og vejrinformation på det givne tidspunkt for at se, om alting stemmer overens med videoklippet. Var det f.eks. regnvejr den dag, men på videoklippet ser man en skyfri himmel? Problemet er bare, at den information, vi holder klippet op imod, kan AI-modellerne potentielt også have adgang til. Så en god deepfake vil sikre, at det regner i videoen,” siger Morten Mørup.

En verden af misinformation

I 2019 modtog en administrerende direktør for et britisk energiselskab et opkald, fra hvad han troede var hans chef fra firmaets moderselskab i Tyskland, med besked på at overføre 220.000 euro til en bankkonto. I virkeligheden var den administrerende direktør blevet udsat for deepfake, hvor en svindler havde AI-genereret chefens stemme til at lyde så overbevisende, at direktøren overførte pengene med det samme. I februar 2024 gik et lignende nummer ud over en stor virksomhed i Hong Kong, der blev franarret 25,6 mio. dollars.

Mistænker du at være blevet udsat for deepfake-svindel, forklarer Morten Mørup, at det er vigtigt at bruge din sunde fornuft, og bl.a. undersøge om kontonummer og telefonnummer stemmer overens med den person, som beder om penge, inden du laver en overførsel.

I Danmark vil Udenrigsministeriet nu skærpe kontrollen med diplomatiske videosamtaler efter at udenrigsministeren, Lars Løkke Rasmussen (M), sidste år blev udsat for deepfake af en russisk komikergrupper, der havde deepfaket Moussa Faki’s, kommissionsformand for den Afrikanske Union, ansigt og stemme.

Selvom det kan være en meget svær opgave at forhindre tilsvarende svindelnumre og spredning af deepfake-genereret misinformation, påpeger Morten Mørup, at en større opmærksomhed på problematikkerne er essentiel for at begrænse problemet.

”Deklareringskravene vil gøre det sværere for den almindelige bruger at lave deepfakes uden at blive afsløret, men det ændrer ikke på, at der er nogle store aktører derude, der vil svindle eller påvirke den demokratiske gang. Derfor bliver vi nødt til at anerkende, at de her teknologier eksisterer, og vi er nødt til at forholde os til dem. Vi skal tænke kildekritisk og forstå, at vi er i en verden af misinformation, hvor der findes manipulation, som kan være meget svær at gennemskue. Vi kan som samfund blive truet på vores fælles forståelse af hvad, der er virkeligt. Et stort problem her er, hvis vi begynder at affeje sandheder som misinformation og fake, fordi de ikke lige stemmer overens med vores verdensbillede,” siger Morten Mørup.

Billederne af Taylor Swift blev efterfølgende slettet, og for at forhindre deling af nye billeder blev muligheden for at søge på sangerinden fjernet i en periode på X. Sidenhen har flere amerikanske politikere, heriblandt demokrat og medlem af Repræsentanternes Hus Yvette Clarke, efterlyst lovgivning, der skal forbyde skabelse og deling af deepfakes som pornografisk indhold på nettet.

Tema

Udviklingen af kunstig intelligens går utrolig hurtigt. Potentialet er enormt, og det er svært at se, hvor udviklingen ender.

Kunstig intelligens bygger på matematik og logik. Vi kender arbejdsprocesserne, men ved ikke altid, hvordan den kunstige intelligens kommer frem til en bestemt løsning. Derfor skal vi som forskere og samfund stille krav til anvendelse af teknologien, både i lovgivningen og moralsk.

På DTU har vi særligt fokus på det etiske aspekt af kommende AI-løsninger.

Læs mere på temasiden om kunstig intelligens.

Kontakt

Morten Mørup

Morten Mørup Professor Institut for Matematik og Computer Science Telefon: 45253900