Vorige maand trapte DuckDuckGoose co-founder Parya Lotfi de Deepfakes Debunked reeks af met een blog over de Zelensky deepfake. In dit tweede artikel krijgen we tekst en uitleg over een deepfake waarin Mark Zuckerberg de hoofdrol speelt. Lees nu verder.
De toekomst beheren.
‘Ik hoop dat ik je kon blijven vertellen dat onze missie in het leven het verbinden van mensen is, maar dat is niet zo. Het enige wat we willen is je toekomstgedrag kunnen voorspellen’, zegt de deepfake van Mark Zuckerberg in een video die in 2019 verscheen op Instagram. ‘Stel je eens voor, 1 man, met totale controle over de gestolen gegevens van miljarden mensen, al hun geheimen, hun leven, hun toekomst. Ik heb het allemaal aan Spectre te danken. Spectre heeft me laten zien dat wie de gegevens beheert, de toekomst beheerst.’
De macht van Meta.
De 2 artiesten Bill Posters en Daniel Howe hebben in samenwerking met CannyAI, een reclamebureau uit Israël, een deepfake gemaakt van Meta-oprichter Mark Zuckerberg. In de video zie je Mark Zuckerberg aan een bureau een onheilspellende toespraak houden over de macht van Meta. Om het beeld heen staan quotes als ‘We vergroten de transparantie van advertenties’. Zo lijkt het alsof de video onderdeel is van een nieuwsbericht.
Geen prioriteit.
De grote vraag die veel mensen hadden, was hoe Meta zou omgaan met de deepfake van Mark Zuckerberg op Instagram. Nadat een gemanipuleerde Facebookvideo viral ging van een dronken Nancy Pelosi, toen de leider van de Democraten in de VS, werd Meta gedwongen een standpunt in te nemen over de vraag of neppe beelden op de site mogen blijven staan. In plaats van de video te verwijderen, koos het bedrijf ervoor om er geen voorrang aan te geven. Op die manier verscheen die video minder vaak in de feeds van gebruikers. Zo werd de deepfake video van zowel Nancy Pelosi als Mark Zuckerberg door het platform behandeld als nepnieuws. De content werd dus niet verwijderd, maar kreeg een minder groot bereik. Meta kreeg door deze keuze, onder meer door de Democraten, veel kritiek.
Zorgwekkend: de snelle ontwikkeling van deepfake.
Men maakt zich zorgen over de snelle ontwikkeling van de deepfake technologie. Tegenwoordig kan je met openbare software deepfakes van zeer hoge kwaliteit maken, die met het blote oog niet te onderscheiden zijn van echte video’s. Experts voorspellen dat binnenkort 90% van de visuele online content voor een deel bewerkt zal zijn. Gecombineerd met het enorme bereik van online (social) mediaplatforms, bereiken overtuigende deepfakes een groot publiek in een zeer korte tijd. Hierdoor ontstaat er misschien wantrouwen in visuele content. Gebruikers weten straks niet meer wat echt is en wat nep.
Liar’s dividend.
Een ander probleem dat hieruit voortkomt is de zogenaamde liar’s dividend. In theorie zijn er 2 verschillende fases waarin dit fenomeen voorkomt. Ten 1e kan de beschuldiging van deepfake of nepnieuws ervoor zorgen dat mensen eerder informatie niet meer geloven. Als er dan iets uitlekt in de politiek, zullen mensen eerder een politicus als slecht zien. Ten 2e, als de politicus dan een verklaring geeft waarin hij het verhaal ontkent en zegt dat hij gemanipuleerd wordt door deepfake of nepnieuws, kunnen sommige mensen gaan twijfelen over wat ze moeten geloven.
Deepfake ontmaskerd.
Voor deze blog heeft DuckDuckGoose de deepfake-video van Mark Zuckerberg geanalyseerd met DeepDetector. Op de afbeelding hieronder zie je hoe het analyseresultaat van een frame van de video eruitziet. Deze deepfake is gemaakt door middel van een echte video. Eigenlijk zijn alleen de lipbewegingen gemanipuleerd zodat deze gelijklopen met de woorden die uitgesproken worden. De kleurenrond de lippen verwijzen naar de manipulatie die is ontstaan bij het maken van deze deepfake.
Het geluid van deze video is niet geanalyseerd door DuckDuckGoose, maar voor zover bekend, gaat het om een ingesproken geluidsfragment door een stemacteur. In de toekomst kan DuckDuckGoose een deepfake-check doen op geluidsmateriaal. Het R&D-team is bezig met het ontwikkelen van een algoritme hiervoor.
Hoe bescherm je je bedrijf tegen deepfakes?
Het is belangrijk om op de hoogte te zijn van de mogelijke gevolgen die deepfakes kunnen hebben voor ons als individuen en bedrijven. Veel mensen en bedrijven hebben al te maken met digitale fraude, online oplichting, phishing-aanvallen en cyberpesten. Het lijkt erop dat deepfakes dat soort cybercrime kan ondersteunen. Een voorbeeld van een aanval is de CEO-fraude. Door het nadoen van (de stem van) de CEO van een bedrijf stelen cybercriminelen geld of informatie van een bedrijf.
Om jezelf te beschermen tegen deepfake oplichting, geldt hetzelfde advies dat algemeen bekend is om toe te passen tegen phishing. Controleer eerst de bron- of afzenderinformatie. De kans is veel groter dat je juiste informatie vindt op vertrouwde nieuwsbronnen dan op sociale-mediasites. Hetzelfde geldt voor video’s die je via e-mail ontvangt. Bel bij twijfel de organisatie of persoon waarvan je denkt dat deze wordt nagemaakt. Als je een opvallende video krijgt van je bankmanager waarin je wordt gevraagd bankgegevens te sturen, bel dan je bank om te controleren of dit echt is.
Verder is het goed om op te passen voor snelle verzoeken zonder goede uitleg. Oplichters willen dat je snel handelt zonder na te denken. Dit doen ze door je onder druk te zetten met een gevoel van haast. Neem de tijd om de echtheid van het verzoek te controleren voordat je iets doet. Zo voorkom je dat je opgelicht wordt.
Tot slot, bedrijven zouden hun interne communicatiekanalen moeten beschermen tegen neppe beelden en audiofragmenten door het toepassen van de juiste technologie. Datastromen zouden gecontroleerd moeten worden op de aanwezigheid van deepfakes. Deze kunnen worden herkend door speciaal hiervoor ontwikkelde algoritmes.