Deepfake
Wat is Deepfake nou eigenlijk? En is het een bedreiging voor alle mensen of alleen machtige mensen? Of is het helemaal geen bedreiging? Allemaal vragen die je jezelf kunt stellen als het gaat om Deepfakes. Als stagiaire van de Digital Society Hub (DSH) ben ik op onderzoek uitgegaan. Want hoe kan de moderne technologie nou ervoor zorgen dat er bepaalde beelden, geluiden en teksten gemanipuleerd worden? In dit artikel krijg je antwoord op al je vragen.
Voor dit artikel heeft de DSH contact opgenomen met Jarno Duursma. Jarno is een technologie – expert, trendwatcher en spreker op het gebied van digitale technologie. Jarno heeft mij flink op weg geholpen met informatie op zijn website en het rapport over de gevaren van Deepfake technologie. Voor meer interessante artikelen en de podcast waar Jarno in te horen is check de website www.jarnoduursma.nl
Wat is Deepfake?
Deepfake bestaat uit twee Engelse woorden, “Deep” en “Fake”. Het woord “deep” is de verwijzing naar de kunstmatige intelligente deep learning-netwerken en “fake” staat voor het woord nep.
Als je aan Deepfake denkt, denk je al gauw aan beelden. Beelden die door middel van een kunstmatige intelligentie software wordt gecreëerd. Maar het gaat bij Deepfake niet alleen om beelden, ook om geluiden of teksten. De slimme software wordt gebruikt voor het creëren en manipuleren van beelden, teksten en geluiden. Je kan met deze software een gezicht van een persoon verwisselen met het gezicht van een ander. Zo kun je dus iemand dingen laten doen en zeggen zonder dat diegene dat daadwerkelijk heeft gedaan! Het is dus ontzettend belangrijk dat we snel leren herkennen wat Deepfake is, want de ontwikkeling gaat razendsnel.
De techniek
De deepfake-techniek die veelal wordt gebruikt en ook sterk in opkomst is, is de generative adversarial networks (GAN’s). De techniek bestaat uit twee verschillende netwerken: de generator en de discriminator. De generator creëert nieuwe digitale content en de discriminator bepaalt hoe echt deze nieuwe content lijkt. De discriminator keurt de nieuwe informatie uiteindelijk goed en dan is het nauwelijks meer van echt te onderscheiden. Dit houdt in dat de generator net zo lang bezig is met het maken van nieuwe content totdat de discriminator het uiteindelijk goed keurt.
Beeld
Tegenwoordig is het met verschillende apps al ontzettend makkelijk om beelden te manipuleren. De software is namelijk zelfs al beschikbaar via smartphone apps. Het is bijvoorbeeld mogelijk om een “face swap” te maken. Een face swap houdt in dat je in een video gezichten van personen kunt verwisselen. Maar er is nog een voorbeeld, namelijk “Deepnude”. Deepnude zorgt ervoor dat je een normale foto van iemand zo kunt veranderen dat de persoon in de foto uiteindelijk geen kleren meer draagt. Vandaar het woord “nude”, wat naakt betekend.
Voice
Bij de voice gaat het om geluid, bijvoorbeeld spraak. Het klonen van stemmen is mogelijk. Je kan dus een persoon iets laten zeggen, wat iemand niet gezegd heeft. Een nieuwe software van Google geeft je de mogelijkheid om in slechts 5 seconde al een stem te kunnen klonen. Maar ook andere bedrijven komen al met de mogelijkheid om dit te doen. In de informatie van Jarno is terug te lezen dat er recent financiële bedrijfsfraude werd gepleegd met het klonen van de stem van de directeur van het bedrijf. Dit zorgde ervoor dat er een succesvolle opdracht voor een transactie van ongeveer €220.000 euro werd gegeven.
Tekst
Er is tegenwoordig veel digitale tekst beschikbaar. Denk aan bijvoorbeeld bibliotheken van E-book. De systemen hoeven de teksten niet te begrijpen om een nieuwe tekst te genereren. Voor nu zijn de teksten nog niet perfect, maar ook deze technologie wordt steeds beter en beter. Het GPT-3 systeem kan zelf geloofwaardige teksten genereren en is vooral goed in de voorspelling van het volgende woord in een zin. Het systeem weet alleen niet de betekenis van de woorden. Het gaat dus vooral om de voorspelling van de woorden. Dit gebruiken de meeste mensen eigenlijk al dagelijks. Als je een WhatsApp stuurt naar iemand komt vaak het volgende woord al tevoorschijn in je scherm boven je toetsenbord.
De risico's van Deepfake
Als je je gaat verdiepen in Deepfake, schrik je van de mogelijke gevaren. Er zitten ook zeker veel risico’s aan Deepfake. Je kunt namelijk te maken krijgen met chantage of misschien wel reputatieschade wat betreft de functie die je hebt. Een eerder voorbeeld is de bedrijfsdirecteur, maar ook bijvoorbeeld politicus en juristen. Ook bestaat het risico dat veel mensen gaan denken dat het toch nep is wat je ziet en hoort. Mensen kunnen met deze technologie natuurlijk nog makkelijker zeggen dat het niet gezegd is en dat het Deepfake – technolgie is. Maar er zullen natuurlijk ook mensen tussen zitten die wél alles zullen geloven wat er te zien valt op het internet. Jarno schrijft over “infocalypse”. Infocalypse is de vernietiging van de betrouwbaarheid van informatie. Alles kan nu nep zijn.
Het bestrijden van Deepfake
Kunstmatige intelligentie kan gebruikt worden bij het maken van Deepfakes, maar de kunstmatige intelligentie kan ook ingezet worden om deze Deepfake media te bestrijden. De platformen Facebook, Adobe en Google zijn bezig met het ontwikkelen van de oplossing. Zij willen ervoor zorgen dat het herkenbaar wordt wanneer we te maken hebben met Deepfake en nep nieuws. Naast de grote platformen is de Nederlandse computerwetenschapper Theo Gevers bezig met het ontwikkelen van een plug-in voor browsers om Deepfakes te kunnen herkennen!
Wat vindt de lector?
Wim Elving, lector duurzaamheidscommunicatie stelt zelfs dat Deepfakes een groot probleem kunnen gaan worden en tot grote maatschappelijke onrust kunnen zorgen. In de hijgerige samenleving, waar een kleine misstap al snel, versterkt door social media, enorme schade oplevert vormen Deepfakes een groot gevaar. Hoe hiermee om te gaan zal deel uit moeten maken van de gereedschapskist van communicatieprofessionals en aandacht in de opleiding van communicatieprofessionals moeten krijgen.
In de hijgerige samenleving, waar een kleine misstap al snel, versterkt door social media, enorme schade oplevert vormen Deepfakes een groot gevaar.
Wat zeggen onze volgers?
We vroegen onze volgers op Instagram of zij al bekend zijn met Deepfake. Hierop stemde 79% van onze volgers ja en slechts 21% is nog onbekend met Deepfake. Ook vroegen we of de volgers al iets wisten over het gevaar van Deepfake. Hierop kregen we een kloppend antwoord, namelijk: “of iemand echt is”. Dat is inderdaad iets wat we allemaal moeten gaan leren, om het echt van nep te onderscheiden.