Deepfakes bestaan in feite al jaren, maar de techniek die erachter zit wordt in een rap tempo beter. Hierdoor kan iedereen met een smartphone een filmpje manipuleren door iemands gezicht op een ander lichaam te plakken. Als over een tijdje nep niet meer van echt te onderscheiden is, kan dat grote gevolgen hebben voor onze samenleving. 

Begin deze maand lanceerde een deepfake app genaamd Zao in China. Hiermee kan je je eigen gezicht in bekende speelfilms plakken. Vrij onschuldig dus, maar het is heel goed mogelijk om diezelfde techniek toe te passen voor meer sinistere doeleinden. Dit soort apps gaan ook vaak niet goed om met de persoonlijke gegevens van gebruikers. Aanvankelijk was de Chinese regering niet blij, aangezien gebruikers na het uploaden van de foto’s ook het portretrecht van hun eigen gezicht kwijt raakte. Hierdoor zou de app in theorie de geuploade afbeeldingen kunnen gebruiken voor reclames. Desondanks werd  Zao de meest gedownloade gratis app ooit in China. Het OM maakt zich ook in Nederland zorgen over de snelle ontwikkeling van deepfakes. Officier van justitie Lodewijk van Zwieten vertelde in een gesprek met de NOS dat “we moeten beseffen dat als we iets zien, we dat niet meer kunnen geloven.”

Dit is allemaal heel leuk en aardig, maar hoe werkt zo’n deepfake nou precies? Dat is een behoorlijk ingewikkeld verhaal. Toch zal ik een beknopte uitleg proberen te geven. Het woord deepfake is een samenstelling van de woorden deep learning en fake news. Deze filmpjes worden gemaakt doormiddel van Generative Adverserial Networks oftewel: GAN. Dit zijn twee neurale netwerken die met elkaar samenwerken. Een neuraal netwerk is een systeem dat zo gemaakt is om de werking van de hersenen van de mens na te bootsen. Kunstmatige intelligentie dus. Een neuraal netwerk leert dus net als wij door middel van voorbeelden. In het geval van GAN heet het ene netwerk de ‘Generator’ en het andere netwerk de ‘Discriminator’. De Generator probeert op basis van een dataset zelfstandig video modellen te genereren. Het andere netwerk de Discriminator, wordt ingezet om nabootsing op te sporen. Deze twee netwerken maken elkaar dus beter en beter totdat nep niet meer van echt te onderscheiden is. Alleen de stem blijft moeilijk om na te maken. Daar is namelijk veel geluidsmateriaal voor nodig. Volgens Theo Gevers, hoogleraar computerwetenschappen aan de Universiteit van Amsterdam, is dit slechts een hobbel. Hij schat in dat over twee jaar ook de stem nagemaakt kan worden. 

Ook positieve doeleinden 

Als je deepfake intikt op Google kom je veel artikelen tegen die negatief zijn over deze nieuwe ontwikkelingen. Toch kan je ook positieve dingen doen met deze nieuwe technologie. Volgens Sander Duivestein, onderzoeker naar de invloed van nieuwe media, staan deepfakes onterecht teveel in een slecht daglicht. ‘’Deepfakes zijn slechts een klein onderdeel wat negatief eruit wordt gehaald, maar uiteindelijk heb je nu te maken met kunstmatige intelligentie die creatief van zichzelf is. Ik kan zelfs met deze technologie nieuwe medicijnen ontwerpen.’’ Duivestein vervolgt: ‘’Als je normaal een medicijn ontwerpt, kost dat je 10 jaar en 2,7 miljard dollar voordat het goedgekeurd is. Nu hebben ze met kunstmatige intelligentie dertigduizend verschillende moleculen met medicijnachtige kenmerken ontworpen in 45 dagen tijd. Dan zie dus echt dat deze technologie radicaal onze industrie gaat veranderen op een positieve manier.’’ Als dat geen grote zilveren rand is, dan weet ik het ook niet meer.