Hoe porno mij voor het eerst bang maakte van AI
Ik kijk al een tijdje vol verwondering naar de ontwikkelingen in artificiële intelligentie en machine learning, maar voor het eerst werd ik er deze week ook bang door gemaakt. Niet uit vrees dat Skynet morgen de macht overneemt en we worden onderworpen aan de wil van de machines. Integendeel, we hebben geen robots nodig om onze maatschappij kapot te maken. Daar zijn we zelf goed genoeg in.
De bron van mijn bezorgdheid? Deepfakes.
Deepfakes vinden hun oorsprong op Reddit. Er is een hele subreddit (NSFW) gewijd aan het bewerken van pornografische videoclips, waarbij het gezicht van de porno-actrice met behulp van een zelflerend algoritme is vervangen door dat van een bekende ster. Het resultaat? Seksueel expliciete video’s van onder andere Katy Perry, Scarlett Johansson en Taylor Swift die er bijzonder realistisch uitzien, maar volledig nep zijn.
De recente ontwikkeling van een FakeApp maakt de creatie van dergelijke video’s toegankelijk voor een breder publiek, zonder technische achtergrond of programmeerkennis. Al wat je nodig hebt is een computer met een degelijke grafische kaart, enkele publiek beschikbare beelden als bronmateriaal voor het algoritme en wat vrije tijd.
Iedereen zijn eigen werkelijkheid
Het is die brede toegankelijkheid van de technologie die het zo problematisch maakt. Foto- en videomanipulatie was tot nu toe een werk van professionals en vereiste gespecialiseerde apparatuur. Nu kan iedereen zijn eigen werkelijkheid creëren. Naarmate de technologie verder verbetert, wordt het bovendien steeds moeilijker om echt van nep te onderscheiden, dat is zelfs nu al vaak het geval.
De deepfakers op Reddit zien zelf niet in wat het probleem is. Ze creëren de clips naar eigen zeggen zonder slechte bedoelingen en zien er vooral een vorm van entertainment in. De actrices die het onderwerp zijn van hun creaties denken daar wellicht anders over. In de context van de subreddit is het duidelijk dat het om valse beelden gaat, maar wat als je die context wegneemt? Een deepfake van Emma Watson verscheen reeds op CelebJihad, een website die regelmatig gehackte naaktfoto’s van sterren verspreidt, waar hij als echt werd gepresenteerd.
De gevolgen reiken nog verder. Wraakporno en cyberpesten zijn nu al belangrijke problemen waar onze maatschappij mee worstelt. Ook die beelden kunnen nu eenvoudig worden gefabriceerd. “Als alles waarheid kan zijn, is niets waar”, luidt het tegenargument van de deepfakers, maar is dat ook zo? We hebben immers de natuurlijke neiging om wat we met onze eigen ogen zien voor waar aan te nemen.
Niet alleen porno
Het blijft bovendien niet beperkt tot pornovideo’s. Wie het deepfake-algoritme gebruikt in combinatie met Adobe’s VoCo-tool, zeg maar een Photoshop voor spraak, kan op een triviaal eenvoudige manier een video van een persoon creëren en die eender wat laten zeggen. Zonder veel moeite kan een gefabriceerde speech van een politiek leider naar YouTube worden geüpload en de wereld rond gaan. De potentiële gevolgen zijn niet te overzien.
Verschillende studies toonden reeds aan dat we het moeilijk vinden om ‘fake news’ van echte berichtgeving te onderscheiden en de manier waarop we nieuws via sociale media verspreiden, zorgt ervoor dat het volledig van alle context wordt ontdaan. De eenvoud waarmee machine learning toelaat om onze eigen werkelijkheid te creëren, vraagt dus dringend om een maatschappelijk debat. Vervalsingen moeten kunnen worden gedetecteerd, ook als ze er levensechter dan ooit uitzien. Artificiële intelligentie biedt niet alleen technologische, maar ook ethische uitdagingen.
We moeten ons tegen onszelf beschermen. De robots, daar kunnen we ons daarna nog zorgen over maken.
Ik kijk al een tijdje vol verwondering naar de ontwikkelingen in artificiële intelligentie en machine learning, maar voor het eerst werd ik er deze week ook bang door gemaakt. Niet uit vrees dat Skynet morgen de macht overneemt en we worden onderworpen aan de wil van de machines. Integendeel, we hebben geen robots nodig om onze maatschappij kapot te maken. Daar zijn we zelf goed genoeg in.
De bron van mijn bezorgdheid? Deepfakes.
Deepfakes vinden hun oorsprong op Reddit. Er is een hele subreddit (NSFW) gewijd aan het bewerken van pornografische videoclips, waarbij het gezicht van de porno-actrice met behulp van een zelflerend algoritme is vervangen door dat van een bekende ster. Het resultaat? Seksueel expliciete video’s van onder andere Katy Perry, Scarlett Johansson en Taylor Swift die er bijzonder realistisch uitzien, maar volledig nep zijn.
De recente ontwikkeling van een FakeApp maakt de creatie van dergelijke video’s toegankelijk voor een breder publiek, zonder technische achtergrond of programmeerkennis. Al wat je nodig hebt is een computer met een degelijke grafische kaart, enkele publiek beschikbare beelden als bronmateriaal voor het algoritme en wat vrije tijd.
Iedereen zijn eigen werkelijkheid
Het is die brede toegankelijkheid van de technologie die het zo problematisch maakt. Foto- en videomanipulatie was tot nu toe een werk van professionals en vereiste gespecialiseerde apparatuur. Nu kan iedereen zijn eigen werkelijkheid creëren. Naarmate de technologie verder verbetert, wordt het bovendien steeds moeilijker om echt van nep te onderscheiden, dat is zelfs nu al vaak het geval.
De deepfakers op Reddit zien zelf niet in wat het probleem is. Ze creëren de clips naar eigen zeggen zonder slechte bedoelingen en zien er vooral een vorm van entertainment in. De actrices die het onderwerp zijn van hun creaties denken daar wellicht anders over. In de context van de subreddit is het duidelijk dat het om valse beelden gaat, maar wat als je die context wegneemt? Een deepfake van Emma Watson verscheen reeds op CelebJihad, een website die regelmatig gehackte naaktfoto’s van sterren verspreidt, waar hij als echt werd gepresenteerd.
De gevolgen reiken nog verder. Wraakporno en cyberpesten zijn nu al belangrijke problemen waar onze maatschappij mee worstelt. Ook die beelden kunnen nu eenvoudig worden gefabriceerd. “Als alles waarheid kan zijn, is niets waar”, luidt het tegenargument van de deepfakers, maar is dat ook zo? We hebben immers de natuurlijke neiging om wat we met onze eigen ogen zien voor waar aan te nemen.
Niet alleen porno
Het blijft bovendien niet beperkt tot pornovideo’s. Wie het deepfake-algoritme gebruikt in combinatie met Adobe’s VoCo-tool, zeg maar een Photoshop voor spraak, kan op een triviaal eenvoudige manier een video van een persoon creëren en die eender wat laten zeggen. Zonder veel moeite kan een gefabriceerde speech van een politiek leider naar YouTube worden geüpload en de wereld rond gaan. De potentiële gevolgen zijn niet te overzien.
Verschillende studies toonden reeds aan dat we het moeilijk vinden om ‘fake news’ van echte berichtgeving te onderscheiden en de manier waarop we nieuws via sociale media verspreiden, zorgt ervoor dat het volledig van alle context wordt ontdaan. De eenvoud waarmee machine learning toelaat om onze eigen werkelijkheid te creëren, vraagt dus dringend om een maatschappelijk debat. Vervalsingen moeten kunnen worden gedetecteerd, ook als ze er levensechter dan ooit uitzien. Artificiële intelligentie biedt niet alleen technologische, maar ook ethische uitdagingen.
We moeten ons tegen onszelf beschermen. De robots, daar kunnen we ons daarna nog zorgen over maken.