Test

Dit is een popup

Facebook gaat strijd aan met gemanipuleerde media

Facebook heeft aangekondigd dat het in de strijd tegen fake news en manipulatie zijn beleid ten aanzien van bewerkte video’s en deepfakes wil verstrengen.

Elke dag worden miljoenen foto’s en video’s op Facebook gedeeld. Maar al dat beeldmateriaal is lang niet altijd volledig authentiek. Mensen passen wel eens ‘effecten’ toe om hun foto’s er beter te laten uitzien. Zo lang dat onschuldige doeleinden heeft, is daar uiteraard helemaal niets mis mee. Het wordt pas een probleem wanneer manipulatie optreedt met de bedoeling valse informatie te verspreiden. Een bekend voorbeeld daarvan zijn de deepfakes, waarmee personen worden nagemaakt in afbeeldingen en video’s om hen dingen te laten doen of zeggen die nooit plaatsgevonden hebben.

Facebook sluit gelukkig niet zijn ogen voor die problematiek. Omdat het de tijd van het jaar is om goede voornemens te maken, kondigde Facebook (het bedrijf in deze context) vandaag op zijn website aan dat het zijn beleid rond het controleren van gemanipuleerde visuele content wil verstrengen.

Dat doet Facebook op twee manieren. Enerzijds controleren ze AI-gegeneerde content en de accounts erachter op basis van bestaande en nieuwe criteria, anderzijds wil Facebook ook intensiever gaan samenwerken met instituten uit verschillende achtergronden om de expertise te verbeteren.

Nieuwe criteria

Facebook zal gemanipuleerde beelden aan nieuwe criteria onderwerpen. Het zegt daarbij dat beelden zullen verwijderd worden wanneer ze duidelijk bewerkt zijn om personen dingen te doen zeggen die zij nooit gezegd hebben, of wanneer ze een product zijn van AI-technologie die inhouden samenvoegt en vervangt, en ze authentiek doet lijken.

Buiten schot vallen foto’s of video’s die enkel bewerkt worden om de kwaliteit te verbeteren, en dus inhoudelijk niets veranderen. Ook wordt er een uitzondering gemaakt op satirische inhouden of parodieën. De huidige criteria dat beelden die naaktheid, geweld, onderdrukking of hate speech bevatten niet toegelaten worden, zijn eveneens van toepassing.

Facebook zal niet enkel de beelden zelf controleren, maar ook de accounts die er achter zitten. AI-gegenereerde accounts die valse beelden verspreiden, kunnen op die manier sneller verwijderd worden. De ontwikkelaars van die accounts zullen ook gestraft worden wanneer ze bekend zijn. Vlak voor de kerstperiode werd nog een heel netwerk van valse accounts dat valse nieuwsberichten ten voordele van Donald Trump verspreidde opgerold, en werd ook de Facebookpagina van het mediabedrijf dat er achter zat verwijderd.

Deepfakes

De academische wereld waarschuwt al geruime tijd voor de deepfakes. Het gevaar van deze technologie is dat ze veel toegankelijker is dan de meeste andere AI-toepassingen, waardoor ze ook al op industriële schaal toegepast wordt. Hoewel deze technologie vandaag de dag nog het vaakst wordt toegepast voor pornografie, kan ze ook eenvoudig worden ingezet voor het verspreiden van vals nieuws. De CEO van Facebook Mark Zuckerberg, was in juni al eens in hoogsteigen persoon (of niet) te zien in een deepfake video.

Facebook richtte in september al de Deep Fake Detection Challenge op, een samenwerkingsverbond tussen het bedrijf en verschillende mediabedrijven, universiteiten en technologiebedrijven om deepfakes sneller te leren detecteren en aan te pakken. Die maken onder andere zelf deepfakes om hun eigen algoritmen te trainen. Daarbovenop werken ze ook samen met Reuters om gratis online cursussen in het herkennen van gemanipuleerde content aan te bieden aan mediabedrijven.

Elke dag worden miljoenen foto’s en video’s op Facebook gedeeld. Maar al dat beeldmateriaal is lang niet altijd volledig authentiek. Mensen passen wel eens ‘effecten’ toe om hun foto’s er beter te laten uitzien. Zo lang dat onschuldige doeleinden heeft, is daar uiteraard helemaal niets mis mee. Het wordt pas een probleem wanneer manipulatie optreedt met de bedoeling valse informatie te verspreiden. Een bekend voorbeeld daarvan zijn de deepfakes, waarmee personen worden nagemaakt in afbeeldingen en video’s om hen dingen te laten doen of zeggen die nooit plaatsgevonden hebben.

Facebook sluit gelukkig niet zijn ogen voor die problematiek. Omdat het de tijd van het jaar is om goede voornemens te maken, kondigde Facebook (het bedrijf in deze context) vandaag op zijn website aan dat het zijn beleid rond het controleren van gemanipuleerde visuele content wil verstrengen.

Dat doet Facebook op twee manieren. Enerzijds controleren ze AI-gegeneerde content en de accounts erachter op basis van bestaande en nieuwe criteria, anderzijds wil Facebook ook intensiever gaan samenwerken met instituten uit verschillende achtergronden om de expertise te verbeteren.

Nieuwe criteria

Facebook zal gemanipuleerde beelden aan nieuwe criteria onderwerpen. Het zegt daarbij dat beelden zullen verwijderd worden wanneer ze duidelijk bewerkt zijn om personen dingen te doen zeggen die zij nooit gezegd hebben, of wanneer ze een product zijn van AI-technologie die inhouden samenvoegt en vervangt, en ze authentiek doet lijken.

Buiten schot vallen foto’s of video’s die enkel bewerkt worden om de kwaliteit te verbeteren, en dus inhoudelijk niets veranderen. Ook wordt er een uitzondering gemaakt op satirische inhouden of parodieën. De huidige criteria dat beelden die naaktheid, geweld, onderdrukking of hate speech bevatten niet toegelaten worden, zijn eveneens van toepassing.

Facebook zal niet enkel de beelden zelf controleren, maar ook de accounts die er achter zitten. AI-gegenereerde accounts die valse beelden verspreiden, kunnen op die manier sneller verwijderd worden. De ontwikkelaars van die accounts zullen ook gestraft worden wanneer ze bekend zijn. Vlak voor de kerstperiode werd nog een heel netwerk van valse accounts dat valse nieuwsberichten ten voordele van Donald Trump verspreidde opgerold, en werd ook de Facebookpagina van het mediabedrijf dat er achter zat verwijderd.

Deepfakes

De academische wereld waarschuwt al geruime tijd voor de deepfakes. Het gevaar van deze technologie is dat ze veel toegankelijker is dan de meeste andere AI-toepassingen, waardoor ze ook al op industriële schaal toegepast wordt. Hoewel deze technologie vandaag de dag nog het vaakst wordt toegepast voor pornografie, kan ze ook eenvoudig worden ingezet voor het verspreiden van vals nieuws. De CEO van Facebook Mark Zuckerberg, was in juni al eens in hoogsteigen persoon (of niet) te zien in een deepfake video.

Facebook richtte in september al de Deep Fake Detection Challenge op, een samenwerkingsverbond tussen het bedrijf en verschillende mediabedrijven, universiteiten en technologiebedrijven om deepfakes sneller te leren detecteren en aan te pakken. Die maken onder andere zelf deepfakes om hun eigen algoritmen te trainen. Daarbovenop werken ze ook samen met Reuters om gratis online cursussen in het herkennen van gemanipuleerde content aan te bieden aan mediabedrijven.

aideepfakeszakelijk

Gerelateerde artikelen

Volg ons

ICT Jaarboek 2021-2022 – TechPulse Business

ICT Jaarboek 2021-2022 – TechPulse Business

Bestel nu!