Test

Dit is een popup

Achtergrond

Kan Facebook de strijd tegen desinformatie nog winnen?

De ultieme testcase in de strijd tegen desinformatie is op een horrorscenario uitgedraaid voor Facebook. Hoe kan het sociale medium zijn geloofwaardigheid terugwinnen?

6 januari 2021. Duizenden Trump-aanhangers verzamelen aan het Capitool in de Amerikaanse hoofdstad Washington. Op dat moment zit het Congres samen om de uitslag van de verkiezingen te formaliseren en Joe Biden officieel tot president uit te roepen. Maar zover willen de aanhangers van Trump het niet laten komen. Een groep heethoofden bestormt de normaal onneembare vesting van de Amerikaanse politiek. Vijf mensen komen om het leven bij schermutselingen tussen de betogers en de politie. De schokkende beelden gaan de wereld rond en slaan een diepe krater in de Amerikaanse samenleving en het hele Westerse democratische systeem.  

De bestorming van het Capitool was echter de kroniek van een aangekondigde explosie. Nog voor de verkiezingsdag liep Donald Trump al te roepen dat de verkiezingen zouden vervalst zijn. De leuze “Stop the Steal” begon al snel een eigen leven te leiden op sociale media. Trump-aanhangers verzamelden zich in groepen op Facebook en Twitter terwijl hun president met elke social media post meer olie op het vuur gooide. Het leek een kwestie van tijd vooraleer de bom zou ontploffen en zo geschiedde. Omdat Trump zijn aanhangers via sociale media ongestoord kon ophitsen, vinden velen dat de platformen boter op het hoofd hebben. Vooral Facebook zakte opnieuw door het ijs. De Stop the Steal-beweging ging doordacht te werk om mensen te mobiliseren met valse claims en was Facebook daarbij te slim af. Facebook zei voor de verkiezingen voorbereid te zijn, maar ze konden toch geen nieuw desinformatiedebacle vermijden. Het lijkt alsof Facebook de strijd tegen kwalijke info definitief verloren heeft, maar er is nog hoop.   

Trump-aanhangers breken binnen in het Capitool. Image: AFP

Last van tunnelvisie 

Een eerste stap is het maken van een grondige analyse van wat er precies is misgelopen. Facebook was er al snel van op de hoogte dat Stop the Steal wel eens een probleem zou kunnen worden. Al tijdens de verkiezingsnacht moesten ze een eerste groep met meer dan 300.000 leden verwijderen. Ze waren er dus snel bij om de eerste dreiging in de kiem te smoren. Maar één groep werden twee groepen en voor ze het goed en wel beseften was Facebook de controle helemaal kwijt. Honderdduizenden Amerikanen waren via die groepen blootgesteld aan valse en onbewezen claims over de verkiezingen.   

Dit had Facebook natuurlijk wel kunnen voorspellen. In zijn aanpakplan maakte het bedrijf twee kritieke fouten. Ten eerste hadden ze een foute focus. Facebook zet haar algoritmen intensief in om valse accounts op te sporen en te verwijderen. Computerbots worden vaak ingezet om een account aan te maken op Facebook en daarop aan de lopende band nepnieuwslinks te delen. Echter kwam het nepnieuws deze keer wel van echte mensen. Ten tweede had Facebook de tegenstander onderschat. De Stop the Steal-beweging bleek zeer gecoördineerd te werk te gaan. In de schaduw van de grote groepen die Facebook verwijderde wist een netwerk van kleinere groepen wel onder de radar te blijven. De groepering werkte ook met zogenaamde super-inviters, die honderden mensen voor meerdere groepen uitnodigden. Facebook was blind voor het grotere plaatje en die tunnelvisie hebben ze cash moeten betalen. De pijnlijkste les die Facebook dient te trekken uit dit voorval is dat hun net te veel mazen heeft waar desinformatie door kan glippen.   

Algoritmen als schakelaar 

Na het Cambridge Analytica-schandaal is Facebook massaal beginnen inzetten op het gebruik van algoritmen om haar menselijke moderatoren te kunnen ontlasten van hun zware taak. Algoritmen zijn in staat om veel sneller grote hoeveelheden informatie te verwerken aan een constant tempo. Bovendien kunnen algoritmen ook verder kijken waar de grenzen van het menselijke oog stoppen. Neem bijvoorbeeld een afbeelding of een video. Tegenwoordig is de technologische drempel om een deepfake te maken en te verspreiden niet meer zo hoog. Een goedgemaakte deepfake kan zeer moeilijk te onderscheiden zijn met het blote oog. In dat geval gaan de algoritmen speuren in de metadata van de video om te zoeken naar hints die kunnen wijzen op vervalsing. Mensen en algoritmen kunnen elkaar ook gaan aanvullen. Wanneer een factchecker Facebook alert maakt op een valse claim die circuleert, dan zetten zij de algoritmen in om alle posts die die claim bevatten te verwijderen. Algoritmen zullen dan ook analyseren vanwaar die valse links komen. Accounts en groepen die frequenter valse informatie verspreiden kunnen zo sneller worden gevonden dan wanneer een menselijke detective moet gaan zoeken. 

Zo is het in de theorie. In de praktijk zijn algoritmen zelden volledig foutloos. Machine learning houdt in dat een algoritme pas na verloop van tijd beter wordt en je dus altijd een foutmarge dient in te calculeren. Dat kan soms tot vervelende situaties leiden. Toen Facebook na een dispuut met de Australische regering besloot om Australische nieuwsmedia de toegang te ontzeggen, blokkeerden de algoritmen ook de pagina’s van hulpdiensten. Dat was natuurlijk niet de bedoeling. In de strijd tegen desinformatie is er echter niet veel marge voor fouten. Het onterecht verwijderen van posts en groepen neigt immers naar censuur, iets wat Facebook koste wat het kost wil vermijden. Facebook moet eens grondig evalueren hoe ze hun algoritmen grondiger kunnen inzetten in de strijd tegen desinformatie. Hun algoritmen hebben gefaald als nieuwsfilter. Een menselijk oordeel blijkt toch nog nodig te zijn om de authenticiteit van een bron te beoordelen, maar dit kost tijd. Eens een vals nieuwsbericht online gaat, telt elke seconde om verdere verspreiding tegen te gaan. In een andere rol zouden algoritmen echter wel kunnen excelleren.  

Het net van Facebook heeft te veel mazen waar desinformatie door kan glippen.

Facebook is al enkele maanden een tool aan het testen die virale content in de nieuwsfeed gaat reviewen. Algoritmen bepalen nu al hoe jouw nieuwsoverzicht gesorteerd is wanneer je inlogt. Recente posts van pagina’s en personen met wie je de meeste interactie hebt zullen bovenaan je nieuwsoverzicht verschijnen. De algoritmen bepalen welke content voor jou het meest relevant is. Het klinkt dan ook logisch dat diezelfde algoritmen kunnen voorkomen dat desinformatie de kans krijgt om op grote schaal opgepikt te worden. Wat de nieuwe tool concreet doet, is de verspreiding van een mogelijk verdachte post tijdelijk on hold zetten, totdat ze geverifieerd is door een externe factchecker. Niemand zal de post dan in zijn of haar nieuwsfeed te zien krijgen. In deze context fungeren de algoritmen dus niet meer als een filter, maar als een schakelaar. Facebook kan de doorstroming van desinformatie beperken zonder te moeten censureren. De technologie zal niet volledig kunnen voorkomen dat nepnieuws zijn weg naar Facebook vindt, maar door de zichtbaarheid ervan in te perken neem je wel veel incentives weg om het te delen.  

Betere samenwerking met nieuwsmedia  

Een andere manier om desinformatie geen kans te geven is om ervoor te zorgen dat er enkel kwalitatief nieuws te vinden is op Facebook. Facebook zet daarom ook projecten op met nieuwsmedia om journalisten lokaal te ondersteunen. Een mooi voorbeeld daarvan is het News Accelerator-programma. Dit is een opleidingsprogramma dat Facebook sinds 2018 aanbiedt aan kleinere printmedia om hen te helpen de stap naar de onlinewereld te zetten. Ze leren hoe ze mensen beter kunnen bereiken via sociale media en dit te koppelen aan meer inkomsten uit digitale advertenties. Deelnemers ontvangen ook subsidies om te kunnen experimenteren met digitale tools. Andere voorbeelden van hoe Facebook een maatschappelijke bijdrage probeert te leveren aan de bestrijding van fake news is door het News Literacy Project en News Integrity Initiative te ondersteunen. Deze projecten ontwikkelen tools en opleidingen om mensen te helpen toegang te krijgen tot kwalitatief nieuws en kritischer te leren omgaan met wat ze lezen op het internet. Deze projecten zullen vooral op de langere termijn moeten renderen om desinformatie uit te schakelen. Wat Facebook wel goed doet, mag ook gezegd worden. 

Ondanks deze nobele projecten is de verhouding tussen Facebook en de nieuwsmediasector de voorbije jaren verzuurd geraakt. Facebook biedt haar platform wel gratis aan voor nieuwsmedia om hun content tot bij een groter publiek te krijgen, maar tot extra inkomsten leidt dat nauwelijks tot niet voor de uitgevers. Door het advertentiemodel van Facebook blijven nagenoeg alle advertentie-inkomsten bij Facebook ‘plakken’ en blijven slechts kruimels over voor de media. Hetzelfde probleem met Google. Mediabedrijven hebben sociale mediaplatformen vandaag de dag nodig om die kostbare clicks te verzamelen, dus dienen zij de spelregels van de advertentiegiganten te volgen. Enkele jaren geleden probeerden Duitse nieuwsmedia al eens sociale media te boycotten, maar zij dienden snel op hun passen terug te keren omdat ze hun cijfers daardoor zagen dalen. Het meest recente incident speelde zich af in Australië. Toen de regering een omstreden wetsvoorstel goedkeurde dat Facebook en Google zou kunnen verplichten om nieuwsmedia te betalen voor de links die ze delen, trok Facebook de stekker uit nieuws. Om een definitieve brug te kunnen slaan tussen Facebook en internationale nieuwsmedia, dringt zich een structurele oplossing aan om meer evenwicht in de digitale advertentiemarkt te brengen. Geen eenvoudige puzzel.  

Facebook mag de grote veldslag van 2020 dan wel hebben verloren, de strijd tegen desinformatie is nog lang niet gestreden. Zolang er een publiek voor bestaat, zullen mensen niet ophouden met het verspreiden van valse nieuwsberichten en onbewezen ‘wetenschappelijke’ claims. De vele onzin die we lezen over de coronavaccins waarschuwen voor een nieuwe desinformatiegolf die op komst is. Nu is het de allerlaatste kans voor Facebook om te bewijzen dat ze fake news de baas kunnen.  

Kan Facebook het tij nog keren?

Misinformatie vs. desinformatie 

Je ziet deze twee termen vaak door elkaar gebruikt worden om foutieve informatie aan te duiden, maar ze zijn niet volledig hetzelfde. Het grote verschil zit in de intentie. Misinformatie zijn onbedoelde fouten die ontstaan door slordigheden of steunen op slechte bronnen. Desinformatie is het bewust manipuleren van informatie uit economische of ideologische motieven.  

6 januari 2021. Duizenden Trump-aanhangers verzamelen aan het Capitool in de Amerikaanse hoofdstad Washington. Op dat moment zit het Congres samen om de uitslag van de verkiezingen te formaliseren en Joe Biden officieel tot president uit te roepen. Maar zover willen de aanhangers van Trump het niet laten komen. Een groep heethoofden bestormt de normaal onneembare vesting van de Amerikaanse politiek. Vijf mensen komen om het leven bij schermutselingen tussen de betogers en de politie. De schokkende beelden gaan de wereld rond en slaan een diepe krater in de Amerikaanse samenleving en het hele Westerse democratische systeem.  

De bestorming van het Capitool was echter de kroniek van een aangekondigde explosie. Nog voor de verkiezingsdag liep Donald Trump al te roepen dat de verkiezingen zouden vervalst zijn. De leuze “Stop the Steal” begon al snel een eigen leven te leiden op sociale media. Trump-aanhangers verzamelden zich in groepen op Facebook en Twitter terwijl hun president met elke social media post meer olie op het vuur gooide. Het leek een kwestie van tijd vooraleer de bom zou ontploffen en zo geschiedde. Omdat Trump zijn aanhangers via sociale media ongestoord kon ophitsen, vinden velen dat de platformen boter op het hoofd hebben. Vooral Facebook zakte opnieuw door het ijs. De Stop the Steal-beweging ging doordacht te werk om mensen te mobiliseren met valse claims en was Facebook daarbij te slim af. Facebook zei voor de verkiezingen voorbereid te zijn, maar ze konden toch geen nieuw desinformatiedebacle vermijden. Het lijkt alsof Facebook de strijd tegen kwalijke info definitief verloren heeft, maar er is nog hoop.   

Trump-aanhangers breken binnen in het Capitool. Image: AFP

Last van tunnelvisie 

Een eerste stap is het maken van een grondige analyse van wat er precies is misgelopen. Facebook was er al snel van op de hoogte dat Stop the Steal wel eens een probleem zou kunnen worden. Al tijdens de verkiezingsnacht moesten ze een eerste groep met meer dan 300.000 leden verwijderen. Ze waren er dus snel bij om de eerste dreiging in de kiem te smoren. Maar één groep werden twee groepen en voor ze het goed en wel beseften was Facebook de controle helemaal kwijt. Honderdduizenden Amerikanen waren via die groepen blootgesteld aan valse en onbewezen claims over de verkiezingen.   

Dit had Facebook natuurlijk wel kunnen voorspellen. In zijn aanpakplan maakte het bedrijf twee kritieke fouten. Ten eerste hadden ze een foute focus. Facebook zet haar algoritmen intensief in om valse accounts op te sporen en te verwijderen. Computerbots worden vaak ingezet om een account aan te maken op Facebook en daarop aan de lopende band nepnieuwslinks te delen. Echter kwam het nepnieuws deze keer wel van echte mensen. Ten tweede had Facebook de tegenstander onderschat. De Stop the Steal-beweging bleek zeer gecoördineerd te werk te gaan. In de schaduw van de grote groepen die Facebook verwijderde wist een netwerk van kleinere groepen wel onder de radar te blijven. De groepering werkte ook met zogenaamde super-inviters, die honderden mensen voor meerdere groepen uitnodigden. Facebook was blind voor het grotere plaatje en die tunnelvisie hebben ze cash moeten betalen. De pijnlijkste les die Facebook dient te trekken uit dit voorval is dat hun net te veel mazen heeft waar desinformatie door kan glippen.   

Algoritmen als schakelaar 

Na het Cambridge Analytica-schandaal is Facebook massaal beginnen inzetten op het gebruik van algoritmen om haar menselijke moderatoren te kunnen ontlasten van hun zware taak. Algoritmen zijn in staat om veel sneller grote hoeveelheden informatie te verwerken aan een constant tempo. Bovendien kunnen algoritmen ook verder kijken waar de grenzen van het menselijke oog stoppen. Neem bijvoorbeeld een afbeelding of een video. Tegenwoordig is de technologische drempel om een deepfake te maken en te verspreiden niet meer zo hoog. Een goedgemaakte deepfake kan zeer moeilijk te onderscheiden zijn met het blote oog. In dat geval gaan de algoritmen speuren in de metadata van de video om te zoeken naar hints die kunnen wijzen op vervalsing. Mensen en algoritmen kunnen elkaar ook gaan aanvullen. Wanneer een factchecker Facebook alert maakt op een valse claim die circuleert, dan zetten zij de algoritmen in om alle posts die die claim bevatten te verwijderen. Algoritmen zullen dan ook analyseren vanwaar die valse links komen. Accounts en groepen die frequenter valse informatie verspreiden kunnen zo sneller worden gevonden dan wanneer een menselijke detective moet gaan zoeken. 

Zo is het in de theorie. In de praktijk zijn algoritmen zelden volledig foutloos. Machine learning houdt in dat een algoritme pas na verloop van tijd beter wordt en je dus altijd een foutmarge dient in te calculeren. Dat kan soms tot vervelende situaties leiden. Toen Facebook na een dispuut met de Australische regering besloot om Australische nieuwsmedia de toegang te ontzeggen, blokkeerden de algoritmen ook de pagina’s van hulpdiensten. Dat was natuurlijk niet de bedoeling. In de strijd tegen desinformatie is er echter niet veel marge voor fouten. Het onterecht verwijderen van posts en groepen neigt immers naar censuur, iets wat Facebook koste wat het kost wil vermijden. Facebook moet eens grondig evalueren hoe ze hun algoritmen grondiger kunnen inzetten in de strijd tegen desinformatie. Hun algoritmen hebben gefaald als nieuwsfilter. Een menselijk oordeel blijkt toch nog nodig te zijn om de authenticiteit van een bron te beoordelen, maar dit kost tijd. Eens een vals nieuwsbericht online gaat, telt elke seconde om verdere verspreiding tegen te gaan. In een andere rol zouden algoritmen echter wel kunnen excelleren.  

Het net van Facebook heeft te veel mazen waar desinformatie door kan glippen.

Facebook is al enkele maanden een tool aan het testen die virale content in de nieuwsfeed gaat reviewen. Algoritmen bepalen nu al hoe jouw nieuwsoverzicht gesorteerd is wanneer je inlogt. Recente posts van pagina’s en personen met wie je de meeste interactie hebt zullen bovenaan je nieuwsoverzicht verschijnen. De algoritmen bepalen welke content voor jou het meest relevant is. Het klinkt dan ook logisch dat diezelfde algoritmen kunnen voorkomen dat desinformatie de kans krijgt om op grote schaal opgepikt te worden. Wat de nieuwe tool concreet doet, is de verspreiding van een mogelijk verdachte post tijdelijk on hold zetten, totdat ze geverifieerd is door een externe factchecker. Niemand zal de post dan in zijn of haar nieuwsfeed te zien krijgen. In deze context fungeren de algoritmen dus niet meer als een filter, maar als een schakelaar. Facebook kan de doorstroming van desinformatie beperken zonder te moeten censureren. De technologie zal niet volledig kunnen voorkomen dat nepnieuws zijn weg naar Facebook vindt, maar door de zichtbaarheid ervan in te perken neem je wel veel incentives weg om het te delen.  

Betere samenwerking met nieuwsmedia  

Een andere manier om desinformatie geen kans te geven is om ervoor te zorgen dat er enkel kwalitatief nieuws te vinden is op Facebook. Facebook zet daarom ook projecten op met nieuwsmedia om journalisten lokaal te ondersteunen. Een mooi voorbeeld daarvan is het News Accelerator-programma. Dit is een opleidingsprogramma dat Facebook sinds 2018 aanbiedt aan kleinere printmedia om hen te helpen de stap naar de onlinewereld te zetten. Ze leren hoe ze mensen beter kunnen bereiken via sociale media en dit te koppelen aan meer inkomsten uit digitale advertenties. Deelnemers ontvangen ook subsidies om te kunnen experimenteren met digitale tools. Andere voorbeelden van hoe Facebook een maatschappelijke bijdrage probeert te leveren aan de bestrijding van fake news is door het News Literacy Project en News Integrity Initiative te ondersteunen. Deze projecten ontwikkelen tools en opleidingen om mensen te helpen toegang te krijgen tot kwalitatief nieuws en kritischer te leren omgaan met wat ze lezen op het internet. Deze projecten zullen vooral op de langere termijn moeten renderen om desinformatie uit te schakelen. Wat Facebook wel goed doet, mag ook gezegd worden. 

Ondanks deze nobele projecten is de verhouding tussen Facebook en de nieuwsmediasector de voorbije jaren verzuurd geraakt. Facebook biedt haar platform wel gratis aan voor nieuwsmedia om hun content tot bij een groter publiek te krijgen, maar tot extra inkomsten leidt dat nauwelijks tot niet voor de uitgevers. Door het advertentiemodel van Facebook blijven nagenoeg alle advertentie-inkomsten bij Facebook ‘plakken’ en blijven slechts kruimels over voor de media. Hetzelfde probleem met Google. Mediabedrijven hebben sociale mediaplatformen vandaag de dag nodig om die kostbare clicks te verzamelen, dus dienen zij de spelregels van de advertentiegiganten te volgen. Enkele jaren geleden probeerden Duitse nieuwsmedia al eens sociale media te boycotten, maar zij dienden snel op hun passen terug te keren omdat ze hun cijfers daardoor zagen dalen. Het meest recente incident speelde zich af in Australië. Toen de regering een omstreden wetsvoorstel goedkeurde dat Facebook en Google zou kunnen verplichten om nieuwsmedia te betalen voor de links die ze delen, trok Facebook de stekker uit nieuws. Om een definitieve brug te kunnen slaan tussen Facebook en internationale nieuwsmedia, dringt zich een structurele oplossing aan om meer evenwicht in de digitale advertentiemarkt te brengen. Geen eenvoudige puzzel.  

Facebook mag de grote veldslag van 2020 dan wel hebben verloren, de strijd tegen desinformatie is nog lang niet gestreden. Zolang er een publiek voor bestaat, zullen mensen niet ophouden met het verspreiden van valse nieuwsberichten en onbewezen ‘wetenschappelijke’ claims. De vele onzin die we lezen over de coronavaccins waarschuwen voor een nieuwe desinformatiegolf die op komst is. Nu is het de allerlaatste kans voor Facebook om te bewijzen dat ze fake news de baas kunnen.  

Kan Facebook het tij nog keren?

Misinformatie vs. desinformatie 

Je ziet deze twee termen vaak door elkaar gebruikt worden om foutieve informatie aan te duiden, maar ze zijn niet volledig hetzelfde. Het grote verschil zit in de intentie. Misinformatie zijn onbedoelde fouten die ontstaan door slordigheden of steunen op slechte bronnen. Desinformatie is het bewust manipuleren van informatie uit economische of ideologische motieven.  

beveiligingfake news

Gerelateerde artikelen

Volg ons

ICT Jaarboek 2021-2022 – TechPulse Business

ICT Jaarboek 2021-2022 – TechPulse Business

Bestel nu!