Facebook AI verwijdert 8,7 miljoen berichten rond kindermisbruik
Facebook kondigde in het verleden al aan dat het actiever gebruik wilde gaan maken van AI en machine learning om content van het platform te verwijderen dat de regels (Terms of Service) niet volgt. Dit systeem lijkt nu zijn vruchten af te werpen want Facebook verwijderde reeds 8,7 miljoen publicaties rond kindermisbruik, vaak zelfs voor iemand deze moest rapporteren. Dat kondigde het bedrijf aan in een blogpost.
Facebook benadrukt dat het zijn verantwoordelijkheid om kinderen te beschermen heel belangrijk vindt. Zo werkt het socialmediaplatform samen met 400 bedrijven wereldwijd om veiligheidsprogramma’s te ontwikkelen die van het internet een betere plaats moeten maken. Facebook zet hier dus AI en machine learning voor in, die er in 99% van de gevallen in slaagt om content te verwijderen voor iemand het ziet. Eens dit type content herkend is, wordt het toegevoegd aan een databank om verder misbruik sneller op te sporen. Daarnaast heeft het bedrijf ook nog een verzameling van menselijk teams met achtergronden in politiewerk, online veiligheid, data-analyse en forensisch onderzoek in dienst.
Uiteraard worden accounts die dit type content verspreiden, verwijderd van het platform, maar Facebook speelt deze data ook door aan het NCMEC (National Center for Missing and Exploited Children) en andere bevoegde instanties.
Helemaal perfect is het systeem echter niet, want er worden wel al eens onschuldige familiekiekjes het slachtoffer van de AI, maar Facebook verduidelijkt dat het met reden zeer strikt is over het type content. Zo heeft het historische beeld uit 1972 van Phan Thi Kim Phuc, van een meisje dat naakt wegloopt na een napalm aanval, blijkbaar geen plaats op het platform, aldus Techcrunch. Toch schaadt overdaad in dit geval minder dan een te vergevingsgezinde software. Om zijn manier van werken te verduidelijken, produceerde Facebook ook onderstaande infographic.
Facebook kondigde in het verleden al aan dat het actiever gebruik wilde gaan maken van AI en machine learning om content van het platform te verwijderen dat de regels (Terms of Service) niet volgt. Dit systeem lijkt nu zijn vruchten af te werpen want Facebook verwijderde reeds 8,7 miljoen publicaties rond kindermisbruik, vaak zelfs voor iemand deze moest rapporteren. Dat kondigde het bedrijf aan in een blogpost.
Facebook benadrukt dat het zijn verantwoordelijkheid om kinderen te beschermen heel belangrijk vindt. Zo werkt het socialmediaplatform samen met 400 bedrijven wereldwijd om veiligheidsprogramma’s te ontwikkelen die van het internet een betere plaats moeten maken. Facebook zet hier dus AI en machine learning voor in, die er in 99% van de gevallen in slaagt om content te verwijderen voor iemand het ziet. Eens dit type content herkend is, wordt het toegevoegd aan een databank om verder misbruik sneller op te sporen. Daarnaast heeft het bedrijf ook nog een verzameling van menselijk teams met achtergronden in politiewerk, online veiligheid, data-analyse en forensisch onderzoek in dienst.
Uiteraard worden accounts die dit type content verspreiden, verwijderd van het platform, maar Facebook speelt deze data ook door aan het NCMEC (National Center for Missing and Exploited Children) en andere bevoegde instanties.
Helemaal perfect is het systeem echter niet, want er worden wel al eens onschuldige familiekiekjes het slachtoffer van de AI, maar Facebook verduidelijkt dat het met reden zeer strikt is over het type content. Zo heeft het historische beeld uit 1972 van Phan Thi Kim Phuc, van een meisje dat naakt wegloopt na een napalm aanval, blijkbaar geen plaats op het platform, aldus Techcrunch. Toch schaadt overdaad in dit geval minder dan een te vergevingsgezinde software. Om zijn manier van werken te verduidelijken, produceerde Facebook ook onderstaande infographic.