Facebook slaat mea culpa voor ‘onvergeeflijke blunder’ van algoritmen
De video in kwestie dateert al van juni 2020, maar toch kregen gebruikers het label pas recent te zien. In de video zien we een confrontatie tussen een blanke en twee zwarte mannen. Wie op de video klikte, kreeg een door algoritmen aangemaakte suggestie of ze meer video’s over primaten wilden zien. Normaal dient die suggestie om je meer relevante videocontent te tonen zodat je nog wat langer op Facebook blijft, maar in dit geval maakten de algoritmen niet de juiste keuze. Het was een voormalig medewerkster van Facebook die alarm sloeg.
Een reactie van Facebook kon niet lang uitblijven. In een statement aan The New York Times verontschuldigt het bedrijf voor wat het een ‘onvergeeflijke blunder’ noemt. Facebook beseft ook wel dat ze niet alles in de schoenen van hun algoritmen kunnen schuiven. Ze hebben de suggesties bij video’s ter preventie maar even uitgeschakeld om uit te zoeken waarom hun algoritmen de mannen als primaten labelde.
Racistische algoritmen
Facebook is lang niet het eerste technologiebedrijf dat zich moet verontschuldigen voor pijnlijke fouten van hun algoritmen. Racistische bias blijkt een vreemd probleem te zijn dat herhaaldelijk terugkomt. Een van de eerste noemenswaardige incidenten overkwam Google in 2015 toen hun algoritmen gezichten van zwarte mannen getagd had met het woord ‘gorilla’.
- Lees ook: Zijn algoritmen racistisch?
Daar is wel een verklaring voor te vinden. Om algoritmen te trainen in gezichtsherkenning, steunen de ontwikkelaars van de systemen op beeldbanken die ze door hun machine jagen. Omdat die databanken vaak meer beelden van blanken bevatten, worden algoritmen beter getraind in het herkennen van blanke gezichten. Dat kan leiden tot een mindere accuraatheid wanneer ze zwarte gezichten moeten herkennen en dat kan op zijn beurt resulteren in pijnlijke fouten. Beslissingen genomen door AI-systemen moeten daarom altijd met een kritische blik bekeken worden.
- Lees ook: Hoe moeten we AI veilig gebruiken?
De video in kwestie dateert al van juni 2020, maar toch kregen gebruikers het label pas recent te zien. In de video zien we een confrontatie tussen een blanke en twee zwarte mannen. Wie op de video klikte, kreeg een door algoritmen aangemaakte suggestie of ze meer video’s over primaten wilden zien. Normaal dient die suggestie om je meer relevante videocontent te tonen zodat je nog wat langer op Facebook blijft, maar in dit geval maakten de algoritmen niet de juiste keuze. Het was een voormalig medewerkster van Facebook die alarm sloeg.
Een reactie van Facebook kon niet lang uitblijven. In een statement aan The New York Times verontschuldigt het bedrijf voor wat het een ‘onvergeeflijke blunder’ noemt. Facebook beseft ook wel dat ze niet alles in de schoenen van hun algoritmen kunnen schuiven. Ze hebben de suggesties bij video’s ter preventie maar even uitgeschakeld om uit te zoeken waarom hun algoritmen de mannen als primaten labelde.
Racistische algoritmen
Facebook is lang niet het eerste technologiebedrijf dat zich moet verontschuldigen voor pijnlijke fouten van hun algoritmen. Racistische bias blijkt een vreemd probleem te zijn dat herhaaldelijk terugkomt. Een van de eerste noemenswaardige incidenten overkwam Google in 2015 toen hun algoritmen gezichten van zwarte mannen getagd had met het woord ‘gorilla’.
- Lees ook: Zijn algoritmen racistisch?
Daar is wel een verklaring voor te vinden. Om algoritmen te trainen in gezichtsherkenning, steunen de ontwikkelaars van de systemen op beeldbanken die ze door hun machine jagen. Omdat die databanken vaak meer beelden van blanken bevatten, worden algoritmen beter getraind in het herkennen van blanke gezichten. Dat kan leiden tot een mindere accuraatheid wanneer ze zwarte gezichten moeten herkennen en dat kan op zijn beurt resulteren in pijnlijke fouten. Beslissingen genomen door AI-systemen moeten daarom altijd met een kritische blik bekeken worden.
- Lees ook: Hoe moeten we AI veilig gebruiken?