Facebook moet openheid bieden aan zijn gebruikers! Je zou het bijna vergeten maar niet alleen in Nederland is er discussie over de macht van Facebook. Gisteren plaatste de New York Times een stuk over de zogeheten ‘Built-in Bias’ van Facebook. En The Guardian schrijft dat het Facebook-team dat de trending topics bijhoudt, wel degelijk op eigen initiatief verhalen toevoegt als ze dat nodig vinden. We realiseren het ons niet, maar Facebook is de meest invloedrijke bron van nieuws. Dagelijks krijgen meer dan een miljard mensen hun informatie en nieuws over de wereld binnen via de Nieuwsfeed. Facebook is naast een gezellig social media platform gewoon het grootste mediabedrijf ter wereld. Dat maakt Facebook enorm machtig. Hoe machtig? In een experiment in 2014 bewees Facebook dat het met subtiele aanpassingen aan de Nieuwsfeed -op basis van algoritmes- kan beïnvloeden hoe mensen zich voelen. Als Facebook het wil kan het verkiezingen manipuleren, de denkwijze van mensen veranderen en bepaald beleid voortrekken. Gelukkig zegt Facebook de Nieuwsfeed van mensen niet op dergelijke manieren te manipuleren en heeft het excuses aangeboden voor het experiment. Maar de macht blijft onverminderd groot, zoals we nu ook zien in de discussie rondom Ebru Umar en PvdA-collega Keklik Yücel. Facebook maakte haar profiel tijdelijk ontoegankelijk nadat zij een kritisch bericht had geplaatst over Erdogan en de manier waarop de vrijheid van meningsuiting in Turkije met voeten getreden wordt. Facebook weigert openheid te bieden over de vraag waarom dat gebeurde. Hoe komt zo'n besluit tot stand? Doen medewerkers dat? Of worden berichten automatisch op basis van een algoritme verwijderd? Bijvoorbeeld na een bepaald aantal ‘reports’ totdat een mens ernaar kan kijken? Heeft Turkije gevraagd het bericht te verwijderen - Yücel schreef haar bericht immers in Turkije - en kwam Facebook er pas later achter dat het bericht gepost is door een Nederlands Kamerlid? We weten het niet. Wat D66 betreft heeft Facebook als machtig bedrijf een verantwoordelijkheid richting zijn gebruikers. Zoals de zorgplicht banken verplicht klanten gedegen te informeren over financiële markten en producten, wil D66 dat technologiebedrijven gebruikers ook op een duidelijke manier openheid geven over het beleid voor het verwijderen van posts. Maar kijkende voorbij de hype van de dag gaat deze discussie niet alleen over de vraag waarom berichten verwijderd worden. De online ervaring en beleving van mensen (welke posts we zien op Facebook, of welke resultaten we terugkrijgen op een zoekopdracht in Google) wordt namelijk in grote mate bepaald door algoritmes. Deze algoritmes kunnen grote impact hebben op onze persoonlijke ontwikkeling en onze maatschappij. Als onze Facebook Nieuwsfeed bijvoorbeeld alleen maar berichten toont op basis van ‘likes’, eerder ingenomen standpunten of voorkeuren, dan kunnen we vast komen te zitten in een zogeheten ‘echo chamber’ of ‘filter bubble’. Een online omgeving waarin we geen andere meningen, uitgangspunten of perspectieven meer zien. Een soort digitale verzuiling dus. Net als de verzuiling in de jaren 60 is dat funest voor de vrijheid van mensen. Dit was niet voor niks één van de redenen waarom D66 is opgericht. Dit soort rekenregels, die bepalen of we bericht A of B zien, zijn allesbehalve neutraal of objectief. In die algoritmes zitten vooroordelen ingebakken van de makers, waar geen controle op is. Daarom vindt D66 dat Facebook, en andere grote internetbedrijven, openheid moeten geven over de manier waarop de getoonde content tot stand komt. Dat betekent ook openheid over de werkwijze en de gevolgen van die geheimzinnige algoritmes. Hierbij gaat het natuurlijk niet om de code van de algoritmes zelf maar om de (ingrijpende) gevolgen ervan. Zoals het bij de bijsluiter van medicijnen ook niet gaat om bestanddelen maar om de mogelijke bijwerkingen. Voor algoritmes met een grote impact op onze privacy en online beleving moet een bijsluiter komen die gebruikers informeert over het effect.