Jan Kuitenbrouwer buigt zich over over een heikele kwestie: hoe vooroordelen zich voortplanten op internet. Algoritmen zijn zelden ‘neutraal’, al was het maar doordat de mensen die ze schrijven dat niet zijn, maar ook de data die als input worden gebruikt, zijn gekleurd door vooroordelen.

    In 2010 werd bij Microsoft een nieuwe feature ontwikkeld voor de Xbox, Kinect, waardoor je geen controller meer nodig had, maar commando’s kon geven met je stem en gebaren. Vlak voor de lancering kregen personeelsleden van Microsoft een beta mee naar huis, om uit te proberen. Een van hen was directielid Peggy Johnson. Haar man speelde met Kinect en was enthousiast, maar toen Peggy en hun dochter hem probeerden, werkte hij niet goed. Peggy informeerde bij het ontwerpteam en ontdekte de oorzaak: het systeem was getraind en getest door mannen van tussen de 18 en 35 jaar en ‘begreep’ de motoriek van vrouwen en meisjes niet. Johnson sloeg alarm, de lancering werd uitgesteld en de software werd aangepast.

    Tot voor kort kreeg je als je bij Google het woord ‘handen’ intikte, uitsluitend witte handen te zien, ook in Afrika. De actiegroep World White Web riep mensen op foto’s van zwarte handen te linken, liken en sharen, en inmiddels is – althans op mijn computer – de verhouding 1 op 10, enigszins overeenkomstig de West-Europese bevolkingssamenstelling.

    Voor het maken van die keuzes hebben zij informatie nodig, data, die er door mensen in worden gestopt.

    Software voor gezichtsherkenning is minder betrouwbaar bij mensen met een donkere huidskleur, stemherkenningssystemen zijn beter in het herkennen van mannenstemmen dan vrouwenstemmen. Surveillerende politiemensen mogen niet ‘profileren’, maar algoritmen doen niets anders, sterker: ze kunnen niet anders. Uber houdt steekproeven om de identiteit van zijn chauffeurs te controleren: die moeten de auto stilzetten, een selfie maken en uploaden, en mogen pas verder rijden als ze groen licht krijgen – een volledig geautomatiseerd systeem. De software blijkt slecht overweg te kunnen met de ambivalente gelaatstrekken van transgenders, zeker als zij in transitie zijn. Diverse chauffeurs werden volautomatisch uit het bestand gegooid.

    Het fenomeen wordt bias genoemd (partijdigheid, eenzijdigheid, vooroordeel), en naarmate computers vaker zelfstandig beslissingen nemen op basis van algoritmen en kunstmatige intelligentie, worden ze er gevoeliger voor. Want voor het maken van die keuzes hebben zij informatie nodig, data, die er door mensen in worden gestopt. Maar welke kennis en ervaring is dat precies? Software-ontwerpers denken daar vaak nauwelijks over na, zij willen data, zoveel mogelijk; hoe die verzameld zijn interesseert ze meestal niet. Als zij een algoritme moeten ontwerpen voor het goedkeuren van leningen, gaan ze op zoek naar gegevens over goede en slechte crediteuren. Als banken zwarte vrouwen vaker een lening geven dan witte mannen, zal het algoritme die bias overnemen, en witte mannen vaker afwijzen dan zwarte vrouwen. (Dat zou dan in de krant mogen, want in de praktijk is het juist andersom.)

    Zo’n bank zegt niet dat de lening niet doorgaat omdat je man, vrouw, wit of zwart bent, men beroept zich op een ‘risicoanalyse’. ‘Computer zegt nee.’

    Amazon heeft een tijdje geëxperimenteerd met een computermodel dat uit duizenden sollicitanten de perfecte kandidaat kan selecteren. De data kwamen uit de cv’s van mensen die Amazon in de loop van tien jaar had aangenomen. In die periode werden meer mannelijke managers in dienst genomen dan vrouwelijke, en dus begon het systeem daarop te selecteren door cv’s waarin de term women’s voorkwam (als in Women’s College) onderop de stapel te leggen. Op het oog niet vanwege hun geslacht, maar vanwege hun opleiding.

    Digitale systemen zijn niet neutraal en objectief, ze zijn extensies van sociale en culturele verhoudingen. Op het laagste niveau zijn minderheden nog redelijk vertegenwoordigd in Silicon Valley, maar naarmate je hoger in de hiërarchie komt neemt de diversiteit snel af. De overgrote meerderheid van de programmeurs die algoritmen schrijven is man en wit, en die algoritmen weerspiegelen dus hún witte, mannelijke wereldbeeld. En de trend is de verkeerde kant op. Naarmate de techbedrijven de afgelopen jaren groter en machtiger werden en de oorspronkelijke oprichters ‘echte’ managers van elders uit het bedrijfsleven aantrokken, werden hun topregionen alleen maar witter en mannelijker. Ook de sekseverdeling op universiteiten ontwikkelt zich negatief. In 2000 was nog 28 procent van de bachelors in computerwetenschappen in Amerika vrouw, in 2016 was dat teruggelopen tot 16 procent

    Toen in 2016 bleek dat internetplatforms misbruikt kunnen worden voor het heimelijk beïnvloeden van verkiezingen, vormde Facebook een afdeling om het systeem tegen dat soort manipulatie te beveiligen, en een van de mensen die zij aanstelden was Yaël Eisenstat, een voormalige agent van de CIA, oud-veiligheidsadviseur van Joe Biden en beveiligingsmanager bij ExxonMobil. In Wiredbeschreef zij haar ervaringen. Bij veel techbedrijven krijgt het personeel zo nu en dan een workshopje diversiteit, maar dat is meer gericht op de onderlinge verhoudingen dan op het product dat zij ontwerpen. Geheim agenten zoals Eisenstat worden getraind in het herkennen van cognitive bias: zie je wel wat je denkt te zien, of wordt je waarneming gemanipuleerd? Het scheiden van feiten en meningen, het wegen van bewijs, het doorzien van patronen, het ter discussie stellen van aannames, het zijn precies de vaardigheden die in de move fast-cultuur van Facebook naar de achtergrond verdwijnen. Eenvoudige cognitive bias-proefjes bleken al te moeilijk. Een advertentie met een pro-LGBT-boodschap werd bijvoorbeeld afgewezen omdat hij afkomstig was van een rechtse adverteerder.

    De vraag die Eisenstat moest beantwoorden, was: hoe kan Facebook voorkomen dat het in de toekomst opnieuw beschuldigd wordt van bias ten aanzien van politieke advertenties? Veel verder dan ‘precies evenveel linkse advertenties afwijzen als rechtse’ kwam het verantwoordelijke team niet. Een slecht idee, puur gericht op de beeldvorming, maar dat kreeg Eisenstat de ontwerpers van Facebook niet aan het verstand gebracht. Haar conclusie: ‘Deze bedrijven missen de boot.’

    Als er één politieke stroming geprofiteerd heeft van de manipuleerbaarheid van het internet, is het rechts

    De meeste vormen van bias zijn onbedoeld, het werk van people trying to do the right thing, zoals Eisenstat het formuleert, maar het vormt de perfecte munitie om ‘aan te tonen’ dat big tech het slecht voorheeft met de mensheid. Big tech wordt door rechtse conservatieven bestookt met beschuldigingen van liberal bias, en met enig succes. Republikeinse senatoren, waaronder Ted Cruz, proberen een voorstel aangenomen te krijgen voor een groot onderzoek naar de ‘linkse vooringenomenheid’ van de grote platforms. Trump heeft 62 miljoen volgers op Twitter en klaagt aanhoudend dat Twitter het moeilijk maakt om hem te volgen – zonder enig bewijs. (Intussen probeert hij zelf critici van zijn account te weren, waarvoor hij door de rechter op de vingers getikt werd: hij mag burgers niet beletten de president op Twitter te volgen.)

    Al die beschuldigingen zijn onzin. Als er één politieke stroming geprofiteerd heeft van de manipuleerbaarheid van het internet dan is het juist rechts, zie Trump en Brexit. Ted Cruz was zelf nota bene de eerste Amerikaanse politicus die de beruchte dataset van Cambridge Analytica gebruikte in zijn campagne. 

    Onderzoek toonde onlangs aan dat de algoritmes van YouTube, toch geen marginaal platform, juist een verborgen voorkeur hebben voor radicaal rechtse content. De algoritmen van de sociale media zijn gericht op het maximaliseren van time spent, en dat doen zij met het aanbieden van emotioneel prikkelende content, een genre dat rechts beter beheerst dan links. 

    Voor elke organisatie geldt: hoe eenduidiger en eenvormiger de boodschap, hoe effectiever de communicatie. Variatie geeft ruis. In The Revolution That Wasn’t: How Digital Activism Favors Conservatives, laat Jen Schradie zien dat dit ook geldt voor platforms als Google en Facebook: hoe groter de communicatiediscipline, hoe beter ze werken. De framing, de woordkeus, de vormgeving wordt bepaald door professionals en braaf uitgevoerd door de supporters. En laten hiërarchische, top-down politieke organisaties nu meestal conservatief zijn? Geen wonder dat rechtse boodschappen zich in het media-ecosysteem veel sneller verspreiden dan linkse of neutrale.

    Begin juli 2019 hield Donald Trump een ‘conferentie’ in het Witte Huis met rechtse organisaties om ‘maatregelen’ te bespreken tegen die fictieve liberal bias van de sociale media. Politiek gezien zal dat nog tien keer zo moeilijk blijken dan het bouwen van een muur langs de Mexicaanse grens, maar daar gaat het helemaal niet om. Het enige doel is het opstoken van de haat tegen de elite van Silicon Valley, in de hoop dat die de rode loper nog verder uitrollen, of in elk geval niet intrekken.

    In Nederland heeft die strategie goed gewerkt. Dat radicaal rechts in de Nederlandse media aanzienlijk meer spreektijd krijgt dan de omvang van hun achterban rechtvaardigt, is doordat zij al sinds Pim Fortuyn aanhoudend jengelen dat er voor hun ‘geluid’ geen ruimte is. Dat de media daar intrappen zou je ook een vorm van cognitive bias kunnen noemen.

    Deel dit artikel, je vrienden lezen het dan gratis

    Over de auteur

    Jan Kuitenbrouwer

    Gevolgd door 423 leden

    Journalist, schrijver en presentator. Auteur van het boek 'Datadictatuur, hoe de mens het internet de baas blijft'.

    Volg Jan Kuitenbrouwer
    Verbeteringen of aanvullingen?   Stuur een tip
    Annuleren
    Dit artikel zit in het dossier

    Datadictatuur

    Gevolgd door 823 leden

    2018 was het jaar van de Grote Internet Ontnuchtering. Voor het eerst zagen we de techindustrie met haar datahonger als een G...

    Volg dossier