© Matthias Leuhof

Coronacrisis

De redactie van FTM volgt de coronacrisis op de voet. Welke oplossingen dienen welke belangen? Lees meer

Het virus SARS-CoV-2, beter bekend als het coronavirus, dook eind 2019 op in de Chinese provincie Hubei. In een paar weken tijd veroorzaakte het virus daar een epidemie, waarna het zich over de rest van de wereld verspreidde.

Begin maart 2020 verklaarde de World Health Organisation de ziekte tot een pandemie. Wereldwijd gingen landen 'op slot';  beurzen maakten een enorme duikvlucht. Al met al is met het coronavirus een crisis van historische proporties ontstaan.

De uitwerking van de coronamaatregelen op de wereldeconomie is, net als het virus zelf, nog grotendeels onbekend. Wat we al wel kunnen vaststellen: een nieuwe economische crisis is begonnen. Die zal overal pijn opleveren, en de maatregelen die we nu nemen zullen bepalen hoe de economie van de toekomst eruit zal zien. 

Nieuwe vragen doemen op: welke oplossing dient welke belangen; welke vragen raken ondergesneeuwd; hoe verdelen we de schaarse middelen, en hoe houden we essentiële diensten en structuren overeind? 

136 Artikelen

Het deurbeleid van LinkedIn (en andere sociale-mediaplatforms)

Overheden vinden dat de sociale-mediaplatforms sneller en harder moeten optreden tegen desinformatie. Maar nu de sociale media de teugels aantrekken, en (sommige) gebruikers eraf gooien, steekt een ander debat de kop op. Kunnen platforms zelf bepalen waar de grens ligt, wie ze dulden en wie ze weren? Hoe voorkom je willekeur en politieke censuur?

Begin december plaatste internist en medisch ondernemer Sabine Pinedo op LinkedIn een kritisch bericht over de PCR-test, die wordt gebruikt om de aanwezigheid van het coronavirus aan te tonen. ‘Commentaar van 23 wetenschappers op de kwaliteit van de testmethodiek,’ schrijft ze onder meer. Het bericht slaat aan en er wordt druk op gereageerd. Twee uur later is het plotseling verdwenen.

Pinedo is niet zomaar een arts. In november 2020 werd ze door Tedros Ghebreyesus, directeur-generaal van de World Health Organization, geroemd vanwege haar inzet voor een gezonde leefomgeving. Op haar LinkedIn-account deelt ze geen samenzweringstheorieën maar artikelen over duurzame zorg en het belang van een gezonde leefstijl. Ze staat kritisch tegenover het Nederlandse coronabeleid, stelt vragen en zoekt voor haar posts onderbouwing in wetenschappelijke stukken.

Er zijn vaker berichten verwijderd op LinkedIn, een zakelijk platform met wereldwijd meer dan 700 miljoen gebruikers (waarvan ongeveer de helft vermoedelijk daadwerkelijk actief is). Meestal gaat het om berichten waarin mensen de discussie over PCR-testen aansnijden – of meer in het algemeen: uiterst kritisch zijn over de grondslagen van het coronabeleid. 

Dit weekend namen vrijwel alle grote sociale-mediaplatforms een ingrijpende beslissing: ze verwijderden de accounts van de president van Amerika

Afgelopen weekend namen vrijwel alle grote sociale-mediaplatforms een ingrijpende beslissing: ze verwijderden de accounts van de Amerikaanse president Donald Trump. De verwijdering was niet corona-gerelateerd: hoewel Trump eerder valse informatie over corona verspreidde, was de directe aanleiding voor zijn ban de bestorming van het Capitool door zijn aanhangers – en de angst voor nieuwe, opruiende berichten die tot chaos konden leiden. De techbedrijven mengden zich daarmee nadrukkelijk in de politieke onrust.

LinkedIn grijpt in op grond van de ‘ beleidslijn voor de professionele community ’ waarin afgelopen voorjaar een nieuwe passage is opgenomen: ‘Deel geen content die volledig ingaat tegen richtlijnen van toonaangevende, mondiale gezondheidsorganisaties en overheidsinstellingen voor volksgezondheid.’ Doe je dat wel, dan heeft LinkedIn volgens de gebruikersovereenkomst het recht je account te ‘beperken’.

Het bedrijf zegt dat misleidende of onjuiste content altijd verboden is geweest en dit nu slechts in de gebruiksvoorwaarden is gespecificeerd. Volgens LinkedIn nam naast het aantal berichten in de eerste helft van 2020 ook de hoeveelheid misinformatie toe. In die periode werden ruim 22.000 berichten verwijderd omdat ze onjuist of misleidend zouden zijn – overigens niet uitsluitend corona-gerelateerd. Een vergelijking met voorgaande jaren is niet beschikbaar: toen was misinformatie nog geen aparte categorie om berichten te rapporteren.

Ook in Nederland zijn LinkedIn-accounts opgeschort of verwijderd; opiniepeiler Maurice de Hond is het bekendste voorbeeld. Soms herriep het platform die beslissing na kort gesteggel, anderen zijn al weken bezig hun account terug te krijgen.

Infodemie

Een pandemie bestrijd je niet alleen op medisch en wetenschappelijk vlak, stelde de WHO al ruim voor het uitbreken van corona. In beleidsstukken uit 2018 spreekt de organisatie van het gevaar van een ‘infodemie’: de snelle verspreiding van informatie over de ziekte, waaronder ook ongefundeerde berichten. WHO-voorman Ghebreyesus wees tijdens een conferentie op 15 februari 2020, kort voordat Covid-19 officieel als pandemie werd bestempeld, nogmaals op het gevaar van misinformatie

De platforms passen half maart hun gebruiksvoorwaarden aan. Ze zullen strenger optreden tegen misleidende informatie over Covid-19

Valse berichtgeving over het neerhalen van vlucht MH17 en pogingen verkiezingen te beïnvloeden laten zien dat desinformatie onrust zaait en wantrouwen aanwakkert, en daardoor de democratie kan ondermijnen. Vanuit de Europese Unie werd daarom al ruim voor de pandemie druk op sociale-mediaplatforms uitgeoefend om verspreiding van desinformatie tegen te gaan. ‘We willen geen Ministry of Truth instellen,’ zegt Eurocommissaris Věra Jourová (Transparantie en Waarden) eind 2020 bij de presentatie van het European Democracy Action Plan. ‘De vrijheid van meningsuiting is essentieel. Maar we kunnen ook niet toestaan dat onze samenleving wordt gemanipuleerd.’

Al in 2016 ging de Europese Commissie om de tafel met de ‘Big Four’ – Microsoft (eigenaar van LinkedIn), Facebook, Twitter en YouTube – om het verspreiden van bepaalde content tegen te gaan. Dat leidde tot een gedragscode die hate speech, het aanvallen van individuen of groepen op basis van zaken als ras, geslacht of religie, op de platforms moet tegengaan.

Dossier: Coronacrisis

De maatregelen om de verspreiding van het coronavirus in te dammen zijn ongekend; de uitwerking ervan nog grotendeels onbekend. Welke oplossingen dienen welke belangen?

Lees verder Inklappen
Inschrijven

Maar die gedragscode dekt andere kwesties niet. Daarom ging de Europese Commissie opnieuw in gesprek met techbedrijven; in 2018 werd een nieuwe gedragscode opgesteld inzake desinformatie. De gedragscodes gaan uit van zelfregulatie – de platforms bepalen zelf de invulling ervan en voeren de regels zelf uit. Maar, zoals de Commissie in een evaluatie schrijft: de precieze impact is lastig te meten omdat de Commissie afhankelijk blijft van door de platforms aangeleverde data. 

Aan het begin van de coronacrisis voert de Europese Commissie de druk daarom verder op. Inmiddels onderscheidt de Commissie verschillende categorieën : desinformatie (met kwade bedoelingen verspreid) en foutieve informatie (verspreid uit onwetendheid).

Eurocommissaris Jourová gaat met enige regelmaat met platforms in gesprek. Dat heeft succes: half maart, kort na het uitbreken van de pandemie, passen LinkedIn, YouTube, Facebook en Twitter hun gebruiksvoorwaarden aan. Ze beloven strenger op te treden tegen misleidende informatie over Covid-19. Zo zal Facebook niet alleen posts labelen (of verwijderen) die als desinformatie worden bestempeld, maar krijgen gebruikers die erop hebben gereageerd voortaan een notificatie waarom de informatie misleidend is . Daarnaast wordt een speciale pagina gecreëerd met informatie van solide gezondheidsdiensten. Ook YouTube en Twitter zijn scherper op het labelen en verwijderen van content.

Voorts kwam de Europese Commissie in december 2020, als onderdeel van een langer lopend plan, met de Digital Service Act: een wetsvoorstel om de rechten en plichten van techbedrijven vast te leggen. Het voorstel moet nog worden besproken en goedgekeurd door het Europees Parlement, maar de toon is gezet. De Digital Service Act is bedoeld om gebruikers te beschermen; zo moeten platforms bijvoorbeeld duidelijk maken hoe hun algoritmes bepaalde content voorschotelt. Het voorstel bevat ook bepalingen over desinformatie. Ze bekrachtigen in feite de eerder vastgelegde gedragscodes.

Big Brother en het Ministry of Truth

Critici van het nieuwe beleid van sociale-mediaplatforms nemen graag de term ‘Orwelliaans’ in de mond, verwijzend naar George Orwells roman Nineteen Eighty-Four. Dat boek beschrijft het totalitaire regime van de staat Oceanië, inclusief dictator ‘Big Brother’, een gedachtenpolitie en een ‘Ministry of Truth’. Wie in opstand komt wordt opgepakt en gehersenspoeld. Oceanië is dystopisch en heeft, zo betogen de critici van coronabeleid, verdacht veel overeenkomsten met de huidige praktijken in het vrije westen.

De overheid moet de vrijheid van meningsuiting waarborgen, maar dat betekent niet dat zij moet ingrijpen in conflicten tussen burgers en bedrijven

Anderen noemen die vergelijking gechargeerd: ondanks de druk van overheden om desinformatie tegen te gaan, mogen commerciële platforms als LinkedIn zelf de spelregels van hun speelveld bepalen. Als consument kun je kiezen. Ben je het niet met de regels van een platform eens? Dan zoek je maar een ander, is het weerwoord. Vrijheid van meningsuiting betekent immers niet dat elk forum jouw mening moet verspreiden. De overheid heeft de verplichting om de vrijheid van meningsuiting te waarborgen, maar dat betekent niet dat zij moet ingrijpen in conflicten tussen burgers onderling, noch in die tussen burgers en bedrijven. 

Dat bedrijven hun eigen spelregels mogen bepalen, blijkt ook uit onlangs gevoerde rechtszaken. Café Weltschmerz, een platform dat ruimschoots toegang biedt aan complotdenkers, klaagde YouTube aan vanwege het verwijderen van video’s waarin hydroxychloroquine wordt aangeprezen als middel tegen corona. Actiegroep Viruswaarheid begon een zaak tegen Facebook omdat het bedrijf een pagina tegen de anderhalvemeter-regel had verwijderd. Beide keren wonnen de techbedrijven. 

Zoals de rechter oordeelde in de zaak tegen Facebook : ‘Het recht op vrijheid van meningsuiting gaat blijkens rechtspraak van het EHRM in ieder geval niet zo ver dat een private partij kan worden verplicht een andere private partij toe te staan zijn mening te ventileren met gebruikmaking van de eigendommen van de eerste partij.’

Maar die opvatting is te formeel in de huidige tijd, vindt advocaat en specialist internetrecht Christiaan Alberdingk Thijm (Bureau Brandeis). ‘Als je kijkt naar de omvang van sociale-mediabedrijven en de rol die ze spelen in de vrije communicatie, is dat niet meer houdbaar.’ Volgens Alberdingk Thijm kan de huidige praktijk leiden tot zelfcensuur.

"Sociale-mediaplatforms zijn inmiddels zo alomtegenwoordig en onmisbaar, dat ze eigenlijk als common carriers moeten worden beschouwd"

‘In Nederland hebben we niet zo’n sterke overheid als het aankomt op grondrechten. Het vrije woord is kwetsbaar. Sociale media hebben een dominante rol, die aan belang wint nu we allemaal binnen zitten. Het verwijderen van zo’n account heeft een repressief effect. Dat betekent dat wie lid wil blijven van LinkedIn – wat toch echt belangrijk is in de zakelijke markt – zelfcensuur kan gaan toepassen. Dat is echt onwenselijk. Onze wetgever moet beter nadenken over de consequenties van het beleid van sociale mediabedrijven.’

Alberdingk Thijms argument wordt ook door anderen aangevoerd: sociale-mediaplatforms zijn inmiddels zo alomtegenwoordig en onmisbaar geworden, dat ze eigenlijk als common carriers moeten worden beschouwd. Zulke bedrijven moeten – net als nutsbedrijven – iedereen bedienen. Onderscheid maken en mensen weren mag niet, tenzij aan een serie strikte voorwaarden is voldaan. In ruil voor die plicht krijgen common carriers een extra recht; ze worden zelf niet afgerekend op het gedrag van hun gebruikers.

In de zaak tegen YouTube concludeerde de voorzieningenrechter dat het te beperkend is om alleen content toe te staan die in lijn is met de visie van de WHO en het RIVM. Dat zou het vrije debat belemmeren, en bovendien: ook het RIVM en de WHO stellen hun beleid steeds bij. Waar de rechter wel duidelijk over was: debatteren is prima, opzettelijk schadelijke informatie verspreiden mag niet. De rechter schaarde zich daarmee achter de eerder door de Europese Commissie opgestelde definitie van desinformatie.

Transparantie

Covid-19 wordt verspreid via 5G, Bill Gates wil via vaccins bij iedereen een chip implanteren en mensen tot slaaf van Microsoft maken, en de coronapandemie is niets meer dan een griep. Het is desinformatie die bewust onrust zaait, beleid ondergraaft en daarom mogelijk gevaarlijk is.

Maar onderscheid maken tussen bewust verspreide valse informatie en kritiek die bijdraagt aan het debat is soms lastig. Bas Filippini, (mede-)oprichter van de stichting Privacy First en de politieke partij Vrij en Sociaal Nederland, kwam in december 2020 in conflict met LinkedIn nadat hij de PCR-test bekritiseerde. Zijn bericht wordt verwijderd en zijn account geblokkeerd. 

Filippini maakt bezwaar, stuurt stukken die het standpunt in zijn oorspronkelijke bericht ondersteunen, wordt in het gelijk gesteld door LinkedIn en krijgt uiteindelijk zijn account terug. Daarmee zuivert hij zijn naam. En Filippini kreeg ten minste duidelijk te horen welke post wordt afgekeurd en waarom. Lang niet iedereen wordt ingelicht waarom ze van LinkedIn worden geband, laat staan een melding wanneer een enkel bericht wordt gewist.

Dat brengt een ander probleem aan het licht: de ondoorzichtige besluitvorming van LinkedIn en andere sociale-mediaplatforms, die zich lijkt te kenmerken door willekeur. Zoals de Russische oppositieleider Aleksej Navalny naar aanleiding van Trumps ban in een Twitter-draadje schreef : ‘Don’t tell me he was banned for violating Twitter rules. I get death threats here every day for many years, and Twitter doesn’t ban anyone.’ 

‘Als platforms bepalen wat de grenzen zijn, kan dat leiden tot onterechte inperkingen van de vrijheid van meningsuiting’

Eurocommissaris Margrethe Vestager (Mededinging en Digitale Economie) deed, voorafgaand het indienen van de Digital Service Act, verscheidene keren de oproep aan platforms om transparant te zijn over hun motief om berichten te verwijderen. Daarnaast vindt ze dat platforms het voor gebruikers eenvoudiger moet maken een klacht in te dienen over het verwijderen van hun berichten.

Dat belang van transparantie komt ook tot uiting in de nieuwe Digital Service Act, die de publieke functie van sociale-mediaplatforms benadrukt en de macht van platforms enigszins aan banden probeert te leggen. Ze krijgen de status van common carrier, op voorwaarde dat ze zich neutraal opstellen. Wil een platform een bericht verwijderen, dan moet de gebruiker een melding krijgen waarom dat is gedaan en om welk bericht het gaat. Platforms moeten daarnaast een interne, gebruiksvriendelijke klachtenprocedure optuigen waar gebruikers terecht kunnen als ze het niet eens zijn met de ingreep.

Daarmee wordt het probleem van de ondoorzichtige besluitvorming deels opgelost. Maar de vraag blijft: is LinkedIn – of Twitter, YouTube of Facebook – de juiste partij om te bepalen wat burgers mogen zien en lezen? Volgens Stefan Kulk, die zich als docent en onderzoeker aan de Universiteit Utrecht heeft toegelegd op online dienstverleners, zijn platforms door de jaren heen een meer regulerende rol op zich gaan nemen en duikt de discussie over de vrijheid van meningsuiting daarom steeds vaker op.

‘Waar het om gaat is: hoe zorgvuldig is die besluitvorming en wat mogen we van zulke platforms verlangen. We willen enerzijds dat ze, om excessen te voorkomen, steeds meer bepalen wat er op het internet verschijnt, maar anderzijds wordt daarmee hun rol bij de beoordeling van content ook steeds groter. Als platforms gaan bepalen wat de grenzen zijn, kan dat leiden tot onterechte inperkingen van de vrijheid van meningsuiting.’

"Bedrijven gaan voor rechter spelen. Dat moet als de content onrechtmatig is, maar in andere situaties brengt dat willekeur met zich mee"

LinkedIn zegt te werken met algoritmes die de eerste selectie doen. De beoordeling van aangevoerde bezwaren is echter mensenwerk en wordt gedaan door een intern contentteam of externe factcheckers, in afstemming met het LinkedIn-nieuwsteam en ‘officiële informatiebronnen’.

Maar er is geen onafhankelijke toezichthouder die controleert wat er achter de schermen van de platforms gebeurt en of berichten (on)terecht wordt verwijderd. De roep om een onafhankelijk toezichthouder wordt daarom steeds sterker. Volgens Alberdingk Thijm is het zelfs noodzakelijk. ‘Bedrijven gaan voor rechter spelen. Dat moet als de content onrechtmatig is, maar nu ze dat ook in andere situaties doen brengt dat willekeur met zich mee.’ 

Vorige week pleitte ook Marietje Schaake, oud-Europarlementariër en tegenwoordig onderzoeker aan de Stanford University voor beteugeling van sociale-mediaplatforms en goed toezicht. Zij is nog scherper, en benadrukt dat veel platforms, terwijl ze soms ingrijpen als het te bont wordt, de ophef over berichten van hun gebruikers vaak verwelkomen. Immers: hoe meer clicks, hoe meer advertenties er verkocht worden. Schaake: ‘We laten op dit moment de regels van het spel over aan reclamebedrijven.’

Sara Bouter
Sara Bouter
Studeerde rechten en journalistiek, maar kwam erachter dat niet alles wat onoorbaar is, ook is verboden.
Gevolgd door 92 leden