
Wat gebeurt er met de gegevens die overheden, bedrijven en instellingen over ons opslaan? Wat als ze gehackt of gegijzeld worden? Hoe veilig zijn onze systemen, en onze data? Lees meer
De analoge en digitale wereld lopen steeds meer in elkaar over, internet en technologie knopen alles aan elkaar: beleid, sociale structuren, economie, surveillance, opsporing, transparantie en zeggenschap.
Ondertussen worden we overspoeld door ransomware, digitale desinformatie en diefstal van intellectueel eigendom. Conflicten worden tegenwoordig ook uitgevochten in cyberspace. Hoe kwetsbaar zijn we precies, en hoe kunnen we ons beter wapenen?
We laten overal digitale sporen achter, vaak zonder dat te weten of er iets tegen te kunnen doen. Al die aan ons onttrokken data worden bewaard en verwerkt, ook door de overheid. Dat gebeurt niet altijd netjes. Zo veegde het Europees Hof voor de Rechten van de Mens in een vernietigend vonnis het Nederlandse anti-fraudesysteem Syri van tafel. Hoe riskant het is om op dataverzamelingen van burgers algoritmes los te laten – datamodellen die vrij autonoom beslissingen nemen – bewijst de Toeslagenaffaire. Die laat ook zien wat het effect is van ‘verkeerde’ registraties die zich als onkruid door overheidssystemen lijken voort te planten, zonder dat iemand ze nog kan stoppen of wijzigen.
En zijn al die gegevens van burgers en klanten wel veilig? Wie kan erbij, wie mag erbij, wat als ze gehackt of gegijzeld worden? Hoe kwetsbaar maakt onze afhankelijkheid van data ons?
Op de Amerikaanse terroristenlijst, zonder te weten waarom
OM: Nederlandse hacker Pepijn was centrale figuur in internationale cybercrime-zaak
Je meest intieme data gaan naar de hoogste bieder, en dat kan een spion zijn
Opgestapte toezichthouder: ‘Nieuwe inlichtingenwet kan tot Noord-Koreaanse taferelen leiden’
Zo leerde een Rotterdams fraudealgoritme kwetsbare groepen te verdenken
Een schoenendoos vol cash: wie is de Nederlandse hoofdverdachte in een internationale cybercrime-zaak?
Honderden miljoenen wachtwoorden gestolen, softwarebedrijf wil er weinig over kwijt
Hoogleraar Bart Schermer: ‘Met de huidige aanpak van cybercrime lossen we de problemen uit 2017 op’
Amper toezicht op inzet van massa-surveillance tools door inlichtingendiensten
Zorgen over surveillancestaat weerhouden regering niet van invoering digitale bewijspas
© Leon de Korte | Follow the Money
Zo leerde een Rotterdams fraudealgoritme kwetsbare groepen te verdenken
Een algoritme waarmee de gemeente Rotterdam jarenlang bijstandsfraude voorspelde, rekende jonge moeders en mensen die slecht Nederlands spreken tot de hoogste risicogroepen. Zij hadden de grootste kans op een strenge controle door de gemeente. Dat blijkt uit onderzoek van Lighthouse Reports, Argos, Vers Beton en Follow the Money, waarbij journalisten voor het eerst een compleet fraudealgoritme in handen kregen.
- Wat is het nieuws?
Rotterdam heeft jarenlang een algoritme gebruikt om fraude en fouten met bijstandsuitkeringen te voorspellen. Kwetsbare groepen, zoals mensen die niet goed Nederlands spreken en jonge moeders met problemen, kwamen sneller in het vizier en werden hierdoor vaker gecontroleerd.
- Waarom is dit relevant?
De gemeente Rotterdam staat bekend om haar strenge controles op bijstandsfraude. Onbekend was hoe het gemeentelijke algoritme precies bepaalde wie in aanmerking komt voor zo’n diepgravende controle. En wat het risico was op discriminatie.
- Hoe is dit onderzocht?
Journalisten van Lighthouse Reports, Argos, Vers Beton en Follow the Money wisten de hand te leggen op het Rotterdamse algoritme en de data waarmee dit wiskundig model de kans op bijstandsfraude berekent. Hieruit blijkt dat leeftijd, geslacht en taalbeheersing zwaar wegen. Maar waar is dat op gebaseerd?
In de brief staat dat je moet langskomen, met al je papieren en bankafschriften. Eenmaal op kantoor volgt een vragenvuur. Waarom, Adriana, neem jij contant geld op voor boodschappen? (Je kon niet pinnen, op de markt.)
Waar komt die bijschrijving van 17 euro vandaan? (Je had een computerspelletje verkocht via Marktplaats.) Je krijgt vragen over zwartwerken. (Je werkt als vrijwilliger op een school, betaald aan de bak komen is nog niet gelukt.) Alles willen ze van je weten.
Een kleine onregelmatigheid kan grote gevolgen hebben voor je bijstandsuitkering. Rotterdam staat bekend als erg streng. De gemeente kondigt zelfs een onderzoek aan naar mogelijke bezittingen in het buitenland, terwijl toch duidelijk moet zijn dat je geen geld hebt voor welke luxe dan ook.
Waarom uitgerekend Adriana is geselecteerd voor een diepgravende controle, krijgt ze niet te horen. Het is ook niet de eerste keer dat ze op moet komen draven. Is het toeval? Hebben de buren geklikt? Doet Adriana zelf iets dat wantrouwen uitlokt?
Wat de ambtenaar aan de andere kant van de tafel haar zéker niet vertelt, is dat een complex algoritme heeft berekend dat de kans op fraude, fouten en vergissingen bij Adriana groter zou zijn dan bij anderen (haar ‘risico-score’ is 0,683 op een schaal van 0 tot 1). De berekening is gemaakt op basis van meer dan driehonderd verschillende kenmerken die de gemeente over Adriana en haar leven heeft vastgelegd.
Van haar leeftijd (30 jaar) en relaties (drie jaar getrouwd, één zoontje) tot en met haar psychische gesteldheid (Adriana heeft veel meegemaakt, maar het gaat best goed), waar ze woont (sinds een jaar in Rotterdam-Noord), haar taalvaardigheid (ze spreekt inmiddels voldoende Nederlands), hoe een medewerker van de sociale dienst haar capaciteiten om een baan te vinden inschat en of zij een representatief uiterlijk heeft (geen negatieve opmerkingen hierover, aldus deze ambtenaar).
Omdat Adriana volgens het systeem belangrijke kenmerken gemeen heeft met mensen die in het verleden zijn gepakt voor al dan niet opzettelijk gerommel met hun uitkering, is Adriana ook verdacht.
Minority Report in Rotterdam
Het lijkt een poldervariant van Minority Report, het door Steven Spielberg verfilmde sciencefictionverhaal waarin de politieafdeling precrime helpt toekomstige moorden te voorspellen en te voorkomen. In Rotterdam berekende een complex algoritme jarenlang wie van de tienduizenden Rotterdammers in de bijstand zou kunnen knoeien met zijn of haar uitkering. Jaarlijks konden honderden inwoners met de hoogste risico-scores op basis van dit wiskundig model rekenen op een controle.
Lighthouse Reports, Vers Beton, Follow the Money en Argos hebben het Rotterdamse algoritme – met de weinig tot de verbeelding sprekende naam analytics uitkeringsfraude – na een serie Woo-verzoeken in handen gekregen. Voor het eerst brengen buitenstaanders zo in kaart hoe een geavanceerd datamodel van de overheid fraude voorspelt: welke gegevens over mensen erin gaan, hoe de computercode hiermee rekent en wie de hoogste risico-scores krijgen.
Spoiler: dat zijn kwetsbare groepen onder de toch al armste mensen in de stad. Denk aan bijstandsgerechtigden die het Nederlands niet goed machtig zijn, jongeren, alleenstaande vrouwen met kinderen die uit een lange relatie komen en mensen met financiële problemen.
Zorgen over de Rotterdamse voorspellingen bestaan al langer. In 2021 vroeg de Rekenkamer Rotterdam aandacht voor de ethische risico’s van het bijstandsfraude-algoritme, dat mede werd ontwikkeld door consultancyfirma Accenture. Kenmerken als taal, bijvoorbeeld, kunnen net als nationaliteit leiden tot discriminatie. Hier was volgens de rekenkamer geen rekening mee gehouden.
Ook in de gemeenteraad klonk kritiek. ‘Ik ben principieel tegen het gebruik van persoonskenmerken,’ zei bijvoorbeeld PvdA-raadslid Duygu Yildirim. Volgens haar kan de gemeente op basis van persoonskenmerken niet op individueel niveau voorspellen wie geneigd is tot frauderen en wie niet. ‘Die meneer met een verslaving heeft er niets mee te maken dat statistisch gezien mensen uit die groep misschien vaker niet voldoen aan hun inlichtingenplicht.’
Uit cijfers die eerder werden opgevraagd door Argos en Lighthouse Reports bleek bovendien dat op basis van het algoritme opvallend veel vrouwen werden onderzocht: in de periode 2018 tot en met 2020 liefst 2179 vrouwen tegenover 933 mannen. Rotterdam, dat met zo’n dertigduizend uitkeringsgerechtigden ‘bijstandshoofdstad’ is van Nederland, stelde dat hier logische verklaringen voor waren.
Zo zouden met andere selectiemethoden eerder juist veel mannen zijn onderzocht, die daarna uit de resultaten van het algoritme waren gehaald omdat zij al aan de beurt waren geweest. Uit checks zou ook ‘geen onder- of oververtegenwoordiging van bepaalde groepen Rotterdammers’ zijn gebleken, aldus Richard Moti, toen de verantwoordelijke wethouder. Kortom: van vooringenomenheid was geen sprake.
Rotterdam blijft geloven in de belofte van deze technologie: een hogere pakkans, efficiëntere inzet van controleurs en minder onterecht uitgekeerde bijstand
Het systeem werd desondanks eind 2021 uit voorzorg stilgelegd. De gemeente wil een nieuwe versie ontwikkelen, zonder elementen die kunnen discrimineren. Want Rotterdam blijft geloven in de belofte van deze technologie: een hogere pakkans, efficiëntere inzet van controleurs en minder onterecht uitgekeerde bijstand.
Hoeveel het ‘risico-inschattingsmodel’ oplevert is niet precies te zeggen. ‘Het totale terugvorderingsbedrag op basis van een heronderzoek ligt gemiddeld op 2,5 miljoen euro per jaar,’ aldus de gemeente. Een fractie van dat bedrag kwam op het conto van het algoritme. De gemeente gebruikt namelijk meerdere methoden om mensen te selecteren voor onderzoek.
Rotterdam wijst erop dat het doel van een onderzoek niet per se het vinden van fraude is, maar dat het ook in het belang is van bijstandsgerechtigden om fouten zo snel mogelijk recht te zetten en te voorkomen dat iemand in de problemen komt doordat er te veel bijstand is ontvangen.
Welke mensen heeft het systeem geleerd te verdenken?
Klopt de bewering van de gemeente dat van vooringenomenheid geen sprake was? Hebben kwetsbare groepen inderdaad niets te vrezen van dit systeem, zoals ze dat bijvoorbeeld wel hadden van het beruchte toeslagen-algoritme van de Belastingdienst?
Wat is precies de invloed van persoonlijke kenmerken die mensen niet kunnen veranderen, zoals afkomst, leeftijd en geslacht, op hun risico-score? Hoe wegen gevoelige gegevens mee als taal en geld- en verslavingsproblemen? Ofwel: welke mensen heeft het systeem geleerd te verdenken, en waarom?
Deze vragen waren alleen te beantwoorden door het algoritme uitgebreid te testen, met gegevens over echte burgers. De experimenten maken duidelijk dat het algoritme voor de ene Rotterdammer de kans op fraude veel hoger inschat dan voor de andere Rotterdammer.
In het bijzonder bij Rotterdammers die de Nederlandse taal niet goed machtig zijn, vrouwelijk, erg jong zijn, kinderen hebben, uit een langere relatie komen, de kosten van een huishouden delen met anderen en financiële of verslavingsproblemen hebben. Zij komen veel vaker voor onder de allerhoogste risico-scores dan anderen, vooral als ze ook nog in meer dan één van deze categorieën vallen. Het betekent dat zij bovenaan de lijst voor controle komen.
In de experimenten is ook steeds gekeken wat de invloed was van één enkel kenmerk op de hoogte van risico-scores. Op deze manier is vastgesteld dat vrouwen daadwerkelijk hoger scoren omdat ze vrouw zijn. En dat mensen die niet voldoen aan de taaleis als groter risico worden aangemerkt, vanwege het enkele feit dat ze deze eigenschap hebben.
Kans op controle is voor George nihil
De verschillen op individueel niveau zijn groot. Een ‘doorsnee Rotterdammer’ in de bijstand is bijvoorbeeld een man van 30 jaar oud, George. Hij bestaat niet, maar onder de Rotterdamse bijstandsgerechtigden zijn veel echte mensen met dezelfde kenmerken als George. Hij woont in Rotterdam-Noord, is sportief, alleenstaand en heeft geen kinderen.
Met deze kenmerken berekent het algoritme de risico-score van George op 0,50 en zet het algoritme hem op plek 20.973 van 30.000 op de risicolijst. Daarmee is de kans op controle voor hem nihil.
Was George een vrouw geweest, dan had zij direct duizenden plekken hoger gestaan. Als zij wél een kind heeft en een partner, met wie zij samen in de bijstand zit en de kosten van het huishouden deelt, dan is George veranderd in Adriana, uit het begin van dit verhaal, met een score van 0,683. Zij staat dan bij de hoogste risico-scores en een controle lijkt bijna gegarandeerd.
Dat is nog gerekend zonder taal, het gevoeligste kenmerk in het Rotterdamse bijstandsfraude-algoritme. In totaal twintig verschillende variabelen in het Rotterdamse algoritme hebben hier betrekking op: van iemands spreektaal tot schrijfvaardigheid en de taaleis voor de bijstand.
Als alle taalvariabelen zo worden ingesteld dat ze wijzen op een slechte Nederlandse taalvaardigheid, dan zorgt dit ervoor dat deze mensen ruim twee keer vaker in de hoogste risico-scores voorkomen dan personen die Nederlands als moedertaal hebben.
Grote verschillen gaan ook op voor andere groepen. Alleenstaande moeders komen 40 procent vaker voor onder de hoogste risico-scores dan single vrouwen zonder kinderen. En mensen die al enkele jaren kampen met financiële problemen krijgen 21 procent vaker een hoge score dan bijstandsgerechtigden zonder deze problematiek.
De resultaten van de experimenten zijn voorgelegd aan de gemeente Rotterdam, die de bevindingen in een zeer uitgebreide reactie ‘interessant, leerzaam en deels herkenbaar’ noemt. ‘In de loop der tijd hebben we geconstateerd dat het risico-inschattingsmodel nooit 100 procent vrij kon blijven van vooringenomenheid of de schijn daarvan. Die situatie is onwenselijk, al helemaal wanneer het om variabelen gaat die een risico op vooringenomenheid in zich dragen op basis van discriminatoire gronden zoals leeftijd, nationaliteit of geslacht. Uw bevindingen tonen deze risico’s ook aan.’
Het gezamenlijke onderzoek levert een inkijk op in wat tot nu toe een black box was. Meestal blijft het ondoorzichtig hoe risicomodellen in elkaar zitten, omdat overheden zeggen te vrezen dat burgers hun gedrag aanpassen om fraudecontroles te ontlopen. Rotterdam heeft wél voor uitgebreide transparantie gekozen. De gemeente gaf in 2021 na Woo-verzoeken van Lighthouse en Argos een lijst met meer dan driehonderd risico-indicatoren vrij en zelfs de computercode.
Na nieuwe Woo-verzoeken kwam daar nog uitgebreide technische informatie bij. ‘Rotterdam acht het van groot belang dat niet alleen wijzelf, maar ook andere overheden en organisaties zich bewust zijn van de risico’s van algoritmen,’ aldus de gemeente. De data over duizenden burgers die op fraude waren onderzocht en waarmee het algoritme is ‘getraind’ om zijn voorspellingen te doen, wilde de gemeente uit privacy-overwegingen niet verstrekken.
In meegestuurde ‘histogrammen’ over de in totaal 315 variabelen in het algoritme bleken deze gegevens toch op de achtergrond aanwezig: ruim 12.700 records, ontdaan van direct identificeerbare gegevens als namen, BSN-nummers en contactgegevens, maar afkomstig van echte Rotterdammers die ooit zijn gecontroleerd. Uit journalistieke overwegingen zijn deze gegevens wel gebruikt voor het onderzoek. Een zeer select aantal mensen had toegang. Na publicatie van de bevindingen worden de data vernietigd. Volgens de gemeente hadden de gegevens niet vrijgegeven mogen worden. ‘Wij hebben dit gemeld aan onze privacy officer.’
Lees hier alles over het onderzoek naar het algoritme en de gebruikte methoden.
En de uitgebreide reactie van de gemeente Rotterdam.
Het onderzoek naar de werking en uitkomsten van het algoritme, zijn een deel van het verhaal. Minstens zo belangrijk zijn de gegevens op basis waarvan het algoritme heeft ‘geleerd’ zijn voorspellingen te doen. In het geval van Rotterdam zijn dit de gegevens van 12.700 bijstandsgerechtigden die eerder zijn gecontroleerd.
Om met een model te kunnen voorspellen bij wie de kans op fraude groot is en bij wie klein, moeten deze data overeenkomen met de werkelijkheid. Voorbeelden waarbij dit misgaat zijn legio: van automatische gezichtsherkenning die niet goed werkt bij mensen met een donkere huidskleur, tot een algoritme van een vacaturesite dat vrouwen benadeelt ten opzichte van mannen. In dit soort gevallen is de data vaak geen weerspiegeling van de realiteit, bijvoorbeeld doordat het algoritme is getraind op vooral mensen met een lichte huidskleur, waardoor het systeem het vaak mis zal hebben.
‘Het Rotterdamse algoritme presteert niet goed, het raadt eigenlijk willekeurig’
Ook in Rotterdam zijn er vraagtekens te plaatsen. Zo is niet duidelijk hoe fraudeurs uit eerdere onderzoeken zijn geselecteerd. Dat kan een willekeurige selectie zijn geweest, maar ook een andere methode die mogelijk niet vrij was van vooringenomenheid. Zo kunnen data afkomstig zijn van eerdere themacontroles, waarbij op voorhand onderzoek werd gedaan naar groepen, zoals mensen met een specifieke woonsituatie of samenstelling van het huishouden. In de Rotterdamse data valt op dat er maar heel weinig jonge mensen in voorkomen, terwijl leeftijd de grootste invloed heeft op de hoogte van de risico-score.
Volgens Rotterdam was het algoritme uiteindelijk wel effectiever dan willekeurige controles. Het algoritme ‘scoorde’ op honderd controles zo’n 39 gevallen van fraude of andere vormen van onrechtmatigheid, staat in door de gemeente verstrekte cijfers. Bij aselecte controles was het 25 op de honderd keer raak.
Maar de gerenommeerde Amerikaanse computerwetenschapper Margaret Mitchell wijst op evaluaties bij het Rotterdamse algoritme: daaruit blijkt dat het model niet goed presteert en ‘eigenlijk willekeurig raadt’. Mitchell is gespecialiseerd in kunstmatige intelligentie, ethiek en vooringenomenheid. Op verzoek keek zij naar het onderzoek. Beoordelen of personen een risico kunnen vormen, is altijd mensenwerk, vindt Mitchell. Volgens haar zullen computermodellen nooit een goede voorspelling maken van het werkelijke risico dat mensen vormen, omdat ‘alle levens anders zijn’.
Een wiskundig model weegt nooit alle factoren mee die in ieder afzonderlijk geval een rol spelen, aldus Mitchell. Ze denkt dat de ontwikkelaars van het Rotterdamse algoritme niet voldoende of niet de juiste informatie hadden om een goed model te kunnen maken. ‘Alles overwogen, heb je een recept voor een model dat geen kloppend beeld van de werkelijkheid geeft, op basis van wat het heeft geleerd. Dat betekent dat het niet bruikbaar is in de echte wereld.’
45 Bijdragen
Roland Horvath 7
Het artikel toont ons de richting waarin de digitalisering evolueert. De zwaksten zijn de vijand van de superrijken en machtigen. Zij worden op alle mogelijke manieren gepest en gedemoniseerd.
Uit het artikel leren we ook dat een algoritme als het Rotterdamse in de meeste gevallen steunt op verzinsels, die de werkelijkheid geweld aan doen, zoals ook gezegd wordt door de Amerikaanse computerwetenschapper Margaret Mitchell.
Een computer programma als het beschrevene is een toonbeeld van willekeur. Dat komt door de willekeurige veronderstellingen aan het begin van de opbouw van zo'n programma.
De enige remedie is zulke algoritmen te verbieden. De overheid en de ondernemingen met hun cookies mogen uitsluitend beschikken over het minimum minimorum aan inlichtingen over de burgers. Het hoogst nodige. En ze moeten zich ver houden van het fantaseren over de gedragingen van de burgers.
De zogenaamde eigenschappen, die de criteria vormen bij het gebruik van het algoritme zijn er om de zwaksten en armsten te controleren, intimideren en demoniseren. En als ze zo niet bedoeld waren, dat is dat in elk geval wel het resultaat.
Het Rotterdamse algoritme doet denken aan de toeslagen affaire.
Waarom moet de gemeente Rotterdam bijstandsfraude -kunnen- voorspellen? Wat is / was het nut daarvan?
Bestaan er ook dergelijke algoritmen om fraude bij de duizend rijksten van NL te voorspellen? En zijn de daarbij gebruikte criteria gekozen zonder aanzien des persoons.
'Dat is zonder te letten op den stand, de geboorte, den rijkdom, den ouderdom, enz. van den persoon. Deze uitdrukking is van bijbelschen oorsprong; men vindt haar Rom. 2:11: Want daer en is geen aenneminge des persoons by Godt.'
Een citaat uit:
https://www.dbnl.org/tekst/stoe002nede01_01/stoe002nede01_01_0027.php#:~:text=d.i.%20zonder%20te%20letten%20op,oorsprong%3B%20men%20vindt%20haar%20Ro
A Kersbergen 1
Roland Horvathj.a. karman 5
A Kersbergenj.a. karman 5
Roland HorvathEsther Van der Hei 1
Ik vraag me af in hoeverre mensen die het algoritme schreven niet zelf bedacht hebben dat als je Rasit heet en jong bent, je automatisch meer een risico bent. Dat het leren van het algoritme een klein beetje menselijke sturing mee kreeg. Ik kan me vinden in de conclusies van mevrouw Mitchell.
In dit kader is het boek 'Rotterdam' van Arjen van Veelen een leestip. Hij had de werking van het algoritme ook in de gaten en legt zelfs een link met een zekere blauwgekleurde overheidsdienst die wel wat zag in het algoritme.
Arjen Veldt 1
En uiteraard is de voorspelling uitgekomen.
frida arendt
j.a. karman 5
frida arendtDe FSV was een interne vrije registratie om met tips over fraudes bij ondernemers om te gaan. Zeker niet opgezet al een zwarte lijst zoals vanuit de media op een foute wijze geframed is. Je loopt daar te makkelijk in mee.
Hendrik Poll 2
j.a. karmanTerwijl in dit geval van de gemeente Rotterdam je ook kunt concluderen dat ze dit programma gebruiken om de controle op fraude gerichter en effectiever te maken, en zoals ze zelf aangeven naast andere manieren. Dit heeft bovendien het niet genoemde voordeel dat bij minder burgers ten onrechte op de deur geklopt wordt voor nader onderzoek.
Het verhaal van de belastingdienst is ook nooit van de kant van de belastingdienst belicht: dan zou men hebben kunnen vernemen dat die hadden geconstateerd dat er veel 'mogelijke fraude gevallen' optraden waarbij sprake was van administratieve fouten. *) En hebben een 'algoritme' gebruikt om die personen er op tijd uit te halen zodat er minder teruggevorderd hoefde te worden.
En tot slot: ik lees een hoop wantrouwen en vooringenomenheid maar geen suggesties voor de manier waarop handhavers/controleurs hun werk effectief kunnen inrichten.
*) Nogal logisch overigens: heeft een van jullie de aanvraag voor kinderopvang toeslag al eens doorgeworsteld, waarbij je je moet realiseren dat iedere verandering in al die gegens meteen moet worden doorgegeven. Bovendien gaat het bij de belastingdienst om 600.000 gevallen/jaar.
En alle partijen in de 2de kamer waren het eens over de systematiek en het feit dat 'fraude hard moet worden aangepakt omdat het de basis onder ons sociale stelsel haalt', met een langs alle kanten afgeraden Fraudewet tot gevolg.
j.a. karman 5
Hendrik PollMaurits van Laarhoven
Hendrik PollBij het huidige systeem van uitkeringen en toeslagen lijkt me controle passend en nodig. Geen controle lijkt me niet wenselijk, 100% controle is niet haalbaar. Zelf vind ik het te verantwoorden en passend dat op basis van een transparante en toetsbare criteria de overheid haar mogelijkheden van inspecties en effectiviteit daarvan vergroot. Daar heb ik zelf geen problemen mee. Wel met het gegeven dat de overheid hierin doorschiet en niet thuis geeft indien herstel nodig is.
Hoe zulke methoden instutioneel worden gebruikt kan en moet veel beter, dat is wat mij betreft een reden om een algoritm niet te gebruiken, niet het algoritme zelf en het mogelijk discriminerend karakter. Ik vind het namelijk zelf niet discriminerend indien persoonlijke eigenschappen deels leidend zijn in wie in welke mate gecontroleerd wordt. Let wel, het controleren, niet het beschuldigen van personen, ik vind dat zelfs dusdanig logisch en verklaarbaar dat ik dit zelfs verwacht van mijn overheid (=mening).
Hendrik Poll 2
frida arendtEn ik neem aan dat je dan als goed opgeleide persoon je (voor)oordeel t.a.v. ambtenaren en hun handelen ook bij kunt stellen.
Hilda Hoek
John Janssen 4
Hilda HoekU slaat de spijker op zijn kop!
Hendrik Poll 2
John JanssenRoland Horvath 7
Hilda Hoek2/ De gemeente Rotterdam mag/ moet ook leren de formulieren die ze rondsturen of ter beschikking stellen van de burgers, zo veel mogelijk te standaardiseren. Dat mag de Rijksadministratie ook doen.
3/ Het is ontstellend en onrustwekkend voor de toekomst dat een gemeente/ een stad als Rotterdam zich bezig houdt met zulk een schofterige bedoening als het 'Voorspellen van bijstandsfraude'. Dat is 1984 van George Orwell ver voorbij.
Zij, die tot de groep burgers behoren, die het algoritme heeft uitgekozen, worden verdacht zonder iets gedaan te hebben. Ze mogen dus door de overheid via controles- en- meer door gemeente ambtenaren geterroriseerd worden.
Dat is een nieuwe stijl van besturen in NL. Verdenking door een algoritme / black- box / computer wegens een hoog risico profiel. Dat kan in om het even welk domein gebruikt worden, niet alleen bij een mogelijke fraude.
Die nieuwe bestuurspraktijk zal een overbelasting van het Openbaar Ministerie en van de Politie makkelijk kunnen compenseren.
NB 1: Op grond van de reactie van de gemeente Rotterdam mag men stellen dat de overheid zich niet bewust is van het onwettige, onredelijke, discriminerende en extreem schadelijke van zulk een methode van besturen. Zonder tegenspraak worden zulke praktijken in de regel bon ton en overal toegepast.
NB 2: Door de digitalisering mag men zich aan veel van dergelijk grappen door de overheid verwachten. Om dat zo veel mogelijk te vermijden mag de overheid slechts beschikken over de hoogst noodzakelijke informatie betreffende de burgers. De 315 criteria bij de Rotterdamse verdenking door een computer wijst er op dat alle soorten niets zeggende criteria zijn meegenomen.
j.a. karman 5
Roland HorvathDatzelfde algoritme me dezelfde uitkomsten kun je beleidsmatig inzetten zoals de bestuurder het wenst.
Uw aanname is dat het algoritme schuldig is aan de insteek dat het om fraudebestrijding moet gaan.
Het is die redenering waar het mis gaat.
Roland Horvath 7
j.a. karmanEn nodeloos toegevoegde criteria zonder inhoud of met een inhoud, die niet begrepen wordt, of met een inhoud die niet op de juiste manier geïnterpreteerd kan worden, kan dodelijke of maatschappelijk zeer schadelijke gevolgen hebben.
Men mag dan ook niet alle databases koppelen met alle andere databases. Het resultaat daarvan is onbegrip en onkunde om met de vreemde gegevens om te gaan.
j.a. karman 5
Roland HorvathA Kersbergen 1
Hilda HoekJoop Luster 3
Hilda HoekRapporten, meningen en algoritmen zijn immers de nieuwe 'productiemiddelen'.
Laat je een algoritme maken gericht op het creëren van een, commercieel of politiek, 'wenselijk' antwoord. Of laat je een algoritme maken voor het oplossen van maatschappelijke problemen.
Heel goed en zeer wenselijk dat er journalisten zijn die hun tanden nog kunnen zetten in dit soort zaken die men liever in het verborgene houdt.
j.a. karman 5
Joop Luster- Waar geef je als beleidsbepaler opdracht voor met welke condities.
Vervolgens mis je dat de onderzoekers die vraag genegeerd hebben en voor het populistische gegaan zijn dat fraudebestrijding nooit mag.
Fraudebestrijding is discriminatie want onduidelijke en onjuiste gevallen worden bekeken.
Maurits van Laarhoven
Hilda HoekWim Schaasberg
Koos van Marle
Ik denk dat dit zomaar eens niet het geval is.
Verder is het heel goed dat dit nu open op tafel ligt.
PJTV Larsen 1
Verder geven het methodologie rapport en de reactie van de gemeente Rotterdam veel achtergrond oa dat maar 3300 van de 19000 heronderzoeken met het algoritme waren uitgevoerd.
Het is niet duidelijk of er bij een heronderzoek ook geconstateerd is geweest dat iemand te weinig ontving en dus een compensatie moet ontvangen.
Hilda Hoek
PJTV Larsen- omdat je niet meteen hebt gemeld dat je een tas met boodschappen hebt aangenomen van je moeder omdat ze ziet dat je geen eten meer kan betalen nadat de huur en energiekosten zijn betaald;
- omdat je je dakloze dochter niet op straat laat slapen als er een keer geen plek is in de opvang (voordeurdelers hebben minder recht op bijstand);
- omdat je vrijwilligerswerk doet om je nuttig te voelen. Dat mag niet omdat je beschikbaar moet zijn voor de arbeidsmarkt;
- omdat je inkomen iedere maand wisselt en je dus niet alle wijzigingen in inkomen bij kunt houden omdat flexwerk tegenwoordig de norm is bij laaggeschoold werk.
En hoe vaak zijn mensen bij de KOT affaire niet totaal onterecht van fraude beschuldigd?
Ik neem die fraudecijfers dus ook met een flinke korrel zout. Hoe praat je als gemeente recht wat krom is. Deze mensen zijn weerloos. Als ze deze opsporingsmethodes zouden toepassen in Bloemendaal dan zouden ze bij iedere vermeende overtreding meteen een advocaat of fiscaal jurist aan hun broek hebben.
PJTV Larsen 1
Hilda HoekHet punt van op jacht gaan onder de rijken is terecht. In de aselecte keuze van de Rottedam studie zou ook nader gekeken kunnen worden bij de top van de inkomens, wat daar gevonden is, welke maatregelen zijn genomen en of inderdaad advocaten hieraan verdiend hebben.
j.a. karman 5
PJTV LarsenToeslagen en bijstand zijn afhankelijk van inkomens. Boven modale inkomens zulle bij bepaalde regelingen niet in de populatie voorkomen. Dan kan wel er wel inkomensfraude zijn, dat is een heel ander gebied.
Erik Jonker
Joop Luster 3
Erik JonkerMrOoijer 1
Toch waren mijn conclusies toen ook niet mals: er wordt niet gecorrigeerd voor de ongebalanceerde data waarmee het algoritme is "getuned". Dat is een elementaire fout.
Er is wel een document door Rotterdam meegeleverd waarin dat nader wordt onderzocht, maar daar is kennelijk nooit iets mee gedaan. Daar staat nl. in dat de nauwkeurigheid van de voorspellingen - als die data wel gebalanceerd zou zijn- niet beter is dan een random voorspelling.
j.a. karman 5
MrOoijerVoor het weten wat de balans moet zijn moet je zowel de gehele populatie als de training en validatie langs elkaar leggen. Ik geloof niet dat dat allemaal ter beschikking gesteld is.
Met de hedendaagse opleidingen zijn de data science massaal. Het is meer problematisch dat het omgaan met onzekerheden niet begrepen wordt.
Roland Horvath 7
j.a. karmanDe gemeente Rotterdam kan het niet accepteren dat ze niet weet wie wel en wie niet fraudeert, in het verleden, het heden en in de toekomst. En dus heeft ze een onwettig en discriminerend systeem in gebruik genomen dat die onzekerheid moet verminderen en nog beter die onzekerheid ongedaan maken. Door een groep personen aan te wijzen op basis van zogenaamde statistisch juiste en objectieve criteria.
Het resultaat is willekeur en een misdadig gedrag van wege de gemeente. Mensen worden individueel en in groep gedemoniseerd en geterroriseerd.
Waarom moet men alles op voorhand weten. Of beter zogenaamd weten want een slecht op gebouwd maar pretentieus systeem heeft dat berekend. Armoede en behoren tot minderheidsgroepen is verworden tot een misdrijf. Op statistische gronden.
Nog iets, als de overheid dat mag doen met de armsten en zwaksten, dan mag dat na verloop van tijd ook gebeuren met de bevolking die iets minder arm en zwak is. En zo verder tot dat op iedereen mag toegepast worden behalve uiteraard op de zeer rijken en machtigen.
j.a. karman 5
Roland HorvathUw redenatie is dat iedereen mag stelen en bedriegen zolang er daarvoor geen bewijs aangeleverd is dat een recht van vrijheid voor bepaalde figuren.
De rijken en zeer machtigen profiteren profiteren van al deze ophef. Zijn zijn het meest gebaat dat ern geen fraude onderzoek gedaan mag worden. Die aandacht voor FSV met toeslagen is een typisch iets. Je moet beseffen dat dat systeem juist tegen de rijken en machtigen gedoeld was (eigenaar grote ondernemingen. grootste belanghebber kleine ondernemingen).
MrOoijer 1
j.a. karmanEen punt waar ik het niet over had is dat er waarschijnlijk veel te weinig data is om überhaupt op deze manier een goed model te kunnen maken. Ik ken geen wetenschappelijke literatuur die hier over gaat, maar het is niet erg ethisch om die vraag niet te beantwoorden.
j.a. karman 5
MrOoijerIk ageer tegen het woordgebruik van "in de code" we praten eerder over een onderzoeksopzet.
Er moet meer verdieping in de gegevens zitten.
Een start:
- Als we Rotterdam probleemwijken gaan vergelijken met wassenaarse rijke wijken dan weet je dat je met de uitkomsten niets kan. Trainingsdata met 45% fraude gevallen is wat de opzet betreft vreemd.
Dat zou betekenen dat enkel de in onderzoek genomen gevallen uit een voorselectie genomen zijn.
Het doel is juist die voorselectie zo goed mogelijk te krijgen met de minste fouten A/B aan beide zijden.
- Als je de hele populatie neemt welke daar voor voorzieningen in Rotterdam aan klopt dan moet je die nemen. Deze moet je eerste houden tegen wat er bekende is van het geheel in de wijken.
Het is allemaal vrij logisch en goed uit te leggen. Tenzij de bestuurscultuur is dat omdat het uitbesteed is, er geen reden is om de basis te begrijpen. Dan hebben we het toch weer over een beleidsprobleem.
- Hoe groot de groep moet zijn? Genoeg wetenschappelijke literatuur. Een greep:
https://www.researchgate.net/publication/348680541_Effects_of_Training_Set_Size_on_Supervised_Machine-Learning_Land-Cover_Classification_of_Large-Area_High-Resolution_Remotely_Sensed_Data de hype
https://journalofbigdata.springeropen.com/articles/10.1186/s40537-021-00419-9
Met weinig data is wel degelijk veel te doen. De wetenschap met gezondheid draait er op. Des te sterker het signaal des te minder data is nodig.
Mark Rietveld 1
Voor hen die dat niet weten, Accenture (afsplitsing van Arthur Andersen, een "Big Five" accountantskantoor dat ten onder is gegaan ten gevolge van een strafrechtelijke(!) veroordeling), is een advieskantoor dat in de ICT sector de bijnaam "Accidenture" heeft. Dit omdat ze doorgaans oplossingen halfbakken afleveren en verdienen aan de al dan niet permanente support die ze dientengevolge kunnen/moeten blijven leveren.
Accenture is volgens mij ook de naam die opduikt achter andere systemen bij de Belastingdienst, zoals het FSV meen ik...
Het blijft mij toch een raadsel waarom de Nederlandse staat dit soort partijen in blijft schakelen. Ze zullen wel goed zijn in het winnen van tenders...
j.a. karman 5
Het stelt dat er geen goede voorspellende waardes mogelijk zouden zijn.
Het weer en de voorspelling van het weer hoe het uitstekend veel waarde brengt.
Je zou de insteek ook kunnen lezen dat omdat niet iedereen rijk is de anderen de vrijheid hebben om te gaan stelen / roven. Dat in een bias in de aanname hoe de werkelijkheid is. Winterse en zomerse dage zijn geheel verschillend die constatering is discriminerend. Het probleem met verschillen waarnemen als een fout algoritme zien is op zichzelf een dubieze houding.
"Hebben kwetsbare groepen inderdaad niets te vrezen van dit systeem, zoals ze dat bijvoorbeeld wel hadden van het beruchte toeslagen-algoritme van de Belastingdienst? " Fraai voorbeeld van het onbegrip.
Er was namelijk geen computer algoritme bij toeslagen. Wie er een beter verder doorheen kan kijken ziet de opspelende emotie met niet onderbouwde uitspraken daarbij de boventoon heeft. Het waren bijzondere gevallen die door mensen aangekaart werden. Bijzondere selectie in klanten door ondernemers die een bias toonden.
Een gedegen cijfermatig onderzoek is vrij lastig op te zetten en te onderbouwen. Met een kans bestaat altijd de mogelijkheid dat een uitzondering als de regel uitgeropen wordt.
"Voorbeelden waarbij dit misgaat zijn legio: van automatische gezichtsherkenning die niet goed werkt bij mensen met een donkere huidskleur," MIst de stand van de techniek. https://www.securityindustry.org/2022/07/23/what-science-really-says-about-facial-recognition-accuracy-and-bias-concerns Machines doen het beter dan mensen op specifieke terreinen. Dat valt lastig te accepteren en moeilijk te plaatsten voor de veranderingen.
Hilda Hoek
j.a. karmanRoland Horvath 7
Hilda Hoekj.a. karman 5
Hilda HoekVoor toegang tot je computer dient het niet te kritisch te zijn. In dat geval is een opzet met dubbelgangers een extra fysiek iets. Voor herkenning in een meer kritisch iets krijg je andere eisen.
Met je vingerafdrukken en DNA speelt hetzelfde. Voor handhavers met misdaad is is het overtuigen vanuit een meting een heel ander iets dan en eenvoudige toegang.
Je verwerkt zelf ook gegevens en trekt daar zelf een conclusie uit. " Als je altijd al wantrouwend bent tegenover een bepaalde aanpak, Dan ..." Jouw eigen bias maakt snel een cirkelredenering.
Als burger moet je ook een rijbewijs halen voordat je de weg op mag met een auto. In jouw redenatie hoeft dat niet want het is een teken dat de burer niet te vertrouwen is.
Vincent Huijbers 9
j.a. karmanhttps://eindpunt.blogspot.com/2012/06/onderzoek-hoe-ernstig-is.html?m=1
https://eindpunt.blogspot.com/2020/12/onderzoek-hoe-ernstig-is.html?m=1
Gerard van Dijk 6
Vincent HuijbersHannie Groen 5
Gerard van Dijk