© Rosa Snijders

Alle kinderen nauwgezet in beeld met big data

Monitoring in de jeugdgezondheidszorg is al geruime tijd ingeburgerd: kinderen worden goed in de gaten gehouden. De nieuwe stap is om persoonlijke data over kinderen te combineren met die over hun ouders, hun buurt en hun sociale context, om zo ‘risicovolle’ situaties eerder op te kunnen sporen en wellicht zelfs te voorkomen. Big data wint inmiddels ook terrein binnen de jeugdhulp en het onderwijs. Elize Lam brengt een nieuw terrein in kaart.

Dit stuk in 1 minuut
  • In de jeugdgezondheidszorg (JGZ) en daarbuiten wordt gezocht naar manieren om problemen bij kinderen en gezinnen vroegtijdig op te sporen. Een van de manieren waarop dat gebeurt, is door de inhoud van elektronische kinddossiers te koppelen aan CBS-microdata (gegevens op persoons- en adresniveau). Ook worden algoritmes gebruikt om dossiers op ‘signalen’ te onderzoeken.

  • Organisaties die kinderrechten bepleiten, zoals het Kinderrechtencollectief, zijn voorstander van het koppelen van gegevens en het gebruik van microdata. Naar hun mening is dit nuttig om te toetsen of het VN-Kinderrechtenverdrag wordt nageleefd en om na te gaan of hulp of beleid aansluit bij de vraag.

  • Kinderen minutieus volgen gebeurt niet alleen in Nederland: Schotland begon daarmee al eerder, via het overheidsprogramma ‘Getting it right for every child’ (GIRFEC). Dit programma is zeer omstreden; inmiddels zijn delen ervan weer afgeschaft. De Schotse aanpak kan niettemin op groeiende aanhang in Nederland rekenen. Het ministerie van VWS liet de Tweede Kamer gisteren weten dat het geen reden ziet GIRFEC in Nederland in te voeren. Er zijn echter al gemeenten en instanties die met onderdelen ervan werken.

  • Niet alleen komen door big data steeds meer ouders en gezinnen onder een vergrootglas te liggen: er wordt inmiddels ook gespeurd naar mensen die nog geen gezin hebben, maar wel als potentieel kwetsbare ouder worden aangemerkt.

  • Daarnaast zijn zulke computermodellen minder objectief dan gedacht: ze incorporeren vaak vooroordelen, gaan uit van slecht gedefinieerde ‘signalen’ van mishandeling of verwaarlozing, en sturen bovendien de blik van professionals die ermee werken.

Lees verder

Het gebruik van big data is sterk in opmars binnen het jeugddomein. Niet alleen wordt steeds meer privacygevoelige informatie over ieder Nederlands kind vastgelegd in omvangrijke digitale bestanden, deze bestanden worden ook gekoppeld, en vervolgens geanalyseerd met behulp van datawetenschap (data science). Deze methoden zijn aanzienlijk geavanceerder dan traditionele statistische programma’s: ze kunnen meer informatie aan en leggen verbanden die eerder onmogelijk waren.

Ongemerkt kan zo het doen en laten van gezinnen minutieus gevolgd worden. En om problemen voor te zijn of op te sporen – denk aan kindermishandeling – worden risicoprofielen opgesteld die moeten voorspellen waar zulke problemen zich zullen voordoen. Getrainde algoritmen, een soort ingewikkelde wiskundige recepten, doorzoeken de computerbestanden vervolgens op tekenen hiervan. 

Een treffend voorbeeld is het Brabantse programma Smart Start, dat een modelaanpak voor preventief beleid wil ontwikkelen: ‘Een programma om problemen in wijken eerder te signaleren en deze te voorkomen door het combineren van data en kennis.’ Smart Start begon in 2018, op initiatief van zorgaanbieder Sterk Huis, een hulpverleningsorganisatie voor kinderen en hun ouders. Samen met de regio Hart van Brabant, onderzoeksinstituut CentERdata en het Data Science Center van de universiteit Tilburg wil Sterk Huis niet alleen problemen aanpakken, maar ook ‘(risico’s op) complexe problemen bij kinderen en gezinnen vroegtijdig signaleren’. Smart Start wil dat doen door datascience-technieken, CBS-microdata (gegevens op persoons- en adresniveau) en andere kennis te combineren. Zo voert Smart Start een pilot uit op de Tilburgse basisschool de Zuidwester om via ‘predictive en prescriptive analytics’ te voorspellen welke leerlingen een potentieel risico lopen op mishandeling door hun ouders.

De groeiende belangstelling voor dit type aanpak heeft een aantal redenen. Allereerst leeft de overtuiging dat datagestuurd werken een slimme manier is om financiële middelen gerichter en effectiever in te zetten. In een tijd van krapte bij zowel gemeenten als zorgverleners zal dit velen als muziek in de oren klinken. De ontwikkeling van big data in het jeugddomein past daarnaast in het streven van de overheid om ieder kind optimale kansen te bieden. Je kunt er immers niet vroeg genoeg bij zijn wanneer je kinderen de goede start wilt geven die ze verdienen. Daarom is het verstandig (risico’s op) onveilige en onwenselijke opvoed- en opgroeisituaties te voorkomen, of die tenminste zo vroeg mogelijk op te sporen.

‘Kwetsbare’ ouders versus kansrijke start

Monitoring van kinderen en ouders is daarvoor onontbeerlijk. Die aanpak is inmiddels flink ingeburgerd. Volgens de richtlijnen van de beroepsgroep moet bijvoorbeeld elke verloskundige een zwangere vrouw een digitale vragenlijst laten invullen, waarin haar het hemd van het lijf wordt gevraagd. Dat gebeurt niet alleen om medische risico’s in te schatten, maar ook om na te gaan of zij het toekomstig ouderschap wel aankan. Artsen op huisartsenposten zijn verplicht om bij ieder kind met letsel een beknopte screeningslijst in te vullen, om vast te stellen of er wellicht kindermishandeling speelt. En wijkteammedewerkers moeten van de Inspectie een risicotaxatie-instrument gebruiken om de veiligheid van kinderen in ‘kwetsbare’ gezinnen vast te stellen. Het zou volgens de Inspectie te riskant zijn wanneer ze dit slechts doen op basis van ervaring of een (onderbuik)gevoel.

inmiddels is de speurtocht uitgebreid naar mensen die nog geen gezin hebben, maar wel als potentieel kwetsbare ouder worden aangemerkt

Op de achtergrond speelt nog iets anders. Het vertrouwen in ouders is in Nederland door een aantal gezinsdrama’s sterk gedaald, constateert Ido Weijers, emeritus hoogleraar jeugdbescherming. Dat afnemende vertrouwen en de groeiende drang naar monitoring zijn communicerende vaten, zo maakte Weijers in 2017 in NRC Handelsblad duidelijk: ‘Dit wantrouwen jegens ouders gaat gepaard met een streven naar het absoluut willen uitsluiten van risico’s. Deze morele paniek vormt de achtergrond van de invoering van een bonte verzameling screenings- en risicotaxatie-instrumenten. Typerend is hierbij de haast en het gebrek aan weloverwogen maatregelen. Iedereen bedenkt wat, zorgvuldig opgezette en wetenschappelijk begeleide pilots ontbreken, inzicht in ethische en juridische problemen blijft achterwege en de landelijke overheid wacht af.’

Zodoende liggen ‘kwetsbare’ ouders en gezinnen al jaren onder een vergrootglas. Waarschuwde Jo Hermanns, emeritus hoogleraar pedagogiek, in 2009 in zijn oratie nog dat er ‘een jacht lijkt te zijn ontstaan op “risicogezinnen”, die nog geen probleem zijn maar dat wel zouden kunnen worden,’ inmiddels is die speurtocht zelfs uitgebreid naar mensen die nog geen gezin hebben, maar wel als potentieel kwetsbare ouder worden aangemerkt.

Mede in dat kader lanceerde de rijksoverheid in 2018 het actieprogramma Kansrijke start, is ZonMw recent het landelijke onderzoeksproject Big data en kansrijke start begonnen, en ontwikkelt het Erasmus MC voor gemeenten een digitale Kwetsbaarheidsatlas. Die atlas visualiseert de wijken waarin ‘het (relatieve) risico op kwetsbaarheid onder (toekomstige) ouders hoger, lager of vergelijkbaar is met het gemeentelijk gemiddelde’. Al is deze ‘kwetsbaarheidscategorisering’ volgens het Erasmus MC niet herleidbaar tot individuele mensen, individuele burgers krijgen zo wel een label opgeplakt, uitsluitend omdat ze in een bepaalde wijk wonen.

Hoewel de inzet van datascience-technieken oogt als een intensivering en verfijning van eerdere vormen van monitoring, gaat deze aanpak aanzienlijk verder. Persoonsgegevens worden op grote schaal gekoppeld, omvangrijke hoeveelheden fijnmazige data worden geanalyseerd en er worden risicoprofielen ontwikkeld die vervolgens als zoekstrategie worden gebruikt. Het gevolg is dat ieder kind en iedere ouder onder toezicht kan komen te staan, al ligt de focus vooralsnog bij ‘hoogrisico-groepen’.

[Verslag NCJ van conferentie over datagedreven zorg]

De ambities van datagedreven jeugdgezondheidszorg

Een instantie die intensief met ‘big data’ werkt, is de jeugdgezondheidszorg (JGZ). De JGZ heeft nagenoeg alle kinderen in beeld en verzamelt al jaren systematisch zeer gedetailleerde informatie over elke 0- tot 18-jarige (en diens ouders) in een persoonlijk elektronisch kinddossier, ook wel bekend als het digitaal dossier jeugdgezondheidszorg (DD JGZ). Dat levert een schat aan informatie op voor datagedreven onderzoek. Daarom startte in 2010, in opdracht van het ministerie van VWS, de digitale databank Jeugd in Beeld (JIB). Inmiddels delen circa achttien van de vierenveertig JGZ-organisaties ‘hun’ anonieme gegevens met deze databank.

Als het aan de directeur van het Nederlands Centrum voor Jeugdgezondheid (NCJ) ligt, het kennis- en innovatiecentrum voor de sector, gaan er meer organisaties aan JIB meedoen. Anders betekent dat het einde van big-data onderzoeksprojecten als Kansen in de Kindertijd, vreest hij. Dit project, waarin vier GGD’en en economen van de Erasmus Universiteit samenwerken, beoogt kansenongelijkheid onder kinderen aan te pakken.

Voor Kansen in de Kindertijd gebruiken de onderzoekers data van 266.000 kinderen, echter zonder hun medeweten of die van hun ouders. Deze gegevens uit JIB zijn door het Centraal Bureau voor de Statistiek (CBS) gepseudonimiseerd en aan databestanden gekoppeld. De onderzoekers werken binnen een beveiligde CBS-omgeving met deze data. ‘Zo relateert het project gedetailleerde informatie over overgewicht, spraak-taalontwikkeling, psychosociale kenmerken en gezichtsvermogen aan gegevens over zorggebruik, jeugdhulp en onderwijsresultaten van kinderen, evenals aan het inkomen en de arbeidsmarktpositie van hun ouders,’ meldt het NCJ.

Groeiende zorg over gebruik CBS-microdata

Geautoriseerde instellingen kunnen zelf onderzoek doen met de microdatabestanden van het CBS. Microdata zijn koppelbare gegevens op persoons-, bedrijfs- en adresniveau; inmiddels gaat het om 4150 datasets verspreid over circa 300 onderwerpen. Een groeiende groep onderzoeksafdelingen van ministeries en andere diensten, organisaties en instanties gebruikt inmiddels deze CBS-datasets.

In april vorig jaar vergaderde de Gebruikersraad van Microdataservices daarover: ‘Steeds vaker treedt [..] een spanningsveld op ten aanzien van overige taken van de betrokken instellingen zoals consultancy en interim management (bij private instellingen) maar ook opsporing, toezicht en handhaving (bij overheidsinstellingen). Bij overheidsinstellingen wordt de machtiging meestal verleend aan een statistische/onderzoeksafdeling als “statistische enclave”. In toenemende mate zien we hier dat voor microdata projecten medewerkers van elders in de organisatie worden “gedetacheerd”. Deze constructie is in het leven geroepen voor uitzonderingsgevallen maar wordt de laatste jaren bijna als gemeengoed toegepast.’

De ontstane situatie leidt niet alleen tot conflicterende belangen, maar kan ook de rechten van burgers schaden. Tijmen Wisman, rechtsgeleerde aan de VU: ‘Het lijkt mij enorm problematisch dat persoonsgegevens die zijn verstrekt op voorwaarde dat ze alleen worden gebruikt voor statistisch en wetenschappelijk onderzoek, inzichtelijk worden voor werknemers die zich bezighouden met processen waarbij zij beslissingen kunnen nemen die direct raken aan de rechtspositie van individuen (of dat nu een ontslag, vervolging of een andersoortige actie betreft).’ De data kunnen volgens Wisman ook worden gebruikt voor de ontwikkeling van risico-indicatoren die later alsnog iemand kunnen raken.

Het CBS heeft inmiddels besloten paal en perk te stellen aan deze wildgroei. Zo moeten organisaties voortaan garanderen dat de microdata niet toegankelijk zijn voor medewerkers die in hun dagelijks werk bij opsporing en handhaving betrokken zijn (al is het de vraag hoe het CBS dit kan controleren). Eind vorig jaar besloot het CBS bovendien te laten onderzoeken ‘of toegang voor externe onderzoekers tot zijn privacygevoelige data nog wel kan op de huidige wijze’.

Lees verder Inklappen

Kinderrechten en microdata

Een van de voorstanders van het beleid om alle kinderen in beeld te brengen, is het Kinderrechtencollectief (een samenwerking van onder meer Defence for Children, Unicef Nederland en de Nationale Jeugdraad). Vorig jaar meldde het Collectief aan het VN-Kinderrechtencomité, ondersteund door ruim zeventig organisaties, dat Nederland volgens hen te weinig zicht heeft op (specifieke groepen) kinderen, en dat zij dit zorgelijk vinden.

De gegevens over kinderen staan ten dienste van het systeem, opdat het systeem hen vervolgens beter van dienst kan zijn

Het Collectief legt desgevraagd uit waarom het eraan hecht dat ‘alle kinderen in beeld’ komen. Dat hangt samen met het feit dat Nederland in 1995 het Kinderrechtenverdrag heeft ondertekend, zegt de coördinator: ‘Een land moet er dan voor zorgen dat alle wetten en regels zo worden aangepast dat zij voldoen aan de eisen die het verdrag stelt. En hiervoor is inzicht nodig in ontwikkelingen en (onderlinge) verschillen in de leefsituatie van kinderen. [..] Beschikbaarheid van data over het welzijn van álle kinderen in Nederland, stelt (lokale) overheden en ngo’s in staat goede interventies en beleid te ontwikkelen en te monitoren.’

In de visie van het Collectief is kinderen in beeld brengen een instrument om te toetsen of het Kinderrechtenverdrag wel wordt nageleefd, en om passend aanbod en beleid in Nederland te realiseren dat vervolgens weer met data gemonitord kan worden. Anders gezegd: de gegevens over kinderen staan ten dienste van het systeem, opdat het systeem hen vervolgens beter van dienst kan zijn.

Tijmen Wisman, rechtsgeleerde aan de VU en voorzitter van het Platform Bescherming Burgerrechten, betwijfelt of kinderen zo minutieus in beeld moeten komen: ‘Ieder kind wordt al bij de geboorte geregistreerd, gaat in principe naar de GGD en komt op school vanaf de leeftijd van 4 of 5 jaar. Je zou daarom kunnen zeggen dat kinderen al goed in beeld zijn.’ Het Collectief meent echter dat het ontsluiten van microdata over kinderen soms verstandig is, bijvoorbeeld om te weten welke hulp een kind krijgt en of die effectief is. Het Collectief ziet de wet op het CBS als oplossing voor de belemmeringen bij instanties om gegevens te delen.

Big data en privacy

Het delen en koppelen van zulke gevoelige informatie is aan banden gelegd via de Algemene Verordening Gegevensbescherming (AVG), waarin tevens is vastgelegd dat gegevens niet tot personen herleidbaar mogen zijn. Maar omdat Kansen in de Kindertijd een algemeen belang dient, valt het onder de uitzonderingsbepalingen van de AVG, vertelden de onderzoekers op een werkconferentie. En omdat het ondoenlijk is om honderdduizenden ouders te benaderen voor toestemming, mag dat achterwege blijven, stellen de onderzoekers.  De werkwijze van het project zou uitvoerig juridisch zijn getoetst, en akkoord zijn bevonden door gespecialiseerde advocaten en juridisch adviseurs van het CBS.

Omdat het ondoenlijk is om honderdduizenden ouders te benaderen voor toestemming, mag dat achterwege blijven, stellen de onderzoekers

Tijmen Wisman bevestigt dat de AVG zulke uitzonderingen kent. Hij is nieuwsgierig naar de afweging in dit specifieke geval, maar die is niet bekend. ‘Het gegevensbeschermingsrecht zit vol open normen en die kunnen hier in het voordeel van de onderzoekers zijn geïnterpreteerd en toegepast, terwijl een advocaat van de ouders anders zou oordelen.’

Hij vraagt zich met name af waarom gepseudonimiseerde gegevens nodig zijn voor dit onderzoek. ‘Er wordt een code gebruikt, waarschijnlijk op basis van het BSN-nummer, om de data van de JGZ te koppelen met de data van het CBS. Maar op deze manier wordt een structuur opgetuigd waarbinnen gemakkelijk zeer uitgebreide dossiers van individuele kinderen kunnen worden opgesteld. Allemaal in het kader van de wetenschap.’ Wisman meent dat deze werkwijze de rechten van kinderen kan schaden.

Digitaal dossier in de jeugdgezondheidszorg

Frappant genoeg verzekert de informatiesite over het digitale dossier JGZ dat het dossier uitsluitend wordt gebruikt binnen de JGZ. ‘JGZ-professionals hebben een geheimhoudingsplicht en het dossier mag alleen worden ingezien door de medewerker die rechtstreeks betrokken is bij de jeugdige.’ Nergens rept het NCJ, de beheerder van de site, over databanken, wetenschappelijk onderzoekers, of bedrijven die toegang hebben. Ouders wordt simpelweg nergens verteld dat informatie uit het dossier van hun kind elders gebruikt kan worden.

Lees verder Inklappen

Het recht op privacy beschermt niet alleen de burger tegen willekeur van de staat, maar garandeert die bovenal controle over zijn eigen gegevens. Maar blijft dat recht overeind wanneer persoonlijke gegevens door derden worden verwerkt, zonder dat je daar zelf iets over te zeggen hebt, vraagt Wisman zich af. Hij vindt het opmerkelijk dat ouders geen toestemming is gevraagd omdat ze met zovelen zijn: ‘Ik weet niet hoe die gegevens worden doorgestuurd, maar het lijkt me in deze tijd van technologisch vernuft hooguit een kwestie van een vakje dat ouders kunnen aanvinken om toestemming te geven voor het gebruik van gegevens over hun kinderen.’

Al lijkt dit big data-project juridisch te zijn afgedekt, de vraag is wel wat de betrokken ouders (en kinderen) ervan vinden wanneer ze ontdekken dat hun dossier buiten hun medeweten door derden is gebruikt, en er zelfs koppelingen gemaakt zijn met hun persoonsgegevens. Eerder was er al onrust onder ouders over het elektronische kinddossier en de mogelijk afnemende privacy van hen en hun kinderen. Het zorgde er zelfs voor dat sommige ouders geen gebruik meer maken van de JGZ.

Op zoek naar mogelijk mishandelde kinderen

In 2015 ontwikkelde datascience-bedrijf Ynformed voor consultatiebureaumedewerkers van de GGD Amsterdam een detectietool om hen te helpen (vermoedens van) kindermishandeling te signaleren. Dit voorspellingsmodel werd ‘getraind’ met ongestructureerde teksten uit de dossiers van ruim 13.000 (bijna) 4-jarigen, geboren in de regio Amsterdam.

Bij een deel van hen, 657 kinderen (circa 5 procent), had de JGZ ooit mishandeling vermoed. Inmiddels was berekend dat dit een flinke ‘ondersignalering’ moest zijn. Deze ‘gelabelde’ kinderen zouden, zo werd aangenomen, slechts 25 tot 30 procent van de totale populatie vermoedelijk mishandelde kinderen binnen de onderzoeksgroep vertegenwoordigen. Anders gezegd: de betrokken professionals hadden 1500 tot 2000 ‘mogelijk mishandelde’ kinderen gemist. 

Het succespercentage was gebaseerd op de beoordeling van slechts veertig dossiers door een aandachtsfunctionaris kindermishandeling

De algoritmes van Ynformed leerden vermoedens van kindermishandeling te signaleren. Controle door professionals wees uit dat het algoritme het in circa 80 procent van de gevallen bij het juiste eind had: ook zij constateerden een vermoeden van kindermishandeling. Alleen was dit succespercentage gebaseerd op de beoordeling van slechts veertig dossiers door een aandachtsfunctionaris kindermishandeling, en is niet bekend of het vermoeden inderdaad terecht was.

Hoewel deze opbrengst hoog lijkt, en eenzelfde succespercentage later ook zou zijn behaald bij het doorzoeken van andere dossiers, betekent het niettemin dat Ynformeds model er bij 1 op de 5 kinderen naast zat. Een schokkend hoog aantal, gezien de consequenties die een gerezen vermoeden van mishandeling kan hebben voor ouders en kinderen. Want de GGD moet zo’n signaal natuurlijk wel oppakken. En wat als de GGD daar geen tijd voor heeft? De werkdruk binnen de JGZ is immers hoog. Blijft het label – ‘mogelijke kindermishandelaar’ – dan aan deze ouders plakken?

Wat de kwestie extra wrang maakt: na de pilot met de detectietool werd geconcludeerd dat de ondersignalering door consultatiebureaumedewerkers – het probleem dat de tool moest tackelen – vooral voortkwam uit hun ambiguïteit over de definitie van kindermishandeling. Medewerkers kenden zodoende aan gedrag van kinderen en ouders uiteenlopende betekenissen toe, en hanteerden niet allemaal dezelfde definitie van kindermishandeling. Maar er werd wel een prognose berekend en een target vastgesteld dat koste wat het kost, zo lijkt, in de praktijk moest worden ‘herkend’.

Zet dat naast het gebruik van alle vertrouwelijke data, alle inspanningen (en stress?) van de betrokken GGD-medewerkers en de waarschijnlijk zeer omvangrijke projectkosten, betaald met gemeenschapsgeld; dan komt het ogenschijnlijke succes in een ander daglicht te staan.


Nora (15)

"Ik had niet echt het gevoel dat ik ook nog rechten had in dat hele gebeuren"

Onterecht ingrijpen

Nora (15) weet als geen ander wat een onterechte melding van kindermishandeling met je doet. Ze is blij dat ze haar verhaal kan vertellen. Ik kom met haar in contact via de BVIKZ, een belangenvereniging voor zorgintensieve kinderen, die uitgebreid onderzoek deed naar onterechte meldingen bij Veilig Thuis, het advies- en meldpunt voor kindermishandeling en huiselijk geweld. (FTM schreef eerder over deze organisatie.) Nora is twaalf als haar broertje na de wekelijkse gewichtscontrole bij de kinderarts niet meer mee naar huis mag. Hun moeder zou niet te vertrouwen zijn, hem ziek maken. Nora kan er nog om huilen. ‘Je broertje wordt afgepakt, of zo.’ Na twee weken ziekenhuis wordt hij uit huis geplaatst, bij familie in de buurt.

Nora noch de andere kinderen in het gezin is ooit gevraagd of hun moeder hen wel eens ziek maakte. Nog steeds vindt Nora dat onbegrijpelijk. Het had haar moeder vrijgepleit, denkt ze. Het zou nog maanden duren, en verschillende rechtszaken, voordat vaststaat dat de verdenking van de kinderarts onterecht was. Pas dan komt haar broertje weer thuis wonen.

Het gebeuren heeft Nora diep geraakt. Ze heeft erge verlatingsangst ontwikkeld. Liefst zou ze elke minuut en elke seconde weten waar haar ouders en de andere kinderen van het gezin zijn, al begrijpt ze best dat dat niet kan.

Nora denkt dat Veilig Thuis en de kinderarts niet beseffen hoe erg ze haar en de andere kinderen van het gezin geraakt hebben. Ze vindt dat ze haar rechten hebben geschaad. Een gesprek dat zij en haar broer op hun initiatief hadden met Veilig Thuis leverde niets op, hun verslag ervan leek over een heel ander gezin te gaan. ‘Rechten had ik op dat moment niet, denk ik. Want als mijn verhaal zo wordt verdraaid, dan zijn mijn rechten weg als ik wil vertellen dat mijn ouders gewoon normaal zijn, of dat mijn broertje gewoon thuis kan blijven wonen. Ik had niet echt het gevoel dat ik ook nog rechten had in dat hele gebeuren.’ En omdat Nora bang is voor nog meer onwaarheden, vult ze de jaarlijkse vragenlijst van de JGZ sindsdien niet meer in

De invloed van het Schotse GIRFEC

Ook in het buitenland zorgt het nauwgezet volgen van kinderen en gezinnen voor problemen. Schotland is een treffend voorbeeld. Het idee voor het eerdergenoemde project Smart Start ontstond daar, in 2017, tijdens een studiereis van Nederlandse bestuurders uit het onderwijs, de jeugdhulp en gemeenten. Ze raakten geïnspireerd door het overheidsprogramma Getting it right for every child (GIRFEC) en de daarin vervatte visie op inclusief onderwijs en inclusieve zorg. Dat zou in Nederland ook moeten gebeuren, vond de Tilburgse delegatie. Zo worden Tilburg en de regio Hart voor Brabant een van de eerste Nederlandse GIRFEC-proeftuinen.

Opmerkelijk genoeg zorgde GIRFEC toen al jaren voor controverses in Schotland. Met name de ‘staatsvoogd’ die de overheid voor iedere nul- tot achttienjarige wil aanstellen – de zogeheten Named Person – valt niet in goede aarde, met name omdat die ouders mag overrulen. De campagne NO to Named Person (NO2NP) gaat van start, opgezet door tal van organisaties en gesteund door diverse wetenschappers.

‘Er bestaat een onverbreekbaar verband tussen de bescherming van het gezinsleven en de bescherming van democratische grondrechten’

Een rechtszaak tegen de Schotse overheid volgde. In 2016 verwierp het Britse Hooggerechtshof delen van de wet, deels omdat de Schotse regering haar bevoegdheden te buiten was gegaan, deels wegens de verregaande bevoegdheid van de wettelijk verplichte Named Person om persoonlijke informatie over kinderen te verzamelen en met allerlei organisaties te delen. Dit schendt het recht op familieleven en privacy, aldus het hof: ‘Er bestaat een onverbreekbaar verband tussen de bescherming van het gezinsleven en de bescherming van democratische grondrechten.’

In september 2019 trok de Schotse regering de verplichting in om voor elk kind een Named Person te benoemen. Tal van ouders en kinderen hebben dan al de wrange vruchten geplukt van het beleid. Bij NO2NP zijn een aantal schrijnende verhalen te lezen van ’staatsvoogden’ die onschuldige zaken als zorgwekkend betitelden en deelden met andere instanties. Zo werd in een rapport van 60 pagina’s duimzuigen en luiereczeem bij een peuter geproblematiseerd.

Nederlandse voorstanders van GIRFEC hebben nauwelijks oog voor de schaduwkanten ervan. Na meerdere studiereizen en door promotiepraatjes van Schotse consultants op Nederlandse congressen en bij gemeenten, groeit het animo. De gemeenschappelijke taal zal voor betere samenwerking zorgen, de liefde voor ‘onze’ kinderen verbindt, het draait om hun kansen, hun rechten. Wie kan daar nu op tegen zijn? En we nemen toch alleen maar elementen over die passen?

[De Nederlandse 'kansencirkel’, gebaseerd op het ‘wellbeing wheel’ van GIRFEC]

En zo wordt – onder leiding van het Nederlands Jeugdinstituut (NJi) – het Wellbeing Wheel, een GIRFEC-tool om het welbevinden van kinderen in kaart te brengen, binnen no time vertaald naar de ‘kansencirkel’. Deze tool, die ook eenvoudig als risicotaxatie-instrument gebruikt kan worden, wordt inmiddels in meerdere gemeenten ingezet. Haarlem neemt de kansencirkel zelfs als basis voor haar nieuwe Jeugdnota.

De gemeente Haarlem en anderen lijken te missen wat er onder de oppervlakte speelt: het risicodenken, het wantrouwen jegens ouders waarvoor Ido Weijers en Jo Hermanns eerder waarschuwden, het minutieus monitoren van alle kinderen en het koppelen van hun gegevens als een soort risicomanagement om hun welzijn te bevorderen. GIRFEC lijkt op een ideologie, doordrenkt van ‘vooruitgangspessimisme’ en ‘maakbaarheidsoptimisme’, om bestuurskundige en filosoof Rik Peeters te citeren. Wel zijn er verontruste ouders, die op social media, en in blogs en artikelen nadrukkelijk van zich laten horen. Ook belangenverenigingen als Ouders en Onderwijs, en Balans zijn intussen wakker geworden. Ze zijn bezorgd dat GIRFEC leidt tot meer dwang en drang, ook in het kader van passend onderwijs.

Met GIRFEC in het achterhoofd krijgt een project als Smart Start een andere lading. Waarom gebruikt dat eigenlijk microdata? En op welke basis kan dat zomaar? Het is toch een preventief project op het vlak van jeugdhulp en onderwijs, dat aanbod wil realiseren – en geen statistisch onderzoek waarvoor het CBS de data onder strikte voorwaarden, en tegen betaling, beschikbaar stelt aan geautoriseerde instellingen?

Gekleurd model van de werkelijkheid

Overigens is het de vraag wat datascience vermag: kun je er kindermishandeling mee voorkomen? Roel Dobbe, postdoc bij het AI Now Institute, een interdisciplinair instituut van de New York University waar de sociale gevolgen van kunstmatige intelligentie wordt bestudeerd, denkt dat dit niet eenvoudig is: ‘Het probleem met big data-analyses in deze context is dat het de daadwerkelijke oorzaken van kindermishandeling negeert, er vaak geen ruimte is voor de kennis van experts, maar men zich in plaats daarvan baseert op ondoorgrondelijke “patronen in de data”.’ Veel factoren die in de VS met verwaarlozing in verband worden gebracht, hebben volgens hem slechts betrekking op de armoede waarin een kind opgroeit. Oftewel: een kind wordt niet uitgehongerd door zijn of haar ouders, maar krijgt door geldgebrek slecht te eten. ‘Deze structurele factoren worden vaak achterwege gelaten in een machine learning model, waardoor andere niet-oorzakelijke factoren als substituut dienen om een risicovol gezin aan te wijzen.’

Ook in Nederland worden uitingen van armoede als teken van kindermishandeling geduid. Zo wordt onvoldoende aandacht hebben voor de kleding van je kind als verwaarlozing bestempeld. Maar wat als je als alleenstaande moeder met slechts vijftig euro weekgeld moet uitkomen, bijvoorbeeld omdat je onder bewind staat? Dan duurt het wel even voordat je nieuwe schoenen voor je kind kunt aanschaffen.

‘Met algoritmen op z’n best correlaties vinden. Maar samenhang is iets anders dan causaliteit; je hebt er weinig aan. Het kan zelfs leiden tot valse, simplistische aannames’

De definitie van kindermishandeling luistert zodoende nauw, zeker wanneer een computer (potentieel) mishandelde kinderen met wiskundige modellen moet opsporen. In dit opzicht is interessant wat Cora Bartelink, gepromoveerd op besluitvorming van professionals in kindermishandelingszaken, constateerde. Risicotaxatie-instrumenten zouden de besluitvorming bij vermoedens van kindermishandeling maar beperkt helpen. Professionals redeneren onderling verschillend, betrekken niet allemaal dezelfde aspecten in hun afweging en komen daardoor tot uiteenlopende beoordelingen. Wat de een kindermishandeling noemt, hoeft dat voor een ander niet te zijn. Normen spelen een rol, opvattingen, cultuurverschillen. Professionals kunnen daar onderling over in gesprek gaan – computers niet. En dat is nu precies het grote manco aan de inzet van voorspellende algoritmen. Ze zijn niet waardenvrij.

Data-onderzoeker Cathy O’Neil, auteur van de bestseller Weapons of Math Destruction, is er duidelijk over: ‘Modellen zijn meningen verpakt in wiskunde’. Virginia Eubanks, politicoloog en auteur van Automating Inequality, die de impact van datascience op ‘poor and working-class people’ in de VS onderzocht, waarschuwt dat dit soort systemen onvermijdelijk de vooroordelen van hun ontwerpers belichamen. Het risico op stereotypering en discriminatie is groot, terwijl effectief toezicht daarop ontbreekt. ‘We praten over [algoritmes en computermodellen] alsof er geen menselijke beslissingen zijn genomen, en de uitkomsten zuiver objectief zijn – maar het is helemaal mensenwerk, met aannames over hoe een veilig gezin eruit ziet,’ zegt Eubanks.

Ook Dobbe waarschuwt voor het subjectieve karakter van zulke tools: ‘Het idee dat je tekenen van mishandeling kunt opsporen in JGZ-dossiers is naïef en gevaarlijk. Wanneer je niet nauwgezet in kaart hebt gebracht (en getoetst) welke oorzakelijke factoren er precies zijn, kun je met algoritmen op z’n best correlaties vinden. Maar samenhang is iets anders dan causaliteit; je hebt er weinig aan. Zo te werk gaan kan zelfs leiden tot valse, simplistische aannames over signalen van mishandeling. Erger: het kan zelfs een nieuwe basis leveren om bestaande stigma’s en vormen van discriminatie te onderbouwen of weg te moffelen.’

Het algoritme beïnvloedt de medewerkers

Eubanks ontdekte nog iets anders. Maatschappelijk werkers van een Amerikaanse hotline, die na een telefonische melding van kindermishandeling moesten bepalen of de zorgen terecht waren, gingen hun handelen gaandeweg afstemmen op het voorspellende risicomodel. Wanneer het algoritme een hogere risicoscore berekende dan ze zelf hadden vastgesteld, dachten ze al snel dat ze kennelijk iets over het hoofd hadden gezien. Sommigen wilden hun ‘risk-assessment’ zelfs bijstellen wanneer het algoritme een hoger risico aangaf.

In dit licht is het zorgelijk dat GGD’en, voorafgaand aan het contact met ouders en kinderen, dossiers door Ynformeds detectietool laten screenen, zoals het bedrijf stelt. Als het algoritme meent dat er iets mis is, krijgen medewerkers een seintje zodat zij zich extra kunnen voorbereiden op het komende contact. De kans dat het algoritme het gedrag van de JGZ-medewerkers zal sturen, neemt zo alleen maar verder toe.

Lees verder Inklappen

Over de grens

In andere landen zijn diverse datascience-projecten om kindermishandeling te voorkomen of vroegtijdig te signaleren, jammerlijk mislukt. In Engeland werden de gegevens van 377.000 jeugdzorgcliënten – buiten hun medeweten – gebruikt om een signaleringstool te ontwerpen. Het systeem zou geld moeten besparen in een tijd van financiële tekorten. Omdat het dure project echter te weinig risk alerts opleverde (er waren dus vastgestelde targets) werd het voortijdig beëindigd. Bij de ontwikkeling van een model in Nieuw-Zeeland bleek dat het algoritme bijna 70 procent van de kinderen foutief als hoog-risicogeval aanmerkte.

‘Het risico op schade is groot en alles is gebaseerd op de aanname dat overheidsinterventies positief uitpakken’

Maar hoe moet het dan wel? Roel Dobbe pleit voor een pas op de plaats. ‘De ontwikkeling gaat te snel. Het risico op schade is groot en alles is gebaseerd op de aanname dat overheidsinterventies positief uitpakken, terwijl die evengoed zeer negatieve gevolgen kunnen hebben voor gezinnen, zelfs als dit soort systemen bedoeld zijn om hen te helpen. Er moet tevens meer verantwoording en transparantie komen bij het formuleren van de doelen van dergelijke tools, het ontwerp en de implementatie ervan.’

Dobbe is niet de enige die pleit voor meer verantwoording en transparantie. In september 2019 nam de Tweede Kamer een motie aan van D66 en het CDA voor een meldplicht van ‘ingrijpende algoritmen’ die door overheden en overheidsinstanties worden gebruikt. D66 pleit daarnaast voor een ‘algoritme-autoriteit’, een onafhankelijke instantie die het gebruik van algoritmen bij de overheid controleert.

Het zijn goede stappen, die ook impact kunnen hebben op het jeugddomein – al zal een programma als Smart Start er vermoedelijk weinig hinder van ondervinden: dat is immers geen overheidsinitiatief. Maar wanneer datascience in het jeugddomein de vrije hand houdt, is de kans groot dat gezinnen steeds meer gevolgd en ‘transparanter’ worden gemaakt. Het is niet ondenkbaar dat dit de autonomie van ouders zal inperken, en dat het aantal kinderen en gezinnen met een onterecht ‘vlaggetje’ achter hun naam rap zal groeien. FTM liet eerder zien wat een ellende dat kan veroorzaken.

Ook zal de jeugdhulp nog verder verstopt raken, terwijl medewerkers nu al overbelast zijn en gezinnen maanden moeten wachten op hulp. Het meest zorgelijk is dat kinderen en ouders die de hulp het hardste nodig hebben, daardoor steeds verder in de problemen zullen komen. Hun kansenongelijkheid zal niet af-, maar toenemen. En zo worden door de wens op te komen voor de belangen van kinderen uiteindelijk hun rechten geschaad. 

Naschift: ‘Kansen in de Kindertijd’-onderzoeker Bastian Ravesteijn wees FTM erop dat er niet 4 GGD’en deelnemen aan het onderzoek, maar 4 GGD’en en thuiszorgorganisaties. Wat betreft de ontbrekende toestemming van ouders voor het gebruik van gegevens over hun kinderen, benadrukt hij dat is afgesproken dat de vier deelnemende organisaties op hun website zouden vermeldden dat gepseudonimiseerde gegevens over de kinderen worden gebruikt voor wetenschappelijk onderzoek bij het CBS en dat ouders hun toestemming kunnen onthouden (‘opt-out’).

Deel dit artikel, je vrienden lezen het dan gratis

Over de auteur

Elize Lam

Zelfstandig onderzoeker en auteur bij Steunkracht en verbonden aan het lectoraat Jeugd en Gezin van de Hogeschool Ede.