
Monitoring in de jeugdgezondheidszorg is al geruime tijd ingeburgerd: kinderen worden goed in de gaten gehouden. De nieuwe stap is om persoonlijke data over kinderen te combineren met die over hun ouders, hun buurt en hun sociale context, om zo ‘risicovolle’ situaties eerder op te kunnen sporen en wellicht zelfs te voorkomen. Big data wint inmiddels ook terrein binnen de jeugdhulp en het onderwijs. Elize Lam brengt een nieuw terrein in kaart.
-
In de jeugdgezondheidszorg (JGZ) en daarbuiten wordt gezocht naar manieren om problemen bij kinderen en gezinnen vroegtijdig op te sporen. Een van de manieren waarop dat gebeurt, is door de inhoud van elektronische kinddossiers te koppelen aan CBS-microdata (gegevens op persoons- en adresniveau). Ook worden algoritmes gebruikt om dossiers op ‘signalen’ te onderzoeken.
-
Organisaties die kinderrechten bepleiten, zoals het Kinderrechtencollectief, zijn voorstander van het koppelen van gegevens en het gebruik van microdata. Naar hun mening is dit nuttig om te toetsen of het VN-Kinderrechtenverdrag wordt nageleefd en om na te gaan of hulp of beleid aansluit bij de vraag.
-
Kinderen minutieus volgen gebeurt niet alleen in Nederland: Schotland begon daarmee al eerder, via het overheidsprogramma ‘Getting it right for every child’ (GIRFEC). Dit programma is zeer omstreden; inmiddels zijn delen ervan weer afgeschaft. De Schotse aanpak kan niettemin op groeiende aanhang in Nederland rekenen. Het ministerie van VWS liet de Tweede Kamer gisteren weten dat het geen reden ziet GIRFEC in Nederland in te voeren. Er zijn echter al gemeenten en instanties die met onderdelen ervan werken.
-
Niet alleen komen door big data steeds meer ouders en gezinnen onder een vergrootglas te liggen: er wordt inmiddels ook gespeurd naar mensen die nog geen gezin hebben, maar wel als potentieel kwetsbare ouder worden aangemerkt.
-
Daarnaast zijn zulke computermodellen minder objectief dan gedacht: ze incorporeren vaak vooroordelen, gaan uit van slecht gedefinieerde ‘signalen’ van mishandeling of verwaarlozing, en sturen bovendien de blik van professionals die ermee werken.
Het gebruik van big data is sterk in opmars binnen het jeugddomein. Niet alleen wordt steeds meer privacygevoelige informatie over ieder Nederlands kind vastgelegd in omvangrijke digitale bestanden, deze bestanden worden ook gekoppeld, en vervolgens geanalyseerd met behulp van datawetenschap (data science). Deze methoden zijn aanzienlijk geavanceerder dan traditionele statistische programma’s: ze kunnen meer informatie aan en leggen verbanden die eerder onmogelijk waren.
Ongemerkt kan zo het doen en laten van gezinnen minutieus gevolgd worden. En om problemen voor te zijn of op te sporen – denk aan kindermishandeling – worden risicoprofielen opgesteld die moeten voorspellen waar zulke problemen zich zullen voordoen. Getrainde algoritmen, een soort ingewikkelde wiskundige recepten, doorzoeken de computerbestanden vervolgens op tekenen hiervan.
Een treffend voorbeeld is het Brabantse programma Smart Start, dat een modelaanpak voor preventief beleid wil ontwikkelen: ‘Een programma om problemen in wijken eerder te signaleren en deze te voorkomen door het combineren van data en kennis.’ Smart Start begon in 2018, op initiatief van zorgaanbieder Sterk Huis, een hulpverleningsorganisatie voor kinderen en hun ouders. Samen met de regio Hart van Brabant, onderzoeksinstituut CentERdata en het Data Science Center van de universiteit Tilburg wil Sterk Huis niet alleen problemen aanpakken, maar ook ‘(risico’s op) complexe problemen bij kinderen en gezinnen vroegtijdig signaleren’. Smart Start wil dat doen door datascience-technieken, CBS-microdata (gegevens op persoons- en adresniveau) en andere kennis te combineren. Zo voert Smart Start een pilot uit op de Tilburgse basisschool de Zuidwester om via ‘predictive en prescriptive analytics’ te voorspellen welke leerlingen een potentieel risico lopen op mishandeling door hun ouders.
De groeiende belangstelling voor dit type aanpak heeft een aantal redenen. Allereerst leeft de overtuiging dat datagestuurd werken een slimme manier is om financiële middelen gerichter en effectiever in te zetten. In een tijd van krapte bij zowel gemeenten als zorgverleners zal dit velen als muziek in de oren klinken. De ontwikkeling van big data in het jeugddomein past daarnaast in het streven van de overheid om ieder kind optimale kansen te bieden. Je kunt er immers niet vroeg genoeg bij zijn wanneer je kinderen de goede start wilt geven die ze verdienen. Daarom is het verstandig (risico’s op) onveilige en onwenselijke opvoed- en opgroeisituaties te voorkomen, of die tenminste zo vroeg mogelijk op te sporen.
‘Kwetsbare’ ouders versus kansrijke start
Monitoring van kinderen en ouders is daarvoor onontbeerlijk. Die aanpak is inmiddels flink ingeburgerd. Volgens de richtlijnen van de beroepsgroep moet bijvoorbeeld elke verloskundige een zwangere vrouw een digitale vragenlijst laten invullen, waarin haar het hemd van het lijf wordt gevraagd. Dat gebeurt niet alleen om medische risico’s in te schatten, maar ook om na te gaan of zij het toekomstig ouderschap wel aankan. Artsen op huisartsenposten zijn verplicht om bij ieder kind met letsel een beknopte screeningslijst in te vullen, om vast te stellen of er wellicht kindermishandeling speelt. En wijkteammedewerkers moeten van de Inspectie een risicotaxatie-instrument gebruiken om de veiligheid van kinderen in ‘kwetsbare’ gezinnen vast te stellen. Het zou volgens de Inspectie te riskant zijn wanneer ze dit slechts doen op basis van ervaring of een (onderbuik)gevoel.
inmiddels is de speurtocht uitgebreid naar mensen die nog geen gezin hebben, maar wel als potentieel kwetsbare ouder worden aangemerkt
Op de achtergrond speelt nog iets anders. Het vertrouwen in ouders is in Nederland door een aantal gezinsdrama’s sterk gedaald, constateert Ido Weijers, emeritus hoogleraar jeugdbescherming. Dat afnemende vertrouwen en de groeiende drang naar monitoring zijn communicerende vaten, zo maakte Weijers in 2017 in NRC Handelsblad duidelijk: ‘Dit wantrouwen jegens ouders gaat gepaard met een streven naar het absoluut willen uitsluiten van risico’s. Deze morele paniek vormt de achtergrond van de invoering van een bonte verzameling screenings- en risicotaxatie-instrumenten. Typerend is hierbij de haast en het gebrek aan weloverwogen maatregelen. Iedereen bedenkt wat, zorgvuldig opgezette en wetenschappelijk begeleide pilots ontbreken, inzicht in ethische en juridische problemen blijft achterwege en de landelijke overheid wacht af.’
Zodoende liggen ‘kwetsbare’ ouders en gezinnen al jaren onder een vergrootglas. Waarschuwde Jo Hermanns, emeritus hoogleraar pedagogiek, in 2009 in zijn oratie nog dat er ‘een jacht lijkt te zijn ontstaan op “risicogezinnen”, die nog geen probleem zijn maar dat wel zouden kunnen worden,’ inmiddels is die speurtocht zelfs uitgebreid naar mensen die nog geen gezin hebben, maar wel als potentieel kwetsbare ouder worden aangemerkt.
Mede in dat kader lanceerde de rijksoverheid in 2018 het actieprogramma Kansrijke start, is ZonMw recent het landelijke onderzoeksproject Big data en kansrijke start begonnen, en ontwikkelt het Erasmus MC voor gemeenten een digitale Kwetsbaarheidsatlas. Die atlas visualiseert de wijken waarin ‘het (relatieve) risico op kwetsbaarheid onder (toekomstige) ouders hoger, lager of vergelijkbaar is met het gemeentelijk gemiddelde’. Al is deze ‘kwetsbaarheidscategorisering’ volgens het Erasmus MC niet herleidbaar tot individuele mensen, individuele burgers krijgen zo wel een label opgeplakt, uitsluitend omdat ze in een bepaalde wijk wonen.
Hoewel de inzet van datascience-technieken oogt als een intensivering en verfijning van eerdere vormen van monitoring, gaat deze aanpak aanzienlijk verder. Persoonsgegevens worden op grote schaal gekoppeld, omvangrijke hoeveelheden fijnmazige data worden geanalyseerd en er worden risicoprofielen ontwikkeld die vervolgens als zoekstrategie worden gebruikt. Het gevolg is dat ieder kind en iedere ouder onder toezicht kan komen te staan, al ligt de focus vooralsnog bij ‘hoogrisico-groepen’.
[Verslag NCJ van conferentie over datagedreven zorg]
De ambities van datagedreven jeugdgezondheidszorg
Een instantie die intensief met ‘big data’ werkt, is de jeugdgezondheidszorg (JGZ). De JGZ heeft nagenoeg alle kinderen in beeld en verzamelt al jaren systematisch zeer gedetailleerde informatie over elke 0- tot 18-jarige (en diens ouders) in een persoonlijk elektronisch kinddossier, ook wel bekend als het digitaal dossier jeugdgezondheidszorg (DD JGZ). Dat levert een schat aan informatie op voor datagedreven onderzoek. Daarom startte in 2010, in opdracht van het ministerie van VWS, de digitale databank Jeugd in Beeld (JIB). Inmiddels delen circa achttien van de vierenveertig JGZ-organisaties ‘hun’ anonieme gegevens met deze databank.
Als het aan de directeur van het Nederlands Centrum voor Jeugdgezondheid (NCJ) ligt, het kennis- en innovatiecentrum voor de sector, gaan er meer organisaties aan JIB meedoen. Anders betekent dat het einde van big-data onderzoeksprojecten als Kansen in de Kindertijd, vreest hij. Dit project, waarin vier GGD’en en economen van de Erasmus Universiteit samenwerken, beoogt kansenongelijkheid onder kinderen aan te pakken.
Voor Kansen in de Kindertijd gebruiken de onderzoekers data van 266.000 kinderen, echter zonder hun medeweten of die van hun ouders. Deze gegevens uit JIB zijn door het Centraal Bureau voor de Statistiek (CBS) gepseudonimiseerd en aan databestanden gekoppeld. De onderzoekers werken binnen een beveiligde CBS-omgeving met deze data. ‘Zo relateert het project gedetailleerde informatie over overgewicht, spraak-taalontwikkeling, psychosociale kenmerken en gezichtsvermogen aan gegevens over zorggebruik, jeugdhulp en onderwijsresultaten van kinderen, evenals aan het inkomen en de arbeidsmarktpositie van hun ouders,’ meldt het NCJ.
Geautoriseerde instellingen kunnen zelf onderzoek doen met de microdatabestanden van het CBS. Microdata zijn koppelbare gegevens op persoons-, bedrijfs- en adresniveau; inmiddels gaat het om 4150 datasets verspreid over circa 300 onderwerpen. Een groeiende groep onderzoeksafdelingen van ministeries en andere diensten, organisaties en instanties gebruikt inmiddels deze CBS-datasets.
In april vorig jaar vergaderde de Gebruikersraad van Microdataservices daarover: ‘Steeds vaker treedt [..] een spanningsveld op ten aanzien van overige taken van de betrokken instellingen zoals consultancy en interim management (bij private instellingen) maar ook opsporing, toezicht en handhaving (bij overheidsinstellingen). Bij overheidsinstellingen wordt de machtiging meestal verleend aan een statistische/onderzoeksafdeling als “statistische enclave”. In toenemende mate zien we hier dat voor microdata projecten medewerkers van elders in de organisatie worden “gedetacheerd”. Deze constructie is in het leven geroepen voor uitzonderingsgevallen maar wordt de laatste jaren bijna als gemeengoed toegepast.’
De ontstane situatie leidt niet alleen tot conflicterende belangen, maar kan ook de rechten van burgers schaden. Tijmen Wisman, rechtsgeleerde aan de VU: ‘Het lijkt mij enorm problematisch dat persoonsgegevens die zijn verstrekt op voorwaarde dat ze alleen worden gebruikt voor statistisch en wetenschappelijk onderzoek, inzichtelijk worden voor werknemers die zich bezighouden met processen waarbij zij beslissingen kunnen nemen die direct raken aan de rechtspositie van individuen (of dat nu een ontslag, vervolging of een andersoortige actie betreft).’ De data kunnen volgens Wisman ook worden gebruikt voor de ontwikkeling van risico-indicatoren die later alsnog iemand kunnen raken.
Het CBS heeft inmiddels besloten paal en perk te stellen aan deze wildgroei. Zo moeten organisaties voortaan garanderen dat de microdata niet toegankelijk zijn voor medewerkers die in hun dagelijks werk bij opsporing en handhaving betrokken zijn (al is het de vraag hoe het CBS dit kan controleren). Eind vorig jaar besloot het CBS bovendien te laten onderzoeken ‘of toegang voor externe onderzoekers tot zijn privacygevoelige data nog wel kan op de huidige wijze’.
Kinderrechten en microdata
Een van de voorstanders van het beleid om alle kinderen in beeld te brengen, is het Kinderrechtencollectief (een samenwerking van onder meer Defence for Children, Unicef Nederland en de Nationale Jeugdraad). Vorig jaar meldde het Collectief aan het VN-Kinderrechtencomité, ondersteund door ruim zeventig organisaties, dat Nederland volgens hen te weinig zicht heeft op (specifieke groepen) kinderen, en dat zij dit zorgelijk vinden.
De gegevens over kinderen staan ten dienste van het systeem, opdat het systeem hen vervolgens beter van dienst kan zijn
Het Collectief legt desgevraagd uit waarom het eraan hecht dat ‘alle kinderen in beeld’ komen. Dat hangt samen met het feit dat Nederland in 1995 het Kinderrechtenverdrag heeft ondertekend, zegt de coördinator: ‘Een land moet er dan voor zorgen dat alle wetten en regels zo worden aangepast dat zij voldoen aan de eisen die het verdrag stelt. En hiervoor is inzicht nodig in ontwikkelingen en (onderlinge) verschillen in de leefsituatie van kinderen. [..] Beschikbaarheid van data over het welzijn van álle kinderen in Nederland, stelt (lokale) overheden en ngo’s in staat goede interventies en beleid te ontwikkelen en te monitoren.’
In de visie van het Collectief is kinderen in beeld brengen een instrument om te toetsen of het Kinderrechtenverdrag wel wordt nageleefd, en om passend aanbod en beleid in Nederland te realiseren dat vervolgens weer met data gemonitord kan worden. Anders gezegd: de gegevens over kinderen staan ten dienste van het systeem, opdat het systeem hen vervolgens beter van dienst kan zijn.
Tijmen Wisman, rechtsgeleerde aan de VU en voorzitter van het Platform Bescherming Burgerrechten, betwijfelt of kinderen zo minutieus in beeld moeten komen: ‘Ieder kind wordt al bij de geboorte geregistreerd, gaat in principe naar de GGD en komt op school vanaf de leeftijd van 4 of 5 jaar. Je zou daarom kunnen zeggen dat kinderen al goed in beeld zijn.’ Het Collectief meent echter dat het ontsluiten van microdata over kinderen soms verstandig is, bijvoorbeeld om te weten welke hulp een kind krijgt en of die effectief is. Het Collectief ziet de wet op het CBS als oplossing voor de belemmeringen bij instanties om gegevens te delen.
Big data en privacy
Het delen en koppelen van zulke gevoelige informatie is aan banden gelegd via de Algemene Verordening Gegevensbescherming (AVG), waarin tevens is vastgelegd dat gegevens niet tot personen herleidbaar mogen zijn. Maar omdat Kansen in de Kindertijd een algemeen belang dient, valt het onder de uitzonderingsbepalingen van de AVG, vertelden de onderzoekers op een werkconferentie. En omdat het ondoenlijk is om honderdduizenden ouders te benaderen voor toestemming, mag dat achterwege blijven, stellen de onderzoekers. De werkwijze van het project zou uitvoerig juridisch zijn getoetst, en akkoord zijn bevonden door gespecialiseerde advocaten en juridisch adviseurs van het CBS.
Omdat het ondoenlijk is om honderdduizenden ouders te benaderen voor toestemming, mag dat achterwege blijven, stellen de onderzoekers
Tijmen Wisman bevestigt dat de AVG zulke uitzonderingen kent. Hij is nieuwsgierig naar de afweging in dit specifieke geval, maar die is niet bekend. ‘Het gegevensbeschermingsrecht zit vol open normen en die kunnen hier in het voordeel van de onderzoekers zijn geïnterpreteerd en toegepast, terwijl een advocaat van de ouders anders zou oordelen.’
Hij vraagt zich met name af waarom gepseudonimiseerde gegevens nodig zijn voor dit onderzoek. ‘Er wordt een code gebruikt, waarschijnlijk op basis van het BSN-nummer, om de data van de JGZ te koppelen met de data van het CBS. Maar op deze manier wordt een structuur opgetuigd waarbinnen gemakkelijk zeer uitgebreide dossiers van individuele kinderen kunnen worden opgesteld. Allemaal in het kader van de wetenschap.’ Wisman meent dat deze werkwijze de rechten van kinderen kan schaden.
Frappant genoeg verzekert de informatiesite over het digitale dossier JGZ dat het dossier uitsluitend wordt gebruikt binnen de JGZ. ‘JGZ-professionals hebben een geheimhoudingsplicht en het dossier mag alleen worden ingezien door de medewerker die rechtstreeks betrokken is bij de jeugdige.’ Nergens rept het NCJ, de beheerder van de site, over databanken, wetenschappelijk onderzoekers, of bedrijven die toegang hebben. Ouders wordt simpelweg nergens verteld dat informatie uit het dossier van hun kind elders gebruikt kan worden.
Het recht op privacy beschermt niet alleen de burger tegen willekeur van de staat, maar garandeert die bovenal controle over zijn eigen gegevens. Maar blijft dat recht overeind wanneer persoonlijke gegevens door derden worden verwerkt, zonder dat je daar zelf iets over te zeggen hebt, vraagt Wisman zich af. Hij vindt het opmerkelijk dat ouders geen toestemming is gevraagd omdat ze met zovelen zijn: ‘Ik weet niet hoe die gegevens worden doorgestuurd, maar het lijkt me in deze tijd van technologisch vernuft hooguit een kwestie van een vakje dat ouders kunnen aanvinken om toestemming te geven voor het gebruik van gegevens over hun kinderen.’
Al lijkt dit big data-project juridisch te zijn afgedekt, de vraag is wel wat de betrokken ouders (en kinderen) ervan vinden wanneer ze ontdekken dat hun dossier buiten hun medeweten door derden is gebruikt, en er zelfs koppelingen gemaakt zijn met hun persoonsgegevens. Eerder was er al onrust onder ouders over het elektronische kinddossier en de mogelijk afnemende privacy van hen en hun kinderen. Het zorgde er zelfs voor dat sommige ouders geen gebruik meer maken van de JGZ.
Op zoek naar mogelijk mishandelde kinderen
In 2015 ontwikkelde datascience-bedrijf Ynformed voor consultatiebureaumedewerkers van de GGD Amsterdam een detectietool om hen te helpen (vermoedens van) kindermishandeling te signaleren. Dit voorspellingsmodel werd ‘getraind’ met ongestructureerde teksten uit de dossiers van ruim 13.000 (bijna) 4-jarigen, geboren in de regio Amsterdam.
Bij een deel van hen, 657 kinderen (circa 5 procent), had de JGZ ooit mishandeling vermoed. Inmiddels was berekend dat dit een flinke ‘ondersignalering’ moest zijn. Deze ‘gelabelde’ kinderen zouden, zo werd aangenomen, slechts 25 tot 30 procent van de totale populatie vermoedelijk mishandelde kinderen binnen de onderzoeksgroep vertegenwoordigen. Anders gezegd: de betrokken professionals hadden 1500 tot 2000 ‘mogelijk mishandelde’ kinderen gemist.
Het succespercentage was gebaseerd op de beoordeling van slechts veertig dossiers door een aandachtsfunctionaris kindermishandeling
De algoritmes van Ynformed leerden vermoedens van kindermishandeling te signaleren. Controle door professionals wees uit dat het algoritme het in circa 80 procent van de gevallen bij het juiste eind had: ook zij constateerden een vermoeden van kindermishandeling. Alleen was dit succespercentage gebaseerd op de beoordeling van slechts veertig dossiers door een aandachtsfunctionaris kindermishandeling, en is niet bekend of het vermoeden inderdaad terecht was.
Hoewel deze opbrengst hoog lijkt, en eenzelfde succespercentage later ook zou zijn behaald bij het doorzoeken van andere dossiers, betekent het niettemin dat Ynformeds model er bij 1 op de 5 kinderen naast zat. Een schokkend hoog aantal, gezien de consequenties die een gerezen vermoeden van mishandeling kan hebben voor ouders en kinderen. Want de GGD moet zo’n signaal natuurlijk wel oppakken. En wat als de GGD daar geen tijd voor heeft? De werkdruk binnen de JGZ is immers hoog. Blijft het label – ‘mogelijke kindermishandelaar’ – dan aan deze ouders plakken?
Wat de kwestie extra wrang maakt: na de pilot met de detectietool werd geconcludeerd dat de ondersignalering door consultatiebureaumedewerkers – het probleem dat de tool moest tackelen – vooral voortkwam uit hun ambiguïteit over de definitie van kindermishandeling. Medewerkers kenden zodoende aan gedrag van kinderen en ouders uiteenlopende betekenissen toe, en hanteerden niet allemaal dezelfde definitie van kindermishandeling. Maar er werd wel een prognose berekend en een target vastgesteld dat koste wat het kost, zo lijkt, in de praktijk moest worden ‘herkend’.
Zet dat naast het gebruik van alle vertrouwelijke data, alle inspanningen (en stress?) van de betrokken GGD-medewerkers en de waarschijnlijk zeer omvangrijke projectkosten, betaald met gemeenschapsgeld; dan komt het ogenschijnlijke succes in een ander daglicht te staan.
"Ik had niet echt het gevoel dat ik ook nog rechten had in dat hele gebeuren"
Onterecht ingrijpen
Nora (15) weet als geen ander wat een onterechte melding van kindermishandeling met je doet. Ze is blij dat ze haar verhaal kan vertellen. Ik kom met haar in contact via de BVIKZ, een belangenvereniging voor zorgintensieve kinderen, die uitgebreid onderzoek deed naar onterechte meldingen bij Veilig Thuis, het advies- en meldpunt voor kindermishandeling en huiselijk geweld. (FTM schreef eerder over deze organisatie.) Nora is twaalf als haar broertje na de wekelijkse gewichtscontrole bij de kinderarts niet meer mee naar huis mag. Hun moeder zou niet te vertrouwen zijn, hem ziek maken. Nora kan er nog om huilen. ‘Je broertje wordt afgepakt, of zo.’ Na twee weken ziekenhuis wordt hij uit huis geplaatst, bij familie in de buurt.
Nora noch de andere kinderen in het gezin is ooit gevraagd of hun moeder hen wel eens ziek maakte. Nog steeds vindt Nora dat onbegrijpelijk. Het had haar moeder vrijgepleit, denkt ze. Het zou nog maanden duren, en verschillende rechtszaken, voordat vaststaat dat de verdenking van de kinderarts onterecht was. Pas dan komt haar broertje weer thuis wonen.
Het gebeuren heeft Nora diep geraakt. Ze heeft erge verlatingsangst ontwikkeld. Liefst zou ze elke minuut en elke seconde weten waar haar ouders en de andere kinderen van het gezin zijn, al begrijpt ze best dat dat niet kan.
Nora denkt dat Veilig Thuis en de kinderarts niet beseffen hoe erg ze haar en de andere kinderen van het gezin geraakt hebben. Ze vindt dat ze haar rechten hebben geschaad. Een gesprek dat zij en haar broer op hun initiatief hadden met Veilig Thuis leverde niets op, hun verslag ervan leek over een heel ander gezin te gaan. ‘Rechten had ik op dat moment niet, denk ik. Want als mijn verhaal zo wordt verdraaid, dan zijn mijn rechten weg als ik wil vertellen dat mijn ouders gewoon normaal zijn, of dat mijn broertje gewoon thuis kan blijven wonen. Ik had niet echt het gevoel dat ik ook nog rechten had in dat hele gebeuren.’ En omdat Nora bang is voor nog meer onwaarheden, vult ze de jaarlijkse vragenlijst van de JGZ sindsdien niet meer in
De invloed van het Schotse GIRFEC
Ook in het buitenland zorgt het nauwgezet volgen van kinderen en gezinnen voor problemen. Schotland is een treffend voorbeeld. Het idee voor het eerdergenoemde project Smart Start ontstond daar, in 2017, tijdens een studiereis van Nederlandse bestuurders uit het onderwijs, de jeugdhulp en gemeenten. Ze raakten geïnspireerd door het overheidsprogramma Getting it right for every child (GIRFEC) en de daarin vervatte visie op inclusief onderwijs en inclusieve zorg. Dat zou in Nederland ook moeten gebeuren, vond de Tilburgse delegatie. Zo worden Tilburg en de regio Hart voor Brabant een van de eerste Nederlandse GIRFEC-proeftuinen.
Opmerkelijk genoeg zorgde GIRFEC toen al jaren voor controverses in Schotland. Met name de ‘staatsvoogd’ die de overheid voor iedere nul- tot achttienjarige wil aanstellen – de zogeheten Named Person – valt niet in goede aarde, met name omdat die ouders mag overrulen. De campagne NO to Named Person (NO2NP) gaat van start, opgezet door tal van organisaties en gesteund door diverse wetenschappers.
‘Er bestaat een onverbreekbaar verband tussen de bescherming van het gezinsleven en de bescherming van democratische grondrechten’
Een rechtszaak tegen de Schotse overheid volgde. In 2016 verwierp het Britse Hooggerechtshof delen van de wet, deels omdat de Schotse regering haar bevoegdheden te buiten was gegaan, deels wegens de verregaande bevoegdheid van de wettelijk verplichte Named Person om persoonlijke informatie over kinderen te verzamelen en met allerlei organisaties te delen. Dit schendt het recht op familieleven en privacy, aldus het hof: ‘Er bestaat een onverbreekbaar verband tussen de bescherming van het gezinsleven en de bescherming van democratische grondrechten.’
In september 2019 trok de Schotse regering de verplichting in om voor elk kind een Named Person te benoemen. Tal van ouders en kinderen hebben dan al de wrange vruchten geplukt van het beleid. Bij NO2NP zijn een aantal schrijnende verhalen te lezen van ’staatsvoogden’ die onschuldige zaken als zorgwekkend betitelden en deelden met andere instanties. Zo werd in een rapport van 60 pagina’s duimzuigen en luiereczeem bij een peuter geproblematiseerd.
Nederlandse voorstanders van GIRFEC hebben nauwelijks oog voor de schaduwkanten ervan. Na meerdere studiereizen en door promotiepraatjes van Schotse consultants op Nederlandse congressen en bij gemeenten, groeit het animo. De gemeenschappelijke taal zal voor betere samenwerking zorgen, de liefde voor ‘onze’ kinderen verbindt, het draait om hun kansen, hun rechten. Wie kan daar nu op tegen zijn? En we nemen toch alleen maar elementen over die passen?
[De Nederlandse 'kansencirkel’, gebaseerd op het ‘wellbeing wheel’ van GIRFEC]
En zo wordt – onder leiding van het Nederlands Jeugdinstituut (NJi) – het Wellbeing Wheel, een GIRFEC-tool om het welbevinden van kinderen in kaart te brengen, binnen no time vertaald naar de ‘kansencirkel’. Deze tool, die ook eenvoudig als risicotaxatie-instrument gebruikt kan worden, wordt inmiddels in meerdere gemeenten ingezet. Haarlem neemt de kansencirkel zelfs als basis voor haar nieuwe Jeugdnota.
De gemeente Haarlem en anderen lijken te missen wat er onder de oppervlakte speelt: het risicodenken, het wantrouwen jegens ouders waarvoor Ido Weijers en Jo Hermanns eerder waarschuwden, het minutieus monitoren van alle kinderen en het koppelen van hun gegevens als een soort risicomanagement om hun welzijn te bevorderen. GIRFEC lijkt op een ideologie, doordrenkt van ‘vooruitgangspessimisme’ en ‘maakbaarheidsoptimisme’, om bestuurskundige en filosoof Rik Peeters te citeren. Wel zijn er verontruste ouders, die op social media, en in blogs en artikelen nadrukkelijk van zich laten horen. Ook belangenverenigingen als Ouders en Onderwijs, en Balans zijn intussen wakker geworden. Ze zijn bezorgd dat GIRFEC leidt tot meer dwang en drang, ook in het kader van passend onderwijs.
Met GIRFEC in het achterhoofd krijgt een project als Smart Start een andere lading. Waarom gebruikt dat eigenlijk microdata? En op welke basis kan dat zomaar? Het is toch een preventief project op het vlak van jeugdhulp en onderwijs, dat aanbod wil realiseren – en geen statistisch onderzoek waarvoor het CBS de data onder strikte voorwaarden, en tegen betaling, beschikbaar stelt aan geautoriseerde instellingen?
Gekleurd model van de werkelijkheid
Overigens is het de vraag wat datascience vermag: kun je er kindermishandeling mee voorkomen? Roel Dobbe, postdoc bij het AI Now Institute, een interdisciplinair instituut van de New York University waar de sociale gevolgen van kunstmatige intelligentie wordt bestudeerd, denkt dat dit niet eenvoudig is: ‘Het probleem met big data-analyses in deze context is dat het de daadwerkelijke oorzaken van kindermishandeling negeert, er vaak geen ruimte is voor de kennis van experts, maar men zich in plaats daarvan baseert op ondoorgrondelijke “patronen in de data”.’ Veel factoren die in de VS met verwaarlozing in verband worden gebracht, hebben volgens hem slechts betrekking op de armoede waarin een kind opgroeit. Oftewel: een kind wordt niet uitgehongerd door zijn of haar ouders, maar krijgt door geldgebrek slecht te eten. ‘Deze structurele factoren worden vaak achterwege gelaten in een machine learning model, waardoor andere niet-oorzakelijke factoren als substituut dienen om een risicovol gezin aan te wijzen.’
Ook in Nederland worden uitingen van armoede als teken van kindermishandeling geduid. Zo wordt onvoldoende aandacht hebben voor de kleding van je kind als verwaarlozing bestempeld. Maar wat als je als alleenstaande moeder met slechts vijftig euro weekgeld moet uitkomen, bijvoorbeeld omdat je onder bewind staat? Dan duurt het wel even voordat je nieuwe schoenen voor je kind kunt aanschaffen.
‘Met algoritmen op z’n best correlaties vinden. Maar samenhang is iets anders dan causaliteit; je hebt er weinig aan. Het kan zelfs leiden tot valse, simplistische aannames’
De definitie van kindermishandeling luistert zodoende nauw, zeker wanneer een computer (potentieel) mishandelde kinderen met wiskundige modellen moet opsporen. In dit opzicht is interessant wat Cora Bartelink, gepromoveerd op besluitvorming van professionals in kindermishandelingszaken, constateerde. Risicotaxatie-instrumenten zouden de besluitvorming bij vermoedens van kindermishandeling maar beperkt helpen. Professionals redeneren onderling verschillend, betrekken niet allemaal dezelfde aspecten in hun afweging en komen daardoor tot uiteenlopende beoordelingen. Wat de een kindermishandeling noemt, hoeft dat voor een ander niet te zijn. Normen spelen een rol, opvattingen, cultuurverschillen. Professionals kunnen daar onderling over in gesprek gaan – computers niet. En dat is nu precies het grote manco aan de inzet van voorspellende algoritmen. Ze zijn niet waardenvrij.
Data-onderzoeker Cathy O’Neil, auteur van de bestseller Weapons of Math Destruction, is er duidelijk over: ‘Modellen zijn meningen verpakt in wiskunde’. Virginia Eubanks, politicoloog en auteur van Automating Inequality, die de impact van datascience op ‘poor and working-class people’ in de VS onderzocht, waarschuwt dat dit soort systemen onvermijdelijk de vooroordelen van hun ontwerpers belichamen. Het risico op stereotypering en discriminatie is groot, terwijl effectief toezicht daarop ontbreekt. ‘We praten over [algoritmes en computermodellen] alsof er geen menselijke beslissingen zijn genomen, en de uitkomsten zuiver objectief zijn – maar het is helemaal mensenwerk, met aannames over hoe een veilig gezin eruit ziet,’ zegt Eubanks.
Ook Dobbe waarschuwt voor het subjectieve karakter van zulke tools: ‘Het idee dat je tekenen van mishandeling kunt opsporen in JGZ-dossiers is naïef en gevaarlijk. Wanneer je niet nauwgezet in kaart hebt gebracht (en getoetst) welke oorzakelijke factoren er precies zijn, kun je met algoritmen op z’n best correlaties vinden. Maar samenhang is iets anders dan causaliteit; je hebt er weinig aan. Zo te werk gaan kan zelfs leiden tot valse, simplistische aannames over signalen van mishandeling. Erger: het kan zelfs een nieuwe basis leveren om bestaande stigma’s en vormen van discriminatie te onderbouwen of weg te moffelen.’
Eubanks ontdekte nog iets anders. Maatschappelijk werkers van een Amerikaanse hotline, die na een telefonische melding van kindermishandeling moesten bepalen of de zorgen terecht waren, gingen hun handelen gaandeweg afstemmen op het voorspellende risicomodel. Wanneer het algoritme een hogere risicoscore berekende dan ze zelf hadden vastgesteld, dachten ze al snel dat ze kennelijk iets over het hoofd hadden gezien. Sommigen wilden hun ‘risk-assessment’ zelfs bijstellen wanneer het algoritme een hoger risico aangaf.
In dit licht is het zorgelijk dat GGD’en, voorafgaand aan het contact met ouders en kinderen, dossiers door Ynformeds detectietool laten screenen, zoals het bedrijf stelt. Als het algoritme meent dat er iets mis is, krijgen medewerkers een seintje zodat zij zich extra kunnen voorbereiden op het komende contact. De kans dat het algoritme het gedrag van de JGZ-medewerkers zal sturen, neemt zo alleen maar verder toe.
Over de grens
In andere landen zijn diverse datascience-projecten om kindermishandeling te voorkomen of vroegtijdig te signaleren, jammerlijk mislukt. In Engeland werden de gegevens van 377.000 jeugdzorgcliënten – buiten hun medeweten – gebruikt om een signaleringstool te ontwerpen. Het systeem zou geld moeten besparen in een tijd van financiële tekorten. Omdat het dure project echter te weinig risk alerts opleverde (er waren dus vastgestelde targets) werd het voortijdig beëindigd. Bij de ontwikkeling van een model in Nieuw-Zeeland bleek dat het algoritme bijna 70 procent van de kinderen foutief als hoog-risicogeval aanmerkte.
‘Het risico op schade is groot en alles is gebaseerd op de aanname dat overheidsinterventies positief uitpakken’
Maar hoe moet het dan wel? Roel Dobbe pleit voor een pas op de plaats. ‘De ontwikkeling gaat te snel. Het risico op schade is groot en alles is gebaseerd op de aanname dat overheidsinterventies positief uitpakken, terwijl die evengoed zeer negatieve gevolgen kunnen hebben voor gezinnen, zelfs als dit soort systemen bedoeld zijn om hen te helpen. Er moet tevens meer verantwoording en transparantie komen bij het formuleren van de doelen van dergelijke tools, het ontwerp en de implementatie ervan.’
Dobbe is niet de enige die pleit voor meer verantwoording en transparantie. In september 2019 nam de Tweede Kamer een motie aan van D66 en het CDA voor een meldplicht van ‘ingrijpende algoritmen’ die door overheden en overheidsinstanties worden gebruikt. D66 pleit daarnaast voor een ‘algoritme-autoriteit’, een onafhankelijke instantie die het gebruik van algoritmen bij de overheid controleert.
Het zijn goede stappen, die ook impact kunnen hebben op het jeugddomein – al zal een programma als Smart Start er vermoedelijk weinig hinder van ondervinden: dat is immers geen overheidsinitiatief. Maar wanneer datascience in het jeugddomein de vrije hand houdt, is de kans groot dat gezinnen steeds meer gevolgd en ‘transparanter’ worden gemaakt. Het is niet ondenkbaar dat dit de autonomie van ouders zal inperken, en dat het aantal kinderen en gezinnen met een onterecht ‘vlaggetje’ achter hun naam rap zal groeien. FTM liet eerder zien wat een ellende dat kan veroorzaken.
Ook zal de jeugdhulp nog verder verstopt raken, terwijl medewerkers nu al overbelast zijn en gezinnen maanden moeten wachten op hulp. Het meest zorgelijk is dat kinderen en ouders die de hulp het hardste nodig hebben, daardoor steeds verder in de problemen zullen komen. Hun kansenongelijkheid zal niet af-, maar toenemen. En zo worden door de wens op te komen voor de belangen van kinderen uiteindelijk hun rechten geschaad.
Naschift: ‘Kansen in de Kindertijd’-onderzoeker Bastian Ravesteijn wees FTM erop dat er niet 4 GGD’en deelnemen aan het onderzoek, maar 4 GGD’en en thuiszorgorganisaties. Wat betreft de ontbrekende toestemming van ouders voor het gebruik van gegevens over hun kinderen, benadrukt hij dat is afgesproken dat de vier deelnemende organisaties op hun website zouden vermeldden dat gepseudonimiseerde gegevens over de kinderen worden gebruikt voor wetenschappelijk onderzoek bij het CBS en dat ouders hun toestemming kunnen onthouden (‘opt-out’).
95 Bijdragen
Dinet Koopman 3
Karin Spaink 5
Dinet KoopmanDiana 30
Karin Spainkj.a. karman 5
Diana 30Het CBS kan geen gezondheidsonderzoek doen. Het ziekenhuis stelt die gegevens aan een onderzoeker ter beschikking en het cbs en andere bronnen geven het aan de onderzoeker.
Waar die onderzoeker onder valt is nog een vraag, het kan universitair zijn maar ook commercieel.
Diana 30
j.a. karmanOver microdata meldt het CBS het volgende;
You analyse the microdata of CBS from any secure workplace via a secure Internet connection (Remote Access). To do so, you will receive a personal token on loan. You will only have access to the data which are needed for your research. It is also possible to upload your own datasets and link these with CBS microdata. We will provide you with a secured working environment in which you can store draft versions, syntaxes and output. All the microdata will remain in this secured CBS environment. Exporting information from the secured environment requires the use of the export folder. If you wish to export (draft) results from the secured environment, CBS will check whether your results do not contain any disclosure risk. More details can be found in our output guidelines.
Ik heb niet eerder gehoord dat het CBS hier uitzonderingen op geeft, en indien wel gaan ze volgens mij tegen hun eigen regels in dus dat zou nader onderzoek waard zijn.
j.a. karman 5
Diana 30Je blijft verantwoordelijk dat het afgesloten en afgeschermd blijft.
Niet iedereen mag zomaar wat vragen en krijgt dat ook. Ik had niets anders verwacht.
Ja ik heb ook het nodige gezien en meegemaakt.
Wil je de analyses met gereedschap doen niet beschikbaar in die CBS omgeving dan moetl je het moeten exporteren. De standaard packages (R julia etc) zullen er mogelijk zijn.
Als je een eigen analyse met eigen tools wilt dan zal je daar niet mee weg komen.
Tim Gorree 3
j.a. karmanOm een grote datacollectie te hebben omdat het kan en niets kost, en tot taak hebben iedereen te voorzien van zoveel mogelijk relevante informatie bij het nemen van beslissingen is een ding waar wel degelijk eerst wettelijk toestemming voor vereist is.
Het zou zelfs legaal kunnen zijn, maar tegelijkertijd gevoelig voor misbruik en digitale datadiefstal met alle gevolgen van dien.
Wat op zichzelf een veiligheidsrisico kan betekenen.
Gegeven het feit dat men in de jeugdgezondheidszorg zelf intern met aan hen (al dan niet onder dwang) toevertrouwde kinderen, geplaatst in gemonitorde pleeggezinnen, men (oa. verbaal) geweld en (seksueel, economisch etc.) en misbruik niet kan voorkomen.
Eerst op transparante en controleerbare wijze de misstanden binnen de eigen organisatie op orde en aantonen dat kinderen daadwerkelijk in een betere leefomgeving terechtgekomen zijn en dat zelf ook ervaren.
Het vertrouwen in de organisatie gesteld verdienen.
Resultaten daarvan zouden in een periodiek onderzoek onder de kinderen zelf geanonimiseerd en jaarlijks publiekelijk gerapporteerd kunnen worden.
De organisatie dient haar publieke taak veel doelmatiger en transparanter te vervullen, waarbij publiekelijk verantwoording moet worden afgelegd over toegepaste gedragsnormen en motivaties van eigen beslissingen.
En dat is moeilijk
Ik kan me voorstellen dat er binnen die organisatie zelf mensen rondlopen die wanhopig zijn door een gebrek aan duidelijkeid en wellicht relevante kennis ontberen die nodig is voor het alleen in uiterste noodzaak drastisch ingrijpen in het leven van kind en gezin.
j.a. karman 5
Tim GorreeVerder is het dataverzamelen omdat het kan vrij kostbaar en zeker niet eenvoudig. Wat je kan vinden over ict projecten met iets wat lijkt op het onderwerp velig thuis is dat het om beperkte budgetten gaat met kleinschalige hoeveelheid aan gegevens. Vermoedelijk in Excel goed te realiseren. Niet bepaald iets om daarbij het geladen "de computer" heeft het gedaan en er is "big data onbegrijpelijke algoritme profilering" te bezigen.
Basʈian Ravesʈeijn
Diana 30Uw bewering is juist, de data ligt bij het CBS en is enkel toegankelijk voor mij en twee teamleden onder zeer strikte voorwaarden. De bewering hierboven van Karin Spaink, eindredacteur van dit artikel bij FTM, is dus onjuist. Mocht u nog vragen hebben, dan kun u mij mailen: ravesteijn@ese.eur.nl
Karin Spaink 5
Basʈian RavesʈeijnBasʈian Ravesʈeijn
Karin SpainkIk stel vast dat geen wederhoor is toegepast en dat een enkel, foutief en inmiddels gerectificeerd artikel van iemand die niet bij dit project betrokken is de basis heeft gevormd voor een groot aantal foutieve en onweersproken suggestieve beweringen in het artikel van mevrouw Lam.
Er zijn bij mijn weten geen andere bronnen over Kansen in de Kindertijd geraadpleegd door de auteur van dit stuk en daarmee wordt geen recht gedaan aan onze jarenlange inspanningen om op dit gebied uiterste, juridische en ethische, zorgvuldigheid te betrachten.
Zoals ik de hoofdredacteur van FTM in de week voorafgaand aan publicatie per e-mail heb medegedeeld, omdat ik van derden had vernomen dat dit artikel er aan kwam, had ik graag de kans gehad om fouten voorafgaand aan publicatie te corrigeren en inhoudelijk te reageren op beweringen en opgeworpen maar onbeantwoorde vragen over dit onderzoeksproject. Het verbaasde mij zeer dat het artikel gepubliceerd werd zonder dat dit was gebeurd.
Zie ook: https://www.rvdj.nl/weblog/de-mores-lasten-en-lusten-van-wederhoor
Met vriendelijke groet,
Bastian Ravesteijn
j.a. karman 5
Basʈian Ravesʈeijnhttps://www.ncj.nl/actueel/nieuws/artikel/minisymposium-kansen-in-de-kindertijd
Het moet een vreemde gewaarwording zijn, openheid over doel maatregelen en de betrokkenen dan dan zo'n heel ander verhaal zien verschijnen.
Jilbert
Karin Spainkhttps://www.cbs.nl/-/media/_pdf/2018/25/veilig-thuis.pdf
Elize Lam 1
JilbertDiny Pubben 9
Elize LamTim Gorree 3
JilbertMaria Ohoioeloen 4
We hebben als samenleving baat bij een gezonde sterke basis voor alle kinderen. Maar dan zouden we ons niet moeten richten op de risico’s maar op de versterkende elementen. Gebruik van data om inzicht te krijgen in wat werkt levert meer op dan big data om onduidelijke risico’s op te sporen.
Dus ga niet op zoek naar kindermishandeling maar wat werkt om kinderen gezond en gelukkig te laten opgroeien.
Roland Horvath 7
Maria Ohoioeloen1- Een schitterend idee: Eerder versterkende elementen opzoeken en minder de risico's.
We houden het nu te veel bij vernietiging bijvoorbeeld Snijden -Spuiten -Stralen -bij -kanker.
Risico's leiden in de regel naar behandeling als het niet is met vooral chemische stoffen van de Farma dan is het behandeling door medici en para medici. De patient is object geen subject.
De patient moet zich zelf redden, hij moet fysisch en eventueel psychisch sterker worden.
We moeten naar een bio geneeskunde in plaats van een vernietigende -.
Dat zelfde speelt in de landbouw. De gekke koeien van de gelijknamige ziekte worden verbrand. In plaats van met die dieren verder te kweken tot er een soort resulteert die zo goed als immuun is tegen de gekke koeien ziekte. Bij iedere ziekte doet zich mensen en dieren het verschijnsel voor dat ongeveer 10% immuun is voor de ziekte.
2- Dat betekent niet dat we naar een gezondheidsgeneeskunde moeten waarbij iedereen moet bij gestuurd worden die niet optimaal functioneert. Dat is werkverschaffing voor alle hulpverleners.
Het is ook een dictatuur waarin iedereen voortdurend behandeld en bekeken wordt. In die richting gaan de big data met altijd als excuus het heil van iedereen. Bijvoorbeeld gezichtsherkenning om boeven te vangen terwijl de bigdata vooral zullen dienen om de 99% te terroriseren.
De geneeskunde moet maar optreden bij ziekte maar in een zin, die positiever is dan nu.
3- Nog iets, de bigdata meten zich onfeilbaarheid aan. Dus minder respect voor bigdata.
Terwijl veel algoritmes minder nuttig zijn dan de wichelroede.
En de 'patient' moet meer gerespecteerd worden.
De macht verheerlijkt zichzelf en veracht de zwakke.
Bijvoorbeeld kindermishandeling moet opgezocht terwijl - veel massaler- de machtigen de armen en de zwakkeren terroriseren en dus mishandelen. De meeste armoede is nodeloos en moedwillig gecreëerd.
Pieter Jongejan 7
Roland HorvathGoed verwoord Roland. Zeventig jaar na de holocaust komen de excuses voor de rol, die de Nederlandse overheid tijdens de tweede wereldoorlog heeft gespeeld. De invoering van het persoonsbewijs met duimafdruk op de foto was een uitvinding van een Nederlandse ambtenaar. (en niet van de Duitsers). Deze technologie verklaart waarom meer dan 100.000 Nederlandse joden zijn vermoord. Veel meer dan in andere bezette Europese landen.
Vandaag krijgt big data de vrije hand om nieuwe "persoonsbewijzen met gezichtsherkenning" in te voeren. Deze technologie is nog erger dan de duimafdruk op de foto, want breder toepasbaar. Worden dwarsliggers de joden van morgen?
Mz59 7
Maria Ohoioeloenj.a. karman 5
Maria OhoioeloenGebruik van data om inzicht te krijgen wat werkt is ook big data het heet ook data science.
Elize Lam 1
Maria OhoioeloenGuido Leenders 6
Mz59 7
Guido LeendersGuido Leenders 6
Mz59Mz59 7
Guido LeendersPeet van der Velde
Het zou me niet verbazen dat we over een tijd meer van dergelijke systemen hebben voor de hele bevolking met een component dat zich richt op criminaliteit- en rebelliepotentieel zodat ongewensten van de maatschappij vroegtijdig 'bijgestuurd' kunnen worden. Verbaast mij eigenlijk dat dat nog niet is toegevoegd aan het systeem dat in het artikel wordt beschreven. Ik denk dat de overheid daar grof geld voor over heeft.
Jan Ooms 10
Peet van der VeldeOf erger nog; verkocht worden aan (zorg)verzekeraars.
Deze criminele organisaties hebben er 'goud-geld' voor over!
j.a. karman 5
Jan OomsSjoerd Nelissen 6
Peet van der VeldeFerry de Boer 7
Het is ook dweilen met de kraan open als van bovenaf een maatschappij wordt gecreëerd waardoor ouders soms ook gewoon te weinig tijd en middelen hebben voor die kinderen omdat ze bijvoorbeeld van twee banen amper rond komen.
O Pen 13
Dit is de kern denk ik. AI wordt gebruikt om analyse en gesprekken door medewerkers te vervangen. Dus niet als aanvulling maar als vervanging. Self learning systems 'leren' van menselijke data. Deze systemen kennen dus dezelfde vooroordelen als mensen. Veel gebruikers van AI hebben niet in de gaten dat AI ook menselijke vooroordelen hebben (sterker veel mensen hebben niet door hoeveel van ons eigen gedrag wordt beïnvloed door vooroordelen). Een goede professional en beleidsmaker moet hiervan op de hoogte zijn. Dat een professional gaat twijfelen aan de eigen deskundigheid en ervaring omdat het algoritme een andere uitkomst geeft, laat zien dat aan algoritmes te veel waarde wordt gehecht. Dat is echter niet alleen in de zorg zo; een vaak aangehaald voorbeeld is van rechters. Ook Guido Leenders' comment geeft aan dat Amazon recruitingtool vooroordelen in zich had. Omgang met algoritmes vereist veel kennis op psychologisch gebied, technisch gebied en op het werkgebied waarvoor het wordt ingezet. Het wordt echter vaak voorgesteld als gebruiksvriendelijk en alwetend. Dat is het zeker niet. Kostenbesparend zal het niet snel zijn maar in veel gevallen zou goed gebruik wel tot betere uitkomsten kunnen leiden. Het is dan nog de vraag tegen welke (maatschappelijke) kosten.
https://judicialstudies.duke.edu/2019/04/10-things-judges-should-know-about-ai/
j.a. karman 5
O PenEens het laat zien dat er een bias is over algoritmes en hulpmiddelen. De huidige bloedsuiker meter is een een ondoorgrondelijk algoritme maar uitstekend voor gebruik bij mensen met een suikeraandoening.
Elize Lam 1
O PenRoland Leusden 1
marcel 7
Roland LeusdenOverigens vind ik het een discussie in de rechtszaal waard of je een drugsverslaafde vrouw die eerder aangetoond heeft niet voor kinderen te kunnen zorgen niet TIJDELIJK zou mogen dwingen tot anticonceptie.
Roland Leusden 1
marcelj.a. karman 5
Roland LeusdenHet argument big data met een verwijzing naar verbieden van kinderen krijgen plaatst het in een context waar iets er bij gehaald wordt om een politiek doel er door te krijgen. Die methode is niet fraai, het werd op zeer foute wijze gebruikt in de geschiedenis.
Roland Leusden 1
j.a. karmanj.a. karman 5
Roland LeusdenHet is een vraag naar wat mensen drijft en waar een overtuiging op gebaseerd is.
Jan Ooms 10
marcelWaar leg je dan de grens? Tot waar mag je (als overheid) ingrijpen?
marcel 7
Jan OomsMz59 7
marcelDiana 30
Een klein beetje achtergrond over mijzelf; ik ben een data scientist bij een consultancy met de focus op het sociaal domein en woningmarkt. In dat kader heb ik de afgelopen jaren veel te maken gehad met CBS Microdata en ben ik 1 van de onderzoekers die hiermee mag werken.
Daarnaast ben ik ook afgestudeerd psychologe, met onderzoeksfocus, en heb een statistische achtergrond. Dit betekent dat ik als geen ander mij bewust ben van zowel de voordelen als de beperkingen van AI.
In de jaren dat ik werkzaam ben, is mij inderdaad hetzelfde opgevallen als anderen in dit draadje al hebben opgemerkt; veel 'data scientists' hebben niet die statische achtergrond en missen daardoor een stukje basis als het gaat om algoritmes. Ben je je bewust van de bias die in je data zit, en welk effect dat heeft op het model dat je dus aan het bouwen bent.? Maar ook; geen representatieve data beïnvloedt je onderzoek ook. Er kan een significant verschil zitten tussen mensen die wel aanvinken hun data te willen delen, en die dit niet willen.
Dit stukje ethiek en kennis rondom het gebruik van data en hoe je een goed onderzoek aanpakt is de laatste jaren zwaar onderbelicht (en staat de los van het goed kunnen coderen, of zoveel mogelijk programmeer-talen te leren). Hierin is zeker winst te behalen.
Wat betreft werken met CBS microdata; hier zit een waslijst aan (terechte) voorwaarden in. Zo moeten de resultaten van onderzoek dat gedaan wordt, openbaar worden gemaakt, gepubliceerd en makkelijk vindbaar zijn voor het publiek. Ook de omgeving waarin je werkzaam bent is volledig afgeschermd (dit maakt CBS natuurlijk niet immuun voor hacken, maar als onderzoeker zijn er iig veel stappen).
Een andere discussie is waar onderzoeksfocus moet liggen. Zelf ben ik geen voorstander van een focus op risico's, en zou daarom onderzoek naar effectieve 'interventies' st
Mz59 7
Diana 30Ingrid 115
Mz59Ingrid 115
Mz59Mz59 7
Ingrid 115Effectief handelen kan alleen op de basis van goede informatie, maar iedereen hier is tegen het verzamelen van zulke informatie.
Pieter Jongejan 7
Mz59Waarom zouden individuele gegevens van personen wel gebruikt mogen worden en individuele gegevens van bedrijven niet? Het argument is dat dan de concurrentieverhoudingen tussen bedrijven verstoord worden. Maar dat is toch precies wat er nu gebeurt bij gezinshuishoudingen. De zwakken verliezen nu van de sterken, omdat dit winstgevend is voor bedrijven.
Conclusie: Personen worden anders behandeld dan individuele bedrijven, omdat dit winstgevend is voor bedrijven.
Remedie: Verbied het verspreiden/doorverkopen van individuele gegevens door bedrijven en zet daar torenhoge boetes op of weiger markttoegang voor bedrijven die zich niet aan de privacy regels houden.
Hoe moet het verzamelen van big data van personen dan wel georganiseerd worden, teneinde op macro-niveau effectief te kunnen ingrijpen? (want je hebt wel een punt)
Via een overheidszoekmachine? Via verplichte overheidscookies? Via de belastingdienst of toch nog op de ouderwetse manier van enquêteren door het CBS?
Mz59 7
Pieter Jongejanj.a. karman 5
Diana 30j.a. karman 5
Diana 30Dat bepalen van een risicogroep is iets wat in dat geval ergens wringt, daar krijg ik de vinger zo niet achter. Met je laatste zin een onderzoek in effectieve interventies geef je een andere richting aan. Kun je daarover wat toelichten?
Diana 30
j.a. karmanIk erken wel de voordelen van risico-straficatie. Je hebt inderdaad de 'oorzaken' of het 'waarom' nodig, om effectief beleid te maken. Rücksichtlos een interventie bedenken zonder achtergrond heeft weinig nut denk ik. Maar, ik wil wel oppassen voor het toepassen voor hokjes.
Een voorbeeld uit een andere praktijk (wat helaas vaak gebeurt); veel bedrijven hebben van die kleuren-profielen gebaseerd op de Arbeidspsychologie. Hier zit wel een functie en een waarheid in. Echter, het gebruik ervan gaat mis doordat collega's roepen "Jij bent zo blauw/geel/whatever, dus... ". Waardoor vooroordelen en aannames alleen maar erger worden (wat vervolgens kan leiden tot Self-Fulfilling Prophecy), terwijl het idee is om juist communicatie te verbeteren.
Ditzelfde gevaar loop je ook bij het identificeren van risicogroepen in het sociaal domein, en is in mijn optiek onwenselijk. De risicogroepen (of eerder, de oorzaken) zouden aan de basis moeten liggen voor het ontwerp van een interventie, en moet niet het doel an sich worden. In plaats van daarom steeds nieuwe interventies te bedenken, laten we eens gaan kijken waarom sommige interventies wel of niet werken en hoe we deze kunnen verbeteren.
Zonder dat mensen ondertussen al als 'hopeloos' wordt bestempeld voordat er ook maar iemand aan de deur is geweest.
Nogmaals ik heb het antwoord hierop ook niet, maar wil voorkomen dat risicogroepen identificeren het doel op zich wordt.
j.a. karman 5
Diana 30Goed voorbeeld waar de bedoeling goed is maar de uitwerking niet met die HR profilering.
Met de oorzaken heb je ook iets fraais. Ze staan in het artikel genoemd als features die kennelijk belangrijke factoren zijn. Waarom dan niet meer op die oorzaken richten i.p.v. op de ingrijpende interventies. Dat is het lastige met beleidskwesties, er is al een actie bedacht waar een onderbouwing voor moet komen. Dat moet andersom.
Mz59 7
j.a. karmanj.a. karman 5
Mz59Een "statisch relevant uitspraak" wil zeggen dat er 5% onzekerheid is. dat wil zeggen 1 op 20 is fout. Het betekent ook dat als veel onderzoeken doet, er gevallen tussen zitten die onterecht als goed aangeduid worden. Statistiek en de verdelingen van je waar je gegevens over hebt is iets waar het te vaak niet echt correct gaat.
Met marketing, data science, big data, is er een andere overweging.
Dat is: Gegeven een beperkte capaciteit om ergens effort in steken, in welke gevallen waar je uit kan kiezen kun je dat het beste doen voor een gewenst resultaat. Dit is de kosten/baten lift. Je ziet dat het evalueren hier vaak met een bias fout gaat.
Kun je 100 gevallen nalopen van de 100.000 en heb met een willekeurige selectie een kans van 1 op 1000, dan mag je blij zijn als je iets vind. Kan er een voor selectie gemaakt worden van 1000 en vind iets bij 1 op de 20 dan heb je een geweldige lift en mag je rond de 5 gevallen verwachten. De foute gebezigde uitspraak is dat al die 1000 uit de voorselectie gevallen bij voorbaat aangewezen zijn. Ik ben voor het gemak van ronde getallen uitgegaan met 100 (1 op de duizend) gevallen die je moet hebben.
Mz59 7
j.a. karmanj.a. karman 5
Mz59Het allemaal willen voorkomen zal nooit lukken, je ziet altijd wat zaken niet. Dat is een acceptatiepunt hoe moeilijk het ook is. Je kan het op zijn best zoveel mogelijk zien minimaliseren. Met daarbij overwegingen naar beide kanten van een foute inschatting met de gevolgen. Onterecht ingrijpen is ook zeer ingrijpend.
Je kan met die kans inschatting op risico ook wat anders doen. Dat is die inschatting over de tijd proberen te volgen als de achterliggende verwerking onderbouwd een waarde van inschatting geeft kun je die proberen te volgen en daaruit beleid (hulp ondersteuning) overwegen.
Elize Lam 1
Mz59Mz59 7
Elize LamElize Lam 1
Mz59Mz59 7
Elize LamAnca Buit
Diana 301. huisvesting. Geef ouders en kinderen een fatsoenlijke woning (zonder schimmel, zonder al te veel geluidsoverlast en vooral zonder de dreiging eruit te moeten)
2. voorkom armoede. Geef ouders een fatsoenlijke, betrouwbare bestaanszekerheid die ruimte laat voor het zorgen voor hun kinderen. Basisinkomen of gewoon goed werk met heldere arbeidsvoorwaarden (denk aan ontslagbescherming, respect voor arbowetgeving, op tijd planbaar, met zorgverlof.) Hangt ook samen met punt 1: voorkom te hoge woonlasten
3. Onderwijs met voldoende, bevoegde, opgeleide docenten
Als we daar weer een paar flinke slagen in gemaakt hebben, dan kunnen we misschien weer eens verder kijken. Maar hier hebben we geen ingewikkelde privacydoorbrekende data science voor nodig.
j.a. karman 5
Anca Buitklopt, eens. Alleen om zoiets te kunnen vaststellen moet je wel iets kunnen vaststellen en in overzichten met verwachtingen weergeven. Dat is nu net hetgeen wat je zegt niet nodig te hebben.
JMB
Met welk wereldbeeld van de 'voorstanders' van gebruik van big data vinden deze ontwikkelingen plaats?
Jan Ooms 10
JMBMet het neoliberale wereldbeeld dat hulpverlening en gezondheidszorg zo weinig mogelijk mogen kosten. Of de persoon in kwestie daarmee geholpen is of niet, doet eigenlijk niet ter zake. Die heeft zich maar te schikken naar de situatie.
j.a. karman 5
JMBHet wordt tegenwoordig gebruikt als "de zwarte piet" waar een hoger geplaatst persoon een beleidsvisie wil doorvoeren.
j.a. karman 5
Wat daarover in dit artikel staat is teveel op bias en aannames gedaan.
Het achterliggende echte probleem is die wens op volledige controle in het leven van anderen. Vroeger was dat via de kerk en gemeenschap een opgedrongen iets waar niet aan viel te ontkomen. Wat dat betreft is er weinig veranderd.
Je moet de vraag stellen of je de zware controle over anderen wel wil en welke grens je daarbij wilt hanteren. Ja er is echt een grens waar je wel wil dat er ingegrepen wordt. Jaren opgesloten mensen waarvan misbruikt gemaakt wordt is ver over wat acceptabel is.
Ik zou me ook zorgen maken over vele details welke centraal opgeslagen en verwerkt worden maar op een wijze die niet met zo veel details hoeft voor een algemeen doel. Daar zijn er nogal wat van, helaas omdat het kan waarbij niet overwogen is of het wel nodig is.
Elize Lam 1
j.a. karmanj.a. karman 5
Elize Lam- Volume - Velocity and/or variety
https://www.gartner.com/en/information-technology/glossary/big-data.
De techieken zijn niet echt goedkoop en niet makkelijk om het goed in te zetten.
Het is een technische insteek en niet meer dan dat. Bedoeld om een onderscheid te maken met het eenvoudige werk met lijsten waar een menselijke beslisser zelf conclusies uit haalt.
Daar zit ook het hele verschil als het goed gaat, de onvoorspelbare onbegrijpelijkheid van menselijke beslissers omzetten naar een begriipelijk en onderbouwd iets.
https://towardsdatascience.com/forget-the-robots-heres-how-ai-will-get-you-b674c28d6a34
Als je wijst naar big data als schuldige, dan zou ik graag een lijstje van de omvang van de gegevens welke gegevens en de gebruikte en technologiiën zien. Daarbij horen ook betrouwbaarheidsintervallen en verklaringen. Is daar niets van te vinden dan is het hoogst waarschjjnlijk gewoon die oude kaartenbak aanpak met een beslisser die een eigen doel heeft.
Een follow the money onderzoek zou zich kunnen richten op hst misbruik van het woord big data in het zoeken naar de werkopdrachten welke aangeboden worden. Je kent vast wel de smart blockchain oplossingen. Dat moest/moet een tijdlang ook overal bij projecten gebruikt worden.
De technologie wordt gebruikt om de werkelijke situatie te verhullen.
(Vervolg in een tweede deel van het antwoord, agile sprintje. Teven wat tekstuele verbetering)
j.a. karman 5
Elize Lam1/ Met de Fyra hadden ze de schuld van het falen aan de computers kunnen geven.
Het ontwerp, de bouwinstructies de prestaties alles was daarin prima op orde en heel prettig het financiële plaatje was naar wens. Die stap was te opvallend geweest, te veel mensen hadden het door wat er echt gebeurde.
2/ Met de 737-max komt nu veel meer naar boven. Daar hadden ze ook geprobeerd het eerst op de software als "het probleem" te gooien. De gangbare reacties dat AI schuldig is.
https://www.ad.nl/binnenland/nederlandse-onderzoeker-als-boeing-naar-ons-had-geluisterd-was-het-anders-gegaan~a1daf792/ Achterliggend als echte werkelijke oorzaak blijkt een cultuur van besparingen en die van veranderingen te zitten. Snel een toestel met de zuinigere motoren op de markt zetten. Kwaliteitseisen zoals veiligheid, training van piloten er ondergeschikt aan makend.
Ik las je verhaal en miste alles over die kwaliteitseisen met de veranderingsdrang en gestelde doelen. Het ademt de sfeer uit dat alles veroorzaakt wordt door AI. Dat is zeer onwaarschijnlijk.
Martine Brackel 1
En als overheid geen digitale data dementie ontwikkelen.
Er is een verschil tussen (gecreëerde) werkelijkheid en realiteit.
M. Bousie 2
Maar wel een van de soort van als het niet om te huilen was, was het om te lachen. Vrolijke reisjes naar Schotland om opsporingsprogramma’s op te sporen. Het geloof in computers als tovermachines en algoritmes als god zelf.
Het volstrekte geloof in het eigen idee van wat een goed leven is en hoe dat te bereiken, en dat tot elke prijs willen doordrukken.
Hier zie je dat elke diversiteit in het publieke domein ontbreekt.
Mz59 7
M. BousieM. Bousie 2
Mz59Dat komt omdat dingen in een contekst gebeuren.
De ene klap is de andere niet.
Dat is afwegen. Net als het afwegen is wat iets zo de moeite waard maakt om iedereen te volgen in wat hij doet of mogelijk gaat doen.
Dat lijkt me erger dan elke kwaal. Vooral omdat die datahonger groeit en groeit. De data blijven bestaan, want je kunt ze altijd weer gebruiken voor de volgende misdaad die verzonnen wordt.
Of besloten wordt.
Mz59 7
M. BousieEn inderdaad: afwegen. Als we kindermishandeling verhinderen belangrijker vinden dan privacy, dan doen we het.
M. Bousie 2
Mz59Het zou aardig zijn als de algoritmen milieucriminelen opspoorden voordat ze hun misdaden beginnen.
Dat begint al in het klein. Dus als u wat plastic op straat gooit, is het de moeite u in de gaten te houden.
Misschien wordt morgen ontdekt dat appels ernstige schade opleveren voor de kindergezondheid. Dus de appel die u gister nog gebruikte voor de composthoop, is nu iets om in de gaten te houden.
Als je dit zo bekijkt, weet je natuurlijk nooit eigenlijk wat er allemaal precies gevaarlijk is, misdadig, laat staan hoe je dat allemaal kunt indiceren.
Dus dan is het misschien het handigst alles in de gaten te houden.
Gewoon voor de zekerheid.
Dat helpt ook tegen het euvel dat er soms meningsverschillen bestaan over wat precies een misdaad is en hoe zwaar die is. Als we dan alles in de gaten houden krijgt iedereen een beetje zijn zin.
Mz59 7
M. Bousieline 5
Mz59Zullen we ook dat dan maar op de politieke mensen, en acteurs en bedrijfs eigen diricteuren doen? Die die mishandelingen laten toestaan en (ieder voorzich eigen) laten voort bestaan, terwijl ZIJ WETEN/ en gebruiken en misbruiken?
Hoe denkt u daarover.
Want onderdrukt, vervalsing, niet over in de media, dood.
Ach ja trainen, we gaan voort/door, de andere kant op.
Echt, : je moet zo'n systeem trainen, zei diegene die "het willen".
Ik bedoel dus niet u , maar u gaat er evenwel iets mee in.
f. van Dam 6
Je ziet hier alweer misbruik ontstaan.
Jan Ooms 10
f. van DamSinds 1995 wordt bij de zgn. 'hielprik', bij baby's van enkele weken, het DNA alvast ILLEGAAL opgeslagen in een landelijke databank.
Wel zo handig als er ooit eentje de fout ingaat...
Guido60 4
Het blijft een gevaarlijke ontwikkeling dat een model zaken beoordeelt, een conclusie trekt en sturing geeft aan het gedrag van beoordelaars. Wat is de volgende stap in het bovengenoemde voorbeeld? Verplichte anticonceptie?
Marla Singer 7
Mocht u denken dat dit een nogal negatieve uitleg is dan kan het nog wel een tandje hoger. Zo'n systeem is ook ideaal voor criminelen om zwakke kinderen/gezinnen uit te kiezen waarbij ze weten dat ze weinig tegenwerking kunnen verwachten om kinderen waarbij het zicht verminderd is te ontvoeren en aan de hoogste bieder te verkopen. Denkt u dat dit onzin is en zelf geen jonge kinderen meer hebt zoek maar eens op 'UNICEF kinderhandel'. Want er zijn ondertussen medewerkers ontslagen en rechterlijk vervolgd. Ook in Nederland komt kinderhandel helaas voor.
Marla Singer 7
In al deze gevallen zou je op basis van anonieme gegevens patronen kunnen opsporen en zouden persoonlijke gegevens nooit gekoppeld hoeven worden. Met die patronen kun je vervolgens gericht vragen stellen aan kinderen en voogden/ouders en kan je altijd hun kant van het verhaal horen om zo een menselijk beeld te krijgen.
Het probleem is dat ze bij Jeugdzorg geen flauw benul hebben van de verregaande implicaties van wat zij denken dat zij nodig te hebben. De specialisten die zij inhuren willen maar wat graag (makkelijk) geld verdienen en kijken daar ook overheen. De instanties die daar wel over zouden moeten waken zullen vast wel een advies gegeven hebben wat waarschijnlijk gebagatelliseerd is omdat het systeem er zo nodig zou moeten komen. (Reden had ik in de voorgaande reactie gegeven)
Niet voor niets dat er massaal met positieve klinkende kretologie wordt geslingerd dat er indrukwekkend uit ziet maar in werkelijkheid mensenlevens kapot maakt. Daarom moest het allemaal ook stiekem want de mensen die eigenlijk beter wisten hebben hun mond niet opengedaan.
line 5
Marla SingerIk wil het even breder trekken, ook ouderen/volwassen vallen eronder. Zo ver zijn we al. Diana 30 heeft het wel wat door. Maar in mijn inziens niet helemaal. Want het gebeurt al. Zij schrijft : Hier zit een functie in en een waarheid. Dus zij loop achter. Ik persoonlijk vind dat we hier op aarde levens lessen leren, dat is niet in een computer te bedenken en toepassen. We hebben met z'n allen nog heel wat te leren. Dat het een gotspe is om via dat computer uit te vinden. Laat die computer voor af geprogrammeerde menselijke toe stand stoppen. Dan komen zij van zelf wel, en kunnen heel wat meer.
Marla Singer 7
lineDe bedoeling is om zoveel mogelijk te digitaliseren tot aan de mens aan toe. Die zou moeten integreren met computersystemen zodat er een perfect wezen zou onstaan dat alle problemen aan zou kunnen pakken. Het klinkt als een slecht plot van een jaren 60 sci-fi roman maar er zijn daadwerkelijk mensen die hier heilig in geloven en deze valse utopie ook najagen.
C. Tamsyn 4
Marla Singerhttps://youtu.be/aclY_G4jrDE
Paulina 1
Vorig jaar werd bekend dat 45% van de kinder mishandelingen door een alleenstaande ouder was.. Hele media ja 45% alleenstaande ouders dat is veel een groot risico moeten we ons op richten.. ze vergeten dan even dat 55% geen alleenstaande ouder was. kortom bigdata is best gevaarlijk in een jz situatie want in gezinnen waar niets aan de hand is komt veel stress door die "zogenaamde" hulp die je hele gezin ontwricht. Om nog maar niet te spreken van het chantage effect ervan.. Als de modellen bekend zijn kan iedereen daar misbruik van maken door valse meldingen te doen.. Want tja als je in het profiel van bigdata past maakt het niet meer uit of er niets van waar is wat de melder zegt..
Daarnaast het is in strijd met de wet.. in nederland ben je onschuldig totdat het tegendeel bewezen is met dank aan bigdata ben je nu schuldig tot dat je zelf je onschuld bewijst en probeer dat maar eens in een wereld waar de meningen van de melder zwaarder wegen dan die van de ouders en de kinderen.
Voorbeeld : bigdata zegt dat kinderen gem 7dgn per jaar ziek zijn.. Nu is er een kind vaker ziek, wordt dat gezien als kindermishandeling. Dat een kind een medische aandoening heeft maakt dan niet meer uit.. Onderzoek wordt gestart, gezin niet alleen ziek kind maar verder ontwrichting door jz.kinderen zijn geen eenheids worst passen niet allemaal in hetzelfde hokje en juist dat is wat bigdata doet kinderen in hetzelfde hokje plaatsen.
j.a. karman 5
Paulina 1Jouw lijstjes zijn niet eens door die molen gegaan, geen big data. Het zijn tel gegevens waar mensen op eigenzinnige zelf een verhaal bij gemaakt hebben.
Eveline Bernard 6
Tim Gorree 3
Ik bedoel daarmee dat wat ik mis in dit artikel is dat onderzoek heeft uitgewezen dat kinderen die uit huis worden geplaatst een veel hoger risico lopen om aan misbruik en (al dan niet verbaal) geweld bloot te worden gesteld.
Bovendien is het inmiddels een businessmodel geworden waarbij winsten worden gemaakt om kinderen onder de hoede te nemen.
Eigenlijk precies hetzelfde principe van wat we in de zorg zien gebeuren waarbij het opstrijken van winsten het primaire doel wordt.
Ook is het het zo dat men een veelvoud aan geld ontvangt aan een uithuisplaatsing van een kind, waarbij een kind dat opgroeit in een 1-ouder gezin of in een gezin met een zwakkere sociaal economische status ontzettend geholpen zou zijn met een fractie van dat geld.
Verder zouden kinderen in dergelijke situaties vaak veel beter af zijn als ze liefdevol zouden worden opgevangen in voor hen bekende en vertrouwde omgevingen zoals bijvoorbeeld bij familie of bekenden, in plaats van een molen in te gaan waarbij ze in een voor hen volledig onbekende omgeving worden geplaatst temidden van vreemden en leeftijdsgenoten die zelf met een complexe problematiek te maken hebben.
Het komt er op neer dat kinderen de facto worden gestraft en worden geplaatst in een omgeving die niet veel verschilt van een gevangenis.
Zie bv.: "De Commissie-Samson stelt vast dat jongeren die onder verantwoordelijkheid van de overheid in de jeugdzorg worden geplaatst onvoldoende beschermd worden tegen seksueel misbruik."
en
"Een groot deel van het seksueel misbruik blijft on- opgemerkt."
https://www.nji.nl/nl/Download-NJi/kwaliteitskader-voorkomen-seksueel-misbruik-in-de-jeugdzorg.pdf
C. Tamsyn 4
En de kinderen? Voor hen komt de hulp soms te vroeg, vaak te laat, een enkele keer helemaal niet. Soms is een slechte uitkomst misschien onvermijdelijk: kinderen die bij jeugdzorg terecht komen, verdrinken vaak al in de problemen. Maar te vaak is het de jeugdzorg zélf, waar iedereen zegt uitsluitend te handelen ‘in het belang van het kind’, die kinderen beschadigt. Een ongemakkelijke werkelijkheid voor de duizenden mensen die dagelijks werken om juist dat te voorkomen.
Pe. B. 2
Begint volgens mij al in dit wanstaltig economisch systeem dat wij gecreëerd hebben.
Beide ouders (moeten) werken en onze kinderen worden al bij ongeveer 3 maanden massaal uit huis geplaatst. En dat vinden we allemaal maar zo normaal.
De kindermishandeling begint daar, en ons economisch systeem is de grootste kindermishandelaar die er is. Creëert armoede, omdat welvaart belangrijker wordt geacht dan welzijn.
Big data is een uitwas daarvan.
Als ik deze ontwikkeling had voorzien, had ik mij laten steriliseren.
Zou me nu heel wat meer gemoedsrust geven.
Heb een autistische zoon, ben nu benieuwd wat er allemaal over ons is opgeslagen omdat we al jaren met allerlei instanties te maken hebben.
Gatverdamme.
F.J. Unger 4
Krijn ten Hove 1
Het aantal kinderen daalt, het aantal kinderbeschermingsmaatregelen stagneert en daalt zelfs licht en de tarieven voor de GI's staan onder druk. Hierdoor staan de GI' s onder grote financiële druk en vaak nauwelijks in staat hun lange termijn verplichtingen voor de overdadige bestuurderssalarissen en pensioenen, wagenpark, automatisering en huisvesting te kunnen voldoen. Faillissementen zijn nuet uit te sluiten. Onderzoek heeft al aangetoind dat 30% van de inkomsten van GI's niet naar zorg gaat maar nasr andere veelal dubieuze posten. En dat is niet allen aan administratieve lasten vanwege de transitie maar met name aan vaak exorbitante lange termijn verplichtingen in de overhead.
Door kinderen al vanaf hun geboorte te volgen en ontwikkelingen af te zetten tegen normen en waarden, die voor ieder individu anders is, kunnen kinderen op basis van, op voorhand al discutabele gronden (de een voedt zijn kind met een geloofsovertuiging op, de ander vanuit ecoligische motieven en weer een ander spirituele overwegingen) onder toezicht gesteld worden of uit huis geplaatst omdat een jeugdzorgwerker er andere ideen op na houdt. En daarmee rinkelt de kassa voor de GI's.
Het is niet voor niets dat Jeugdzorg Nederland, branchevereniging en lobbyist voor de GI's, groot voorstander is van de invoering van de Girfec. Een zeer kwalijke ontwikkeling omdat met de Girfec de vrijheden van ouders ingeperkt worden naar de normen en waarden van een pedagogisch medewerker, die een jeugdzorgwerker tenslotte is, en daarmee niet meer en minder is een gelagaliseerde manier om de marktwerking in de jeugdzorg berder uit te buiten en zo de veelal exorbitante beloningen van de Jeugdzorgbestuurders veilig te stellen....