Tussen 2018 en 2026 heeft Reclassering Nederland een foutief risico-algoritme gebruikt dat het leven van tienduizenden mensen heeft beïnvloed. Dit is het volledige verhaal.
Oxford Risk of Recidivism (OxRec) is een algoritme dat de kans berekent dat een veroordeelde opnieuw in de fout gaat. Reclassering Nederland gebruikte dit instrument bij ongeveer 48.000 adviezen per jaar aan rechters.
Dit advies is niet zomaar een suggestie. Het bepaalt of iemand:
De Inspectie Justitie en Veiligheid publiceerde op 12 februari 2026 een vernietigend rapport. De conclusie: het algoritme voldoet op bijna geen enkel vlak aan de normen voor overheidsalgoritmes.
| Probleem | Gevolg |
|---|---|
| Formules verwisseld | Het model berekende risico's systematisch verkeerd |
| Verouderde Zweedse data | Getraind op dataset die niet representatief is voor Nederland |
| Drugsproblematiek ontbrak | Een van de sterkste recidive-indicatoren niet meegenomen |
| Psychische aandoeningen genegeerd | Ernstige psychische problemen speelden geen rol in risico-inschatting |
| Risico onderschat | Bij het grootste deel van de fouten was het risico te laag |
| Postcode & inkomen | Indirect etnisch profileren; buurt en salaris beïnvloeden het advies |
Het model zat er in ongeveer één op de vijf gevallen naast. Dat is een foutmarge van 21% bij beslissingen die over vrijheid of opsluiting gaan. Dat is onacceptabel in een rechtsstaat.
Westerik erkende dat er binnen haar organisatie onvoldoende kennis was over algoritmes en het onderhouden daarvan. Ze gaf toe dat de onderbouwing voor het meewegen van postcode en inkomen ontbrak.
Toch achtte zij de kans dat er foute beslissingen waren genomen "heel erg klein".
De slachtoffers zijn niet abstract. Het zijn vaders die hun kinderen niet mogen zien op basis van een foutieve code. Het zijn jongeren die langer in de cel zitten dan nodig. Het zijn mensen met psychische problemen die geen hulp kregen omdat het algoritme dat risico niet herkende.
Het gaat om 80.640 mensen tussen 2018 en 2026. Velen van hen wisten niet eens dat hun leven was beïnvloed door een algoritme dat op Zweedse data was getraind, met verwisselde formules, door een organisatie die zelf toegeeft dat ze er niet genoeg van wist.
Ben jij één van de 80.640 slachtoffers?
Schrijf je in voor de collectieve actieSluit je aan bij de WAMCA-collectieve actie. Inschrijving vanaf €15.
Betaal €15 Betaal €25Deel dit verhaal
Twitter / X Facebook LinkedIn WhatsApp EmailBetrouwbare hosting vanaf €1.99/maand - perfect voor je project
Start met Hostinger Hosting →💡 Dezelfde hosting die wij gebruiken voor deze website