De voorzitter van de MR stelt voor om algoritmen een deel van de taken van de Belgische ziekenfondsen toe te vertrouwen. Maar in Nederland herinnert een recente geschiedenis eraan dat technologie de sociale hulpverlening kan veranderen in een machine die de meest kwetsbare gezinnen vermorzelt.
Georges-Louis Bouchez doet niet aan halve maatregelen. In een recent interview op LN24 verdedigt de voorzitter van de Mouvement réformateur "het gebruik van kunstmatige intelligentie voor bepaalde functies die door de ziekenfondsen worden uitgevoerd, om de herallocatie van personeel naar werkbegeleiding te optimaliseren". Een voorstel dat past in zijn visie van een efficiënter, minder bureaucratisch België. In hetzelfde interview betreurt de liberale leider overigens "de invloed van ziekenfondsen op bepaalde politieke partijen, die hervormingen afremmen", wijzend op wat hij beschouwt als corporatistische weerstand.
Op het eerste gezicht verleidt het idee door zijn schijnbare moderniteit. Een deel van de administratieve taken vervangen door intelligente algoritmen, personeel vrijmaken voor menselijke begeleiding, kosten optimaliseren: op papier lijkt het recept perfect. Maar enkele honderden kilometers ten noorden van Brussel zou een recente geschiedenis dit technologische enthousiasme moeten temperen. Het betreft de toeslagenaffaire, het Nederlandse kinderopvangtoeslagschandaal, en het illustreert op aangrijpende wijze hoe kunstmatige intelligentie kan veranderen in een wapen van massadiscriminatie.
Het verhaal begint in 2013, in de kantoren van de Nederlandse Belastingdienst. In 2009 barst de affaire De Appelbloesem los, een georganiseerde fraude waardoor op frauduleuze wijze kinderopvangtoeslag kon worden ontvangen. Geconfronteerd met politieke druk om fraude met kinderopvangtoeslag te bestrijden, zetten de autoriteiten een revolutionair algoritmisch systeem in. Het gestelde doel: automatisch verdachte aanvragen identificeren en fraudeurs ontmaskeren. In principe niets revolutionairs. In de uitvoering gaat alles ontsporen.
Want het algoritme verbergt een grote fabricagefout. Om de "risicoscore" van elke aanvrager te berekenen, integreert het systeem op zijn zachtst gezegd problematische criteria: nationaliteit (Nederlandse of buitenlandse), "buitenlands klinkende namen" of dubbele nationaliteit. Deze variabelen transformeren de facto het instrument in een machine voor racial profiling. "Vanaf het begin stond raciale en etnische discriminatie centraal in het ontwerp van het algoritmische systeem", concludeert Amnesty International in haar vernietigende rapport.
Het mechanisme blijkt duivels effectief... in het vermorzelen van onschuldigen. Gezinnen van buitenlandse afkomst worden systematisch aangewezen door het algoritme. Erger nog: het systeem leert van zijn eigen "successen" en versterkt zichzelf in zijn discriminerende vooroordelen. "Het resultaat? Een discriminerende lus, waarbij niet-Nederlandse burgers veel meer werden verdacht van potentiële fraude dan anderen", detailleert het Amnesty-rapport.
De gevolgen laten niet lang op zich wachten om te exploderen. Tussen 2005 en 2019 worden ongeveer 26.000 ouders ten onrechte beschuldigd van fraude. De administratie eist van hen brutaal de volledige terugbetaling van de ontvangen toeslagen, soms tienduizenden euro's. Zonder mogelijkheid tot spreiding, zonder verhaal, zonder uitleg. "Bijna niemand is ontsnapt aan de stoomwals van de bureaucratie", vatte Menno Snel, de afgetreden minister, bitter samen in een openbare toespraak.
Het menselijk drama dat zich afspeelt overtreft het voorstelbare. Natalie, een van de slachtoffers, getuigt van de ineenstorting van haar gezin: "Ik was zo gestrest en depressief". Haar huwelijk overleeft het niet. Nog erger: meer dan 2.000 kinderen worden uit hun ouderlijk huis gehaald en in instellingen geplaatst, omdat hun ouders plotseling als "ongeschikt" worden beschouwd door de sociale diensten die hun "schulden" aan de staat ontdekken.
De omvang van de schade verbijstert zelfs de meest doorgewinterde waarnemers. Geruïneerde gezinnen, huisuitzettingen, echtscheidingen in cascade, depressies: het algoritme dat het publieke geld zou moeten beschermen vermorzelt methodisch duizenden levens. "Duizenden levens werden gebroken door een onrechtvaardig proces, dat gebruik maakte van een discriminerend algoritme gebaseerd op racistische parameters", klaagt Merel Koning, expert van Amnesty International, aan.
Nog verontrustender: de totale ondoorzichtigheid van het systeem. Het algoritme functioneert als een "zwarte doos", zijn berekeningen blijven ondoordringbaar zelfs voor de ambtenaren die het moeten toepassen. Wanneer een gezin beschuldigd wordt van fraude, is het onmogelijk om te begrijpen waarom. De ambtenaren zelf navigeren blind en voeren beslissingen uit die ze niet begrijpen.
Deze ondoorzichtigheid creëert een gapende leegte op het gebied van verantwoordelijkheid. "Dit zwarte doos-systeem heeft het mogelijk gemaakt om een gapend gat in de verantwoordelijkheidsketen te creëren", vat Merel Koning samen. De ambtenaren wijzen de schuld af op hun superieuren, die wijzen naar de ministers, die verwijzen naar de administratie. Een spel van stoelendans dat jaren duurt, terwijl de gezinnen wegzinken.
Sandra Palmen, hoofdjurist van de toeslagendienst, probeert toch al in 2017 de autoriteiten te waarschuwen. In een beroemd geworden memo kwalificeert zij het gedrag van de administratie als "laakbaar" (verwerpelijk) en eist compensatie voor de slachtoffers. Haar hiërarchie begraaft het rapport. "Het werd mij vrij snel duidelijk gemaakt dat mijn advies niet zou worden opgevolgd", getuigt zij later. Ze overweegt zelfs om klokkenluider te worden, maar ziet ervan af.
Het schandaal komt uiteindelijk in september 2018 aan het licht, dankzij onthullingen van RTL Nieuws en dagblad Trouw. Het parlementaire onderzoek dat volgt resulteert in een rapport met een veelzeggende titel: "Ongekend onrecht". De conclusies zijn verhelderend: de affaire "schond de fundamentele principes van de rechtsstaat".
De politieke ontploffing is onmiddellijk. Menno Snel, staatssecretaris van Financiën, treedt al in december 2019 af. Maar de druk neemt toe. In januari 2021 gooit de gehele regering van Mark Rutte de handdoek in de ring, daarmee impliciet zijn collectieve verantwoordelijkheid in de ramp erkennend. Een weergalmende val voor een technologisch schandaal.
Deze Nederlandse tragedie resoneert vreemd met de ambities van Georges-Louis Bouchez voor België. Want hoewel het idee om ziekenfondsen te optimaliseren via kunstmatige intelligentie kan verleiden, brengt het ook aanzienlijke risico's met zich mee. Het voorbeeld van de toeslagenaffaire toont aan dat slecht ontworpen algoritmen menselijke vooroordelen kunnen reproduceren en versterken, waardoor de gewenste efficiëntie verandert in een discriminerende machine.
Te meer daar België niet immuun is voor deze afwijkingen. Een rapport van de Liga voor Mensenrechten onderstreept dat "in België, laten we bijvoorbeeld het politiegebruik van gezichtsherkenning noemen om verdachten te identificeren, de algoritmen gebruikt in de Gemeenschappen". Het land experimenteert al met verschillende vormen van automatisering in zijn openbare diensten, vaak zonder voldoende waarborgen.
De federale regering heeft wel haar plan "AI4Belgium" gelanceerd, met een budget van een miljard euro tot 2030. De gestelde ambitie: van België "het Europese centrum maken van AI in de gezondheidszorg". Maar in deze race naar innovatie moeten we voorkomen dat we de Nederlandse fouten herhalen.
Want de werkelijke les van de toeslagenaffaire ligt niet in de afwijzing van technologie, maar in de eis van transparantie en de integratie van echte mensen in deze automatisering. Publieke algoritmen kunnen niet langer functioneren als zwarte dozen, zonder enige mens in de lus, vooral wanneer ze fundamentele sociale rechten behandelen. "Het is verontrustend om te beseffen dat Nederlanders niet de enigen zijn die AI in alle haast willen implementeren. Wereldwijd storten regeringen zich in een race naar automatisering, met weinig aandacht voor gemarginaliseerde gemeenschappen, die er vaak de prijs voor betalen", waarschuwt Merel Koning.
Nederland heeft overigens lessen getrokken uit zijn mislukking. Sinds 2023 houdt een toezichthoudende autoriteit voor algoritmen de wacht, en zorgt ervoor dat nieuwe systemen de fundamentele rechten respecteren. Een model dat België er goed aan zou doen te bestuderen voordat het zwicht voor de sirenen van automatisering op alle fronten.
Kunstmatige intelligentie in openbare diensten is noch een wondermiddel, noch een dodelijk gif. Het is een krachtig instrument dat rigoureuze governance vereist, permanente controles en vooral totale transparantie over zijn werkingscriteria. Het voorstel van Georges-Louis Bouchez kan dus worden bestudeerd, maar met alle voorzichtigheid die de Nederlandse ervaring gebiedt.
Want hoewel administratieve efficiëntie een lofwaardig doel is, kan dit niet ten koste gaan van billijkheid en fundamentele rechten. In Nederland hebben 26.000 gezinnen de hoge prijs betaald voor deze les. België heeft nog tijd om te leren zonder hun fouten te herhalen.