Le président du MR propose aujourd'hui de confier aux algorithmes une partie des missions des mutuelles belges. Mais aux Pays-Bas, une histoire récente rappelle que la technologie peut transformer l'aide sociale en machine à broyer les familles les plus vulnérables.

Georges-Louis Bouchez ne fait pas dans la demi-mesure. Dans une récente interview sur LN24, le président du Mouvement réformateur défend "le recours à l'intelligence artificielle pour certaines fonctions assurées par les mutuelles, afin d'optimiser la réaffectation du personnel vers l'accompagnement en emploi". Une proposition qui s'inscrit dans sa vision d'une Belgique plus efficace, moins bureaucratique. Dans la même interview, le leader libéral déplore d'ailleurs "l'influence des mutuelles sur certains partis politiques, qui freinent les réformes", pointant du doigt ce qu'il perçoit comme des résistances corporatistes.

De prime abord, l'idée séduit par son apparente modernité. Remplacer une partie des tâches administratives par des algorithmes intelligents, libérer du personnel pour l'accompagnement humain, optimiser les coûts : sur le papier, la recette paraît parfaite. Mais à quelques centaines de kilomètres au Nord de Bruxelles, une histoire récente devrait tempérer cet enthousiasme technologique. Il s’agit de la toeslagenaffaire, le scandale des allocations familiales néerlandaises, et il illustre de manière saisissante la transformation de l'intelligence artificielle en arme de discrimination massive.

Quand l'algorithme devient juge et bourreau

L'histoire commence en 2013, dans les bureaux de l'administration fiscale néerlandaise (Belastingdienst). En 2009 éclate l’affaire De Appelbloesem, une fraude organisée permettant de percevoir des allocations familiales de manière délictueuse. Face à la pression politique pour lutter contre la fraude aux allocations familiales, les autorités déploient un système algorithmique révolutionnaire. L'objectif affiché : identifier automatiquement les demandes suspectes et débusquer les fraudeurs. Sur le principe, rien de révolutionnaire. Dans l'exécution, tout va dérailler.

Car l'algorithme cache un vice de fabrication majeur. Pour calculer le "score de risque" de chaque demandeur, le système intègre des critères pour le moins problématiques : la nationalité (néerlandaise ou étrangère), les "noms à consonance étrangère" ou encore la double nationalité. Ces variables transforment de facto l'outil en machine à profilage racial. "Dès le départ, la discrimination raciale et ethnique était au cœur de la conception du système algorithmique", conclut Amnesty International dans son rapport accablant].

Le mécanisme s'avère diablement efficace… à broyer des innocents. Les familles d'origine étrangère se retrouvent systématiquement épinglées par l'algorithme. Pire : le système apprend de ses propres "succès", s'auto-renforçant dans ses biais discriminatoires. "Le résultat ? Une boucle discriminatoire, au sein de laquelle les citoyens non-néerlandais étaient largement plus suspectés de fraude potentielle que les autres", détaille le rapport d'Amnesty[14][26].

Le naufrage humain

Les conséquences ne tardent pas à exploser. Entre 2005 et 2019, quelque 26 000 parents sont, à tort, accusés de fraude. L'administration leur réclame brutalement le remboursement intégral des allocations perçues, parfois des dizaines de milliers d'euros. Sans possibilité d'échelonnement, sans recours, sans explications. "Presque personne n’a échappé au rouleau-compresseur de la bureaucratie", résuma amèrement Menno Snel, le ministre démissionnaire, dans une allocution publique.

Le drame humain qui se joue dépasse l'imaginable. Natalie, une des victimes, témoigne de l'effondrement de sa famille : "J’étais tellement stressée et déprimée”. Son mariage n'y survit pas. Pire encore : plus de 2 000 enfants sont retirés de leur foyer familial et placés en institution, leurs parents soudain considérés comme "inaptes" par les services sociaux qui découvrent leurs "dettes" envers l'État.

L'ampleur des dégâts sidère même les observateurs les plus aguerris. Familles ruinées, expulsions de logements, divorces en cascade, dépressions : l'algorithme censé protéger l'argent public broie méthodiquement des milliers de vies. "Des milliers de vies furent brisés par un processus inique, utilisant un algorithme discriminatoire basé sur des paramètres racistes", dénonce Merel Koning, experte d'Amnesty International.

La boîte noire de l'irresponsabilité

Plus inquiétant encore : l'opacité totale du système. L'algorithme fonctionne en "boîte noire", ses calculs restent impénétrables même pour les fonctionnaires chargés de l'appliquer. Quand une famille se voit accusée de fraude, impossible de comprendre pourquoi. Les agents eux-mêmes naviguent à l'aveugle, appliquant des décisions qu'ils ne comprennent pas.

Cette opacité crée un vide béant en matière de responsabilité. "Ce système de boîte noire a permis de créer un trou béant en matière de responsabilité", résume Merel Koning. Les fonctionnaires rejettent la faute sur leurs supérieurs, lesquels pointent du doigt les ministres, lesquels renvoient vers l'administration. Un jeu de chaises musicales qui perdure des années, pendant que les familles, elles, sombrent.

Sandra Palmen, juriste en chef du service des allocations, tente pourtant d'alerter les autorités dès 2017. Dans un mémo resté célèbre, elle qualifie de "laakbaar" (répréhensible) le comportement de l'administration et réclame des compensations pour les victimes. Sa hiérarchie enterre le rapport. "Il m'a été assez rapidement fait comprendre que mon avis ne serait pas suivi", témoigne-t-elle plus tard. Elle envisage même de devenir lanceuse d'alerte, mais renonce.

L'onde de choc politique

Le scandale finit par éclater au grand jour en septembre 2018, grâce aux révélations de RTL Nieuws et du quotidien Trouw. L'enquête parlementaire qui suit accouche d'un rapport au titre évocateur : "Ongekend onrecht" (Une injustice sans précédent). Les conclusions sont édifiantes : l'affaire "violait les principes fondamentaux de l'État de droit".

La déflagration politique est immédiate. Menno Snel, secrétaire d'État aux Finances, démissionne dès décembre 2019. Mais la pression monte. En janvier 2021, c'est l'ensemble du gouvernement de Mark Rutte qui jette l'éponge, reconnaissant implicitement sa responsabilité collective dans le désastre. Une chute retentissante pour un scandale technologique.

Les leçons belges

Cette tragédie néerlandaise résonne étrangement avec les ambitions de Georges-Louis Bouchez pour la Belgique. Car si l'idée d'optimiser les mutuelles via l'intelligence artificielle peut séduire, elle charrie aussi des risques considérables. L'exemple de la toeslagenaffaire démontre que des algorithmes mal conçus peuvent reproduire et amplifier les biais humains, transformant l'efficacité recherchée en machine discriminatoire.

D'autant que la Belgique n'est pas immunisée contre ces dérives. Un rapport de la Ligue des droits humains souligne que "en Belgique, citons par exemple l'utilisation policière de la reconnaissance faciale pour identifier des suspects, les algorithmes utilisés en Communautés”. Le pays expérimente déjà diverses formes d'automatisation dans ses services publics, souvent sans garde-fous suffisants.

Le gouvernement fédéral a bien lancé son plan "AI4Belgium", doté d'un budget d'un milliard d'euros d'ici 2030. L'ambition affichée : faire de la Belgique "le centre européen de l'IA dans les soins de santé". Mais dans cette course à l'innovation, évitons de répéter les erreurs néerlandaises.

L'impératif de transparence

Car le véritable enseignement de la toeslagenaffaire ne réside pas dans le rejet de la technologie, mais dans l'exigence de transparence et l’intégration de personnes réelles dans cette automatisation. Les algorithmes publics ne peuvent plus fonctionner en boîtes noires, sans aucun humain dans la boucle, surtout quand ils traitent de droits sociaux fondamentaux. "Il est inquiétant de se rendre compte que les néerlandais ne sont pas les seuls à vouloir implémenter l’IA à toute hâte. De par le monde, les gouvernements se ruent dans une course à l’automatisation, avec peu d’égard pour les communautés marginalisées, qui en paient bien souvent le prix", avertit Merel Koning. 

Les Pays-Bas ont d'ailleurs tiré les leçons de leur échec. Depuis 2023, une autorité de contrôle des algorithmes veille au grain, s'assurant que les nouveaux systèmes respectent les droits fondamentaux. Un modèle que la Belgique ferait bien d'étudier avant de céder aux sirènes de l'automatisation tous azimuts.

Entre innovation et prudence

L'intelligence artificielle dans les services publics n'est ni un remède miracle, ni un poison mortel. C'est un outil puissant qui demande une gouvernance rigoureuse, des contrôles permanents et surtout une transparence totale sur ses critères de fonctionnement. La proposition de Georges-Louis Bouchez peut donc être étudiée, mais avec toute la prudence que commande l'expérience néerlandaise.

Car si l'efficacité administrative constitue un objectif louable, elle ne peut se faire au détriment de l'équité et des droits fondamentaux. Aux Pays-Bas, 26 000 familles ont payé le prix fort pour cette leçon. La Belgique a encore le temps d'apprendre sans reproduire leurs erreurs.