SÉNAT DE BELGIQUE
________
Session 2017-2018
________
16 mai 2018
________
SÉNAT Question écrite n° 6-1869

de Jean-Jacques De Gucht (Open Vld)

au secrétaire d'État à la Lutte contre la fraude sociale, à la Protection de la vie privée et à la Mer du Nord, adjoint à la ministre des Affaires sociales et de la Santé publique
________
Fraude à l'aide sociale - Lutte - Utilisation d'algorithmes - Discrimination - Tranparence - Étude
________
mégadonnées
prestation sociale
aide sociale
fraude
travail au noir
traitement de l'information
traitement des données
application de l'informatique
________
16/5/2018Envoi question
6/6/2018Réponse
________
Aussi posée à : question écrite 6-1868
________
SÉNAT Question écrite n° 6-1869 du 16 mai 2018 : (Question posée en néerlandais)

Quatre communes néerlandaises utilisent déjà un algorithme pour déterminer quels citoyens s'adonnent à la fraude à l'aide sociale. Des enquêteurs sociaux contrôlent les personnes qui ont été désignées fraudeurs potentiels par le logiciel.

Les « décisions prises par des ordinateurs » suscitent une certaine inquiétude. Le secrétaire d'État néerlandais Raymond Knops a récemment réagi à l'étude de Marlies van Eck (Université de Tilburg) sur les citoyens qui ne bénéficient pas d'une protection juridique suffisante lorsque des décisions financières sont prises par des ordinateurs. En réponse à des questions parlementaires posées par des membres du VVD, il a indiqué que le citoyen n'avait pas à pâtir de décisions prises par les ordinateurs.

Les autorités se basent de plus en plus sur les big data dans le processus décisionnel, mais ces informations sont souvent loin d'être neutres : ce n'est pas parce que la loi est respectée que l'éthique l'est.

Quant au caractère transversal de la question : les différents gouvernements et maillons de la chaîne de sécurité se sont accordés sur les phénomènes qui doivent être traités en priorité au cours des quatre prochaines années. Ceux-ci sont définis dans la Note-cadre de Sécurité intégrale et dans le Plan national de sécurité pour la période 2016-2019 et ont fait l'objet d'un débat lors d'une Conférence interministérielle à laquelle les acteurs de la police et de la justice ont également participé. La criminalité informatique et la protection de la vie privée font partie des priorités fixées. La discrimination est également un thème transversal.

Je souhaiterais vous poser les questions suivantes :

1) Utilise-t-on déjà des algorithmes, dans notre pays, pour déterminer quels citoyens s'adonnent effectivement à la fraude à l'aide sociale ? Dans l'affirmative, pouvez-vous fournir des explications concrètes et détaillées ? Dans la négative, pourquoi, et envisage-t-on de le faire ?

2) Quelles données historiques sont-elles (peuvent-elles être) utilisées pour l'analyse de fraudes éventuelles à l'aide sociale ? Pouvez-vous détailler votre réponse ?

3) Connaissez-vous bien le risque de discrimination lié à l'utilisation d'algorithmes dont le fonctionnement ne serait pas transparent ou contrôlable ou serait basé sur des données issues de contrôles sélectifs ?

4) Le fonctionnement des algorithmes utilisés est-il transparent et contrôlable ? Dans l'affirmative, qui en assure le contrôle et où peut-on le retrouver ?

5) Impose-t-on des normes de transparence et autres conditions aux personnes qui fournissent ces algorithmes ? Dans la négative, pourquoi ? Dans l'affirmative, en quoi ces normes consistent-elles ?

6) Aux Pays-Bas, le secrétaire d'État aux Affaires intérieures et aux Relations au sein du Royaume a réalisé une étude sur les algorithmes utilisés par les autorités. Une étude similaire est-elle en cours dans notre pays, et, dans la négative, est-elle envisagée ? Pouvez-vous fournir des détails sur le calendrier et le contenu de cette éventuelle étude ?

7) Pouvez-vous m'indiquer, à l'aide de données chiffrées, si les algorithmes déjà utilisés produisent des résultats sur le terrain et si ceux-ci sont proportionnels à leur coût ?

Réponse reçue le 6 juin 2018 :

Les questions sur le service public de programmation (SPP) Intégration sociale et le contrôle sur le salaire minimal vital au niveau local, ressortent respectivement de la compétence de mon collègue Ducarme, compétent pour l’Intégration sociale, et les ministres communautaires et les administrations locales compétents.

En tant que secrétaire d’État compétent pour le SIRS, le regroupement des services fédéraux d’inspection sociale (ONSS, INASTI, CLS/CBT, ONEM et INAMI), je peux vous dire que j’investis beaucoup dans la technique du datamatching et datamining dans ma politique. Le datamatching consiste en la liaison de banques de données (par exemple emploi et chômage, chômage et indemnités maladie, etc.), où des contrôles se font via la Banque carrefour de la sécurité sociale (BCSS) sur le NISS, le numéro de Registre national, etc. Cette technique exclut des personnes fictives et fonctionne assez bien. Des données sont notamment échangées avec les Pays-Bas sur le plan de l’emploi et du chômage. Le point de contact fraude sociale effectue également ces contrôles, ce qui mène à peine à 1,9 % de signalements fictifs sur les 9 000 signalements de fraude sociale l’année passée. Dans le projet pilote push des données énergie et eaux dans le cadre de la lutte contre la fraude au domicile on procède également de la même manière. Pour le point de contact et le push énergie un signal ne forme jamais une base suffisante de fraude sociale, mais il doit être complété d’éléments supplémentaires dans l’enquête. Avec des obligations légales d’entretien préliminaire, etc.

Certains services d’inspection sociale vont plus loin et font du dataminig. Sur base des informations notamment provenant des banques de données Dimona, Limosa, checkin@work, des infractions précédentes, etc., des profils à risque sont établis et le risque d’être pris s’élève à plus de 80 %. Dans un contexte européen il ressort que la Belgique est bien évoluée sur le plan d’e-government et des systèmes comme Limosa (depuis 2007) et checkin@work (depuis 2014) et l’utilisation de ces données en vue des contrôles ciblés.

Ce datamatching et datamining nous permettent de cibler les contrôles de plus en plus sur des situations malhonnêtes, afin de moins devoir contrôler les entreprises et employés honnêtes.

La technologie continue à évoluer. Je vous donne raison lorsque vous dites que les big data forment des risques sur le plan de la criminalité informatique et la protection de la vie privée.

Avec le nouveau GDPR et l’Autorité belge de protection des données qui sont entrés en vigueur le 25 mai 2018, des garanties supplémentaires ont été incorporées afin de protéger les données à caractère personnel. Dans le nouveau GBA, un contre de connaissances est également prévu pour émettre des avis sur les nouveaux phénomènes sociaux. L’évolution des big data par les autorités en est un de ces phénomènes à analyser sur le plan des opportunités et des risques.