Tweetalige printerversie Eentalige printerversie

Schriftelijke vraag nr. 6-1869

van Jean-Jacques De Gucht (Open Vld) d.d. 16 mei 2018

aan de staatssecretaris voor Bestrijding van de sociale fraude, Privacy en Noordzee, toegevoegd aan de minister van Sociale Zaken en Volksgezondheid

Bijstandsfraude - Strijd - Gebruik van algoritmes - Discriminatie - Transparantie - Studie

big data
sociale uitkering
sociale bijstand
fraude
zwartwerk
informatieverwerking
gegevensverwerking
toepassing van informatica

Chronologie

16/5/2018Verzending vraag (Einde van de antwoordtermijn: 15/6/2018)
6/6/2018Antwoord

Ook gesteld aan : schriftelijke vraag 6-1868

Vraag nr. 6-1869 d.d. 16 mei 2018 : (Vraag gesteld in het Nederlands)

Een viertal Nederlandse gemeenten gebruikt reeds een algoritme om te voorspellen welke burgers bijstandsfraude plegen. Sociale rechercheurs onderzoeken degenen die door de software worden aangewezen als vermoedelijke fraudeur.

Er bestaat ongerustheid rondom « computerbesluiten ». Nederlands staatssecretaris Knops reageerde onlangs op het onderzoek van Marlies van Eck (Tilburg University) over burgers die onvoldoende juridisch beschermd zijn wanneer er met computers financiële besluiten worden genomen. In een reactie op Kamervragen van de VVD hierover zegt hij dat het niet de bedoeling is dat de burger nadeel ondervindt van computerkeuzes.

Op steeds grotere schaal zetten overheden big data in als basis voor besluitvorming, maar die informatie is vaak allesbehalve neutraal : de wet wordt weliswaar nageleefd, maar daarom niet de ethiek.

Wat betreft het transversaal karakter van de vraag : de verschillende regeringen en schakels in de veiligheidsketen zijn het eens over de fenomenen die de komende vier jaar prioritair moeten worden aangepakt. Die staan gedefinieerd in de kadernota Integrale Veiligheid en het Nationaal Veiligheidsplan voor de periode 2016-2019, en werden besproken tijdens een Interministeriële Conferentie, waarop ook de politionele en justitiële spelers aanwezig waren. Eén van de vastgelegde prioriteiten is de informaticacriminaliteit en de bescherming van de privacy. Discriminatie is eveneens een transversaal thema.

Graag had ik u volgende vragen voorgelegd :

1) Worden in ons land reeds algoritmes gebruikt om te voorspellen wie daadwerkelijk aan bijstandsfraude doet ? Zo ja, kunt u concreet en gedetailleerd toelichten ? Zo neen, waarom niet en wordt dit overwogen in de toekomst ?

2) Welke historische data (kunnen) worden gebruikt voor de analyse van mogelijke bijstandsfraude ? Kunt u dit uitvoerig toelichten ?

3) Bent u vertrouwd met het risico op discriminatie bij gebruik van algoritmes als de werking van deze algoritmes niet transparant en controleerbaar is of gebaseerd op data die door selectieve handhaving tot stand is gekomen ?

4) Is de werking van de bestaande algoritmes die worden toegepast transparant en controleerbaar ? Zo ja, wie controleert die en waar kan men deze terugvinden ?

5) Worden er transparantienormen en andere voorwaarden opgelegd aan de leveranciers van deze algoritmes ? Zo neen, waarom niet ? Zo ja, waaruit bestaan deze ?

6) In Nederland werd een onderzoek gevoerd door de staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties over het gebruik van algoritmes door overheden. Is er een gelijkaardig onderzoek lopende in ons land en zo neen, overweegt u dit ? Kunt u uitvoerig toelichten wat het tijdschema en de inhoud van dit gebeurlijk onderzoek zijn ?

7) Kunt u cijfermatig meedelen of de reeds gebruikte algoritmes resultaten opleveren op het terrein en staan deze in verhouding tot de kostprijs ervan ?

Antwoord ontvangen op 6 juni 2018 :

De vragen met betrekking tot de programmatoirsche overheidsdienst (POD) Maatschappelijke Integratie en de controle op de leeflonen op lokaal niveau, vallen onder de bevoegdheid van respectievelijk collega Ducarme, bevoegd voor Maatschappelijke Integratie, en de bevoegde gemeenschapsministers en lokale besturen.

Wel kan ik u als bevoegd staatssecretaris voor de SIOD, de koepel van federale sociale inspectiediensten (RSZ, RSVZ, TSW/TWW, RVA en RIZIV), meegeven dat ik in mijn beleid sterk inzet op technieken van datamatching en datamining. Datamatching bestaat uit het koppelen van databanken (bijvoorbeeld werk en werkloosheid, werkloosheid en ziekte-uitkering, enz.), waarbij er via de Kruispuntbank sociale zekerheid (KSZ) checks gebeuren op het INSZ-nummer, rijksregisternummer, enz. Deze techniek sluit fictieve personen uit en werkt vrij goed. Zo worden er ook gegevens uitgewisseld met onder meer Nederland op vlak van tewerkstelling en werkloosheid. Ook het centraal meldpunt sociale fraude doet deze checks, wat op de bijna 9 000 meldingen sociale fraude sinds vorig jaar leidt tot nauwelijks 1,9 % fictieve meldingen. Ook in het pilootproject push van energie- en watergegevens in het kader van de strijd tegen de domiciliefraude wordt er op die manier tewerk gegaan. Voor het meldpunt en de push energie is een knipperlicht nooit een voldoende grond voor sociale fraude, maar moet dit aangevuld worden met bijkomende elementen in een onderzoek. Met wettelijk gewaarborgde rechten op verhoor en dergelijke.

Een aantal sociale inspectiediensten gaat een stap verder en doet aan datamining. Op basis van informatie bijvoorbeeld uit databanken Dimona, Limosa, checkin@work, eerdere inbreuken, enz., worden er risicoprofielen opgesteld waarbij de pakkans bij controle oploopt tot meer dan 80 %. In een Europese context valt het op dat België ver staat op het vlak van e-government en systemen als Limosa (sinds 2007) en checkin@work (sinds 2014) en het aanwenden van deze gegevens met het oog op gerichte controles.

Deze datamatching en datamining laten ons toe de controles steeds meer te richten op de malafide situaties, zodat we de bonafide ondernemingen en werknemers minder hoeven te controleren.

De technologie evolueert steeds verder. Ik geef u gelijk wanneer u stelt dat big data risico’s vormt op het vlak van informaticacriminaliteit en privacy.

Met de nieuwe GDPR en de Belgische Gegevensbeschermingsautoriteit die sinds 25 mei 2018 in werking zijn, zijn er bijkomende garanties ingebouwd ter bescherming van persoonsgegevens. In de nieuwe GBA is ook voorzien in een kenniscentrum dat adviezen kan geven over nieuwe maatschappelijke fenomenen. De verdere evolutie van big data door de overheid is zo’n fenomeen dat verder te onderzoeken valt op het vlak van kansen en risico’s.