Tweetalige printerversie Eentalige printerversie

Schriftelijke vraag nr. 6-1868

van Jean-Jacques De Gucht (Open Vld) d.d. 16 mei 2018

aan de vice-eersteminister en minister van Ontwikkelingssamenwerking, Digitale Agenda, Telecommunicatie en Post

Bijstandsfraude - Strijd - Gebruik van algoritmes - Discriminatie - Transparantie - Studie

sociale uitkering
sociale bijstand
fraude
zwartwerk
informatieverwerking
gegevensverwerking
toepassing van informatica
big data

Chronologie

16/5/2018Verzending vraag (Einde van de antwoordtermijn: 15/6/2018)
12/6/2018Antwoord

Ook gesteld aan : schriftelijke vraag 6-1869

Vraag nr. 6-1868 d.d. 16 mei 2018 : (Vraag gesteld in het Nederlands)

Een viertal Nederlandse gemeenten gebruikt reeds een algoritme om te voorspellen welke burgers bijstandsfraude plegen. Sociale rechercheurs onderzoeken degenen die door de software worden aangewezen als vermoedelijke fraudeur.

Er bestaat ongerustheid rondom « computerbesluiten ». Nederlands staatssecretaris Knops reageerde onlangs op het onderzoek van Marlies van Eck (Tilburg University) over burgers die onvoldoende juridisch beschermd zijn wanneer er met computers financiële besluiten worden genomen. In een reactie op Kamervragen van de VVD hierover zegt hij dat het niet de bedoeling is dat de burger nadeel ondervindt van computerkeuzes.

Op steeds grotere schaal zetten overheden big data in als basis voor besluitvorming, maar die informatie is vaak allesbehalve neutraal : de wet wordt weliswaar nageleefd, maar daarom niet de ethiek.

Wat betreft het transversaal karakter van de vraag : de verschillende regeringen en schakels in de veiligheidsketen zijn het eens over de fenomenen die de komende vier jaar prioritair moeten worden aangepakt. Die staan gedefinieerd in de kadernota Integrale Veiligheid en het Nationaal Veiligheidsplan voor de periode 2016-2019, en werden besproken tijdens een Interministeriële Conferentie, waarop ook de politionele en justitiële spelers aanwezig waren. Eén van de vastgelegde prioriteiten is de informaticacriminaliteit en de bescherming van de privacy. Discriminatie is eveneens een transversaal thema.

Graag had ik u volgende vragen voorgelegd :

1) Worden in ons land reeds algoritmes gebruikt om te voorspellen wie daadwerkelijk aan bijstandsfraude doet ? Zo ja, kunt u concreet en gedetailleerd toelichten ? Zo neen, waarom niet en wordt dit overwogen in de toekomst ?

2) Welke historische data (kunnen) worden gebruikt voor de analyse van mogelijke bijstandsfraude ? Kunt u dit uitvoerig toelichten ?

3) Bent u vertrouwd met het risico op discriminatie bij gebruik van algoritmes als de werking van deze algoritmes niet transparant en controleerbaar is of gebaseerd op data die door selectieve handhaving tot stand is gekomen ?

4) Is de werking van de bestaande algoritmes die worden toegepast transparant en controleerbaar ? Zo ja, wie controleert die en waar kan men deze terugvinden ?

5) Worden er transparantienormen en andere voorwaarden opgelegd aan de leveranciers van deze algoritmes ? Zo neen, waarom niet ? Zo ja, waaruit bestaan deze ?

6) In Nederland werd een onderzoek gevoerd door de staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties over het gebruik van algoritmes door overheden. Is er een gelijkaardig onderzoek lopende in ons land en zo neen, overweegt u dit ? Kunt u uitvoerig toelichten wat het tijdschema en de inhoud van dit gebeurlijk onderzoek zijn ?

7) Kunt u cijfermatig meedelen of de reeds gebruikte algoritmes resultaten opleveren op het terrein en staan deze in verhouding tot de kostprijs ervan ?

Antwoord ontvangen op 12 juni 2018 :

1) Als federale overheid beschikken wij over een veelheid aan gegevens die in het kader van digitale transformatie almaar belangrijker worden. Op dit ogenblik beschikken wij echter (nog) niet over een overkoepelende transversale informatiestrategie voor het beleidsmatig gebruik en analyse van al deze gegevens. De opslag en verwerking van deze gegevens gebeurt onder de verantwoordelijkheid van de respectievelijke vakministers met respect voor algemene beleidslijnen zoals het respect voor de privacy en niet-discriminatie.

2) Voor het overzicht van de historische data die kunnen worden gebruikt voor de analyse van mogelijke bijstandsfraude, verwijs ik naar mijn collega’s van Sociale Zaken en Volksgezondheid en de staatssecretaris voor Bestrijding van de sociale fraude, Privacy en Noordzee.

3), 4) & 5) Het gebruik van big data en algoritmes opent enorme mogelijkheden op het vlak van verwerking en performantie. De wijze waarop we daarmee omgaan is een belangrijke verantwoordelijkheid evenals de transparantie van overheidshandelen. De nieuwe Gegevensbeschermingsautoriteit, de informatieveiligheidscomités die momenteel in oprichting zijn, moeten samen met de Data Protection Officers in de respectieve organisaties er mee voor zorgen dat persoonsgegevens zorgvuldig worden verzameld, opgeslagen en verwerkt.

6) Op dit ogenblik wordt er geen algemeen onderzoek gevoerd over het gebruik van algoritmes door overheden, maar bekijken we wel de mogelijkheden van big data en artificiële intelligentie door de overheid.

7) De gebruikte algoritmes leveren volgens de gebruikers resultaten op op het terrein, al kan ik dit momenteel niet cijfermatig onderbouwen.