Privacy - AI - Profilering - Overheidsdiensten - Cijfers en tendensen
kunstmatige intelligentie
publieke dienst
digitale cultuur
big data
eerbiediging van het privé-leven
| 26/4/2024 | Verzending vraag (Einde van de antwoordtermijn: 30/5/2024) |
| 26/5/2024 | Antwoord |
Ook gesteld aan : schriftelijke vraag 7-2299
Ook gesteld aan : schriftelijke vraag 7-2300
Ook gesteld aan : schriftelijke vraag 7-2301
Ook gesteld aan : schriftelijke vraag 7-2302
Ook gesteld aan : schriftelijke vraag 7-2303
Ook gesteld aan : schriftelijke vraag 7-2304
Ook gesteld aan : schriftelijke vraag 7-2305
Ook gesteld aan : schriftelijke vraag 7-2306
Ook gesteld aan : schriftelijke vraag 7-2308
Ook gesteld aan : schriftelijke vraag 7-2309
Ook gesteld aan : schriftelijke vraag 7-2310
Ook gesteld aan : schriftelijke vraag 7-2311
Ook gesteld aan : schriftelijke vraag 7-2312
Ook gesteld aan : schriftelijke vraag 7-2313
Ook gesteld aan : schriftelijke vraag 7-2314
Ook gesteld aan : schriftelijke vraag 7-2315
Ook gesteld aan : schriftelijke vraag 7-2316
Ook gesteld aan : schriftelijke vraag 7-2317
Ook gesteld aan : schriftelijke vraag 7-2318
Overheden over de hele wereld maken al gebruik van artificiėle intelligentie (AI) in hun dagelijkse werk.
De uitrol ervan varieert echter drastisch van land tot land, afhankelijk van een hele reeks factoren.
De Italiaanse overheid gebruikt bijvoorbeeld AI op verschillende manieren, zoals klantenservice-«chatbots» en het bestrijden van belastingontduiking. Een «chatbot» van het ministerie van Arbeid verstrekt informatie over het gegarandeerde minimuminkomen. Het gebruik van AI bij belastingfraudebestrijding, zoals met het «Anonimometro»-systeem, heeft successen geboekt door het automatiseren van analyses en pseudonieme gegevens te gebruiken. Er is echter behoefte aan voorzichtigheid, vooral bij het implementeren van AI in kwetsbare gemeenschappen. In Rome wordt AI ingezet om waterleidingen te monitoren met behulp van sensoren en «machine learning».
De toepassing van AI binnen de overheid wordt bemoeilijkt door bezuinigingen en een verouderd ambtenarenapparaat. «Chatbots» hebben beperkingen en kunnen menselijke interactie niet volledig vervangen, vooral op straatniveau waar ambtenaren aanpassingen maken op basis van individuele situaties.
Overheidsmedewerkers experimenteren individueel met generatieve «AI-tools» om efficiėnter te werken. Er zijn uitdagingen bij het gebruik van AI voor wetgevingsprocessen, waarbij aangepaste modellen mogelijk nodig zijn voor specifieke toepassingen. De Italiaanse Kamer van afgevaardigden voert experimenten uit met AI in het wetgevingsproces. De «EU's AI Act» zou lidstaten moeten aansporen AI te omarmen, maar in Italiė wordt verwacht dat de reactie beperkt zal zijn zonder substantiėle investeringen. Het publieksbewustzijn en de vraag naar AI in openbare diensten zijn er laag, wat de adoptie ervan door de overheid vertraagt .
Op 10 februari 2023 nam de Senaat het voorstel van resolutie met betrekking tot de oprichting van een algoritmetoezichthouder van de heer Daems c.s. aan (doc. Senaat, nr. 7-328/4).
Bij de regeringsvorming in Nederland in 2021 werd in de beleidsverklaring van het regeerakkoord gesteld dat het land inzet op meer digitalisering. Naast de gebruikelijke verklaringen, waarbij men onder meer belooft verder in te zetten op de digitale kloof en de veiligheid op het internet, staat ook de verklaring dat men een algoritmetoezichthouder zal aanstellen om wettelijk te regelen «dat algoritmen worden gecontroleerd op transparantie, discriminatie en willekeur».
Deze roep komt niet toevallig: de Nederlandse toeslagenaffaire liet zien dat de Belastingdienst vertrouwde op algoritmen die ze zelf amper konden begrijpen, laat staan uitleggen.
Ook in de Verenigde Staten, waar algoritmen binnen openbare instanties al veel verder verspreid zijn, bleek dat verschillende van deze diensten over onvoldoende middelen beschikten om de algoritmes te evalueren die ze zelf gebruiken.
Deze schriftelijke vraag heeft een transversaal karakter. De verschillende regeringen en schakels in de veiligheidsketen zijn het eens over de fenomenen die de komende vier jaar prioritair moeten worden aangepakt. Die staan gedefinieerd in de Kadernota Integrale Veiligheid en het Nationaal Veiligheidsplan voor de periode 2022-2025, en werden besproken tijdens een Interministeriėle Conferentie, waarop ook de politionele en justitiėle spelers aanwezig waren. Het betreft aldus een transversale aangelegenheid met de Gewesten waarbij de rol van de Gewesten vooral ligt in het preventieve luik.
Graag had ik dan ook volgende vragen voorgelegd aan de geachte minister:
1) Gebruikt men in Belgiė reeds artificiėle intelligentie of algoritmen om overheidszaken te regelen? Indien ja, op welke niveaus en kan u hierbij afzonderlijk staven omtrent hoeveel instanties het gaat? Zou u dit uit kunnen splitsen naar niveau? Welke overheidsdiensten maken hiervan gebruik, en kan u meer toelichting geven over de functie van AI-toepassingen binnen dit geheel?
Indien ja, op welke niveaus, wat zijn de huidige geraamde kosten, wat zijn de beoogde doelen en wanneer plant men concreet de implementatie?
Indien neen, plant men om dergelijke maatregelen te nemen in de toekomst? Zo ja, op welke wijze?
2) Wat is het beoogde doel van dergelijke scraping-programma's? Welke programma's worden specifiek gebruikt? Welke functies worden hiervan gebruikt? Kan u hierover meer toelichting geven?
Kan u aangeven welke data gebruikt en/of geraadpleegd worden? Zitten hier overheidsdatabanken bij? Zo ja, welke? Maakt men ook gebruik van scrapingtechnieken bij socialemediaprofielen? Zo ja, op welke wijze?
3) Gebruiken diensten zoals de fiscus of aanverwante agentschappen, AI om data te scrapen omtrent zaken als personenbelasting of vennootschapsbelasting, zo ja, op welke wijze en met welke programma's? Wat zijn de resultaten hierbij? Hoeveel data wordt er doorgaans per profiel gescraped, met welke gegevens? Gebeurt dit automatisch?
4) Wordt er gebruik gemaakt van LLM's, «chatbots» en andere door AI gestuurde toepassingen bij overheidsdiensten? Zo ja, hoeveel in totaal en zijn er specifieke toepassingen of processen waar AI wordt gebruikt om beslissingen te nemen of taken uit te voeren binnen deze diensten? Hoe lang zijn deze systemen reeds in gebruik? In hoeverre maakt men algemeen gebruik van generatieve AI?
5) Wordt door overheidsdiensten momenteel gebruik gemaakt van «webcrawling» en datascraping-technieken voor het verkrijgen van informatie? Zo ja, hoeveel in totaal en kunt u specifieke voorbeelden geven van hoe deze technologieėn worden toegepast? Welke diensten gebruiken dergelijke technieken en hoe maken ze deel uit van de algemene workflow? Zijn er specifieke procedures voor het valideren en verifiėren van deze informatie?
6) Zijn er samenwerkingen met externe partijen of technologieleveranciers voor het implementeren dergelijke technologieėn? Zo ja, hoe wordt de privacy en beveiliging van de verzamelde gegevens in dergelijke samenwerkingsverbanden gewaarborgd?
7) Welke maatregelen worden genomen om ervoor te zorgen dat AI-toepassingen binnen de overheid geen negatieve effecten hebben op kwetsbare gemeenschappen of groepen? Wordt AI momenteel gebruikt om belastingfraude en andere vormen van financieel misbruik tegen te gaan in Belgiė, zoals in Italiė? Zo ja, op welke manier en hoeveel invloed heeft de AI op de besluitvorming? Is er nog sprake van een menselijke tussenkomst? Zo neen, waarom niet?
8) Wat is de perceptie van het publiek in Belgiė ten opzichte van AI in openbare diensten, en welke inspanningen worden geleverd om het bewustzijn en begrip te vergroten? Welke strategieėn worden overwogen of geļmplementeerd om ervoor te zorgen dat de integratie van AI in de Belgische overheid ethisch en verantwoord verloopt?
Directie-generaal (DG) Personen met een handicap
Bij de directie-generaal (DG) Personen met een handicap (DG HAN) van de federale overheidsdienst (FOD) Sociale Zekerheid gebruiken we momenteel geen tools die gebaseerd zijn op artificiële intelligentie (AI), noch intern ontwikkelde programma’s, noch programma’s die door externe partijen werden aangeleverd.
We zijn wel van plan om te onderzoeken hoe we in de toekomst artificiële intelligentie in onze processen kunnen integreren. Voorlopig blijft onze aanpak pragmatisch: als we een specifieke behoefte identificeren, evalueren we de bestaande oplossingen op de markt, schaffen we ze aan volgens de gebruikelijke procedures voor de aankoop van IT (information technology)-applicaties, implementeren we ze en evalueren we ze vervolgens in een iteratief proces.
Voor de verzameling van gegevens maken we geen gebruik van scraping. We verkrijgen onze gegevens via rechtstreekse uitwisselingen met andere administraties, waardoor de wettelijkheid en betrouwbaarheid ervan gegarandeerd zijn.
Wat betreft het gebruik van LLM’s (Language Learning Model), chatbots en andere AI-gebaseerde toepassingen, hebben we deze technologieën nog niet geïntegreerd in onze processen. We hanteren een voorzichtige benadering, omdat sommige oplossingen nog niet voldoende matuur zijn en inconsistente resultaten kunnen opleveren. Op dit moment wordt geen enkele beslissing bij de DG HAN genomen door middel van AI-technieken.
We blijven openstaan voor technologische ontwikkelingen en nieuwe mogelijkheden om onze diensten te verbeteren, waarbij we erop toezien dat dit op een doordachte en verantwoorde manier gebeurt.
Federale Pensioendienst
1) Neen, niet bij de Federale Pensioendienst.
De toekomstige toepassingen, zoals deze nu voorzien zijn, zullen geen beslissingen kunnen nemen zonder menselijke validatie, echter, de AI-toepassingen kunnen de medewerkers wel de nodige ondersteuning bieden.
2) Neen, de data die gebruikt worden komen niet uit overheidsdatabanken. De beoogde AI-toepassingen beperken zich tot de inhoud van de publieke website (www.sfpd.fgov.be) of het intern kennismanagementsysteem.
Er wordt geen scraping op sociale media gebruikt.
3) Neen, de Federale Pensioendienst maakt geen gebruik van scraping om data te verzamelen voor AI-toepassingen.
4) Ja, er zijn LLM’s (Language Learning Model) in gebruik. De Federale Pensioendienst is hiermee gestart in augustus 2023. Het gaat enkel om initiatieven die als doelstelling hebben de AI mogelijkheden te verkennen, zowel op het vlak van analyse als van automatisering.
5) Neen, de Federale Pensioendienst maakt geen gebruik van scraping of webcrawling voor het verkrijgen van informatie.
6) Ja, de Federale Pensioendienst werkt voor zijn AI-projecten samen met externe partijen en technologieaanbieders.
Deze partners bieden ondersteuning, maar verwerken geen data op hun eigen IT-infrastructuur.
De federale cloudpolicy is gerespecteerd. Dit betekent onder andere dat er geen persoonsgegevens naar de publieke cloud worden gestuurd of verwerkt.
De gebruikte data worden beveiligd, zowel in rest (statisch) als in transit (bij data-uitwisseling).
7) De AI-toepassingen worden door middel van «prompt-engineering» zodanig ingesteld dat zij zich professioneel en neutraal opstellen naar de gebruiker.
Neen, de Federale Pensioendienst maakt geen gebruik van AI voor fraude- of misbruikdetectie.
8) Tot op heden heeft de Federale Pensioendienst hier geen onderzoek naar verricht.
Beliris
Behalve het hierboven aangehaalde individueel experimenteren met generatieve «AI-tools» om efficiënter te werken, wordt er bij Beliris nog geen gebruik gemaakt van AI voor specifieke taken of doeleinden.
2) De communicatiedienst van Beliris maakt enkel gebruikt van de bezoekersgegevens die worden aangeboden door LinkedIn en Facebook en van cookies op de website om het sociale mediaverkeer rond Beliris te monitoren.
3) Niet van toepassing voor Beliris.
4) Niet van toepassing voor Beliris.
5) Zie hoger.
6) Niet van toepassing voor Beliris. Met externe partners die toegang hebben tot de data van Beliris wordt een DPA (Data Processing Agreement) afgesloten.
7) Zie hoger. Beliris werkt wel aan een charter om haar personeel te wijzen op de voor- en nadelen van het gebruik van AI en hierrond enkele aanbevelingen te doen.
8) Zie hoger.