Privacy - AI - Profilering - Overheidsdiensten - Cijfers en tendensen
kunstmatige intelligentie
publieke dienst
digitale cultuur
big data
eerbiediging van het privé-leven
| 26/4/2024 | Verzending vraag (Einde van de antwoordtermijn: 30/5/2024) |
| 21/5/2024 | Antwoord |
Ook gesteld aan : schriftelijke vraag 7-2299
Ook gesteld aan : schriftelijke vraag 7-2300
Ook gesteld aan : schriftelijke vraag 7-2301
Ook gesteld aan : schriftelijke vraag 7-2302
Ook gesteld aan : schriftelijke vraag 7-2303
Ook gesteld aan : schriftelijke vraag 7-2304
Ook gesteld aan : schriftelijke vraag 7-2305
Ook gesteld aan : schriftelijke vraag 7-2307
Ook gesteld aan : schriftelijke vraag 7-2308
Ook gesteld aan : schriftelijke vraag 7-2309
Ook gesteld aan : schriftelijke vraag 7-2310
Ook gesteld aan : schriftelijke vraag 7-2311
Ook gesteld aan : schriftelijke vraag 7-2312
Ook gesteld aan : schriftelijke vraag 7-2313
Ook gesteld aan : schriftelijke vraag 7-2314
Ook gesteld aan : schriftelijke vraag 7-2315
Ook gesteld aan : schriftelijke vraag 7-2316
Ook gesteld aan : schriftelijke vraag 7-2317
Ook gesteld aan : schriftelijke vraag 7-2318
Overheden over de hele wereld maken al gebruik van artificiėle intelligentie (AI) in hun dagelijkse werk.
De uitrol ervan varieert echter drastisch van land tot land, afhankelijk van een hele reeks factoren.
De Italiaanse overheid gebruikt bijvoorbeeld AI op verschillende manieren, zoals klantenservice-«chatbots» en het bestrijden van belastingontduiking. Een «chatbot» van het ministerie van Arbeid verstrekt informatie over het gegarandeerde minimuminkomen. Het gebruik van AI bij belastingfraudebestrijding, zoals met het «Anonimometro»-systeem, heeft successen geboekt door het automatiseren van analyses en pseudonieme gegevens te gebruiken. Er is echter behoefte aan voorzichtigheid, vooral bij het implementeren van AI in kwetsbare gemeenschappen. In Rome wordt AI ingezet om waterleidingen te monitoren met behulp van sensoren en «machine learning».
De toepassing van AI binnen de overheid wordt bemoeilijkt door bezuinigingen en een verouderd ambtenarenapparaat. «Chatbots» hebben beperkingen en kunnen menselijke interactie niet volledig vervangen, vooral op straatniveau waar ambtenaren aanpassingen maken op basis van individuele situaties.
Overheidsmedewerkers experimenteren individueel met generatieve «AI-tools» om efficiėnter te werken. Er zijn uitdagingen bij het gebruik van AI voor wetgevingsprocessen, waarbij aangepaste modellen mogelijk nodig zijn voor specifieke toepassingen. De Italiaanse Kamer van afgevaardigden voert experimenten uit met AI in het wetgevingsproces. De «EU's AI Act» zou lidstaten moeten aansporen AI te omarmen, maar in Italiė wordt verwacht dat de reactie beperkt zal zijn zonder substantiėle investeringen. Het publieksbewustzijn en de vraag naar AI in openbare diensten zijn er laag, wat de adoptie ervan door de overheid vertraagt .
Op 10 februari 2023 nam de Senaat het voorstel van resolutie met betrekking tot de oprichting van een algoritmetoezichthouder van de heer Daems c.s. aan (doc. Senaat, nr. 7-328/4).
Bij de regeringsvorming in Nederland in 2021 werd in de beleidsverklaring van het regeerakkoord gesteld dat het land inzet op meer digitalisering. Naast de gebruikelijke verklaringen, waarbij men onder meer belooft verder in te zetten op de digitale kloof en de veiligheid op het internet, staat ook de verklaring dat men een algoritmetoezichthouder zal aanstellen om wettelijk te regelen «dat algoritmen worden gecontroleerd op transparantie, discriminatie en willekeur».
Deze roep komt niet toevallig: de Nederlandse toeslagenaffaire liet zien dat de Belastingdienst vertrouwde op algoritmen die ze zelf amper konden begrijpen, laat staan uitleggen.
Ook in de Verenigde Staten, waar algoritmen binnen openbare instanties al veel verder verspreid zijn, bleek dat verschillende van deze diensten over onvoldoende middelen beschikten om de algoritmes te evalueren die ze zelf gebruiken.
Deze schriftelijke vraag heeft een transversaal karakter. De verschillende regeringen en schakels in de veiligheidsketen zijn het eens over de fenomenen die de komende vier jaar prioritair moeten worden aangepakt. Die staan gedefinieerd in de Kadernota Integrale Veiligheid en het Nationaal Veiligheidsplan voor de periode 2022-2025, en werden besproken tijdens een Interministeriėle Conferentie, waarop ook de politionele en justitiėle spelers aanwezig waren. Het betreft aldus een transversale aangelegenheid met de Gewesten waarbij de rol van de Gewesten vooral ligt in het preventieve luik.
Graag had ik dan ook volgende vragen voorgelegd aan de geachte minister:
1) Gebruikt men in Belgiė reeds artificiėle intelligentie of algoritmen om overheidszaken te regelen? Indien ja, op welke niveaus en kan u hierbij afzonderlijk staven omtrent hoeveel instanties het gaat? Zou u dit uit kunnen splitsen naar niveau? Welke overheidsdiensten maken hiervan gebruik, en kan u meer toelichting geven over de functie van AI-toepassingen binnen dit geheel?
Indien ja, op welke niveaus, wat zijn de huidige geraamde kosten, wat zijn de beoogde doelen en wanneer plant men concreet de implementatie?
Indien neen, plant men om dergelijke maatregelen te nemen in de toekomst? Zo ja, op welke wijze?
2) Wat is het beoogde doel van dergelijke scraping-programma's? Welke programma's worden specifiek gebruikt? Welke functies worden hiervan gebruikt? Kan u hierover meer toelichting geven?
Kan u aangeven welke data gebruikt en/of geraadpleegd worden? Zitten hier overheidsdatabanken bij? Zo ja, welke? Maakt men ook gebruik van scrapingtechnieken bij socialemediaprofielen? Zo ja, op welke wijze?
3) Gebruiken diensten zoals de fiscus of aanverwante agentschappen, AI om data te scrapen omtrent zaken als personenbelasting of vennootschapsbelasting, zo ja, op welke wijze en met welke programma's? Wat zijn de resultaten hierbij? Hoeveel data wordt er doorgaans per profiel gescraped, met welke gegevens? Gebeurt dit automatisch?
4) Wordt er gebruik gemaakt van LLM's, «chatbots» en andere door AI gestuurde toepassingen bij overheidsdiensten? Zo ja, hoeveel in totaal en zijn er specifieke toepassingen of processen waar AI wordt gebruikt om beslissingen te nemen of taken uit te voeren binnen deze diensten? Hoe lang zijn deze systemen reeds in gebruik? In hoeverre maakt men algemeen gebruik van generatieve AI?
5) Wordt door overheidsdiensten momenteel gebruik gemaakt van «webcrawling» en datascraping-technieken voor het verkrijgen van informatie? Zo ja, hoeveel in totaal en kunt u specifieke voorbeelden geven van hoe deze technologieėn worden toegepast? Welke diensten gebruiken dergelijke technieken en hoe maken ze deel uit van de algemene workflow? Zijn er specifieke procedures voor het valideren en verifiėren van deze informatie?
6) Zijn er samenwerkingen met externe partijen of technologieleveranciers voor het implementeren dergelijke technologieėn? Zo ja, hoe wordt de privacy en beveiliging van de verzamelde gegevens in dergelijke samenwerkingsverbanden gewaarborgd?
7) Welke maatregelen worden genomen om ervoor te zorgen dat AI-toepassingen binnen de overheid geen negatieve effecten hebben op kwetsbare gemeenschappen of groepen? Wordt AI momenteel gebruikt om belastingfraude en andere vormen van financieel misbruik tegen te gaan in Belgiė, zoals in Italiė? Zo ja, op welke manier en hoeveel invloed heeft de AI op de besluitvorming? Is er nog sprake van een menselijke tussenkomst? Zo neen, waarom niet?
8) Wat is de perceptie van het publiek in Belgiė ten opzichte van AI in openbare diensten, en welke inspanningen worden geleverd om het bewustzijn en begrip te vergroten? Welke strategieėn worden overwogen of geļmplementeerd om ervoor te zorgen dat de integratie van AI in de Belgische overheid ethisch en verantwoord verloopt?
1) Zie ook schriftelijke vraag nr. 7-2286 voor het overzicht van artificiële intelligentie (AI) toepassingen binnen de federale overheidsdienst (FOD) Justitie. Een belangrijke aanvulling hierbij is dat er onderscheid gemaakt moet worden tussen:
– de eigen AI-projecten van Justitie (zoals JustPublish, Alice, enz.);
– algemene AI aangekochte apps, zoals Text2Speech, OCR, enz., vaak samen aangekocht door meerdere federale overheidsdiensten;
–gratis applicaties die ook gebruik maken van AI (zoals DeepL, Google Translate, Google Maps, enz.). Het gebruik van deze tools is toegestaan, er zijn wel duidelijke richtlijnen voor de medewerkers. Er zal in de toekomst ook ingezet worden op meer sensibilisering.
2) De scraping-programma’s die als «proof of concepts» (POC) momenteel gebruikt worden, dienen enkel voor het eigen publieke inter- of intranet van Justitie te «scrapen» (zoals «html», «pdf», enz., zodat een ChatBot de burger of personeelsleden kan ondersteunen in de opzoeking op de websites van Justitie. Er worden bij de FOD Justitie geen scrapingtechnieken gebruikt voor socialemediaprofielen.
3) Niet van toepassing voor de minister van Justitie. Dit behoort tot de bevoegdheid van de minister van Financiën.
4) Binnen Justitie wordt er gebruik gemaakt van LLM’s (large language model) binnen een beperkt aantal POC’s.
Onderstaande LLM’s worden (mogelijk) opgestart:
– JustFamily: opzoekingen binnen relevante juridische informatie en wetgeving in het kader van een echtsscheidingsprocedure;
– JustPublish (Belgisch Staatsblad): opzoekingen en samenvatten relevante juridische informatie en wetgeving;
– gratis applicaties die ook gebruik maken van AI (zoals DeepL, Google Translate, Google Maps, enz.). Het gebruik van deze tools is toegestaan, er zijn wel duidelijke richtlijnen voor de medewerkers. Er zal in de toekomst ook ingezet worden op meer sensibilisering;
– JustJudgment, met als doel om vonnissen te helpen anonimiseren (zodat persoonsgegevens verwijderd worden). Dit is nodig voor de voeding van andere toekomstige AI-systemen, maar ook voor verder (wetenschappelijk) onderzoek naar criminaliteit, rechtsspraak, enz. JustMask is de extensie die zal ondersteunen bij het pseudonimiseren van persoonsgegevens in vonnissen en arresten voordat ze openbaar gepubliceerd worden;
– samenwerking met de Université libre de Bruxelles (ULB) en de Vrije Universiteit Brussel (VUB) en zes andere Europese lidstaten in het kader van een Europees project om de toegang tot Justitie te verhogen en de kosten te verlagen met behulp van AI. De focus van dit project is het arbeidsrecht.
De huidige AI-POC’s nemen zelf geen automatische beslissingen en nemen dus ook geen taken over. Zij heeft slechts een ondersteunende functie.
5) Er is nog geen POC-project ingediend voor «webcrawling» en datascraping-technieken voor extern gebruik (zoals social media, enz.) bij de diensten van de FOD Justitie.
6) Dit wordt per AI-POC bepaald. De privacy en beveiliging van de verzamelde gegevens wordt gewaarborgd doordat elke POC vooraf door de verschillende interne diensten (architectuur, Security, GDPR, enz.) beoordeeld wordt. Alle data wordt beheerd binnen de omgeving van Justitie.
De FOD Justitie laat zich bijstaan voor de ondersteuning, beveiliging, enz., door externe partijen, universiteiten zoals de VUB of de ULB of technologieleveranciers.
7) Justitie is gebonden aan de EU-AI-Pact en binnenkort wordt er een strengere Belgische wetgeving voor AI van kracht (voorbereid door AI4Belgium en in samenwerking van Justitie). Alle AI-projecten worden intern geëvalueerd op basis van GDPR, discriminatie, ethiek, Security, enz.
Er is daarom recent binnen de FOD Justitie een «Competence Centre voor AI» opgericht, deze dienst heeft als doel om conform te zijn met de wetgeving (EU-AI pact, wetgeving volgens AI4Belgium, GDPR, enz.) en alle bestaande AI-toepassing binnen de FOD Justitie op te lijsten, te beheren en het algemeen AI beleid uit te werken.
In eerste fase, gaat het enkel om menselijke ondersteunende AI POC’s, dit wil zeggen dat er resultaten van AI worden voorgelegd aan een medewerker, die de gegevens zal bekijken en interpreteren. Er zijn dus geen autonome AI-beslissingen, er is altijd een medewerker met eindverantwoordelijkheid. Een dienst of persoon moet dus nog steeds kunnen werken zonder de AI-module (aangezien dat het enkel om POC’s gaat en het nog niet zeker is welke de betrouwbare en toegevoegde waarde is voor een persoon). AI is en blijft voorlopig dus gezien als extra hulpmiddel.
De voeding van Alice (het fraude detectie system voor malafide bedrijven), zal gebeuren op basis van geanonimiseerde vonnissen. Het anonimiseren van vonnissen is een ander toekomstig AI-project genaamd JustMask (binnen het JustJudgment project) , waarbij een griffier aangeeft welke data bijkomend in het vonnis geanonimiseerd moet worden. De eindverantwoordelijkheid is dus niet het AI-systeem, meer steeds opnieuw een medewerker.
Het is nog te vroeg voor onze AI-POC’s, om al over te gaan naar een volledig geautomatiseerde AI-systeem (er zijn hierover nog geen regels vastgelegd, welke de kwaliteit zou moeten zijn van het AI-systeem, maar voorlopig is dit niet aan de orde).
8) Hier heeft FOD Justitie geen informatie over.