Privacy - AI - Profilering - Overheidsdiensten - Cijfers en tendensen
kunstmatige intelligentie
ministerie
digitale cultuur
big data
| 26/4/2024 | Verzending vraag (Einde van de antwoordtermijn: 30/5/2024) |
| 21/5/2024 | Antwoord |
Ook gesteld aan : schriftelijke vraag 7-2279
Ook gesteld aan : schriftelijke vraag 7-2280
Ook gesteld aan : schriftelijke vraag 7-2281
Ook gesteld aan : schriftelijke vraag 7-2282
Ook gesteld aan : schriftelijke vraag 7-2283
Ook gesteld aan : schriftelijke vraag 7-2284
Ook gesteld aan : schriftelijke vraag 7-2285
Ook gesteld aan : schriftelijke vraag 7-2287
Ook gesteld aan : schriftelijke vraag 7-2288
Ook gesteld aan : schriftelijke vraag 7-2289
Ook gesteld aan : schriftelijke vraag 7-2290
Ook gesteld aan : schriftelijke vraag 7-2291
Ook gesteld aan : schriftelijke vraag 7-2292
Ook gesteld aan : schriftelijke vraag 7-2293
Ook gesteld aan : schriftelijke vraag 7-2294
Ook gesteld aan : schriftelijke vraag 7-2295
Ook gesteld aan : schriftelijke vraag 7-2296
Ook gesteld aan : schriftelijke vraag 7-2297
Ook gesteld aan : schriftelijke vraag 7-2298
Overheden over de hele wereld maken al gebruik van artificiėle intelligentie (AI) in hun dagelijkse werk.
De uitrol ervan varieert echter drastisch van land tot land, afhankelijk van een hele reeks factoren.
De Italiaanse overheid gebruikt bijvoorbeeld AI op verschillende manieren, zoals klantenservice-«chatbots» en het bestrijden van belastingontduiking. Een «chatbot» van het ministerie van Arbeid verstrekt informatie over het gegarandeerde minimuminkomen. Het gebruik van AI bij belastingfraudebestrijding, zoals met het «Anonimometro»-systeem, heeft successen geboekt door het automatiseren van analyses en pseudonieme gegevens te gebruiken. Er is echter behoefte aan voorzichtigheid, vooral bij het implementeren van AI in kwetsbare gemeenschappen. In Rome wordt AI ingezet om waterleidingen te monitoren met behulp van sensoren en «machine learning».
De toepassing van AI binnen de overheid wordt bemoeilijkt door bezuinigingen en een verouderd ambtenarenapparaat. «Chatbots» hebben beperkingen en kunnen menselijke interactie niet volledig vervangen, vooral op straatniveau waar ambtenaren aanpassingen maken op basis van individuele situaties.
Overheidsmedewerkers experimenteren individueel met generatieve «AI-tools» om efficiėnter te werken. Er zijn uitdagingen bij het gebruik van AI voor wetgevingsprocessen, waarbij aangepaste modellen mogelijk nodig zijn voor specifieke toepassingen. De Italiaanse Kamer van afgevaardigden voert experimenten uit met AI in het wetgevingsproces. De «EU's AI Act» zou lidstaten moeten aansporen AI te omarmen, maar in Italiė wordt verwacht dat de reactie beperkt zal zijn zonder substantiėle investeringen. Het publieksbewustzijn en de vraag naar AI in openbare diensten zijn er laag, wat de adoptie ervan door de overheid vertraagt .
Op 10 februari 2023 nam de Senaat het voorstel van resolutie met betrekking tot de oprichting van een algoritmetoezichthouder van de heer Daems c.s. aan (doc. Senaat, nr. 7-328/4).
Bij de regeringsvorming in Nederland in 2021 werd in de beleidsverklaring van het regeerakkoord gesteld dat het land inzet op meer digitalisering. Naast de gebruikelijke verklaringen, waarbij men onder meer belooft verder in te zetten op de digitale kloof en de veiligheid op het internet, staat ook de verklaring dat men een algoritmetoezichthouder zal aanstellen om wettelijk te regelen «dat algoritmen worden gecontroleerd op transparantie, discriminatie en willekeur».
Deze roep komt niet toevallig: de Nederlandse toeslagenaffaire liet zien dat de Belastingdienst vertrouwde op algoritmen die ze zelf amper konden begrijpen, laat staan uitleggen.
Ook in de Verenigde Staten, waar algoritmen binnen openbare instanties al veel verder verspreid zijn, bleek dat verschillende van deze diensten over onvoldoende middelen beschikten om de algoritmes te evalueren die ze zelf gebruiken.
Deze schriftelijke vraag heeft een transversaal karakter. De verschillende regeringen en schakels in de veiligheidsketen zijn het eens over de fenomenen die de komende vier jaar prioritair moeten worden aangepakt. Die staan gedefinieerd in de Kadernota Integrale Veiligheid en het Nationaal Veiligheidsplan voor de periode 2022-2025, en werden besproken tijdens een Interministeriėle Conferentie, waarop ook de politionele en justitiėle spelers aanwezig waren. Het betreft aldus een transversale aangelegenheid met de Gewesten waarbij de rol van de Gewesten vooral ligt in het preventieve luik.
Graag had ik dan ook volgende vragen voorgelegd aan de geachte minister:
1) Maakt uw beleidscel momenteel gebruik van kunstmatige intelligentie? Zo ja, kunt u gedetailleerd beschrijven voor welke specifieke taken of doeleinden AI wordt toegepast?
2) Hoe gebruiken federale overheidsdiensten die onder uw bevoegdheid vallen, dergelijke programma's specifiek? Welke programma's worden gebruikt? Wat is de bijhorende kostprijs hiervan? Wordt het gebruik uitgebreid? Indien ja, op welke wijze en waarom?
3) Kunt u meedelen welk doel het gebruik van AI dient binnen de respectievelijke federale overheidsdiensten en hoe dit bijdraagt aan de uitvoering van beleidsnota's? Zijn er momenteel AI-toepassingen in gebruik binnen uw federale overheidsdiensten en zo ja, welke specifieke toepassingen worden hierbij gebruikt?
4) Wat is de huidige en verwachte toekomstige rol van AI bij het uitvoeren van beleidsnota's en binnen de verschillende programma's van de federale overheidsdiensten? Welke soorten data vormen de basis voor de AI-toepassingen die momenteel of in de toekomst worden gebruikt binnen de federale overheidsdiensten?
5) Zijn de algoritmen die worden gebruikt binnen uw beleidscel en departementen transparant? Kunt u details verstrekken over de mate van transparantie en de procedures die worden gevolgd om ervoor te zorgen dat de besluitvorming door AI begrijpelijk is voor de betrokken partijen en het publiek?
6) Kunt u een lijst verstrekken van lopende projecten met betrekking tot kunstmatige intelligentie binnen uw bevoegdheden en departementen? Wat is de beoogde kalender voor de implementatie van deze projecten?
7) Voor welke specifieke doeleinden zullen de lopende of toekomstige AI-projecten worden toegepast binnen uw beleidscel en/of departementen? Kunt u gedetailleerd uitleggen hoe deze projecten bijdragen aan de verbetering van uw beleid en dienstverlening? Zijn er vooropgestelde doelen? Werden deze reeds geėvalueerd?
1) De beleidscel maakt zelf voorlopig nog geen gebruik van artificiële intelligentie (AI) maar zal mogelijks deel uitmaken van de «Proof of Concepts» die hierna worden besproken.
2) Justitie maakt nog geen gebruik van AI, maar heeft enkele proefprojecten opgestart («Proof of Concept» of PoC). Deze zijn ofwel in opstartfase en enkele staan al op de acceptatie-omgeving, maar nog geen enkele wordt al gebruikt in de productie-omgeving. Het doel is om te bekijken of dergelijke AI-applicaties en tools een meerwaarde kunnen vormen voor Justitie, de klanten, of de burgers.
De kostprijs en de eventuele verdere uitbreiding zijn nog niet gekend. Doel is hier een beter zicht op te hebben op het einde van de PoC’s.
Er zijn momenteel drie lopende AI-PoC’s:
– Alice: bij het openbaar ministerie (parket van Antwerpen), voor de financiële fraude-detectie van malafide bedrijven (zoals: kunstmatige boekhouding detecteren, fictieve facturen, enz.). De persoonsgegevens zijn geanonimiseerd, maar kunnen bij een gerechtelijk onderzoek opgevraagd worden. Aangezien het een pilootproject betreft zullen een beperkt aantal vonnissen worden aangeleverd door de betrokken projectleider bij het parket. Na evaluatie van het pilootproject worden de verwerkte persoonsgegevens gewist. De resultaten van het pilootproject zullen geen aanleiding zijn tot vervolging;
– voor de vernieuwing van het Belgisch Staatsblad (JustPublish) wordt er gebruik gemaakt van een zoekrobot. Deze zoekrobot doorzoekt het Belgisch Staatsblad en geeft als resultaat een samenvatting die verwijst naar het volledige artikel. Het project JustFamily (e-service voor het starten van een echtscheidingsprocedure) bestaat uit zes doelen. Binnen doel vijf zal er gebruik gemaakt worden van AI met als doel beperkte opzoekingen te doen binnen de familierechtbank. Dit betreft geen inhoudelijke opzoekingen, maar het beperkt zich tot wetgeving en procedures die gepubliceerd zijn binnen de website(s) van Justitie);
– het project JustFamily (e-service voor het starten van een echtscheidingsprocedure) heeft een AI-onderdeel met als doel beperkte opzoekingen te doen over de echtscheidingdsprocedure binnen de familierechtbank. Dit betreft geen inhoudelijke opzoekingen, maar het beperkt zich tot wetgeving en procedures die gepubliceerd zijn binnen de website(s) van Justitie).
Nog op te starten AI-PoC’s (nog geen validatie):
– MS CoPilot voor Office (tien-cijftien personen, 35 euro per persoon voor een volledig jaar). Nog geen «Use Case» bepaald;
– Gen AI Journey. Nog geen «Use Case» bepaald (afhankelijk van de «Use Case», kan dit een alternatief zijn voor MS CoPilot, JustFamily, enz.). Deze kost 2 euro per gebruiker per maand;
– JustJudgment, met als doel om vonnissen te helpen anonimiseren (zodat persoonsgegevens verwijderd worden). Dit is nodig voor de voeding van andere toekomstige AI-systemen, maar ook voor verder (wetenschappelijk) onderzoek naar criminaliteit, rechtsspraak, enz. JustMask is de extensie die zal ondersteunen bij het pseudonimiseren van persoonsgegevens in vonnissen en arresten voordat ze openbaar gepubliceerd worden;
– samenwerking met de Université libre de Bruxelles (ULB) en de Vrije Universiteit Brussel (VUB) en zes andere Europese lidstaten in het kader van een Europees project om de toegang tot Justitie te verhogen en de kosten te verlagen met behulp van AI. De focus van dit project is het arbeidsrecht.
Door het EU AI-pact is het begrip AI zeer ruim geworden. Daarom zal het nieuw opgerichte «Competence Centre for AI» met terugwerkende kracht nagaan of er al AI-toepassingen gebruikt worden (bijvoorbeeld door de camera’s in de gevangenissen). Hierin zitten niet alleen IT (information technology)-technische specialisten, maar ook juristen, datawetenschappers, beleidsmakers, beveiligingsexperts en vertegenwoordigers vanuit de business.
3) Zie ook vraag 2).
Diensten, beleidsmedewerkers, enz., kunnen «Use Cases» aangeven, welke in aanmerking kunnen komen voor AI-PoC’s. Elke use case ondergaat een proces waarbij een aantal zaken worden bekeken, zoals budget, GDPR (General Data Protection Regulation), discriminatie, ethiek, veiligheid, enz., maar vooral ook de bijdrage aan het managementplan en beleidsnota’s. Het budget en resources zijn beperkt, dus er gebeurt een toets aan de hand van verschillende criteria. Het eerste en belangrijkste criterium hierbij is het voordeel voor de business en de bijdrage bij de organisatorische doelstellingen.
4) Het primaire doel van het gebruik van AI is verbeteren van de dienstverlening van Justitie. Dit kan door repetitieve taken van de werknemers uit handen te nemen zodat zij opnieuw meer tijd krijgen voor de inhoudelijke en menselijke kant van Justitie. Ook kan AI gebruikt worden voor het analyseren van grote datasets die relevant zijn voor beleidsvorming. De soorten data die de basis vormen voor AI toepassingen zijn:
– juridische documenten: wetten, gerechtelijke uitspraken, enz.;
– beleidsdocumenten.
Het is belangrijk om op te merken dat het gebruik van AI binnen federale overheidsdiensten zorgvuldig moet worden beheerd om ervoor te zorgen dat ethische overwegingen, privacybescherming en transparantie worden gewaarborgd. Dit omvat het waarborgen van de nauwkeurigheid en onpartijdigheid van AI-modellen, het beschermen van de privacy van individuen en het zorgen voor de verantwoording van besluitvormingsprocessen die door AI worden ondersteund.
Vorig jaar ging de werkgroep Ethics & Law van AI4Belgium (het AI-programma van de federale overheidsdienst Beleid en Ondersteuning (FOD BOSA) van start met het opstellen van een Belgisch charter voor verantwoord gebruik van AI in overheidsdiensten. De eerste versie van dit charter is onlangs gepubliceerd.
Dit charter heeft de volgende doelstellingen:
– ethische principes vaststellen voor de implementering van AI in overheidsdiensten;
– de burger uitleg geven over de manier waarop overheidsdiensten AI inzetten en ervoor zorgen dat de burger daar vertrouwen in heeft;
– het overheidspersoneel bewustmaken van de ethische aspecten van het gebruik van AI en de impact ervan op de mensenrechten, de democratie en de rechtstaat;
– ambtenaren responsabiliseren voor AI-gebruik;
– een signaal geven aan de burger dat de Belgische overheidsdiensten het goede voorbeeld geven op het vlak van digitale technologie, dat ze de mens te allen tijde centraal stellen en dat technologie slechts een middel is om het welzijn van de burger te verbeteren.
5) In de huidige PoC’s zijn er nog geen tools voorzien om de kwaliteit van de AI-systemen te monitoren (dit om hallucinatie, enz., te vermijden), om het behoud van de kwaliteit te behouden of om na te gaan hoe het AI-systeem tot zijn antwoord is gekomen. Na een succesvolle beëindiging van de PoC’s wordt er bekeken hoe de loggings en algoritmes transparant ter beschikking gesteld kunnen worden, met bijkomende duiding hoe het antwoord werd opgebouwd.
6) Zie vraag 2) voor het overzicht van AI toepassingen.
De grote kracht van de huidige AI-systemen is patroonherkenning en repetitieve taken te vereenvoudigen. Hierin heeft AI zijn kwaliteiten bewezen. Maar menselijke interactie is nog steeds nodig. De huidige AI PoC’s zijn dus enkel ondersteunend en elk resultaat moet dus nog steeds gevalideerd worden door de business owner die de eindverantwoordelijkheid draagt.
7) Juridische documentanalyse: AI kan worden ingezet om grote hoeveelheden juridische documenten, zoals wetten, gerechtelijke uitspraken en jurisprudentie, te analyseren en relevante informatie te extraheren. Dit kan helpen bij het versnellen van juridisch onderzoek, het identificeren van relevante precedenten en het verbeteren van de kwaliteit van juridische besluitvorming.
Verbeterde toegang tot justitie: Door middel van AI-gestuurde chatbots of virtuele assistenten kan Justitie de toegang tot juridische informatie en diensten verbeteren voor burgers. Dit kan bijvoorbeeld het verstrekken van juiste (juridische) informatie, het beantwoorden van veelgestelde vragen en het faciliteren van online juridische procedures omvatten. Deze chatbots zullen de juridische informatie ook in begrijpelijke taal kunnen toelichten aan de burger, zonder in te boeten aan juridische juistheid van de informatie. Zo wordt Justitie toegankelijker, ook voor niet specialisten.
Efficiëntieverbeteringen: AI kan worden ingezet om administratieve taken binnen Justitie te automatiseren, zoals het verwerken van juridische documenten, het beheren van gerechtelijke dossiers en het plannen van hoorzittingen. Dit kan de werklast van medewerkers verminderen en de efficiëntie van processen verbeteren.
De vooropgestelde doelen van deze AI-projecten kunnen variëren afhankelijk van de specifieke toepassing, maar kunnen over het algemeen gericht zijn op het verbeteren van de operationele efficiëntie, het vergroten van de effectiviteit van interventies en programma’s, het bevorderen van eerlijke en rechtvaardige besluitvorming, en het verbeteren van de toegang tot justitie voor alle burgers. Het is belangrijk dat deze projecten regelmatig worden geëvalueerd om te beoordelen in hoeverre ze voldoen aan hun doelstellingen, maar ook om eventuele ethische, juridische of operationele uitdagingen te identificeren en aan te pakken.