Tweetalige printerversie Eentalige printerversie

Schriftelijke vraag nr. 7-915

van Rik Daems (Open Vld) d.d. 17 december 2020

aan de vice-eersteminister en minister van Justitie, belast met Noordzee

Kunstmatige intelligentie - Politie- en strafrechtsystemen - Gebruik - Ethische kernbeginselen - Praktijken in andere Europese landen

kunstmatige intelligentie
politie
ethiek
toepassing van informatica
gegevensbescherming
eerbiediging van het privé-leven
informatiebeveiliging

Chronologie

17/12/2020 Verzending vraag (Einde van de antwoordtermijn: 21/1/2021 )
26/1/2021 Antwoord

Ook gesteld aan : schriftelijke vraag 7-916

Vraag nr. 7-915 d.d. 17 december 2020 : (Vraag gesteld in het Nederlands)

Kunstmatige intelligentie is een bepalende factor geworden voor de toekomst van de mensheid, omdat het individuele levens wezenlijk blijft transformeren en invloed heeft op menselijke gemeenschappen.

Kunstmatige intelligentie brengt zowel kansen als uitdagingen met zich mee. Kunstmatige intelligentie («artificial intelligence» – AI) is een van de grote technologische uitdagingen van onze eeuw. Hoewel het aanzienlijke mogelijkheden biedt voor de samenleving en het individu, is het ook van invloed op de normen die door de Raad van Europa worden beschermd: mensenrechten, democratie en de rechtsstaat. Het is daarom van het grootste belang om de juiste balans te vinden tussen het beperken van de risico's en het volledig benutten van de voordelen die kunstmatige intelligentie kan bieden bij het bevorderen van een beter leven voor iedereen (zie het rapport van de Raad van Europa hierover: https://pace.coe.int/pdf/1a89c0686632daa7d41ccf3543316097a9b747793326667a8259ffe25682ae848428feba12/doc.%2015156.pdf).

Het gebruik van kunstmatige intelligentie-instrumenten in politie- en strafrechtsystemen brengt bijzondere risico's voor de mensenrechten met zich mee. Dit is vooral vanwege het belang van de besluiten die op basis van algoritmische output kunnen worden genomen - besluiten over bewaking, huiszoeking en inbeslagneming, arrestatie, detentie, veroordeling, vrijlating op borgtocht of voorwaardelijke vrijlating, enz.

Ook de ethische beginselen staan centraal bij het gebruik van kunstmatige intelligentie. Er zijn veel manieren waarop het gebruik van AI in politie- en strafrechtsystemen in strijd kan zijn met die ethische kernbeginselen. Hoewel het gebruik van AI in politie- en strafrechtsystemen aanzienlijke voordelen kan hebben als het goed wordt gereguleerd, dreigt het bijzonder ernstige gevolgen te hebben voor de mensenrechten als dat niet het geval is.

Zo kunnen AI-systemen worden geleverd door particuliere bedrijven, die zich kunnen beroepen op hun intellectuele-eigendomsrechten om de toegang tot de broncode te ontzeggen. Het bedrijf kan zelfs eigenaar worden van de gegevens die door het systeem worden verwerkt, ten nadele van het overheidsorgaan dat gebruik maakt van zijn diensten.

AI-systemen worden getraind op massale datasets, die kunnen worden aangetast door historische bias, onder meer door indirecte correlatie tussen bepaalde voorspellende variabelen en discriminerende praktijken (zoals postcode die een proxy-identificatie is voor een etnische gemeenschap die historisch gezien een discriminerende behandeling ondergaat). De voorbeelden van ethische kernbeginselen die kunnen aangetast worden, zijn eindeloos. Een goede regulering bij het invoeren van kunstmatige intelligentiesystemen is cruciaal.

Voorbeelden van hoe kunstmatige intelligentie wordt gebruikt, vinden we terug in andere Europese landen. Het gaat dan onder meer om gezichtsherkenning, voorspellende politiediensten, de identificatie van potentiële slachtoffers van misdrijven, risicobeoordeling bij de besluitvorming over voorlopige hechtenis, veroordeling en voorwaardelijke vrijlating, en de identificatie van «cold cases» die nu met behulp van moderne forensische technologie zouden kunnen worden opgelost.

Wat betreft het transversale karakter van de vraag: het betreft een transversale aangelegenheid met de Gemeenschappen daar kunstmatige intelligentie betrekking heeft op justitie, een deelstaatbevoegdheid. Alsook, de aanpak van de uitdagingen op vlak van de digitalisering van overheidsdiensten en -taken is een gedeelde bevoegdheid tussen de federale overheid en de deelstaten, niet het laatst wegens het privacy- en securityvraagstuk.

Graag had ik hieromtrent dan ook een antwoord gekregen op volgende vragen:

1) Hoe staat u tegenover kunstmatige intelligentie in het Belgische politie- en strafrechtsysteem?

2) Wordt kunstmatige intelligentie gebruikt in ons Belgische politie- en strafrechtsysteem? Zo ja, hoe? Welke functies vervullen zij?

3) Overweegt u om (meer) gebruik te maken van kunstmatige intelligentiesystemen? En zo ja, waarom en in welke functies? Zo neen, waarom niet?

4) Hoe zorgt u ervoor dat deze kunstmatige intelligentiesystemen voldoen aan de ethische kernbeginselen i.e. transparantie, rechtvaardigheid en billijkheid (met inbegrip van non-discriminatie), menselijke verantwoordelijkheid voor beslissingen, veiligheid en beveiliging, privacy en gegevensbescherming?

5) Zal u kijken naar praktijken in andere Europese landen in verband met kunstmatige intelligentie opdat deze mogelijks in België gebruikt kunnen worden?

Antwoord ontvangen op 26 januari 2021 :

Gezien de bevoegdheid van mijn collega Mathieu Michel, staatssecretaris voor Digitalisering, belast met Administratieve Vereenvoudiging, Privacy en de Regie der Bebouwen, wil ik er in de eerste plaats op wijzen dat dit antwoord met hem is gecoördineerd.

Het gebruik van kunstmatige intelligentie in het politie- en strafrechtsysteem is een echte opportuniteit, inzonderheid wat de rechtsstaat betreft, en biedt potentieel om de toegang tot de rechter voor en door alle burgers te verbeteren en om het werk van de rechtsbeoefenaars te faciliteren.

In de aanpak van die digitale transformatie moet het menselijke aspect centraal staan en moeten de fundamentele rechten waarin het rechtssysteem voorziet alsook de beginselen van de rechtsstaat in acht worden genomen. De digitale transformatie moet het ook mogelijk maken om hoogkwalitatieve en transparante rechterlijke beslissingen te nemen alsook voor alle burgers een gelijke toegang tot de rechter te waarborgen.

Tegelijk is het gebruik van op kunstmatige intelligentie gebaseerde instrumenten in politie- en strafrechtsystemen inderdaad een bijzonder gevoelige toepassing waarvoor in een duidelijk juridisch kader en aanvullende maatregelen moet worden voorzien teneinde de inachtneming van de fundamentele rechten te waarborgen.

Het gebruik van kunstmatige intelligentie vereist de inachtneming van ethische en juridische beginselen die de bescherming van de persoonsgegevens en de bescherming van de fundamentele rechten en vrijheden waarborgen.

Die ethische beginselen en rechtsregels moeten nauwgezet in acht worden genomen, zulks in de aanloop naar en tijdens ieder gebruik van die technologie.

Ik heb inderdaad kennisgenomen van de werkzaamheden van de Raad van Europa inzake kunstmatige intelligentie en inzonderheid van het rapport van de Raad van Europa over Justitie en de algoritmen in het meer specifieke kader van het strafrecht.

Naast dat verslag zijn er de jongste jaren binnen diverse Europese instellingen initiatieven genomen om het gebruik van kunstmatige intelligentie te flankeren, ook binnen het strafrecht, onder andere:

– het opstellen van aanbevelingen rond het ethische aspect van kunstmatige intelligentie door de Organisatie der Verenigde Naties voor onderwijs, wetenschap en cultuur (United Nations Educational, Scientific and Cultural Organization – UNESCO);

– het opstellen van richtsnoeren voor gezichtsherkenning in het kader van een subwerkgroep die werd opgericht binnen het Europees Comité voor gegevensbescherming;

– het opstellen van richtsnoeren voor gezichtsherkenning in het kader van de Adviescommissie van het Verdrag 108, binnen de Raad van Europa;

– een studie met de titel «Kunstmatige intelligentie en rechtshandhaving» in opdracht van de commissie Burgerlijke Vrijheden, Justitie en Binnenlandse Zaken (LIBE-commissie) van het Europees Parlement, uitgevoerd door de Vrije Universiteit Brussel (VUB) en gepubliceerd in juli 2020. Die studie geeft een overzicht van de gevaren van gezichtsherkenningstechnologie en pleit voor een duidelijk juridisch kader als er beleidsmatig wordt beslist om de technologie verder te ontwikkelen;

– het Bureau van de Europese Unie voor de grondrechten publiceerde in 2019 een verslag over gezichtsherkenning en de grondrechten. Zopas, op 13 december 2020, publiceerde het een verslag over kunstmatige intelligentie en de grondrechten, waarin nogmaals wordt gewezen op de gevoeligheid van het gebruik van dat soort technologie en de hoge risico’s die eraan verbonden zijn;

– voorts heeft de Europese Commissie na de publicatie van haar Witboek over kunstmatige intelligentie haar werkzaamheden ter zake voortgezet en zit er voor de lente van 2021 een wetgevend initiatief inzake kunstmatige intelligentie in de pijplijn. In dat witboek wordt erop gewezen dat gezichtsherkenningstechnologieën moeten worden beschouwd als zeer risicovolle toepassingen van kunstmatige intelligentie;

– tot slot heeft de Raad van de Europese Unie verschillende conclusies met betrekking tot de digitale transformatie aangenomen, waarin wordt gewezen op de noodzaak tot flankering van het gebruik van gezichtsherkenningstechnologieën.

Ter zake volg ik aandachtig alle ontwikkelingen op Europees en internationaal niveau.

In het kader van de Europese en internationale werkzaamheden ter zake leg ik er regelmatig de nadruk op dat het belangrijk is om transparantie te eisen, dat de gegevens van goede kwaliteit moeten zijn teneinde het risico op bias te voorkomen en dat het gebruik van geautomatiseerde instrumenten geen invloed mag hebben op de rechterlijke onafhankelijkheid, wat derhalve impliceert dat iedere beslissing van een hof aan menselijke controle moet worden onderworpen.

Al die elementen zijn obstakels die moeten worden overwonnen alvorens de veralgemening van het gebruik van op kunstmatige intelligentie gebaseerde technologieën in het politie- en strafrechtsysteem in overweging kan worden genomen.