![]() |
![]() |
Artificiële intelligentie (AI) - Overheidsdiensten - Profilering - Privacy - Cijfers en tendensen
kunstmatige intelligentie
publieke dienst
belastingfraude
economisch delict
20/3/2024 | Verzending vraag (Einde van de antwoordtermijn: 18/4/2024) |
18/4/2024 | Antwoord |
Ook gesteld aan : schriftelijke vraag 7-2244
Ook gesteld aan : schriftelijke vraag 7-2246
Overheden over de hele wereld maken reeds gebruik van artificiële intelligentie (AI) in hun dagelijkse werk. De uitrol ervan varieert echter drastisch van land tot land, afhankelijk van een hele reeks factoren.
De Italiaanse overheid gebruikt bijvoorbeeld AI op verschillende manieren, zoals klantenservice-«chatbots» en het bestrijden van belastingontduiking. Een «chatbot» van het ministerie van Arbeid verstrekt informatie over het gegarandeerde minimuminkomen. Het gebruik van AI bij belastingfraudebestrijding, zoals met het «Anonimometro»-systeem, heeft successen geboekt door het automatiseren van analyses en door pseudonieme gegevens te gebruiken. Er is echter behoefte aan voorzichtigheid, vooral bij het implementeren van AI in kwetsbare gemeenschappen. In Rome wordt AI ingezet om waterleidingen te monitoren met behulp van sensoren en «machine learning».
De toepassing van AI binnen de overheid wordt bemoeilijkt door bezuinigingen en een verouderd ambtenarenapparaat. «Chatbots» hebben beperkingen en kunnen menselijke interactie niet volledig vervangen, vooral op straatniveau waar ambtenaren aanpassingen maken op basis van individuele situaties.
Overheidsmedewerkers experimenteren individueel met generatieve «AI-tools» om efficiënter te werken. Er zijn uitdagingen bij het gebruik van AI voor wetgevingsprocessen, waarbij wellicht aangepaste modellen nodig zijn voor specifieke toepassingen. De Italiaanse Kamer van afgevaardigden voert experimenten uit met AI in het wetgevingsproces. De «AI Act» van de Europese Unie (EU) zou lidstaten moeten aansporen AI te omarmen, maar in Italië wordt verwacht dat de reactie beperkt zal zijn zonder substantiële investeringen. Het publieksbewustzijn en de vraag naar AI in openbare diensten zijn er laag, wat de adoptie ervan door de overheid vertraagt (cf. https://democracy-technologies.org/industry-news/how-italys-government-is-using-ai/).
Op 10 februari 2023 nam de Senaat het voorstel van resolutie met betrekking tot de oprichting van een algoritmetoezichthouder van de heer Daems c.s. aan (doc. Senaat, nr. 7-328/4).
Bij de regeringsvorming in Nederland in 2021 werd in de beleidsverklaring van het regeerakkoord gesteld dat het land inzet op meer digitalisering. Naast de gebruikelijke verklaringen, waarbij men onder meer belooft verder in te zetten op de digitale kloof en de veiligheid op het internet, wordt ook vermeld dat men een algoritmetoezichthouder zal aanstellen om wettelijk te regelen «dat algoritmen worden gecontroleerd op transparantie, discriminatie en willekeur» (cf. https://www.parlement.com/id/vloreou0m8t6/regeerakkoord_2021).
Deze roep komt niet toevallig: de Nederlandse toeslagenaffaire liet zien dat de Belastingdienst vertrouwde op algoritmen die ze zelf amper kon begrijpen, laat staan uitleggen.
Ook in de Verenigde Staten, waar algoritmen binnen openbare instanties al veel verder verspreid zijn, bleek dat verschillende van deze diensten over onvoldoende middelen beschikten om de algoritmen te evalueren die ze zelf gebruikten (cf. https://www.nature.com/articles/d41586-018-05469-3).
Wat betreft het transversaal karakter van de schriftelijke vraag: gelet op de behandelde materies (informatie- en communicatietechnologie (ICT), wetenschap, privacy en digitalisering) gaat het hier om een transversale aangelegenheid die de federale overheid deelt met de Gemeenschappen en de Gewesten.
Graag had ik dan ook volgende vragen voorgelegd aan de geachte minister:
1) Gebruikt men in België reeds artificiële intelligentie of algoritmen om overheidszaken te regelen? Indien ja, op welke niveaus (gemeenten of andere niveaus) en kan u hierbij toelichten over hoeveel instanties het gaat? Zou u dit kunnen uitsplitsen per niveau? Welke overheidsdiensten maken hiervan gebruik, en kan u meer toelichting geven over de functie van AI-toepassingen binnen dit geheel?
2) Indien neen, plant men om in de toekomst dergelijke maatregelen te nemen? Indien ja, op welke niveaus, wat zijn de huidige geraamde kosten, wat zijn de beoogde doelen en wanneer plant men concreet de implementatie?
3) Wordt er gebruik gemaakt van «large language models» (LLM), «chatbots» en andere door AI gestuurde toepassingen bij overheidsdiensten? Zo ja, hoeveel in totaal? Zijn er specifieke toepassingen of processen waar AI wordt gebruikt om beslissingen te nemen of taken uit te voeren binnen deze diensten? Hoe lang zijn deze systemen reeds in gebruik? In hoeverre maakt men algemeen gebruik van generatieve AI?
4) Wordt door overheidsdiensten momenteel gebruik gemaakt van «webcrawling» en «datascraping»-technieken voor het verkrijgen van informatie? Zo ja, hoeveel in totaal en kunt u specifieke voorbeelden geven van hoe deze technologieën worden toegepast? Welke diensten gebruiken dergelijke technieken en hoe maken ze deel uit van de algemene «workflow»? Zijn er specifieke procedures voor het valideren en verifiëren van deze informatie?
5) Zijn er samenwerkingen met externe partijen of technologieleveranciers voor het implementeren dergelijke technologieën? Zo ja, hoe wordt de privacy en beveiliging van de verzamelde gegevens in dergelijke samenwerkingsverbanden gewaarborgd?
6) Welke maatregelen worden genomen om ervoor te zorgen dat AI-toepassingen binnen de overheid geen negatieve effecten hebben op kwetsbare gemeenschappen of groepen? Wordt AI momenteel gebruikt om belastingfraude en andere vormen van financieel misbruik tegen te gaan, zoals in Italië? Zo ja, op welke manier en hoeveel invloed heeft de AI op de besluitvorming? Is er nog sprake van een menselijke tussenkomst? Zo neen, waarom niet?
7) Wat is de perceptie van het publiek in België ten opzichte van AI in openbare diensten, en welke inspanningen worden geleverd om het bewustzijn en het begrip te vergroten? Welke strategieën worden overwogen of geïmplementeerd om ervoor te zorgen dat de integratie van AI in de Belgische overheid ethisch en verantwoord verloopt?
1) Wat de politiediensten betreft, beoogt het project «i-Police» een oplossing te bieden als antwoord op de exponentiële toename van de informatie waarmee de geïntegreerde politie te maken krijgt. Het i-Police project heeft daarbij tot doel om in de toekomst oplossingen aan te reiken die de verwerking van politionele gegevens verder ondersteunen, waar nuttig eventueel met behulp van artificiële intelligentie, voor zover dit doelmatig gebeurt en er een wettelijke basis voor bestaat.
In parallel heeft de federale politie zich geëngageerd in enkele (Europese) wetenschappelijke onderzoeksprojecten en in nieuwe expertise-profielen zoals «data scientists» om de evolutie van AI-ontwikkelingen voor rechtshandhaving op te volgen. Zodra de «AI Act» geïmplementeerd wordt, zullen er ook initiatieven mogelijk zijn om «sandboxes» te creëren. Hierin zal men kunnen testen of algoritmes of nieuwe technologieën efficiënt, effectief en rechtvaardig zijn. Men zal in die fase dus ook de «bias» (partijdigheid) van de toepassing van een tool kunnen testen.
2) Het i-Police project concentreert zich actueel op drie werven die ervoor moeten zorgen dat in een eerste tijd het politioneel informatiebeheer gegarandeerd kan blijven en dat tegelijkertijd de stappen naar verdere digitalisering worden gezet:
a) uitrol van een vernieuwd implementatieplan voor het moderniseren of vervangen van politietoepassingen:
– onderzoeken welke softwaretoepassingen en functionaliteiten uit het raamcontract met de leverancier (Sopra Steria) aan deze doelstelling kunnen bijdragen;
– versterken van de complementariteit met FOCUS@GPI;
b) vervanging van de Algemene Nationale Gegevensbank (gerechtelijk, bestuurlijk, verkeer) in twee stappen:
– het vervangen van de huidige centrale computer (mainframe);
– het overzetten van de data, en vervolgens ook de toepassingen die op de mainframe draaien;
c) de voltooiing van een digitaal dossierbeheerssysteem voor internationale politiesamenwerking om te voldoen aan de Europese verplichtingen hieromtrent.
Het is in dit stadium dus nog te vroeg om uitspraken te doen over concrete implementatietermijnen van eventuele AI-toepassingen en de daaraan verbonden kosten.
3) Voorlopig nog niet. Wat Microsoft en Copilot betreft, zal het product worden bestudeerd en in beperkte groep worden getest. We zitten nog maar in een verkennende fase waarin we het product leren kennen om te zien op welke manier het ons zou kunnen helpen. Deze tools worden in principe niet toegepast op reële operationele politionele gegevens aangezien de regeling daarvoor nog niet ontwikkeld is.
4) Dit soort technieken worden actueel niet aangeboden aan de eindgebruikers vanuit de diensten van de Directie politionele informatie en ICT.
Wanneer u spreekt over ambtenaren die individueel experimenteren, kan ik stellen dat dit uiteraard niet kan. De wet is hierin duidelijk, alle politionele gegevensverwerkingen gebeuren volgens de regels van en onder toezicht van de verschillende verantwoordelijken: de federale ministers, de verwerkingsverantwoordelijken van de federale politie en de lokale politiezones. Personeelsleden die op eigen houtje niet-goedgekeurde applicaties gebruiken of aan gegevensverwerking doen die niet voorzien zijn, zijn tuchtrechtelijk en strafrechtelijk strafbaar.
5) Wat de wettelijke aspecten betreft, zijn er gesprekken aan de gang tussen de politie en Microsoft over de verschillende aspecten in verband met AI en gegevensverwerking.
6) Voor elke verwerking van persoonsgegevens door de politiediensten die een hoog risico heeft op de rechten en vrijheden van personen en in het bijzonder wanneer er nieuwe technologieën gebruikt worden, wordt een gegevensbeschermingseffectbeoordeling (Data Protection Impact Assesment of DPIA) uitgevoerd. Deze gegevensbeschermingseffectbeoordeling heeft tot doel de mogelijke risico’s inzake de betreffende gegevensverwerking in kaart te brengen, evenals de maatregelen die genomen werden om deze risico’s tot een aanvaardbaar minimum te beperken. Wanneer er bijkomende maatregelen vereist zijn, worden die opgenomen in het verbeterplan met betrekking tot deze verwerking.
De AI act, die weldra in voege treedt, zal vereisten opleggen aan high risk AI systemen, onder andere inzake de opmaak van een «Fundamental Rights Risk Assessment», of inzake menselijke tussenkomst. Deze AI Act wordt actueel geanalyseerd door onze politiediensten op haar impact en omzetting.
7) Op Europees niveau werd de AI Act reeds gestemd worden en deze zal ook van toepassing zijn op de «Law enforcement Agencies» zoals de politiediensten. De Belgische politiediensten zullen dus enkel gebruik maken van AI-systemen die conform deze AI-act zijn, en uiteraard conform de principes van GDPR na omzetting van deze regels in Belgisch recht en eventueel aangevuld door ministeriële richtlijnen.