SÉNAT DE BELGIQUE BELGISCHE SENAAT
________________
Session 2017-2018 Zitting 2017-2018
________________
16 mai 2018 16 mei 2018
________________
Question écrite n° 6-1869 Schriftelijke vraag nr. 6-1869

de Jean-Jacques De Gucht (Open Vld)

van Jean-Jacques De Gucht (Open Vld)

au secrétaire d'État à la Lutte contre la fraude sociale, à la Protection de la vie privée et à la Mer du Nord, adjoint à la ministre des Affaires sociales et de la Santé publique

aan de staatssecretaris voor Bestrijding van de sociale fraude, Privacy en Noordzee, toegevoegd aan de minister van Sociale Zaken en Volksgezondheid
________________
Fraude à l'aide sociale - Lutte - Utilisation d'algorithmes - Discrimination - Tranparence - Étude Bijstandsfraude - Strijd - Gebruik van algoritmes - Discriminatie - Transparantie - Studie 
________________
mégadonnées
prestation sociale
aide sociale
fraude
travail au noir
traitement de l'information
traitement des données
application de l'informatique
big data
sociale uitkering
sociale bijstand
fraude
zwartwerk
informatieverwerking
gegevensverwerking
toepassing van informatica
________ ________
16/5/2018Verzending vraag
(Einde van de antwoordtermijn: 15/6/2018)
6/6/2018Antwoord
16/5/2018Verzending vraag
(Einde van de antwoordtermijn: 15/6/2018)
6/6/2018Antwoord
________ ________
Aussi posée à : question écrite 6-1868 Aussi posée à : question écrite 6-1868
________ ________
Question n° 6-1869 du 16 mai 2018 : (Question posée en néerlandais) Vraag nr. 6-1869 d.d. 16 mei 2018 : (Vraag gesteld in het Nederlands)

Quatre communes néerlandaises utilisent déjà un algorithme pour déterminer quels citoyens s'adonnent à la fraude à l'aide sociale. Des enquêteurs sociaux contrôlent les personnes qui ont été désignées fraudeurs potentiels par le logiciel.

Les « décisions prises par des ordinateurs » suscitent une certaine inquiétude. Le secrétaire d'État néerlandais Raymond Knops a récemment réagi à l'étude de Marlies van Eck (Université de Tilburg) sur les citoyens qui ne bénéficient pas d'une protection juridique suffisante lorsque des décisions financières sont prises par des ordinateurs. En réponse à des questions parlementaires posées par des membres du VVD, il a indiqué que le citoyen n'avait pas à pâtir de décisions prises par les ordinateurs.

Les autorités se basent de plus en plus sur les big data dans le processus décisionnel, mais ces informations sont souvent loin d'être neutres : ce n'est pas parce que la loi est respectée que l'éthique l'est.

Quant au caractère transversal de la question : les différents gouvernements et maillons de la chaîne de sécurité se sont accordés sur les phénomènes qui doivent être traités en priorité au cours des quatre prochaines années. Ceux-ci sont définis dans la Note-cadre de Sécurité intégrale et dans le Plan national de sécurité pour la période 2016-2019 et ont fait l'objet d'un débat lors d'une Conférence interministérielle à laquelle les acteurs de la police et de la justice ont également participé. La criminalité informatique et la protection de la vie privée font partie des priorités fixées. La discrimination est également un thème transversal.

Je souhaiterais vous poser les questions suivantes :

1) Utilise-t-on déjà des algorithmes, dans notre pays, pour déterminer quels citoyens s'adonnent effectivement à la fraude à l'aide sociale ? Dans l'affirmative, pouvez-vous fournir des explications concrètes et détaillées ? Dans la négative, pourquoi, et envisage-t-on de le faire ?

2) Quelles données historiques sont-elles (peuvent-elles être) utilisées pour l'analyse de fraudes éventuelles à l'aide sociale ? Pouvez-vous détailler votre réponse ?

3) Connaissez-vous bien le risque de discrimination lié à l'utilisation d'algorithmes dont le fonctionnement ne serait pas transparent ou contrôlable ou serait basé sur des données issues de contrôles sélectifs ?

4) Le fonctionnement des algorithmes utilisés est-il transparent et contrôlable ? Dans l'affirmative, qui en assure le contrôle et où peut-on le retrouver ?

5) Impose-t-on des normes de transparence et autres conditions aux personnes qui fournissent ces algorithmes ? Dans la négative, pourquoi ? Dans l'affirmative, en quoi ces normes consistent-elles ?

6) Aux Pays-Bas, le secrétaire d'État aux Affaires intérieures et aux Relations au sein du Royaume a réalisé une étude sur les algorithmes utilisés par les autorités. Une étude similaire est-elle en cours dans notre pays, et, dans la négative, est-elle envisagée ? Pouvez-vous fournir des détails sur le calendrier et le contenu de cette éventuelle étude ?

7) Pouvez-vous m'indiquer, à l'aide de données chiffrées, si les algorithmes déjà utilisés produisent des résultats sur le terrain et si ceux-ci sont proportionnels à leur coût ?

 

Een viertal Nederlandse gemeenten gebruikt reeds een algoritme om te voorspellen welke burgers bijstandsfraude plegen. Sociale rechercheurs onderzoeken degenen die door de software worden aangewezen als vermoedelijke fraudeur.

Er bestaat ongerustheid rondom « computerbesluiten ». Nederlands staatssecretaris Knops reageerde onlangs op het onderzoek van Marlies van Eck (Tilburg University) over burgers die onvoldoende juridisch beschermd zijn wanneer er met computers financiële besluiten worden genomen. In een reactie op Kamervragen van de VVD hierover zegt hij dat het niet de bedoeling is dat de burger nadeel ondervindt van computerkeuzes.

Op steeds grotere schaal zetten overheden big data in als basis voor besluitvorming, maar die informatie is vaak allesbehalve neutraal : de wet wordt weliswaar nageleefd, maar daarom niet de ethiek.

Wat betreft het transversaal karakter van de vraag : de verschillende regeringen en schakels in de veiligheidsketen zijn het eens over de fenomenen die de komende vier jaar prioritair moeten worden aangepakt. Die staan gedefinieerd in de kadernota Integrale Veiligheid en het Nationaal Veiligheidsplan voor de periode 2016-2019, en werden besproken tijdens een Interministeriële Conferentie, waarop ook de politionele en justitiële spelers aanwezig waren. Eén van de vastgelegde prioriteiten is de informaticacriminaliteit en de bescherming van de privacy. Discriminatie is eveneens een transversaal thema.

Graag had ik u volgende vragen voorgelegd :

1) Worden in ons land reeds algoritmes gebruikt om te voorspellen wie daadwerkelijk aan bijstandsfraude doet ? Zo ja, kunt u concreet en gedetailleerd toelichten ? Zo neen, waarom niet en wordt dit overwogen in de toekomst ?

2) Welke historische data (kunnen) worden gebruikt voor de analyse van mogelijke bijstandsfraude ? Kunt u dit uitvoerig toelichten ?

3) Bent u vertrouwd met het risico op discriminatie bij gebruik van algoritmes als de werking van deze algoritmes niet transparant en controleerbaar is of gebaseerd op data die door selectieve handhaving tot stand is gekomen ?

4) Is de werking van de bestaande algoritmes die worden toegepast transparant en controleerbaar ? Zo ja, wie controleert die en waar kan men deze terugvinden ?

5) Worden er transparantienormen en andere voorwaarden opgelegd aan de leveranciers van deze algoritmes ? Zo neen, waarom niet ? Zo ja, waaruit bestaan deze ?

6) In Nederland werd een onderzoek gevoerd door de staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties over het gebruik van algoritmes door overheden. Is er een gelijkaardig onderzoek lopende in ons land en zo neen, overweegt u dit ? Kunt u uitvoerig toelichten wat het tijdschema en de inhoud van dit gebeurlijk onderzoek zijn ?

7) Kunt u cijfermatig meedelen of de reeds gebruikte algoritmes resultaten opleveren op het terrein en staan deze in verhouding tot de kostprijs ervan ?

 
Réponse reçue le 6 juin 2018 : Antwoord ontvangen op 6 juni 2018 :

Les questions sur le service public de programmation (SPP) Intégration sociale et le contrôle sur le salaire minimal vital au niveau local, ressortent respectivement de la compétence de mon collègue Ducarme, compétent pour l’Intégration sociale, et les ministres communautaires et les administrations locales compétents.

En tant que secrétaire d’État compétent pour le SIRS, le regroupement des services fédéraux d’inspection sociale (ONSS, INASTI, CLS/CBT, ONEM et INAMI), je peux vous dire que j’investis beaucoup dans la technique du datamatching et datamining dans ma politique. Le datamatching consiste en la liaison de banques de données (par exemple emploi et chômage, chômage et indemnités maladie, etc.), où des contrôles se font via la Banque carrefour de la sécurité sociale (BCSS) sur le NISS, le numéro de Registre national, etc. Cette technique exclut des personnes fictives et fonctionne assez bien. Des données sont notamment échangées avec les Pays-Bas sur le plan de l’emploi et du chômage. Le point de contact fraude sociale effectue également ces contrôles, ce qui mène à peine à 1,9 % de signalements fictifs sur les 9 000 signalements de fraude sociale l’année passée. Dans le projet pilote push des données énergie et eaux dans le cadre de la lutte contre la fraude au domicile on procède également de la même manière. Pour le point de contact et le push énergie un signal ne forme jamais une base suffisante de fraude sociale, mais il doit être complété d’éléments supplémentaires dans l’enquête. Avec des obligations légales d’entretien préliminaire, etc.

Certains services d’inspection sociale vont plus loin et font du dataminig. Sur base des informations notamment provenant des banques de données Dimona, Limosa, checkin@work, des infractions précédentes, etc., des profils à risque sont établis et le risque d’être pris s’élève à plus de 80 %. Dans un contexte européen il ressort que la Belgique est bien évoluée sur le plan d’e-government et des systèmes comme Limosa (depuis 2007) et checkin@work (depuis 2014) et l’utilisation de ces données en vue des contrôles ciblés.

Ce datamatching et datamining nous permettent de cibler les contrôles de plus en plus sur des situations malhonnêtes, afin de moins devoir contrôler les entreprises et employés honnêtes.

La technologie continue à évoluer. Je vous donne raison lorsque vous dites que les big data forment des risques sur le plan de la criminalité informatique et la protection de la vie privée.

Avec le nouveau GDPR et l’Autorité belge de protection des données qui sont entrés en vigueur le 25 mai 2018, des garanties supplémentaires ont été incorporées afin de protéger les données à caractère personnel. Dans le nouveau GBA, un contre de connaissances est également prévu pour émettre des avis sur les nouveaux phénomènes sociaux. L’évolution des big data par les autorités en est un de ces phénomènes à analyser sur le plan des opportunités et des risques.

De vragen met betrekking tot de programmatoirsche overheidsdienst (POD) Maatschappelijke Integratie en de controle op de leeflonen op lokaal niveau, vallen onder de bevoegdheid van respectievelijk collega Ducarme, bevoegd voor Maatschappelijke Integratie, en de bevoegde gemeenschapsministers en lokale besturen.

Wel kan ik u als bevoegd staatssecretaris voor de SIOD, de koepel van federale sociale inspectiediensten (RSZ, RSVZ, TSW/TWW, RVA en RIZIV), meegeven dat ik in mijn beleid sterk inzet op technieken van datamatching en datamining. Datamatching bestaat uit het koppelen van databanken (bijvoorbeeld werk en werkloosheid, werkloosheid en ziekte-uitkering, enz.), waarbij er via de Kruispuntbank sociale zekerheid (KSZ) checks gebeuren op het INSZ-nummer, rijksregisternummer, enz. Deze techniek sluit fictieve personen uit en werkt vrij goed. Zo worden er ook gegevens uitgewisseld met onder meer Nederland op vlak van tewerkstelling en werkloosheid. Ook het centraal meldpunt sociale fraude doet deze checks, wat op de bijna 9 000 meldingen sociale fraude sinds vorig jaar leidt tot nauwelijks 1,9 % fictieve meldingen. Ook in het pilootproject push van energie- en watergegevens in het kader van de strijd tegen de domiciliefraude wordt er op die manier tewerk gegaan. Voor het meldpunt en de push energie is een knipperlicht nooit een voldoende grond voor sociale fraude, maar moet dit aangevuld worden met bijkomende elementen in een onderzoek. Met wettelijk gewaarborgde rechten op verhoor en dergelijke.

Een aantal sociale inspectiediensten gaat een stap verder en doet aan datamining. Op basis van informatie bijvoorbeeld uit databanken Dimona, Limosa, checkin@work, eerdere inbreuken, enz., worden er risicoprofielen opgesteld waarbij de pakkans bij controle oploopt tot meer dan 80 %. In een Europese context valt het op dat België ver staat op het vlak van e-government en systemen als Limosa (sinds 2007) en checkin@work (sinds 2014) en het aanwenden van deze gegevens met het oog op gerichte controles.

Deze datamatching en datamining laten ons toe de controles steeds meer te richten op de malafide situaties, zodat we de bonafide ondernemingen en werknemers minder hoeven te controleren.

De technologie evolueert steeds verder. Ik geef u gelijk wanneer u stelt dat big data risico’s vormt op het vlak van informaticacriminaliteit en privacy.

Met de nieuwe GDPR en de Belgische Gegevensbeschermingsautoriteit die sinds 25 mei 2018 in werking zijn, zijn er bijkomende garanties ingebouwd ter bescherming van persoonsgegevens. In de nieuwe GBA is ook voorzien in een kenniscentrum dat adviezen kan geven over nieuwe maatschappelijke fenomenen. De verdere evolutie van big data door de overheid is zo’n fenomeen dat verder te onderzoeken valt op het vlak van kansen en risico’s.