Version à imprimer bilingue Version à imprimer unilingue

Question écrite n° 6-1868

de Jean-Jacques De Gucht (Open Vld) du 16 mai 2018

au vice-premier ministre et ministre de la Coopération au développement, de l'Agenda numérique, des Télécommunications et de la Poste

Fraude à l'aide sociale - Lutte - Utilisation d'algorithmes - Discrimination - Tranparence - Étude

prestation sociale
aide sociale
fraude
travail au noir
traitement de l'information
traitement des données
application de l'informatique
mégadonnées

Chronologie

16/5/2018Envoi question (Fin du délai de réponse: 15/6/2018)
12/6/2018Réponse

Aussi posée à : question écrite 6-1869

Question n° 6-1868 du 16 mai 2018 : (Question posée en néerlandais)

Quatre communes néerlandaises utilisent déjà un algorithme pour déterminer quels citoyens s'adonnent à la fraude à l'aide sociale. Des enquêteurs sociaux contrôlent les personnes qui ont été désignées fraudeurs potentiels par le logiciel.

Les « décisions prises par des ordinateurs » suscitent une certaine inquiétude. Le secrétaire d'État néerlandais Raymond Knops a récemment réagi à l'étude de Marlies van Eck (Université de Tilburg) sur les citoyens qui ne bénéficient pas d'une protection juridique suffisante lorsque des décisions financières sont prises par des ordinateurs. En réponse à des questions parlementaires posées par des membres du VVD, il a indiqué que le citoyen n'avait pas à pâtir de décisions prises par les ordinateurs.

Les autorités se basent de plus en plus sur les big data dans le processus décisionnel, mais ces informations sont souvent loin d'être neutres : ce n'est pas parce que la loi est respectée que l'éthique l'est.

Quant au caractère transversal de la question : les différents gouvernements et maillons de la chaîne de sécurité se sont accordés sur les phénomènes qui doivent être traités en priorité au cours des quatre prochaines années. Ceux-ci sont définis dans la Note-cadre de Sécurité intégrale et dans le Plan national de sécurité pour la période 2016-2019 et ont fait l'objet d'un débat lors d'une Conférence interministérielle à laquelle les acteurs de la police et de la justice ont également participé. La criminalité informatique et la protection de la vie privée font partie des priorités fixées. La discrimination est également un thème transversal.

Je souhaiterais vous poser les questions suivantes :

1) Utilise-t-on déjà des algorithmes, dans notre pays, pour déterminer quels citoyens s'adonnent effectivement à la fraude à l'aide sociale ? Dans l'affirmative, pouvez-vous fournir des explications concrètes et détaillées ? Dans la négative, pourquoi, et envisage-t-on de le faire ?

2) Quelles données historiques sont-elles (peuvent-elles être) utilisées pour l'analyse de fraudes éventuelles à l'aide sociale ? Pouvez-vous détailler votre réponse ?

3) Connaissez-vous bien le risque de discrimination lié à l'utilisation d'algorithmes dont le fonctionnement ne serait pas transparent ou contrôlable ou serait basé sur des données issues de contrôles sélectifs ?

4) Le fonctionnement des algorithmes utilisés est-il transparent et contrôlable ? Dans l'affirmative, qui en assure le contrôle et où peut-on le retrouver ?

5) Impose-t-on des normes de transparence et autres conditions aux personnes qui fournissent ces algorithmes ? Dans la négative, pourquoi ? Dans l'affirmative, en quoi ces normes consistent-elles ?

6) Aux Pays-Bas, le secrétaire d'État aux Affaires intérieures et aux Relations au sein du Royaume a réalisé une étude sur les algorithmes utilisés par les autorités. Une étude similaire est-elle en cours dans notre pays, et, dans la négative, est-elle envisagée ? Pouvez-vous fournir des détails sur le calendrier et le contenu de cette éventuelle étude ?

7) Pouvez-vous m'indiquer, à l'aide de données chiffrées, si les algorithmes déjà utilisés produisent des résultats sur le terrain et si ceux-ci sont proportionnels à leur coût ?

Réponse reçue le 12 juin 2018 :

1) L’administration fédérale dispose d'une quantité de données qui deviennent de plus en plus importantes dans le cadre de la transformation numérique. Actuellement, nous ne disposons cependant pas (encore) d’une stratégie d'information transversale commune pour l’utilisation et l’analyse politiques de données. L’enregistrement et le traitement de ces données relèvent de la responsabilité des ministres concernés respectifs conformément aux lignes de conduite générales telles que le respect de la vie privée et la non-discrimination.

2) Concernant l’aperçu des données historiques qui peuvent être utilisées pour l’analyse de la fraude possible à l’aide sociale, je vous renvoie à mes collègues, le ministre des Affaires sociales et de la Santé publique, et le secrétaire d'État à la Lutte contre la fraude sociale, à la Protection de la vie privée et à la Mer du Nord.

3), 4) & 5) L'utilisation de « big data » et d’algorithmes ouvre d’énormes possibilités sur le plan du traitement et de la performance. Le mode de gestion de ces aspects, ainsi que la transparence de l’action gouvernementale, constituent des responsabilités importantes. La nouvelle Autorité de protection des données et les comités de sécurité de l’information en cours de création doivent, en collaboration avec les « Data Protection Officers », veiller, au sein des organisations respectives, à ce que les données à caractère personnel soient minutieusement collectées, enregistrées et traitées.

6) Actuellement, l’utilisation d'algorithmes par les autorités ne fait l'objet d’aucun examen général, mais nous examinons les possibilités de « big data » et d’intelligence artificielle au sein de l’administration.

7) Les algorithmes utilisés donnent des résultats sur le terrain d’après les utilisateurs, bien que je ne puisse pas le justifier pour l'instant.