Version à imprimer bilingue Version à imprimer unilingue

Question écrite n° 7-83

de Willem-Frederik Schiltz (Open Vld) du 14 octobre 2019

au ministre de l'Agenda numérique, des Télécommunications et de la Poste, chargé de la Simplification administrative, de la Lutte contre la fraude sociale, de la Protection de la vie privée et de la Mer du Nord

Infox - Vidéos hypertruquées - Manipulation politique - Sûreté de l'État - Médias sociaux

sûreté de l'Etat
désinformation
communauté virtuelle
traitement de l'information
médias sociaux

Chronologie

14/10/2019Envoi question (Fin du délai de réponse: 14/11/2019)
19/11/2019Réponse

Aussi posée à : question écrite 7-81
Aussi posée à : question écrite 7-82

Question n° 7-83 du 14 octobre 2019 : (Question posée en néerlandais)

Les infox (fake news) sont un poison pour notre société. Elles déstabilisent la démocratie et sapent la confiance dans l'État de droit. Elles constituent un puissant instrument dans la course au profit ou au pouvoir politique à tous les niveaux, depuis l'échelon local jusqu'aux régimes répressifs. Nous avons pu observer à quel point les infox contaminent le débat public, favorisent la polarisation et influencent les électeurs. Les menaces grandissent à mesure que les armes de désinformation se perfectionnent, qu'il s'agisse d'usines à trolls financées par des États, d'armées de bots informatiques ou de contenus malveillants, qui sèment la discorde dans les communautés.

L'une des nouvelles technologies les plus dangereuses est le trucage de vidéos: il s'agit de manipulations de l'image et du son hyperréalistes et de plus en plus difficiles à repérer. Avec un peu d'adresse, on peut, dans une vidéo, faire dire à quelqu'un des choses qu'il n'a pas dites. La technique du trucage de vidéos n'est pas neuve et a déjà fait la une de l'actualité voici quelques années, lorsque des vidéos pornographiques mettant en scène des personnalités connues, comme Natalie Portman, Gal Gadot, Emma Watson et Michelle Obama, ont commencé à circuler. Par le passé, il fallait disposer d'une grande quantité d'images de la personne pour réaliser un tel trucage.

Aujourd'hui, il est déjà possible de le faire à partir d'une seule photo. En mai 2019, cette technologie a déjà été lancée par l'entreprise russe Wireless Lab. L'application que celle-ci a lancée, FaceApp, a essuyé un feu nourri de critiques. Ceux qui ont critiqué l'application ont souligné entre autres que celle-ci enregistre de nombreuses données personnelles qu'elle pourrait utiliser à d'autres fins. Plus récemment, c'est la nouvelle application Zao qui a à nouveau propulsé la technologie du trucage de vidéos sur le devant de la scène. Cette application était elle aussi particulièrement problématique. Zao permet à son utilisateur d'afficher son propre visage sur des images en mouvement. Les conditions d'utilisation de cette application exigeaient toutefois que les utilisateurs renoncent à leur droit à l'image. Zao peut ainsi utiliser les images, entre autres pour réaliser des publicités.

Depuis peu, on voit apparaître un plus grand nombre de vidéos politiques élaborées à l'aide de cette technologie, comme la vidéo truquée de Nancy Pelosi, la présidente démocrate de la Chambre des représentants. Alors qu'elle avait déjà été visionnée par des millions de personnes, Facebook a refusé de retirer cette vidéo montrant Mme Pelosi en état d'ivresse. En Malaisie et au Gabon, des vidéos truquées auraient déjà été utilisées à des fins politiques au moment des élections. Cette pratique n'en est certainement qu'à ses débuts.

Les États-Unis tentent d'anticiper cette nouvelle menace dans la perspective des prochaines élections présidentielles. Des efforts sont fournis à la fois au niveau politique et au niveau de la recherche. Des chercheurs de l'université de Berkeley ont ainsi développé une méthode de détection automatique de certains trucages de vidéos.

Aux Pays-Bas, une étude de l'institut I&O Research a montré que le potentiel de cette technologie peut avoir des répercussions profondes sur les élections et pourrait bien devenir la nouvelle forme d'infox la plus foisonnante. Le parti D66 plaide aujourd'hui en faveur d'une plus grande transparence de Google, Twitter et Facebook afin de pouvoir mieux combattre la diffusion de vidéos hypertruquées.

Le sujet de la présente question concerne une matière communautaire transversale, l'enseignement ayant un rôle essentiel à jouer dans l'éducation des jeunes au repérage des infox et à une utilisation clairvoyante des médias.

Je souhaiterais dès lors poser les questions suivantes au ministre.

1) Quelles mesures les différentes autorités de notre pays prennent-elles déjà pour lutter contre les infox? Ces mesures s'intéressent-elles déjà aux vidéos hypertruquées?

2) En ce qui concerne la Sûreté de l'État, le ministre peut-il préciser les effets concrets de ces mesures en termes d'infox et de vidéos hypertruquées?

3) En ce qui concerne spécifiquement les vidéos hypertruquées, le ministre peut-il indiquer comment nous faisons face aux menaces que ce phénomène représente pour notre démocratie, ainsi qu'au radicalisme (entre autres d'extrême droite)?

4) Quelles stratégies met-on en œuvre pour lutter contre les infox? Quelle action préventive et proactive nos services de sécurité déploient-ils dans ce domaine? Se préoccupe-t-on déjà des vidéos hypertruquées? Si oui, de quelle manière; si non, pour quelle raison?

5) La Belgique a-t-elle déjà été confrontée à une manipulation au moyen de vidéos truquées? Si oui, dans combien de cas? Le ministre peut-il donner des explications concrètes? Comment nos instances y ont-elles fait face?

6) Le ministre a-t-il déjà évoqué le problème des infox et en particulier des vidéos hypertruquées au niveau européen? Si oui, quelles mesures prendra-t-on? Savons-nous si ces vidéos hypertruquées ont joué un rôle dans le déroulement des dernières élections européennes?

7) Le ministre a-t-il déjà confié à des chercheurs la mission de lutter contre cette nouvelle forme d'infox, que ce soit ou non en partenariat avec les Communautés? Nos universités mènent-elles déjà des recherches sur les méthodes et techniques qui permettraient d'identifier des vidéos hypertruquées? Certains chercheurs au sein de nos universités centrent-ils leur travail sur la technologie de trucage de vidéos?

8) Le ministre soutient-il le plaidoyer en faveur d'une plus grande transparence de Google, Twitter et Facebook, laquelle faciliterait la lutte contre le trucage de vidéos? Peut-il détailler les initiatives qu'il a déjà prises et qu'il prendra encore dans ce domaine?

9) A-t-il déjà conclu des accords à cet égard avec des médias sociaux? Si oui, des initiatives concrètes en ont-elles déjà résulté? Si non, quelle sorte d'accords compte-t-il conclure avec ces entreprises?

Réponse reçue le 19 novembre 2019 :

1) La désinformation et les fake news (y compris les vidéos hypertruquées) représentent un important défi pour notre démocratie. Réaliser un état des lieux des activités de désinformation, identifier les acteurs qui se cachent derrière (étatiques ou autres) et cerner leurs objectifs stratégiques sont des missions pour nos services de sécurité. Pour plus d’informations sur les actions menées par la Sûreté de l'État (VSSE), le Service général du renseignement et de la sécurité (SGRS), le Centre de crise et le Centre for Cyber security Belgium (CCB) dans le cadre de la protection contre les menaces hybrides, je renvoie l’honorable membre aux ministres compétents de la Justice, de l’Intérieur ainsi qu’au premier ministre.

Par ailleurs, des mesures ont également été prises dans le cadre des compétences du ministre de l’Agenda numérique en vue de s’engager dans la sensibilisation et le renforcement du citoyen en tant qu’utilisateur d’Internet. À la suite d’un rapport d’experts, le gouvernement a décidé, fin 2018, de créer un Fonds «Stop fake news». L’objectif de ce fonds était de soutenir les milieux universitaires, les éducateurs, les journalistes et les entreprises dans le développement d’outils innovateurs appropriés permettant aux citoyens d’être plus à même d’évaluer les informations mises en ligne. En effet, il n’appartient pas aux autorités de déterminer ce qui est vrai ou ne l’est pas, ou de décider comment les citoyens doivent évaluer la véracité des informations. Il est important que les initiatives nécessaires dans ce domaine puissent émaner de la société.

La création du Fonds «Stop Fake news» était inscrite dans la loi budgétaire 2019. Mais compte tenu des circonstances, à savoir la chute du gouvernement, le Parlement n’a pas pu approuver cette loi. Il n’existe par conséquent pas de base légale pour la création de ce Fonds. Un budget unique de 1,5 million d’euros avait été prévu à cette fin dans le projet de budget. Il avait également été prévu que ce fonds serait géré par la direction générale Transformation digitale du service public fédéral Stratégie et Appui (SPF BOSA) avec l’appui d’un jury d’experts.

2) à 5) En ce qui concerne les questions 2) à 5), je renvoie l’honorable membre à la réponse qui sera donnée par mes collègues, le vice-premier et ministre de la Justice à sa question écrite no 7-81 et le ministre de la Sécurité et de l’Intérieur à sa question écrite no 7-82.

6) La problématique de la désinformation et des fake news présente un caractère transfrontalier. Dès lors, il est nécessaire d’avoir une approche à long terme et coordonnée au niveau européen. La Belgique soutient donc le plan d’action de la Commission européenne en la matière. Selon Commission européenne, les élections du Parlement européen en mai 2019 n’ont «à l’évidence pas été exemptes de désinformation». La Commission présentera, dans les prochains mois, un rapport sur les élections au Parlement européen.

7) Mes services ne disposent pas d’une vue d’ensemble des différents projets de recherche actuellement en cours dans les différentes universités belges.

8) & 9) La transparence sur la provenance et la diffusion d’informations est essentielle pour combattre les effets négatifs de la désinformation et des fake news. Améliorer la transparence est l’un des points d’action repris dans le Code de conduite de l’Union européenne (UE) pour lutter contre la désinformation. Ce Code de conduite a été lancé en octobre 2018 et constitue l’un des piliers importants du plan d’action européen contre la désinformation. Le 29 octobre 2019, la Commission européenne a publié les premiers rapports annuels d’auto-évaluation de Facebook, Google, Microsoft, Mozilla, Twitter et de sept associations sectorielles dans le cadre du Code conduite. La Commission travaille encore à une évaluation générale de l’efficacité du Code de conduite, attendue d’ici 2020.

Pour le moment, la transparence est donc assurée sur la base d’un code de conduite volontaire mais je suis certainement favorable à la mise en place d’un moyen de pression législatif permettant, si nécessaire, de contraindre les entreprises du secteur des média sociaux à une plus grande transparence et responsabilisation.