Entrez un terme de recherche...

Et appuyez sur Entrée.

Lutter efficacement contre les « deepfakes ».

Question écrite au Gouvernement :


Mme Caroline Janvier attire l’attention de M. le secrétaire d’État auprès du ministre de l’économie et des finances et du ministre de l’action et des comptes publics, chargé du numérique, sur l’émergence de ce qu’il est convenu d’appeler les « deepfakes ». En 2014, le chercheur américain Ian Goodfellow invente les « generative adversarial networks », dits GAN, des logiciels d’intelligence artificielle capables de générer de fausses images, plus vraies que nature. Depuis, les progrès techniques en intelligence artificielle (IA) ont permis l’émergence de vidéos et de bandes sonores montées de toutes pièces. En 2018, un site américain d’information reconnu publie sur une plateforme internet une fausse vidéo de Barack Obama insultant Donald Trump, la voix du premier étant celle d’un imitateur et la synchronisation avec les mouvements de ses lèvres permise par un système d’IA. Vidéos et bandes-son mettant en scène des hommes politiques tenant des propos outranciers, films pornographiques impliquant des actrices mondialement connues, si les « deepfakes » concernaient jusqu’alors des personnalités publiques, des experts américains et européens s’inquiètent de leur banalisation et des répercussions qu’ils peuvent avoir dans le champ socio-politique et le débat public. Des algorithmes permettant d’imiter en direct un visage, un corps, des expressions et la voix d’une personne contribuent à l’affirmation et à la puissance des faux contenus et des « infox » sur les réseaux sociaux. Les « deepfakes » pourraient conduire, selon le rapport « Les manipulations de l’information : un défi pour nos démocraties » du Centre d’analyse, de prévision et de stratégie du ministère de l’Europe et des affaires étrangères (CAPS) et de l’Institut de recherche stratégique de l’école militaire du ministère des armées, à rendre la désinformation indétectable. Cela poserait un réel problème de confiance des citoyens vis-à-vis de l’information et fragiliserait aussi les acteurs « tiers de confiance » que sont les grands médias. La Defense Advanced Reserch Projects Agency (DARPA), une agence du pentagone, a décidé depuis 2016 dans le cadre de son projet « MediFor » de financer plusieurs programmes de recherche sur la détection des « deepfakes ». SRI International, un institut californien, s’est associé à l’université d’Amsterdam et à l’Idiap Research Institute situé en Suisse pour des projets focalisés sur la compréhension des outils de manipulation de vidéos montrant des personnes qui parlent, dont le visage a été altéré et à qui l’on prête des propos qu’ils n’ont pas tenus. Leur objectif est de mettre au point des algorithmes capables d’identifier les imperfections que contiennent encore ces « deepfakes ». Si la réponse technique est indispensable pour combattre et relever les « deepfakes », il est nécessaire aussi de développer une réponse politique et sociétale pour que le fossé entre l’information contenue sur les réseaux sociaux et celle travaillée par les organes de presse ne se creuse encore. Elle souhaiterait savoir quelles mesures le Gouvernement entend prendre et quelles sont les pistes de réflexion pour lutter efficacement contre les « deepfakes ».


Pour suivre la réponse du Ministère du numérique cliquez sur l’image : 👇

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *