Qu’est ce qu’un deepfake ?
Les deepfakes, combinaison de « deep learning » (apprentissage) et « fake » (faux) sont des images de synthèse hyperréalistes. Elles sont le résultat d’images, de vidéos ou de sons falsifiés par l’Intelligence Artificielle.
Cette technologie est couramment utilisée dans le cinéma et les effets spéciaux, mais elle a aussi permis de développer de nouvelles technologies comme la réalité virtuelle ou augmentée. Son utilisation s’est également popularisée à travers des filtres sur les réseaux sociaux. Le “face swap” permet par exemple de remplacer le visage d’une personne avec celui de quelqu’un d’autre.
Toutefois, la facilité d’accès et d’utilisation des deepfakes implique de nombreux risques. Depuis leur apparition en 2017, ces technologies ont ainsi parfois été détournées pour manipuler l’information. Faire tenir à une personnalité publique des propos qu’elle n’a jamais tenus, diffuser de fausses informations ou utiliser la voix de proches pour procéder à des arnaques financières sont désormais à la portée de tous, pour qui sait utiliser Internet.
La technologie détournée à des fins pornographiques non consenties
La grande majorité des deepfakes est cependant d’un tout autre genre : les deepfakes pornographiques non consentis.
En 2019, 96% des deepfakes disponibles en ligne étaient pornographiques (DeepTrace, 2019). La totalité d’entre eux étaient des images et vidéos de femmes, dont le visage avait été ajouté sur des corps nus. Depuis, cette technologie est également tombée dans les mains des pédocriminels.
Bien que la plupart des technologies d’Intelligence Artificielle soient modérées de telle sorte à interdire la production de contenus pédocriminels, certaines techniques échappent à cette régulation. Cela permet à des prédateurs de dénuder des photos d’enfants à des fins sexuelles. Si les contenus pédocriminels générés par des technologies d’Intelligence Artificielle étaient encore rares en 2023, leur nombre ne cesse d’augmenter.
Les deepfakes d’enfants ou de jeunes sont également utilisés par les pédocriminels criminels dans le cadre de stratégies de sextorsion. Afin d’obtenir de l’argent, des contenus intimes ou d’autres avantages, certaines personnes malintentionnées peuvent menacer un mineur de diffuser un hypertrucage pornographique hyperréaliste de lui à son entourage.
Malgré la fausseté des contenus, ce sont de véritables victimes qui subissent les conséquences des deepfakes. La banalisation du phénomène a ainsi mené cette technologie jusque dans les cours de récréation, où elle est parfois utilisée dans des stratégies de harcèlement scolaire.
Deepfakes : que dit la loi ?
Depuis 2024, une infraction spécifique sanctionne les deepfakes à caractère sexuel. Publier un montage contenant des paroles ou une image à caractère sexuel d’une personne sans son consentement est ainsi passible de deux ans d’emprisonnement et de 60 000 euros d’amende. Si l’infraction est commise en ligne, la peine encourue est de trois ans d’emprisonnement et 75 000 euros d’amende. (art. 226-8-1 du Code pénal).
Si une personne de votre entourage est confrontée à cette situation, voici ce que nous vous conseillons :
- Gardez des preuves en faisant des captures d’écran
- Signalez les contenus en ligne
- Appelez le 3018 pour obtenir la suppression des contenus
- Déposez plainte auprès des services de police ou de gendarmerie
Si la victime est mineure et que l’auteur fait partie de son groupe scolaire, avertir l’établissement peut également permettre d’agir sur les faits de harcèlement.
Sources :
DeepTrace, 2019 : https://regmedia.co.uk/2019/10/08/deepfake_report.pdf