En début d’année, nous alertions sur l’utilisation croissante des technologies d’Intelligence Artificielle (IA) à des fins pédocriminelles. Cette tendance se confirme : l’IA est de plus en plus un outil de prédilection pour les prédateurs sexuels.
“On estime que, dans quelques années, 95% des images pédocriminelles seront issues de l’Intelligence Artificielle.” – Gabrielle Hazan, cheffe de l’OFMIN, au micro de Radio France.
Des technologies au service des prédateurs
Depuis 2019, les atteintes numériques contre les mineurs ont augmenté de 45%, selon le ministère de l’Intérieur et des Outre-Mer. * Comment expliquer cette croissance vertigineuse ?
Le développement des nouvelles technologies, et en particulier celles liées à l’IA, les rend non seulement plus performantes, mais aussi plus accessibles. Aujourd’hui, n’importe qui, même avec des compétences informatiques limitées, peut devenir un cybercriminel. Cette évolution est particulièrement marquante dans le domaine de la pédocriminalité en ligne.
Europol, l’agence européenne de police criminelle, tire la sonnette d’alarme. Le volume de contenus pédocriminels générés par l’IA ne cesse d’augmenter. ** Il peut s’agir :
- De vidéos pornographiques où visages et corps sont artificiellement rajeunis,
- De photos anodines d’enfants que la technologie dénude,
- De nouveaux contenus créés à partir d’anciennes victimes.
Bien que ces contenus soient artificiels, les violences qu’ils représentent et leurs conséquences sont, elles, bien réelles.
Une explosion de contenus créant de nouvelles menaces
Ces contenus générés artificiellement comportent également de nouvelles menaces. De plus en plus réalistes, mais également de plus en plus violents, ils contribuent à la banalisation de la pédocriminalité et incitent de nouveaux prédateurs à passer à l’acte.
Certains pédocriminels utilisent ainsi l’IA pour extorquer des enfants à des fins financières et sexuelles. C’est ce qu’on appelle la “sextorsion” : l’agresseur génère une photo compromettante d’un enfant et menace de la diffuser, à moins que celui-ci ne cède à ses demandes, qu’il s’agisse d’envoyer de l’argent ou d’autres images sexuellement explicites.
La diffusion de ces contenus peut également revictimiser d’anciennes victimes. C’est ce que vit Olivia, une jeune fille dont l’histoire est retranscrite par Internet Watch Foundation.***
De ses 3 ans à ses 8 ans, Olivia a été victime de violences sexuelles. Des photos de ses agressions ont été diffusées sur des forums pédocriminels. Cinq ans plus tard, alors que l’enfant a été mise à l’abri, un modèle IA permet de générer de nouvelles photos d’Olivia, mettant en scène son corps de jeune enfant dans des situations d’exploitation sexuelle.
L’urgence d’une régulation éthique
L’augmentation du volume de contenus est également doublée de nouvelles possibilités. Entre mars et avril 2024, 9 vidéos pédocriminelles générées par l’IA ont été signalées à IWF. Bien qu’encore grossières, ces vidéos devraient bientôt atteindre le même niveau de réalisme que les photos.
D’ici 2026, une nouvelle législation devra s’appliquer aux pays de l’Union Européenne pour réguler l’Intelligence Artificielle et en limiter les possibles dérives. **** Exigeons une régulation stricte, fondée sur l’intégration des droits de l’enfant et de leur protection en ligne dès la conception, le développement et l’usage de ces technologies.
Ensemble, trouvons des solutions pour protéger les enfants victimes de ces violences et pour condamner ceux qui les perpétuent.
SOURCES
*Ministère de l’Intérieur et des Outre-Mer, Rapport annuel sur la cybercriminalité (2024) : Rapport annuel sur la cybercriminalité 2024 | Ministère de l’Intérieur et des Outre-mer (interieur.gouv.fr)
**IOCTA, Europol (2024) : https://www.europol.europa.eu/cms/sites/default/files/documents/Internet%20Organised%20Crime%20Threat%20Assessment%20IOCTA%202024.pdf
***Internet Watch Foundation, AI CSAM Report (update juillet 2024) : iwf-ai-csam-report_update-public-jul24v11.pdf