La vidéo d’un Youtuber prenant la voix d’un Président, le portrait d’une figure religieuse en doudoune, un contenu généré artificiellement célébré sur le podium d’un concours de photographes professionnels… Les Intelligences Artificielles génératives d’images reposent sur une technologie révolutionnaire : on écrit ce que l’on veut voir, le logiciel en génère l’image. 

Les systèmes dotés d’intelligence artificielle peuvent percevoir leur environnement, adapter leurs comportements, résoudre des problèmes et travailler de manière autonome. Relégués au rang de science-fiction il y a encore quelques années, ils font désormais entièrement partie de notre quotidien. Ils nous aident dans de nombreuses tâches personnelles et professionnelles. La Commission européenne fixait par exemple pour objectif l’adoption de nouvelles technologies et notamment des IA par 75% des entreprises d’ici 2030 dans le cadre de la transition numérique européenne.

Mais à toute technologie révolutionnaire son risque de dérive : fin 2023, plusieurs organisations de détection de contenus illicites en ligne alertaient de l’utilisation croissante de l’IA à des fins pédocriminelles. 

De nouveaux risques pour la cyberpédocriminalité  :

Les IA génératives fonctionnent à partir de la technologie texte-image : on dit au logiciel ce que l’on veut voir, l’IA le génère. On choisit ensuite l’image que l’on préfère et on oriente la technologie vers la modification de certains éléments.  

Rapporté aux contenus pédocriminels, cela signifie de nouvelles possibilités pour créer, consulter, posséder et diffuser des contenus d’exploitation sexuelle de mineurs en ligne en :  

  • Rajeunissant des photos ou vidéos d’une célébrité  
  • Téléchargeant la photo d’un enfant habillé, inconnu, célèbre ou de l’entourage de l’auteur, pour le dénuder 
  • Utilisant un contenu déjà existant mettant en scène un enfant agressé sexuellement pour demander de nouveaux contenus mettant en scène le même enfant dans d’autres scénarios.  

En 2023, les enquêteurs d’IWF (Internet Watch Foundation, organisation britannique luttant contre les contenus pédocriminels en ligne) ont ainsi pu trouver 500 contenus générés utilisant le même visage d’une petite fille de 9 ans dans différents contextes. 

Si les contenus générés artificiellement ne représentent pour l’instant qu’une infime partie des contenus détectés en ligne, leur nombre et la violence représentée ne devraient cesser de croître. Lors d’un échange avec nos équipes, Mark Pohlmann, PDG d’Aeteos, une société à l’origine de solutions informatiques cognitives luttant contre la pédocriminalité, remarquait ainsi que “plus on avance, plus c’est automatisé. Plus c’est automatisé, plus on a de contenus. Plus on a de contenus, plus on peut en créer.” 

Le temps passant, et les technologies devenant de plus en plus performantes, les contenus générés artificiellement sont de plus en plus réalistes. Si quelques bugs persistent, il est d’ores et déjà extrêmement difficile pour les analystes de distinguer une photo prise par un téléphone d’une image générée artificiellement.  

Ces “faux” contenus présentent donc non seulement un potentiel de revictimisation des survivants de violence dont le visage est à nouveau utilisé, mais également un risque pour les enquêteurs spécialisés, pouvant passer des heures à identifier une victime parfois artificielle.

Vers une IA plus responsable ? 

En France la production d’une représentation à caractère sexuel d’un mineur est condamnée par la loi au même titre que l’enregistrement photographique d’une scène réelle. La modération de la plupart des logiciels empêche par ailleurs la génération de contenus pornographiques et/ou pédocriminels et représente donc un risque pour ceux tentant de les utiliser à ces fins.  

Le problème réside en réalité dans le fait que les contenus repérés sont pour la plupart créés à partir de logiciels disponibles en open-source, c’est-à-dire que leur code peut être modifié par les utilisateurs à leur gré. De là la possibilité de télécharger la technologie, de l’exécuter sur son appareil hors-ligne, de l’entraîner à créer ces contenus et de générer autant d’images qu’on le souhaite. Il suffit alors d’avoir quelques compétences informatiques et une base de contenus pour entraîner le logiciel :  

“La grande tendance, c’est d’aller piquer des images sur les comptes Facebook et Instagram. On y retrouve des milliers de photos qui concernent le même enfant, ce qui donne une base de données. Via les plug-ins on peut modifier ce que l’on veut pour faire en sorte que l’image soit transformée et réponde à notre requête.” expliquait ainsi Mark Pohlmann. 

Les Etats Membres de l’Union Européenne se sont aussi accordés en décembre dernier sur une proposition de réglement pour la régulation de l’IA pour en limiter les risques. Mais face au risque de prolifération exponentielle de ces nouvelles violences, une législation doit donner des garanties contre l’utilisation abusive des IA génératives par les particuliers. A l’instar du logiciel Percipion créé par Aeteos, utilisé pour détecter les échanges typiques des pédopiégeurs cherchant à manipuler des mineurs, des solutions existent et se développent pour lutter contre ces contenus. Un arsenal législatif complétant ces innovations et les valorisant pourrait permettre de mieux détecter les contenus pédocriminels et dissuader ceux qui les produisent. 

Sources : 

How AI is being abused to create child sexual abuse material (CSAM) onlinehttps://www.iwf.org.uk/about-us/why-we-exist/our-research/how-ai-is-being-abused-to-create-child-sexual-abuse-imagery/ 

Davies, P. (2023, 3 novembre). Un accord historique sur la sécurité liée à l’IA, conclu au sommet mondial sur l’IA. Euronewshttps://fr.euronews.com/next/2023/11/02/un-accord-historique-sur-la-securite-liee-a-lia-conclu-au-sommet-mondial-sur-lia

L’Express. (2023, 3 novembre). IA : ce qu’il faut retenir du premier sommet mondial. L’Expresshttps://www.lexpress.fr/economie/high-tech/ia-ce-quil-faut-retenir-du-premier-sommet-mondial-NK5FFQVWTVESNMUX5MDCHZQHHU/ 

Forbes France. (2023, 21 décembre). Stable Diffusion a été formé à l’utilisation de matériel pédopornographique, selon une étude de Stanfordhttps://www.forbes.fr/technologie/stable-diffusion-a-ete-forme-a-lutilisation-de-materiel-pedopornographique-selon-une-etude-de-stanford/ 

Milmo, D. (2023, 25 octobre). AI-created child sexual abuse images ‘threaten to overwhelm internet’. The Guardianhttps://www.theguardian.com/technology/2023/oct/25/ai-created-child-sexual-abuse-images-threaten-overwhelm-internet 

Conseil de l’UE. (2023, 9 décembre). Législation sur l’intelligence artificielle : Le Conseil et le Parlement parviennent à un accord sur les premières règles au monde en matière d’IA [Communiqué de presse]. https://www.consilium.europa.eu/fr/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/ 

Jonniaux, A. (2023, 26 octobre). L’IA inonde Internet de pédopornographie (et c’est un gros problème). Journal du Geekhttps://www.journaldugeek.com/2023/10/26/lia-inonde-internet-de-pedopornographie-et-cest-un-gros-probleme/ 

L’intelligence artificielle plus risquée que bénéfique sans garde-fous, selon Guterres. (2023, 2 novembre). ONU Info. https://news.un.org/fr/story/2023/11/1140287 

Pollet, M. (2023, 5 janvier). L’adoption de l’IA par les organisations connaît un plateau. www.usine-digitale.frhttps://www.usine-digitale.fr/article/l-adoption-de-l-ia-par-les-organisations-connait-un-plateau.N2081416