La lutte contre la montée du matériel d’abus sexuels sur les enfants généré par l’IA

Posted on Posted in Droits des enfants, Droits Humains, Exploitation

Les technologies de l’intelligence artificielle (IA) connaissent un essor mondial. De nouveaux outils et capacités offrent aux criminels et aux individus malveillants de nouvelles possibilités d’exploiter les enfants. Alors que les législateurs, les décideurs politiques et les forces de l’ordre s’efforcent de suivre les innovations criminelles, les enfants sont de plus en plus exposés au matériel d’abus sexuels sur les enfants (MASE) généré par l’IA. Ces nouvelles technologies permettent aux criminels de créer, d’amplifier et de distribuer ces contenus à un rythme sans précédent. Sans une intervention urgente, cette tendance menace de compromettre la sécurité des enfants en ligne. 

Qu’est-ce qu’un MASE généré par l’IA ?

Les MASE générés par l’IA sont des contenus synthétiques ou réalistes créés à l’aide d’outils d’IA (Clark, 2023). Ce type de contenu représente une double menace : il permet d’une part la création de nouveaux MASE nuisibles et, d’autre part, les outils d’IA permettent aux criminels d’accéder à d’autres MASE et de les diffuser à un rythme plus rapide que jamais.

Ces contenus illicites peuvent inclure des images altérées d’enfants réels ou des créations frauduleuses. La capacité des outils d’IA à générer du contenu qui n’existait pas auparavant est souvent qualifiée de « générative », et cette modalité élargit le cercle des victimes potentielles de MASE si les images sont créées de manière frauduleuse. 

L’IA a offert aux criminels une opportunité sans précédent de produire un volume illimité de MASE. Toutes les formes de MASE générées par l’IA sont illégales, qu’elles représentent ou non un enfant réel. Les outils d’IA sont sophistiqués au point que la plupart des MASE générés par l’IA sont « visuellement impossibles à distinguer » des véritables MASE, même pour les analystes qualifiés (Internet Watch Foundation, 2023).

Tendances et prévalence

Bien que l’utilisation de l’IA pour générer et propager des MASE soit relativement récente, nous commençons à avoir une idée des méthodes employées par les criminels. En ce qui concerne la génération, des logiciels d’IA en libre accès tels que Stable Diffusion sont utilisés pour produire du contenu de MASE frauduleux (Crawford et Smith, 2023).

La facilité d’utilisation de ces logiciels permet à des individus – qui n’ont pas nécessairement d’expérience technologique préalable – de créer de nouvelles images à partir de mots-guides et d’instructions simples (Crawford et Smith, 2023). La technologie de conversion du texte en image est rapide, précise et permet de générer simultanément de grands volumes de contenu (Internet Watch Foundation, 2023). 

En ce qui concerne l’hébergement et la diffusion de MASE, des plateformes de partage de contenu tels que Patreon sont utilisés pour stocker des images de MASE générées par l’IA (Crawford et Smith, 2023). Cela permet aux criminels de s’abonner aux mêmes services afin d’accéder régulièrement à ces images (Crawford et Smith, 2023). Bien que Patreon ait exprimé une politique de tolérance zéro à l’égard de ce type de contenu sur son site web, il reste difficile d’identifier et de sanctionner les individus qui exploitent ces plateformes (Crawford et Smith, 2023).

Lutte mondiale contre les abus sexuels d’enfants en ligne amplifiés par l’IA

Ce défi ne se limite pas à Patreon ; la National Crime Agency (NCA) du Royaume-Uni estime que le renforcement du chiffrement de bout en bout – processus de sécurisation des données entre deux parties communicantes et l’interdiction pour des tiers d’y accéder – au sein des plateformes Meta (Facebook, Instagram et autres) signifierait que les forces de l’ordre perdraient l’accès à entre 85 et 92 % des renvois de MASE provenant des plateformes (Home Office, 2023).

Des études menées aux États-Unis suggèrent que Facebook, Instagram et WhatsApp sont les plateformes de médias sociaux qui hébergent la plus grande proportion de matériel illicite (McQue, 2024). Elles sont rapidement suivies par d’autres grandes entités de médias sociaux, ce qui reflète le rôle central de certains des sites web et applications les plus populaires au monde dans la diffusion de MASE.

En raison de la facilité de production des MASE rendue possible par l’IA, il est difficile de mesurer avec précision l’ampleur et la prévalence de ce type de contenu en ligne. Le ministre de l’Intérieur britannique a déclaré que 800 prédateurs sexuels avaient été arrêtés et que le gouvernement protégeait 1 200 enfants par mois (Home Office, 2023), mais cela ne se limite pas au domaine en ligne. De plus, les logiciels d’IA peuvent être téléchargés et exécutés en ligne, permettant ainsi aux acteurs malveillants de créer un contenu illimité alors qu’ils sont déconnectés d’Internet, ce qui les met à l’abri des forces de l’ordre (Internet Watch Foundation, 2023).

L’analyse limitée disponible indique qu’un volume alarmant de MASE générés par l’IA est produit en un court laps de temps. Une analyse réalisée au Royaume-Uni a révélé que 20 254 images avaient été postées sur un seul forum de MASE généré par l’IA au cours du mois de septembre 2023 (Internet Watch Foundation, 2023).

Aux États-Unis, le National Center for Missing and Exploited Children (NCMEC) n’a commencé à recevoir des MASE générés par l’IA qu’en 2023 et a déjà reçu des rapports concernant près de 5 000 contenus (McQue, 2024). En 2023, la Cyber Tipline des États-Unis a reçu près de 36 millions de rapports faisant référence à des incidents de MASE ; plus de 90 % du contenu a été mis en ligne depuis l’étranger, et plus de 60 000 des rapports concernaient un enfant perçu comme étant en danger immédiat (McQue, 2024).

Application de la loi et réponses politiques

Compte tenu de la nature transversale du défi que représente les MASE générés par l’IA, des approches multisectorielles sont nécessaires pour perturber de manière significative cette tendance. Dans le secteur privé, 27 organisations, dont TikTok et Snapchat, se sont récemment associées à plusieurs gouvernements, dont les États-Unis, l’Allemagne et l’Australie, pour explorer de nouveaux moyens de lutter contre les MASE générés par l’IA (Clark, 2023).

Des interventions gouvernementales bilatérales et multinationales commencent également à faire surface : en 2023, les États-Unis et le Royaume-Uni ont publié une déclaration commune réaffirmant leur engagement à lutter contre l’IA générative (Home Office et US Secretary of Homeland Security, 2023). Cette déclaration a été soutenue par un projet de loi historique du gouvernement britannique, l’Online Safety Bill, qui a imposé des exigences plus strictes aux entités du secteur privé afin qu’elles mettent tout en œuvre pour identifier et supprimer les contenus de MASE de leurs sites web (Home Office, 2023).

Réponses stratégiques aux MASE générés par l’IA

La menace croissante des MASE générés par l’IA nécessite une réponse rapide et globale. Parmi les interventions nécessaires, les gouvernements doivent prendre quelques mesures clés pour provoquer une réponse ferme.

  • Les gouvernements doivent veiller à ce que leur législation sur les MASE soit mise à jour, le cas échéant, afin d’encourager de manière adéquate la surveillance des MASE générés par l’IA et de créer des voies pour les arrestations et les poursuites (Internet Watch Foundation, 2023).
  • Les gouvernements doivent collaborer avec les juridictions étrangères et voisines pour aligner leurs processus et leurs réglementations sur les MASE générés par l’IA (Internet Watch Foundation, 2023). Les divergences réglementaires créent des failles que les acteurs criminels peuvent exploiter.
  • Les gouvernements doivent surveiller et réglementer le travail des développeurs de technologies du secteur privé, qui innovent souvent plus rapidement que les décideurs politiques ne peuvent légiférer sur les nouvelles activités criminelles. Au minimum, il faut demander aux entreprises technologiques d’interdire clairement les MASE sur leurs plateformes et de chercher activement des moyens d’empêcher la diffusion de contenus préjudiciables par l’intermédiaire de leurs plateformes.
  • Les forces de l’ordre doivent être formées à l’utilisation des outils d’IA pour les aider à identifier et à traiter les MASE générés par l’IA. Lorsque les ressources sont limitées, les organismes chargés de l’application de la loi devraient être encouragés et soutenus pour développer de nouveaux moyens de lutter contre la prolifération des MASE.
  • Les organismes de recherche devraient rechercher des possibilités d’améliorer la base de données sur les MASE générés par l’IA. Il n’existe actuellement aucune compréhension normalisée de l’ampleur de la menace, ni d’analyse solide de l’endroit où le contenu est hébergé en ligne. Cela nuit à la réaction des services répressifs.

Humanium est engagé dans la protection des droits des enfants et leur sécurité à l’ère numérique. En soutenant nos efforts par des dons, du bénévolat ou des actions de plaidoyer, vous pouvez nous aider à protéger les enfants dans le monde entier. Rejoignez-nous dans notre mission visant à rendre le monde numérique plus sûr pour les générations futures.

Écrit par Vanessa Cezarita Cordeiro 

Traduit par Or Salama

Relu par Dylan Dumonceaux

Référence :

Clark, E. (2023, October 31). “Pedophiles using AI to generate child sexual abuse imagery.” Retrieved from Forbes, accessed 22 April 2024.  

Crawford, A and Smith, T. (2023, June 28). “Illegal trade in AI child sex abuse images exposed.” Retrieved from BBC News, accessed 22 April 2024. 

Home Office and US Secretary of Homeland Security. (2023, September 27). “A joint statement from the United States and the United Kingdom on combatting child sexual abuse and exploitation.” Retrieved from Home Office, accessed 22 April 2024. 

Home Office. (2023, September 27). “UK and US pledge to combat AI-generated images of child abuse.” Retrieved from Home Office, accessed 22 April 2024. 

Internet Watch Foundation. (2023, October 25).  “‘Worst nightmares’ come true as predators are able to make thousands of new AI images of real child victims.” Retrieved from Internet Watch Foundation, accessed 22 April 2024.  

Internet Watch Foundation. (2023, October). “How AI is being abused to create child sexual abuse imagery.” Retrieved from Internet Watch Foundation, accessed 22 April 2024. 

McQue, K. (2024, April 16). “Child sexual abuse content growing online with AI-mad images, report says.” Retrieved from The Guardian, accessed 22 April 2024.