Intelligence Artificielle : le commerce illégal d'images d'abus sexuels d'enfants l'IA dénoncé

- Author, Angus Crawford et Tony Smith
- Role, BBC News
Certains accèdent à ces images en s'abonnant à des comptes sur des sites de partage de contenu grand public tels que Patreon. Patreon a déclaré avoir une politique de "tolérance zéro" à l'égard de ce type d'images sur son site.
Le Conseil des chefs de la police nationale a déclaré qu'il était "scandaleux" que certaines plateformes fassent "d'énormes profits" mais n'assument pas de "responsabilité morale".
A lire aussi sur BBC Afrique :
Le GCHQ, l'agence gouvernementale chargée du renseignement, de la sécurité et de la cybernétique, a réagi au rapport en déclarant : "Les auteurs d'abus sexuels sur des enfants adoptent toutes les formes de comportement possibles et imaginables : "Les auteurs d'abus sexuels sur des enfants adoptent toutes les technologies et certains pensent que l'avenir des contenus d'abus sexuels sur des enfants réside dans les contenus générés par l'IA.
Les auteurs des images d'abus utilisent un logiciel d'IA appelé Stable Diffusion, qui a été conçu pour générer des images destinées à être utilisées dans l'art ou la conception graphique.
L'IA permet aux ordinateurs d'effectuer des tâches qui requièrent habituellement l'intelligence humaine.
Le logiciel Stable Diffusion permet aux utilisateurs de décrire, à l'aide de mots, n'importe quelle image qu'ils souhaitent, et le programme crée alors l'image.
Mais la BBC a découvert qu'il était utilisé pour créer des images réalistes d'abus sexuels sur des enfants, notamment de viols de bébés et de jeunes enfants.
Les équipes de la police britannique chargées d'enquêter sur les abus pédosexuels en ligne affirment qu'elles sont déjà confrontées à ce type de contenu.

Octavia Sheepshanks, chercheuse et journaliste indépendante, enquête sur cette question depuis plusieurs mois. Elle a contacté la BBC par l'intermédiaire de la NSPCC, une organisation caritative pour les enfants, afin de faire part de ses conclusions.
"Il ne s'agit pas seulement de très jeunes filles, ils [les pédophiles] parlent d'enfants en bas âge", a-t-elle déclaré.
Une "pseudo-image" générée par un ordinateur et représentant des abus sexuels sur des enfants est traitée de la même manière qu'une image réelle et il est illégal de la posséder, de la publier ou de la transférer au Royaume-Uni.
Ian Critchley, responsable de la protection de l'enfance au sein du Conseil national des chefs de police (NPCC), a déclaré qu'il serait erroné de prétendre que personne n'a été lésée parce qu'aucun enfant réel n'a été représenté dans ces images "synthétiques".
Il a averti qu'un pédophile pouvait "progresser sur l'échelle de la délinquance, de la pensée à la synthèse, jusqu'à l'abus d'un enfant en chair et en os".
Les images d'abus sont partagées selon un processus en trois étapes :
Les pédophiles créent des images à l'aide d'un logiciel d'intelligence artificielle
Ils font la promotion d'images sur des plateformes telles que le site web japonais de partage d'images Pixiv.
Ces comptes comportent des liens qui dirigent les clients vers leurs images les plus explicites, que les gens peuvent payer pour voir sur des comptes de sites tels que Patreon.
Certains créateurs d'images publient sur une plateforme de médias sociaux japonaise populaire appelée Pixiv, qui est principalement utilisée par des artistes partageant des mangas et des animes.
Mais comme le site est hébergé au Japon, où le partage de dessins animés sexualisés et de dessins d'enfants n'est pas illégal, les créateurs l'utilisent pour promouvoir leur travail dans des groupes et via des hashtags - qui indexent des sujets à l'aide de mots clés.
Un porte-parole de Pixiv a déclaré que l'entreprise accordait une grande importance à la résolution de ce problème. Le 31 mai, Pixiv a déclaré avoir interdit toutes les représentations photoréalistes de contenus sexuels impliquant des mineurs.
L'entreprise a indiqué qu'elle avait renforcé de manière proactive ses systèmes de surveillance et qu'elle allouait des ressources importantes pour contrer les problèmes liés aux développements de l'IA.
Mme Sheepshanks a déclaré à la BBC que ses recherches suggéraient que les utilisateurs semblaient produire des images d'abus d'enfants à une échelle industrielle.
"Le volume est tout simplement énorme, à tel point que les gens [les créateurs] disent 'notre objectif est de produire au moins 1 000 images par mois'", a-t-elle déclaré.
Les commentaires des utilisateurs sur les images Pixiv montrent clairement qu'ils ont un intérêt sexuel pour les enfants, certains utilisateurs proposant même de fournir des images et des vidéos d'abus qui n'ont pas été générées par l'IA.
Mme Sheepshanks a surveillé certains groupes sur la plateforme.
"Dans ces groupes, qui comptent une centaine de membres, les gens échangent des liens vers des contenus réels", explique-t-elle.
Différents niveaux de prix
De nombreux comptes sur Pixiv incluent dans leur biographie des liens renvoyant à ce qu'ils appellent leur "contenu non censuré" sur le site de partage de contenu Patreon, basé aux États-Unis.
Patreon est évalué à environ 4 milliards de dollars (3,1 milliards de livres sterling) et revendique plus de 250 000 créateurs, dont la plupart sont des comptes légitimes appartenant à des célébrités, des journalistes et des écrivains.
Les fans peuvent soutenir les créateurs en souscrivant des abonnements mensuels pour accéder à des blogs, des podcasts, des vidéos et des images - en payant aussi peu que 3,85 $ (3 £) par mois.
Mais notre enquête avec Octavia Sheepshanks a révélé que des comptes Patreon proposaient à la vente des images obscènes d'enfants générées par l'IA et photoréalistes, avec différents niveaux de prix en fonction du type de matériel demandé.
Voir aussi :
L'un d'eux a écrit sur son compte : "J'entraîne mes filles sur mon PC", ajoutant qu'elles font preuve de "soumission". Pour 8,30 dollars (6,50 livres sterling) par mois, un autre utilisateur propose un "art exclusif non censuré".
La BBC a envoyé un exemple à Patreon, qui a confirmé qu'il était "semi-réaliste et qu'il violait nos règles". Le compte a été immédiatement supprimé.
Patreon a déclaré avoir une politique de "tolérance zéro", insistant sur le fait que "les créateurs ne peuvent pas financer des contenus dédiés à la violence" : "Les créateurs ne peuvent pas financer des contenus dédiés à des thèmes sexuels impliquant des mineurs.
La société a déclaré que l'augmentation des contenus nuisibles générés par l'IA sur l'internet était "réelle et angoissante", ajoutant qu'elle avait "identifié et supprimé des quantités croissantes" de ces contenus.
"Nous interdisons déjà les contenus synthétiques d'exploitation d'enfants générés par l'IA", a-t-elle déclaré, se décrivant comme "très proactive", avec des équipes, des technologies et des partenariats dédiés pour "assurer la sécurité des adolescents".

Le générateur d'images d'IA Stable Diffusion est le fruit d'une collaboration mondiale entre des universitaires et un certain nombre d'entreprises, sous la houlette de la société britannique Stability AI.
Plusieurs versions ont été publiées, avec des restrictions inscrites dans le code qui contrôlent le type de contenu qui peut être créé.
Mais l'année dernière, une version "open source" a été rendue publique, permettant aux utilisateurs de supprimer tous les filtres et d'entraîner le logiciel à produire n'importe quelle image, y compris des images illégales.
Stability AI a déclaré à la BBC qu'elle "interdit toute utilisation abusive à des fins illégales ou immorales sur nos plateformes, et nos politiques sont claires sur le fait que cela inclut le CSAM (matériel pédopornographique)".
"Nous soutenons fermement les efforts des forces de l'ordre pour lutter contre ceux qui utilisent nos produits à des fins illégales ou infâmes".
Alors que l'IA continue de se développer rapidement, des questions ont été soulevées quant aux risques futurs qu'elle pourrait poser pour la vie privée, les droits de l'homme ou la sécurité des personnes.
Jo [nom complet non divulgué pour des raisons de sécurité], responsable de la mission de lutte contre les abus sexuels sur les enfants (CCSA) au GCHQ, a déclaré à la BBC : "Le GCHQ aide les forces de l'ordre à rester à l'affût des nouvelles menaces telles que les contenus générés par l'IA et à s'assurer qu'il n'y a pas d'espace sûr pour les délinquants.
Ian Critchley, du NPCC, a déclaré qu'il craignait également que l'afflux d'images réalistes ou "synthétiques" générées par l'IA ne ralentisse le processus d'identification des véritables victimes d'abus.
Il explique : "Cela crée une demande supplémentaire, en termes de police et d'application de la loi, pour identifier où un enfant réel, où qu'il soit dans le monde, est victime d'abus, par opposition à un enfant artificiel ou synthétique".
M. Critchley a déclaré qu'il pensait qu'il s'agissait d'un moment charnière pour la société.
"Nous pouvons faire en sorte que l'internet et la technologie offrent les fantastiques opportunités qu'ils créent pour les jeunes, ou ils peuvent devenir un endroit beaucoup plus dangereux", a-t-il déclaré.
La NSPCC, organisation caritative pour les enfants, a appelé mercredi les entreprises technologiques à prendre conscience de la situation.
"La vitesse à laquelle ces technologies émergentes ont été adoptées par les abuseurs est stupéfiante mais pas surprenante, car les entreprises qui ont été averties des dangers sont restées les bras croisés en prononçant des platitudes vides sur la sécurité", a déclaré Anna Edmundson, responsable de la politique et des affaires publiques de l'organisation caritative.
"Les entreprises technologiques savent maintenant comment leurs produits sont utilisés pour faciliter les abus sexuels sur les enfants et il n'y a plus d'excuses pour l'inaction".
Un porte-parole du gouvernement a répondu : "Le projet de loi sur la sécurité en ligne obligera les entreprises à prendre des mesures proactives pour lutter contre toutes les formes d'abus pédosexuels en ligne, y compris le grooming, le live-streaming, le matériel pédopornographique et les images interdites d'enfants, sous peine de se voir infliger de lourdes amendes.













