AFP

La pédopornographie explose sur le web à cause de l’IA générative

L’intelligence artificielle connait des dérives très dangereuses. Parmi celles-ci, ce sont des images pédopornographiques se multipliant sur le dark web qui inquiètent.

Un nouveau rapport de l’Internet Watch Foundation, une association britannique, tire la sonnette d’alarme : l’intelligence artificielle génère de plus en plus d’images à caractère pédopornographique.

Pour en arriver à ce constat, l’association a analysé des forums du dark web pendant un mois. De ces recherches sont ressorties environ 3000 images pédopornographiques générées par l’IA, parmi un total de 11.000 images consultées.

Susie Hargreaves, la dirigeante de l’Internet Watch Foundation, a déclaré au média Guardian : “Plus tôt cette année, nous avions averti que les images par IA pourraient bientôt devenir impossibles à différencier des images pédophiles, et que nous pourrions voir ces images proliférer. Nous avons maintenant dépassé ce point.”

D’anciennes victimes prises pour cibles

Certaines célébrités sont rajeunies et dénudées par l’IA pour générer du contenu pédopornographique. Mais les choses ne s’arrêtent pas là : des photographies de véritables victimes d’abus sexuels sont utilisées pour créer de nouvelles images. “Des enfants qui ont été violés dans le passé sont maintenant intégrés dans d’autres scénarios parce que quelqu’un, quelque part, veut voir ça”, dénonce Susie Hargreaves.

L’Internet Watch Foundation alerte bien sur le fait qu’il ne s’agit pas que d’adolescents. On y retrouve également des images d’enfants, voire de bébés.

Au Royaume-Uni, un sommet mondial sur l’IA aura lieu les 1er et 2 novembre. L’association compte bien faire de ce sujet hautement alarmant une priorité.

_
Suivez Geeko sur Facebook, Youtube et Instagram pour ne rien rater de l'actu, des tests et bons plans.

Recevez nos dernières infos directement sur votre WhatsApp en vous abonnant à notre chaine.