Quelques jours après la sortie de l’application DeepNude, qui permettait de déshabiller les femmes sur des photos grâce à une intelligence artificielle, ses créateurs l’ont supprimée.

Depuis la nuit des temps, les progrès technologiques entraînent leur lot de perversion. Aujourd’hui, si l’intelligence artificielle permet de prévenir certaines maladies et facilite la vie de certains, cette forme de technologie est également utilisée à des fins moins bienfaitrices, notamment le Deepfake qui consiste à truquer des images de manière très réaliste.

L’application DeepNude en est d’ailleurs le parfait exemple. Reposant sur le principe du Deepfake, l’application avait pour objectif de dénuder les femmes sur des photos grâce à l’intelligence artificielle. Quelques jours après son lancement, elle a été supprimée par ses développeurs.

Habituellement, le principe de Deepfake sert à la désinformation, notamment pour faire dire des choses à des personnalités politiques ou publiques, mais depuis quelque temps le concept est également utilisé à des fins pornographiques. Le visage de célébrité est « collé » sur celui de personne jouant dans des films pour adultes.

DeepNude fait en quelque sorte l’inverse puisque l’application PC se base sur des personnes habillées pour les dénuder. Le logiciel était disponible gratuitement sur PC et une version premium existait pour 50 dollars.

Mise à disposition sur la toile, l’application a connu un rapide succès. Une popularité telle que les développeurs ont eu peur et ont retiré DeepNude du web. Sur Twitter, ils ont indiqué « nous avons grandement sous-estimé la demande. Malgré les mesures de sécurité qui ont été adoptées (chaque image était estampillée « Fake »), si 500.000 personnes l’utilisent, la probabilité que les gens l’utilisent mal est trop grande. Nous ne voulons pas faire de l’argent de cette façon ».

Les développeurs se sont défendus en indiquant que l’objectif de DeepNude était de divertir un public averti. Un divertissement qui ne dénudait que les femmes…

Pour éviter les abus, un filigrane était automatiquement estampillé sur l’image des femmes dénudées par le logiciel. Mais le résultat était tellement bluffant, qu’il était aisé de s’y méprendre, surtout pour un public non averti.

Pour la fondatrice de l’association américaine Badass qui lutte contre le revenge-porn, Katelyn Bowden, l’application était une aberration terrifiante « avec cette application, n’importe qui peut être victime de revenge porn sans même avoir pris de photo dénudée. Cette technologie ne devrait pas être accessible au grand public ».

Truquées ou pas, cela ne devrait pas être très plaisant de tomber sur des photos de soi nu. Il est d’ailleurs facile d’imaginer que ce genre de logiciels de montage – très réaliste d’après le site Motherboard – puisse servir à du harcèlement.