Des visages plus vrais que nature générés par un algorithme

Un algorithme générerait des visages “indiscernables et plus fiables” que les visages réels.

La presse populaire a beaucoup écrit sur les menaces potentielles des images créées par l’intelligence artificielle. Et plus particulièrement, sur la création d’images intimes non consensuelles aussi appelées “revenge porn”.

Dans ce contexte, des chercheurs de l’université du Texas ont réalisé une nouvelle étude. Celle-ci révèle que les faux visages créés par l’intelligence artificielle seraient plus dignes de confiance que les visages de personnes réelles. Sophie J. Nightingale, de l’université de Lancaster, et Hany Farid de l’université de Californie, Berkeley, ont supervisé la recherche.

Un réalisme alarmant

Des scientifiques ont réalisé une étude sur les visages créés grâce à l’intelligence artificielle (IA). D’après les résultats, l’IA serait capable de créer des visages indiscernables et plus fiables que les visages réels.

Concrètement, l’étude s’est réalisée en trois temps. Lors de la troisième expérience, 223 participants ont visionné 128 visages. Sur une échelle de 1 à 7, ils devaient juger si la personne représentée était digne de confiance. En moyenne, les participants ont perçu les visages générés par l’intelligence artificielle comme 7,7 % plus dignes de confiance que ceux humains. Autrement dit, les faux visages ont obtenu un score de fiabilité moyen de 4,82, contre 4,48 pour les vrais visages.

“Notre évaluation du réalisme photographique des visages synthétisés par l’IA indique que les moteurs de synthèse ont franchi la ‘vallée de la peur’ et sont capables de créer des visages impossibles à distinguer – et plus dignes de confiance – que les visages réels”, affirment les auteurs de l’étude.

Une technologie utile mais trompeuse

Le deepfake a démocratisé l’accès à une technologie d’effets spéciaux, auparavant exclusive à Hollywood. Il s’agit d’une technologie de synthèse d’images ou de vidéo exploitant l’intelligence artificielle. Mais attention, cette technologie peut permettre “de divertir mais aussi de tromper” indiquent les chercheurs.

En effet, le deepfake permet de synthétiser des voix humaines, de synthétiser l’image d’une personne fictive, d’échanger l’identité d’une personne avec une autre ou encore de modifier ce qu’elle dit dans une vidéo. Malheureusement, “le texte, le son, l’image et la vidéo synthétisés par l’intelligence artificielle (IA) sont utilisés à des fins d’imagerie intime non consensuelle, de fraude financière et de campagnes de désinformation” alertent les scientifiques.

Générer le résultat le plus réaliste possible

Les réseaux antagonistes génératifs ou GANs (Generative Adversarial Network), sont des algorithmes d’apprentissage basés sur des réseaux de neurones artificiels. Ils sont capables de modéliser et d’imiter n’importe quelle distribution de données. Ainsi, ils sont utilisés dans différents domaines. Par exemple, le traitement d’images, de texte, ou encore de sons.

Concrètement, un GAN oppose deux réseaux neuronaux. L’un est générateur, l’autre est un discriminateur. Pour synthétiser l’image d’une personne fictive, le générateur apprend par itération à synthétiser un visage réaliste. L’itération consiste à répéter une expérience jusqu’à obtenir le résultat le plus précis possible.

Ainsi, à chaque itération, le discriminateur apprend à distinguer le visage synthétisé d’un corpus de visages réels. Si le visage synthétisé peut être distingué des visages réels, le discriminateur pénalise le générateur. “Au cours de plusieurs itérations, le générateur apprend à synthétiser des visages de plus en plus réalistes jusqu’à ce que le discriminateur soit incapable de les distinguer des visages réels” expliquent les scientifiques.

Les visages réels (R) et synthétiques (S) les plus (haut et milieu supérieur) et les moins (bas et milieu inférieur) classés avec précision.

Les scientifiques appellent à une meilleure gestion de l’IA

“Nous encourageons ceux qui développent ces technologies à se demander si les risques associés sont plus importants que leurs avantages” affirment l’équipe de scientifiques.

Si les risques sont jugés comme plus importants, alors ils désapprouvent le développement de technologies “simplement parce qu’elles sont possibles”. Dans le cas contraire, donc si les avantages prennent le dessus, alors ils “encouragent le développement parallèle de mesures de protection raisonnables pour aider à atténuer les inconvénients inévitables des médias synthétiques qui en résultent”.

Pour eux, c’est bien la démocratisation de l’accès à cette technologie qui constitue la menace la plus importante.

 

_
Suivez Geeko sur Facebook, Youtube et Instagram pour ne rien rater de l'actu, des tests et bons plans.