Un groupe d’ingénieurs de l’Université catholique de Louvain a réussi à berner un système de caméra de surveillance grâce à une simple photo. Une personne peut passer inaperçue par le système si elle se colle une photo en couleur sur elle.

Sur le marché des systèmes de sécurité, les caméras de surveillance rencontrent un grand succès. Une popularité accentuée par l’arrivée de caméras toujours plus performantes, notamment certains modèles dotés d’une intelligence artificielle. Ceux-ci sont capables de détecter et d’identifier des personnes et certains objets. Des capacités intéressantes du point de vue de la sécurité – beaucoup moins de celui du respect de la vie privée -, mais qui présentent tout de même ses limites.

En effet, une équipe d’ingénieurs de l’Université de Louvain a démontré qu’il était possible de tromper l’I.A. d’une caméra, empêchant celle-ci de détecter et de reconnaitre une personne. Plus encore, l’astuce utilisée pour tromper le système ne nécessite pas grand-chose puisqu’il suffit de positionner une photo – d’une taille A4, plus ou moins – colorée devant soi pour que l’I.A. se concentre dessus et, ainsi, ne repère pas la personne derrière.

Les ingénieurs ont d’ailleurs illustré leur expérience dans une vidéo publiée sur YouTube. On peut y voir deux personnes. L’une est normale et est directement détectée par l’intelligence artificielle de la caméra. Quant à la seconde, celle-ci affiche une feuille colorée sur son torse. On peut remarque que le système de sécurité ne la repère pas avant que celle-ci ne déplace la feuille.

L’astuce ne fonctionne uniquement que sur l’algorithme développé expressément pour l’expérience, mais selon les chercheurs, il serait possible de mettre au point des vêtements spéciaux pour devenir invisible pour les caméras de surveillance.

Ce n’est pas la première fois que les limites de l’intelligence artificielle sont démontrées. En réalité, il est « aisé » de perturber l’I.A. grâce à des éléments perturbateurs, par exemple la présence d’autocollants sur une route qui perturbe la trajectoire d’une voiture autonome. Ici, il s’agit d’une expérience réalisée dans le but de tromper l’intelligence artificielle, une démarche connue sous le nom de adversarial example.

On peut tout de même imaginer qu’à l’avenir, l’intelligence artificielle se montre plus… intelligente.

1 COMMENTAIRE

Comments are closed.