Une équipe de chercheurs du MIT a réalisé une expérience qui démontre comment une intelligence artificielle peut devenir un véritable psychopathe, simplement par un apprentissage biaisé.

Capture d’écran 2018-06-11 à 17.25.25

Pinar Yanardag, Manuel Cebrian et Iyad Rahwan, trois chercheurs du de l’institut de technologie du Massachusetts ont mis en évidence les dangers du Deep learning, ou apprentissage automatique. Lorsqu’une IA possède un jugement tordu, qu’il soit raciste, sexiste ou quoi que ce soit de déviant, son algorithme est souvent pointé du doigt. Hors, cette étude démontre plutôt que c’est la base de données qui lui a été enseignée qui en est l’origine.

Norman est la personnification de cette étude, cette IA possède un algorithme tout-à-fait classique, aussi simple qu’un algorithme qui a pour seule tâche de différencier la photo d’un chat de photos de fruits. Il a juste été entraîné avec des données quelque peu différentes : il a été exposé aux descriptions horrifiques d’images gores sur un fil Reddit.

Norman a ensuite été placé face à un test de Rorschach, le résultat est édifiant. Là où une IA classique voit le gros plan d’un vase avec des fleurs, Norman y voit un homme tué par balle; là où une IA classique voit une personne tenant un parapluie dans les airs, Norman voit un homme tué juste devant sa femme qui hurle.

Norman

Par cette expérience, les chercheurs du MIT ont voulu démontrer les erreurs qu’un algorithme peut générer, aussi complexe soit-il, si les données qui lui sont fournies sont erronées ou trop peu variées. Un Google Doc a été ouvert pour aider Norman à revenir sur le droit chemin en proposant vos interprétations de ces tests, la diversité des réponses devant lui permettre d’y voir plus clair.