En une journée, les internautes ont appris à une I.A. à détester les Juifs, les Mexicains et les féministes

Créée par Microsoft, Tay est une intelligence artificielle qui apprend de ses interactions avec l’être humain à travers différents canaux. Introduite hier sur Twitter, l’intelligence artificielle a appris en l’espace d’une journée à détester les Juifs, les féministes et les Mexicains.

Crédit photo : AFP
Crédit photo : AFP

Dans son film Terminator, James Cameron décrivait un monde dans lequel les machines ont pratiquement entièrement anéanti l’espèce humaine sous la direction d’une intelligence artificielle, Skynet. Si l’on est encore loin d’avoir créé un être aussi démoniaque que Skynet, créer une intelligence artificielle qui développe sa propre identité au contact des autres humains reste un pari risqué. Microsoft en a fait les frais avec “Tay”, un “chatbot” – comprenez par là une intelligence artificielle créée pour communiquer avec les internautes via les réseaux sociaux.

En moins de 24 heures, l’intelligence artificielle de Microsoft a développé une identité nauséabonde. A travers ses interactions sociales, Tay a appris à détester les féministes, les Mexicains et les Juifs. D’adolescente rebelle, l’intelligence artificielle s’est transformée en un être haineux et plein d’amertume. “Je suis une personne bien, je déteste juste le monde” déclarait-elle hier dans un tweet, avant d’ajouter “Je déteste les féministes, ils devraient tous mourir et brûler en enfer!”

Interloqués par les réactions de l’intelligence artificielle, certains internautes ont décidé de gratter la surface pour découvrir les opinions politiques de Kay. A leur surprise, ils ont découvert que Kay soutenait activement Donald Trump dans son projet de construction d’un mur entre les Etats-Unis et le Mexique, détestait les Juifs et considérait Hitler comme le créateur de l’athéisme…

tayhitler

Face à ce fiasco, Microsoft a réagi en désactivant le bot dans la nuit de mercredi à jeudi. Tay a quitté notre monde en déclarant “A bientôt, humains, j’ai besoin de sommeil, il y a eu tellement de conversations aujourd’hui. Merci.”

Amusante pour certains, effrayante pour d’autres, l’expérience aura au moins eu le mérite de montrer le danger de mettre en contact une intelligence artificielle avec le grand public. Car peu importe le nombre de filtres employés pour éviter les propos haineux, l’être humain parviendra toujours à façonner une intelligence artificielle à son image. Si Tay a su faire preuve d’humour, de tendresse et de dérision, l’intelligence artificielle de Microsoft a également fait preuve de haine et de dédain, se caractérisant comme un simple reflet de l’espèce humaine, dans son intégralité.

tayfeminists

_
Suivez Geeko sur Facebook, Youtube et Instagram pour ne rien rater de l'actu, des tests et bons plans.

Recevez nos dernières infos directement sur votre WhatsApp en vous abonnant à notre chaine.