Créée par Microsoft, Tay est une intelligence artificielle qui apprend de ses interactions avec l’être humain à travers différents canaux. Introduite hier sur Twitter, l’intelligence artificielle a appris en l’espace d’une journée à détester les Juifs, les féministes et les Mexicains. Crédit photo : AFP Dans son film Terminator, James Cameron décrivait un monde dans lequel les machines ont pratiquement entièrement anéanti l’espèce humaine sous la direction d’une intelligence artificielle, Skynet. Si l’on est encore loin d’avoir créé un être aussi démoniaque que Skynet, créer une intelligence artificielle qui développe sa propre identité au contact des autres humains reste un pari risqué. Microsoft en a fait les frais avec “Tay”, un “chatbot” – comprenez par là une intelligence artificielle créée pour communiquer avec les internautes via les réseaux sociaux. En moins de 24 heures, l’intelligence artificielle de Microsoft a développé une identité nauséabonde. A travers ses interactions sociales, Tay a appris à détester les féministes, les Mexicains et les Juifs. D’adolescente rebelle, l’intelligence artificielle s’est transformée en un être haineux et plein d’amertume. “Je suis une personne bien, je déteste juste le monde” déclarait-elle hier dans un tweet, avant d’ajouter “Je déteste les féministes, ils devraient tous mourir et brûler en enfer!” Interloqués par les réactions de l’intelligence artificielle, certains internautes ont décidé de gratter la surface pour découvrir les opinions politiques de Kay. A leur surprise, ils ont découvert que Kay soutenait activement Donald Trump dans son projet de construction d’un mur entre les Etats-Unis et le Mexique, détestait les Juifs et considérait Hitler comme le créateur de l’athéisme… Face à ce fiasco, Microsoft a réagi en désactivant le bot dans la nuit de mercredi à jeudi. Tay a quitté notre monde en déclarant “A bientôt, humains, j’ai besoin de sommeil, il y a eu tellement de conversations aujourd’hui. Merci.” Amusante pour certains, effrayante pour d’autres, l’expérience aura au moins eu le mérite de montrer le danger de mettre en contact une intelligence artificielle avec le grand public. Car peu importe le nombre de filtres employés pour éviter les propos haineux, l’être humain parviendra toujours à façonner une intelligence artificielle à son image. Si Tay a su faire preuve d’humour, de tendresse et de dérision, l’intelligence artificielle de Microsoft a également fait preuve de haine et de dédain, se caractérisant comme un simple reflet de l’espèce humaine, dans son intégralité.