Une récente étude met en lumière une cinquantaine de sites d’actualités presque entièrement alimentés par l’intelligence artificielle. Entre incohérences et menaces de désinformation, la multiplication de ces newsbots inquiète les chercheurs. Serait-ce le retour des “fermes de contenus” ? A en croire le dernier rapport de la start-up Newsguard publié ce 1er mai, la réponse est “oui”. En avril dernier, l’entreprise spécialisée dans l’évaluation des sites d’actualités a identifié 49 newsbots, des sites d’informations générés entièrement, ou presque, par l’intelligence artificielle. Des titres clickbait, des centaines d’articles publiés par jour, des fausses informations, des messages d’erreurs et des créateurs aux origines troubles sont autant d’indices qui rappellent aux chercheurs la prolifération des “content farm”. Objectif de ces sites web, produire une grande quantité d’articles accrocheurs, afin d’optimiser les recettes publicitaires, en dépit de la vérification de l’information. “Une nouvelle génération de “fermes de contenus” se profile”, alertent les spécialistes de Newsguard. Et la crainte que les nouveaux outils d’intelligence artificielle dévoilés ces quelques mois au grand public, comme ChatGPT ou Midjourney, “puissent être utilisés pour créer de toutes pièces des sites d’actualité – une pratique qui faisait autrefois l’objet de spéculations de la part des spécialistes des médias”. Origines troubles et faux contenus En 2011, l’impact de ces “pollueurs” du web était tel, que le géant Google avait mis à jour son algorithme de classement dans son moteur de recherche, afin de déclasser au maximum les “content farm”. Aujourd’hui pourtant, les sites identifiés par Newsguard semblent passer les filtres de vérification, alors que leurs contenus sonnent faux, jusque dans les sections “A propos”. “Ce site a été fondé en [date] par [Votre nom]. History Fact s’engage également à répondre à toutes les personnes qui s’abonnent à la chaîne YouTube [lien de la chaîne] et qui suivent notre site. Nous espérons que vous apprécierez nos services autant que nous apprécions vous les offrir. Cordialement, [Votre nom]”, peut-on lire par exemple sur HistoryFact.in, l’un des sites identifiés. Son caractère factice n’est d’ailleurs même pas dissimulé : “Notre page À propos de nous a été créée à l’aide de l’outil About Us Generator Tool”. De plus, les origines de la plupart de ces newsbots restent floues. Sur les 29 sites mentionnant des contacts, Newsguard n’a réellement échangé qu’avec deux d’entre-eux. “Nous utilisons l’automatisation à certains moments quand c’est extrêmement nécessaire. Et oui, ils sont 100% vérifiés pour qu’aucune information fausse ne soit créée…” a pourtant assuré aux chercheurs la personne qui se présente comme le fondateur de GetIntoKnowledge.com. Une menace pour les lecteurs “Un lecteur non averti ne se douterait probablement pas que les articles produits par bon nombre de ces fermes de contenu généré par IA n’ont pas été rédigés par des humains”, alerte Newsguard. Un point commun que partagent les 49 sites identifiés par les chercheurs. Tous auraient publié un message d’erreur propre aux robots conversationnels, tels que “ma date limite est septembre 2021”, “en tant que modèle de langage de l’IA” ou encore “je ne peux pas répondre à cette demande” Pis encore, le risque de “mésinformation”, repéré par exemple sur le site CelebritiesDeaths.com, qui publie des fausses nécrologies, ou encore des informations fabriquées de toutes pièces, sur le site Wavefunction.info. Le phénomène porte d’ailleurs le nom “d’hallucination” des chatbots et autres outils d’intelligence artificielle. Comme pour les fausses images ou la fausse interview de Michael Schumacher, le risque est grand de voir les nouveaux outils d’intelligence artificielle détournés pour créer du contenu fallacieux.