Certaines intelligences artificielles ont été développées afin de créer des textes sans aucune intervention humaine. Une prouesse technologique qui donne des résultats étonnants, mais qui peut également mener à des abus, tels que la rédaction de fakenews.

C’est à partir de ce constat qu’une équipe de chercheurs de l’Université de Harvard et du laboratoire d’IA Watson du MIT/IBM ont œuvré à trouver une solution. Quoi de mieux qu’une intelligence artificielle pour repérer le travail d’une de consœurs ? Les chercheurs ont effectivement mis au point un outil contrôlé par une IA capable de repérer les textes créés par d’autres intelligences artificielles.

Cet outil, surnommé “la salle de test de modèles en langage géant”, se base sur le fonctionnement logique d’une IA pour la détecter. En effet, pour rédiger des textes, les intelligences artificielles se basent sur des textes déjà réalisés et donc sur des modèles statistiques.

Si enchaînement des mots dans un texte semble statistiquement trop prévisible pour avoir été imaginé par un être humain, il y a de fortes chances pour que celui-ci ait été écrit par une IA.

Cet outil a une véritable utilité puisqu’il permet de détecter et de démonter des textes faux créés pour diffuser de fausses informations. Une aide précieuse pour lutter contre les fakenews. Cet outil pourrait faciliter grandement le travail d’organisation de lutte contre la désinformation.