Les progrès fulgurants de l’intelligence artificielle suscitent la fascination. Beaucoup d’internautes se réfèrent à ChatGPT, Grok ou Gemini sans jamais remettre en question leurs discours. On vous explique pourquoi c’est commettre une très grosse erreur. Le terme “IA” tel qu’on l’entend ne veut pas dire grand chose. La plupart du temps, les médias utilisent ce terme pour définir des “chatbots” comme ChatGPT, Grok ou Gemini, comprenez par là des assistants virtuels la plupart du temps accessibles via un site web ou une app, avec lesquels vous interagissez de façon textuelle ou vocale, à travers un dialogue. L’humain pose une question, l’IA répond. En réalité, ces “IA” ne sont ni plus ni moins que la forme évoluée et simplifiée d’un moteur de recherche. Vous leur posez une question comme vous la poseriez à Google. La différence avec Google, c’est que les IA ne vous donnent qu’une seule et unique réponse, et pas un ensemble de sources. C’est ce qui explique pourquoi la plupart de ces IA continuent à vous répondre que Christophe Colomb est celui qui a découvert l’Amérique en 1492. Parce que c’est la réponse la plus communément trouvée sur Internet, qui fait donc office de consensus, l’IA l’ayant enregistrée comme une vérité absolue. Comme Grok l’explique lui-même quand on lui pose la question, “les IA comme moi ne sont pas à labri de dérives surprenantes.” Pendant très longtemps, ChatGPT vous répondait ainsi que le mot “ketchup” comprenait deux “e”. Les modèles comme ChatGPT sont entraînés sur des corpus massifs de textes provenant d’Internet, de livres, d’articles et d’autres sources. Données qui ne sont pas toujours fiables. Le terme ketchup étant un mot de langue étrangère en anglais, beaucoup d’internautes l’orthographient incorrectement. De Surcroit, ChatGPT fonctionne en prédisant la probabilité des mots ou des lettres suivants dans une séquence, sans véritable compréhension sémantique. Or, en anglais, il est commun qu’un e soit suivi d’un second e. Si “keetchup” apparaît, même très rarement, dans les données d’entraînement, le modèle peut le considérer comme une option légitime. L’exception devient alors la règle. En 2024, le magazine Nature expliquait ainsi que “les IA ne “comprennent” pas les règles orthographiques comme un humain ; elles génèrent des réponses en fonction de corrélations statistiques” – et c’est ce qui crée les “divagations de l’IA”. Ce phénomène, où une IA produit des informations erronées ou inventées de toute pièce, a été étudié en profondeur par l’université de Stanford en 2024. Selon les chercheurs, jusqu’à 10% des réponses formulées par les chatbots contiendraient des inexactitudes ou des informations inventées de toute pièce. Et ce serait même tout à fait normal puisque ces “IA” sont incapables de comprendre le monde dans lequel elles évoluent. Ce sont les statistiques qui dictent les réponses des algorithmes. Lorsque des données son ambiguës, incomplètes ou mal formulées, l’IA risque de “divaguer” et de créer de toute pièce des parties de récits. Plus inquiétant encore : lorsqu’elle divague, une IA comme ChatGPT n’est pas capable de s’en rendre compte. Le système n’a tout simplement pas été conçu pour évaluer sa propre fiabilité. Et c’est précisément pourquoi ChatGPT, Grok ou Gemini vont vous donner des informations avec une telle certitude qu’on se laisse très souvent convaincre que c’est la vérité et pas une intox. ChatGPT ne vous répondra jamais : “mes connaissances dans ce domaine sont trop limitées”. Lorsque vous interagissez avec l’une de ces “IA”, gardez donc un esprit critique. Plus encore lorsqu’il s’agit de sujets comme la médecine, la justice ou l’Histoire.