OpenAI s’inquièterait de l’influence qu’a ChatGPT sur les utilisateurs. Ceux-ci commenceraient à éprouver des sentiments pour l’IA, et seraient même influencés par le chatbot. Il n’aura même pas fallu deux ans à ChatGPT pour devenir l’un des chatbots dopés à l’IA les plus populaires au monde. OpenAI est rapidement devenu un pionnier en matière d’intelligence artificielle générative, les copies de ChatGPT pullulant sur le web. Et pour cause : là où les Siri, Alexa et autres Bixby étaient fortement limités, ChatGPT et ses alternatives ont apporté un véritable vent de fraîcheur dans le milieu de l’IA. Il faut dire que les possibilités semblent pratiquement infinies. Les chatbots sous IA générative ont réponse à tout, à tel point que certains semblent confondre ChatGPT avec un véritable être humain. C’est en tout cas ce qu’affirment des chercheurs de chez OpenAI, les utilisateurs accordaient beaucoup trop leur confiance dans ces chatbots non réels. Les chercheurs donnent un nom à ce phénomène : l’anthopomorphisation. “L’anthropomorphisation implique d’attribuer des comportements et des caractéristiques de type humain à des entités non humaines, telles que les modèles d’IA. Ce risque peut être accru par les capacités audio du GPT-4o, qui facilitent des interactions plus humaines avec le modèle”, expliquent-ils. Et d’ajouter, en donnant un exemple : “Au cours des premiers tests, nous avons observé des utilisateurs utiliser un langage qui pourrait indiquer la formation de liens avec le modèle. Par exemple, cela inclut le langage exprimant des liens partagés, tels que “C’est notre dernier jour ensemble”.” Un chatbot qui “influencerait les normes sociales” Les chercheurs craignent en effet que la capacité de GPT-4o de parler avec une voix humaine et de répondre aux questions de l’utilisateur avec cette voix pourrait induire en erreur les personnes les plus vulnérables socialement parlant. Celles-ci “pourraient former des relations sociales avec l’IA, réduisant leur besoin d’interaction humaine. Une interaction prolongée avec le modèle pourrait influencer les normes sociales”. Contrairement à un dialogue avec un humain, l’échange avec une IA peut être interrompu à tout moment puis repris en parlant dans un micro. Avec les récentes avancées de GPT-4o, le bot serait non seulement capable de reproduire une voix parfaitement humaine, mais également un clone de la voix de l’utilisateur, ce qui pourrait le perturber. Déjà influençables et influencés, ces utilisateurs rentreraient ainsi dans un cercle vicieux dont il est difficile de sortir sans une aide externe. Ce scénario n’est pas sans rappeler celui du film Her, avec Joaquin Phoenix. Sorti en 2013, cette dystopie retrace la vie d’un écrivain dépressif, en instance de divorce, qui installe une intelligence artificielle sur son ordinateur. IA dont il tombe éperdument amoureux, et pour laquelle il semble prêt à tout.