OpenAI, la société qui développe ChatGPT, ajuste son chatbot en fonction de certains retours des utilisateurs. Dernièrement, elle vient de procéder à une mise à jour afin de permettre une utilisation dite plus “saine”. On fait le point sur ce qui change. Certaines mises à jour de ChatGPT peuvent influer sur la tonalité ou la qualité des réponses. Plus tôt dans l’année, le chatbot avait développé une tendance, flattant un peu trop l’utilisateur. Le tir a ensuite été corrigé par OpenAI suite aux retours. La société tente d’améliorer constamment son outil. Contrairement aux réseaux sociaux qui misent sur la rétention de l’utilisateur, le chatbot a été conçu pour tenter de répondre le plus rapidement et efficacement possible aux requêtes. La société de Sam Altman précise bien dans son communiqué que l’objectif est que la personne qui l’utilise obtienne ce qu’elle est venue chercher. Néanmoins, certains individus peuvent utiliser l’intelligence artificielle de manière plus dépendante. Avec la dernière mise à jour déployée, OpenAI vise à promouvoir une utilisation plus saine. Cela passe par quelques changements majeurs. En premier lieu, l’outil va désormais afficher des messages pour encourager les utilisateurs à faire une pause au cours d’une longue session d’utilisation. Ces notifications apparaîtront de manière naturelle pour aider l’utilisateur à décrocher. Ensuite, les réponses liées à certaines questions très personnelles seront très prochainement adaptées aux circonstances. Par exemple, si vous demandez à ChatGPT si vous devez rompre avec votre petit ami, ce dernier ne répondra pas directement à l’interrogation. À la place, il vous aidera à vous orienter au travers de questions visant à peser les avantages et les inconvénients de la relation. En d’autres mots, le chatbot ne répondra plus aux questions impliquant des décisions personnelles avec de gros enjeux mais il tentera d’orienter la réflexion de l’utilisateur. Enfin, OpenAI reconnaît que son modèle (notamment 4o), qui répond “avec une honnêteté sans faille”, n’a pas toujours réussi à reconnaître certains signes, comme des détresses mentales ou émotionnelles. L’entreprise américaine indique donc développer de nouveaux outils pour mieux détecter lesdits signes et ainsi fournir des réponses plus appropriées. La société rappelle également qu’elle ne prend pas le sujet à la légère, travaillant avec plus de 90 personnes du corps médical à travers une trentaine de pays. Parmi les consultants se trouvent des psychiatres, des pédiatres et des médecins généralistes.