Les chiffres publiés par OpenAI dévoilent une réalité troublante : ChatGPT n’est plus seulement un outil, mais un confident pour des centaines de milliers d’utilisateurs en détresse. Une situation qui pousse l’entreprise à repenser profondément son modèle. L’intelligence artificielle occupe une part tellement importante de nos vies actuelles qu’on la prend parfois pour notre confident. On lui demande des conseils, des avis, on lui avoue des choses pas toujours très catholiques… Pour certains, ChatGPT et consorts font office de purgatoire, voire de thérapeute. Ce qu’OpenAI, l’entreprise derrière ChatGPT, vient de révéler sur son site internet fait froid dans le dos. Chaque semaine, plus d’un million de personnes confient des pensées suicidaires ou des envies d’automutilation à ChatGPT, ce qui équivaut à 0,15% des utilisateurs actifs hebdomadaires. Sur les 300 millions d’utilisateurs présents chaque semaine sur ChatGPT, cela représente 450.000 utilisateurs en détresse. OpenAI va plus loin encore en expliquant que 560.000 utilisateurs montraient, chaque semaine, des signes de crises psychiatriques aiguës comme de la psychose. “Nous voulons que ChatGPT soit un espace de soutien, mais aussi un tremplin vers les relations humaines et l’aide professionnelle”, argumente OpenAI. Pour ajuster l’aide apportée par ChatGPT, l’entreprise californienne a apporté une mise à jour à GPT-5 développée en partenariat avec des cliniciens spécialisés en santé mentale. Ainsi, le modèle devrait désormais être capable d’identifier les signaux de détresse, même implicites, de réagir avec empathie et prudence et d’orienter l’utilisateur vers des proches ou des services d’aide professionnels. Une dépendance émotionnelle à l’IA marquée OpenAI apporte d’autres chiffres particulièrement troublants que GPT-5 devrait permettre d’atténuer. 0,07 % des utilisateurs hebdomadaires montrent des signes de psychose ou manie. Pour mieux réagir, les réponses inadaptées du modèle ont été réduites de 65 %, et il est jugé 92 % conforme aux comportements souhaités, contre 27 % pour l’ancienne version. 0,15% des utilisateurs ont également montré des signes sérieux de dépendance émotionnelle à l’IA. Face à ça, ChatGPT a des principes directeurs auquel son dernier modèle, GPT-5, va devoir être fidèle : Encourager les liens humains réels Refuser d’affirmer des croyances délirantes ou irrationnelles Détecter plus finement les signaux indirects de crise Rester empathique et non intrusif