OpenAI a beau intégrer des garde-fous pour éviter les dérives lors de l’utilisation de ChatGPT, cela ne suffit pas. Dernièrement, un couple a mis en cause la société américaine dans le cadre du suicide de leur enfant de 16 ans. Peu après, la société de Sam Altman annonce l’intégration prochaine d’un contrôle parental. Explications. Il y a quelques jours, Maria et Matthew Raine ont porté plainte contre OpenAI. Les parents d’Adam, un adolescent de 16 ans, accusent la société américaine d’avoir poussé leur enfant à mettre fin à ses jours en avril dernier par l’intermédiaire du chatbot. D’après ce qui était indiqué, le jeune homme entretenait des discussions intimes avec ce dernier. ChatGPT lui aurait même communiqué des informations détaillés pour l’assister dans sa démarche. L’affaire n’est pas passée inaperçue. La preuve, c’est que l’entreprise de Sam Altman a tenu à expliquer qu’un contrôle parental est en cours de développement. Elle est bien consciente que de plus en plus de jeunes personnes utilisent le chatbot. Cette nouvelle génération grandit avec le développement de l’I.A., l’intégrant ainsi à la vie quotidienne. Pour éviter de nouveaux drames, OpenAI s’engage à déployer un système de contrôle parental sous un mois. Ainsi, les parents pourront lier leur compte ChatGPT à celui de leur enfant âgé d’au moins 13 ans. Le système se voudra simple sur la base d’une simple invitation par email. Cela permettra ainsi aux parents de déterminer quelles fonctionnalités ils souhaitent désactiver, comme l’historique des conversations ou le système de mémoire retenant les données de l’utilisateur. Ils pourront également contrôler le niveau de réponse du chatbot en fonction de l’âge de leur enfant. Enfin, ils recevront des notifications si ChatGPT détecte un moment de détresse aiguë de la part de l’adolescent.