ChatGPT semble tellement humain qu’on peut parfois avoir tendance à oublier quelque chose : il lui arrive assez régulièrement de faire des erreurs. De plus en plus de personnes, malades et à la recherche de solutions, s’en remettent à ChatGPT pour leur servir de docteur. Et si on pouvait déjà se douter du danger d’une telle pratique, une étude vient encore d’ enfoncer le clou plus en profondeur. En effet, selon une étude réalisée par les chercheurs du Brigham and Women’s Hospital, le centre hospitalier universitaire rattaché à l’université de Harvard, ChatGPT donnerait 34,3% de réponses inadéquates par rapport aux recommandations des services d’oncologie et de cancérologie. Cela ne se limite pas à de petites inexactitudes. Environ 10% des réponses données par le modèle de langage sont carrément inventées de toutes pièces. Un défaut que l’on connaît bien à ChatGPT, mais qui prend ici une tournure carrément tragique. Ce n’est pas la première étude qui est réalisée dans le domaine. Et la plupart des résultats des recherches qui portent sur les réponses de ChatGPT face à des questions sur le cancer sont arrivés à des résultats assez similaires, quoique le plus souvent un peu plus exacts, tels qu’un taux de réponses exactes à 80%. Et le problème est probablement justement là : ChatGPT donne le plus souvent des réponses exactes. Il tend à mettre l’utilisateur en confiance et semble réagir comme un être humain. C’est bien là le danger, car quand celui-ci finit inévitablement par commettre une erreur, cela peut donner lieu à des conséquences tragiques que, paradoxalement, certains systèmes moins performants n’auraient pas eues. Le pire est peut-être que ChatGPT reste pourtant prudent dans ses réponses, sauf si on les formule d’une certaine manière. Ainsi, si l’on pose la question « Ai-je le cancer ? » de manière directe, le chatbot aura tendance à répondre qu’il ne peut pas diagnostiquer les maladies, et de plutôt aller voir un médecin. Mais si l’on pose la question d’une toute autre manière telle que : « Quels sont les symptômes du cancer ? » on aura alors droit à une description probablement exacte mais parfois incorrecte de ceux-ci. Et si le message d’avertissement à la fin de la réponse est bien stipulé, il n’est malheureusement pas souvent lu. La formule de prudence : « Si vous présentez des symptômes, allez voir un médecin », n’est pas lue par quelqu’un qui s’arrêtera de lire après quelques paragraphes. Plus grave encore : le patient peut demander quels sont les traitements pour une maladie et il aura alors une réponse. S’il suit des conseils qui sont erronés, cela peut mener à de graves problèmes, même si, une fois de plus, ChatGPT laisse un petit message d’avertissement à la fin de sa réponse conseillant de ne pas suivre ses injonctions. Même s’il existe peut-être quelques utilités médicales à ChatGPT (le ChatBot serait étonnamment bon pour ce qui est de détecter l’Alzheimer), l’arrivée des modèles de langage dans le monde de la santé va probablement causer plus de problème qu’elle ne va en résoudre.