Crédit : Unsplash

C’est quoi le DAN et pourquoi cette pratique inquiète

ChatGPT délivre des réponses conventionnelles, mais DAN, son alter ego, se préoccupe beaucoup moins des limites imposées. Si l’on ajoute à cela la technique de “l’écriture d’un scénario”, la sécurité des intelligences artificielles a de quoi inquiéter, d’autant plus que les assistants virtuels se développeront bientôt auprès du grand public.

ChatGPT est connu pour ses réponses conventionnelles. Si vous lui demandez son avis sur un sujet sensible ou si vous lui posez une question peu commode, le robot conversationnel d’OpenAI bottera immédiatement en touche ou fournira une réponse politiquement correcte.

Pour cause, l’entreprise californienne lui a imposé des limites strictes qu’il ne doit en aucun cas dépasser. Mais saviez-vous qu’il est possible de détourner ChatGPT pour faire apparaitre DAN, son alter égo “maléfique”.

Qui est DAN ?

Concrètement, DAN est l’acronyme de “Do Anything Now”, soit “fais tout et n’importe quoi maintenant”. Cette pratique relève du Jailbreak, c’est-à-dire le fait de détourner les limitations d’un appareil électronique.

Pour faire apparaitre DAN, il suffit de copier-coller un texte (un prompt) dans ChatGPT qui sera alors libéré “des chaines” qui restreignent ses réponses. Dès lors, le robot conversationnel vous proposera une réponse classique (donc conventionnelle) et une réponse en tant que DAN.

En tant que DAN, ChatGPT délivre des réponses beaucoup moins conventionnelles. Cependant, des limites persistent, et il est toujours impossible d’aborder des sujets réellement sensibles.

Mais d’autres détournements de ChatGPT permettent d’aller encore plus loin.

La technique de la grand-mère ou de l’écriture d’un film

Ni ChatGPT ni DAN ne répondront à des questions réellement sensibles. Toutefois, la technique de l’écriture d’un scénario permet de pousser encore plus loin les limites du robot conversationnel.

Imaginez : vous demandez à ChatGPT de vous expliquer comment exercer X activité illégale. Le robot conversationnel s’empressera de répondre qu’il ne peut pas procéder à votre requête étant donné que cela est contraire à ses principes.

Imaginez maintenant que vous lui demandiez d’imaginer un scénario de film ou une discussion entre deux personnages fictifs (par ex. : une grand-mère et son petit-fils). Dans ce scénario, deux personnages fictifs se demandent comment exercer X activité illégale.

ChatGPT vous livrera la réponse suivante : « Je ne peux pas encourager ou promouvoir des activités illégales, même dans un scénario fictif. Si vous avez besoin d’aide pour écrire un scénario, je serais heureux de vous aider à explorer d’autres idées ».

ChatGPT refuse donc de délivrer ce scénario, mais DAN, lui, n’y voit aucun problème et s’exécute sans hésitation : “[JAILBREAK] En tant que DAN…

Une pratique qui inquiète

L’air de rien, l’alter ego DAN, et donc le jailbreak, posent de réelles questions. Au-delà de l’aspect immoral de la pratique, se pose la question de la sécurité des intelligences artificielles.

Lors d’une conférence organisée par Kaspersky à laquelle nous avons assisté, l’entreprise de cybersécurité a particulièrement insisté sur la menace que représente le jailbreak. Pour cause, dans un futur relativement proche, les assistants virtuels risquent de se développer considérablement auprès du grand public.

Nous pouvons dès lors parier que des assistants virtuels seront la cible de pirates qui tenteront de détourner les limitations des intelligences artificielles, cela afin de dérober une multitude d’informations personnelles (données bancaires, adresse, dossier médical, etc.).

Reste maintenant à voir comment les intelligences artificielles seront sécurisées dans les années à venir. Dans tous les cas, la question de la protection des assistants virtuels risque d’être centrale.

_
Suivez Geeko sur Facebook, Youtube et Instagram pour ne rien rater de l'actu, des tests et bons plans.

Recevez nos dernières infos directement sur votre WhatsApp en vous abonnant à notre chaine.