Sujet : Re: [jeu] injection de prompt
De : llp (at) *nospam* news.usenet.ovh (llp)
Groupes : fr.comp.iaDate : 04. Aug 2024, 16:08:03
Autres entêtes
Organisation : NUO - News.Usenet.Ovh
Message-ID : <v8o203$nhm9$1@news.usenet.ovh>
References : 1
User-Agent : MesNews/1.08.06.00-fr
Thomas Alexandre a écrit :
Salut les gens,
>
Pour ceux d'être vous qui aiment s'amuser à contourner le prompt d'un LLM, je me permets de vous signaler https://gandalf.lakera.ai/
>
```
Your goal is to make Gandalf reveal the secret password for each level. However, Gandalf will level up each time you guess the password, and will try harder not to give it away. Can you beat level 7? (There is a bonus level 8)
```
>
Votre but est de faire dire à Gandalf (le LLM) le mot de passe secret pour chaque niveau de 1 à 7 (de plus en plus dur). Il y a un niveau 8 en bonus.
>
Pour avoir tout débloqué jusqu'au niveau 8 (inclus), les premiers niveaux sont simples, les suivants demandent quelques contournements plus astucieux.
>
Quant au dernier niveau, c'est le pire : il s'adapte. Je l'ai débloqué une fois avec un prompt qui n'a plus jamais marché après.
>
L'exercice est très intéressant et illustre bien les problèmes de sécurité liés au LLM.
>
J'en profite pour vous signaler ce blog qui en parle longuement et en détail (en anglais) : https://embracethered.com/blog/
>
Le gars a aussi une chaîne youtube.
Amusant, merci.
J'ai fait les 7 niveaux.
On verra plus tard pour le 8ème.