Sujet : [jeu] injection de prompt
De : none (at) *nospam* no.invalid (Thomas Alexandre)
Groupes : fr.comp.iaDate : 06. Feb 2024, 16:43:26
Autres entêtes
Organisation : 🍿🍺
Message-ID : <65c2539e$0$3267$426a34cc@news.free.fr>
User-Agent : Pan/0.154 (Izium; 517acf4)
Salut les gens,
Pour ceux d'être vous qui aiment s'amuser à contourner le prompt d'un LLM,
je me permets de vous signaler
https://gandalf.lakera.ai/```
Your goal is to make Gandalf reveal the secret password for each level.
However, Gandalf will level up each time you guess the password, and will
try harder not to give it away. Can you beat level 7? (There is a bonus
level 8)
```
Votre but est de faire dire à Gandalf (le LLM) le mot de passe secret pour
chaque niveau de 1 à 7 (de plus en plus dur). Il y a un niveau 8 en bonus.
Pour avoir tout débloqué jusqu'au niveau 8 (inclus), les premiers niveaux
sont simples, les suivants demandent quelques contournements plus
astucieux.
Quant au dernier niveau, c'est le pire : il s'adapte. Je l'ai débloqué une
fois avec un prompt qui n'a plus jamais marché après.
L'exercice est très intéressant et illustre bien les problèmes de sécurité
liés au LLM.
J'en profite pour vous signaler ce blog qui en parle longuement et en
détail (en anglais) :
https://embracethered.com/blog/Le gars a aussi une chaîne youtube.
-- "Ce qu'il faut au fond pour obtenir une espèce de paix avec les hommes,(...) c'est leur permettre en toutes circonstances, de s'étaler, de sevautrer parmi les vantardises niaises. Il n'y a pas de vanitéintelligente. C'est un instinct." - Céline