Liste des Groupes | Revenir à fs zetetique |
Faisons des constats.Intéressant, même si le rapport avec la photo n'a rien d'évident.
Sur fr.rec.photo:
1 - Le 15/4 à 12 h 04, je propose le sujet de maths du concours 2000 de Khâgne B/L à Normale Sup' ULM.
Efji le rend digeste pour ChatGPT.
Et à l'ébahissement de Efji, ChatGPT résout parfaitement le sujet haut la main en proposant des raisonnements inattendus, hors annales ! Stupéfiant !
2- Le 15/4 à 16 h 16 Je demande à ChatGPT de traduire une texte français sur les voitures en anglais britannique et en anglais américain. Les vocabulaires en cause sont très différents.
Résultat : aucune faute ! Il fait parfaitement la différence.
3 - Le 14/4/ à 17 h 17, je demande la traduction française d'un poème en anglais classique. Il y a un petit piège : une inversion du sujet et du verbe : "is winter spring" pour "winter is spring".
ChatGPT arrive à traduire ces trois mots, mieux que DeepL ou Google Translation mais hésite sur le sens au figuré de "womb".
4 - Le 14/4/ à 19 h 51, j'essaye de piéger ChatGPT avec une expression à double sens : "la petite brise la glace". Il la traduit bien une première fois, et mal la seconde car le contexte le trompe.
5 - le 11/4 à 20 h 39, je décris un cheval et je demande à ChatGPT quelle en est la race.
C'est un Fjord : robe isabelle, raie de mulet noire, crinière blanche. Normalement, il est impossible de se tromper.
ChatGPT échoue lamentablement, il dit que c'est un, Lipizzan, faux , les Lipizzans sont blancs, puis que c’est un Lusitanien, encore faux et il divague. Il ne cite jamais le Fjord.
Le candidat à l'examen de moniteur d'équitation sera refusé.
6 - Et surtout, le 9/4 à 11 h 59 je cite un texte de lui complètement surréaliste sur "l'angoisse de la mort imminente chez les bigorneaux".
Qu'en conclure ?Quand le machin en question se trompe, il y va franchement, mais il fait des phrases qui se tiennent et noie ses erreurs au milieu d'une grande quantité d'affirmation vraies. De plus, il n'est pas câblé pour détecter ses erreurs et encore moins les admettre.
Que ChatGPT ne pense pas, ne réfléchit pas, ne répond que sur la base de ce qu'on lui a donné à retenir et même si ses réponses sont souvent pertinentes et donnent l'impression d'intelligence, il n'est pas intelligent car il est incapable de tenir compte dans son "raisonnement" de faits nouveaux, inconnus, comme les robes des chevaux et il n'a aucune réflexivité, aucun sens critique, ce qui est un des traits de l'intelligence; .
Les messages affichés proviennent d'usenet.