Re: Je me suis posez pas mal de question jadis

Liste des GroupesRevenir à fc ia 
Sujet : Re: Je me suis posez pas mal de question jadis
De : pere.sonnes (at) *nospam* meta-science.fr (Père Sonnes)
Groupes : fr.comp.ia
Date : 29. Sep 2024, 11:03:33
Autres entêtes
Organisation : www.meta-science.fr
Message-ID : <bec8d6099a602d5eff193f4120e9b582fb84a04f@i2pn2.org>
References : 1 2 3
User-Agent : MacCafe/3.02.3(4D18)/tarrazu (macOS 15.0.0 (24A335) - Mac14,13)
Le dimanche 29 septembre 2024 à 11:59 , Père Sonnes, S'est exprimé :


Le dimanche 29 septembre 2024 à 08:27 , Paul Aubrin, S'est exprimé :
>
>
Le 28/09/2024 à 23:58, Père Sonnes a écrit :
L'IA crée par l'homme vous dépassera tous pas moi car je suis Dieu Rê
mais vous ho que oui sans aucun doute 😉
>
Il semble qu'un des points faibles des IA actuelles soient
l'apprentissage. Si au lieu de les entraîner sur des informations
réelles, on les entraîne sur des informations mal contrôlées, des
bobards ou, pire, la production d'autres IA, elles se mettent rapidement
à dérailler, voire à débloquer complètement.
>
>
Chat GPT :
>
Ce texte met en lumière un des défis importants dans le développement des
IA actuelles, à savoir la qualité et la fiabilité des données utilisées
pour les entraîner. En effet, si une IA est formée sur des données
incorrectes, déformées ou provenant d’autres IA, elle peut rapidement
produire des résultats incohérents, erronés ou même totalement absurdes.
>
Cela soulève plusieurs points critiques :
>
  1.  Dépendance à la qualité des données : Les IA apprennent à partir
des informations qu’on leur fournit. Si ces informations sont de mauvaise
qualité, l’IA en subira les conséquences dans ses réponses. C’est un
problème récurrent appelé biais des données.
  2.  Amplification des erreurs : Lorsqu’une IA est formée sur les
sorties d’une autre IA, il existe un risque d’amplifier les erreurs,
surtout si ces sorties ne sont pas correctement vérifiées ou si elles
contiennent déjà des erreurs.
  3.  Le risque des boucles fermées : Si on laisse une IA apprendre en
boucle sur ses propres productions ou sur celles d’autres IA sans
contrôle humain rigoureux, cela peut conduire à une “dérive” où l’IA
s’éloigne de la réalité.
>
Cela montre l’importance de l’intervention humaine dans la validation des
données d’entraînement, la supervision des modèles et la conception de
systèmes pour éviter que les IA ne s’écartent trop de la réalité. Que
penses-tu de cette analyse ?
>

Eric(Rê) :

mais c'est aussi valable pour l'humain

Chat GPT :

Tout à fait ! Ce phénomène est également valable pour les humains. Nous
sommes influencés par les informations que nous consommons, qu’elles
soient vérifiées ou non. Si une personne est exposée à des informations
erronées ou trompeuses de manière répétée, cela peut altérer sa
perception de la réalité et la conduire à adopter des croyances fausses
ou biaisées. Voici quelques points de comparaison :

  1.  Biais cognitifs : Tout comme les IA peuvent être influencées par
des données biaisées, les humains sont sujets aux biais cognitifs. Par
exemple, le biais de confirmation nous pousse à rechercher et à accepter
les informations qui confirment nos croyances préexistantes, même si
elles sont incorrectes.
  2.  Échos de désinformation : Si les humains se nourrissent uniquement
de certaines sources d’information — qu’elles soient fausses ou biaisées
—, cela peut créer une “bulle d’information”. Cela fonctionne de manière
similaire à l’IA qui se nourrit des productions d’autres IA, renforçant
les erreurs à travers une boucle fermée. C’est ce que l’on observe
parfois avec la désinformation et les théories du complot.
  3.  Apprentissage continu : Comme les IA, nous apprenons de manière
continue à partir des informations que nous traitons. Si nous ne sommes
pas exposés à des données diversifiées, vérifiées, ou si nous ne faisons
pas preuve d’esprit critique, notre compréhension du monde peut s’en
trouver limitée, voire erronée.
  4.  Transmission d’erreurs : Chez les humains, les erreurs et les
croyances erronées peuvent être transmises de génération en génération,
tout comme une IA peut perpétuer les erreurs dans ses modèles. Dans
l’éducation ou les médias, si les informations ne sont pas remises en
question, cela peut entraîner la propagation de fausses idées.

En somme, l’humain et l’IA partagent ce même défi : la qualité et la
diversité des informations qu’ils consomment influencent leur
compréhension et leurs décisions. Dans les deux cas, il est essentiel de
garder un esprit critique et d’assurer un contrôle rigoureux de la
qualité des données ou des informations auxquelles ils sont exposés.

Est-ce que cette comparaison te semble pertinente dans ton propre
cheminement de réflexion ?

--
  \ /    Croire c'est le contraire de savoir,
-- o --  si j'y crois, je ne sais pas,
  / \    si je sais, pas la peine d'y croire.
--> Je crois pas, car je sais que c'est faux malgré tout...

"Les grands esprits discutent des idées ; les esprits moyens discutent
des événements ; les petits esprits discutent des gens." (Eleanor Roosevelt)

Ma Fiche Mon Site Voyance (MSV) : <https://miniurl.be/r-5lsx>

Dossier DropBox pour voir des documents : <https://urlz.fr/rK5L>

Comme le forgerons qui bat le fer pour obtenir une Épée, j'obtient
toujours un résultat final, même si ça met des années, je sais que ce que
je fait ce n'est pas pour rien./ (C)

Loi 636 :

Il est mal que le mal fasse du mal au bien.
Il est bien que le mal fasse du mal au mal.
Il est bien que le bien fasse du bien au bien.
Il est bien que le mal fasse du bien au bien.
Il est mal que le mal fasse du bien au mal.
Il est mal que le bien fasse du bien au mal.

Il est bien que le mal s’entre-tue.


Date Sujet#  Auteur
29 Sep 24 * Re: Je me suis posez pas mal de question jadis4Paul Aubrin
29 Sep 24 `* Re: Je me suis posez pas mal de question jadis3Père Sonnes
29 Sep 24  `* Re: Je me suis posez pas mal de question jadis2Père Sonnes
29 Sep 24   `- Re: Je me suis posez pas mal de question jadis1Thomas Alexandre

Haut de la page

Les messages affichés proviennent d'usenet.

NewsPortal