Se connecter
Se connecter

ou
Créer un compte

ou
Agrandir
Le Pub
le Pub scientifique
Actu
Articles
Tutoriels

Sujet Pseudo-sciences et zététique, avez vous un avis debunké ?

  • 4 072 réponses
  • 105 participants
  • 149 877 vues
  • 98 followers
Sujet de la discussion Pseudo-sciences et zététique, avez vous un avis debunké ?
Voila, on a un thread sur les ondes, un sur les ovnis, un sur les chemtrails, et même un sur le foot, alors je me dis qu'on a aussi droit a un espace d'expression dédié au lol zetetique, parce que quand même, ces gens sont bien funs.

J'inaugure avec une émission appelée a entrer dans la légende de la zetetique, l'interview de jacques grimaud par la TeB :



Le rat taupe nu !
Afficher le sujet de la discussion
3021


J’attends la suite avec impatience.

Tamen pax et amor, oscula.

3022
Citation de miles1981 :
Et en plus, il faudrait enlever de son apprentissage les erreurs passees, ce qui n'est pas possible ! Bref, c'est une mecomprehension profonde du machine learning que de croire qu'on peut corriger correctement un tel modele.


C'est ce que les devs sur Stable Diffusion font en permanence.
Le modèle change continuellement de version, 1.4, 1.5, 2.0, 2.1... avec chacun des variants de tensors, et des fix... Je ne vois pas où est l'obstacle.
Cela reviendrait à dire qu'une fois un modèle créé, non seulement il n'est pas modifiable ou remplaçable (quitte à lui faire réapprendre de zéro après correction), mais qu'en plus on est obligé de continuer à l'utiliser, ou alors bazarder tout le logiciel ?
Soit il y a un soucis d'emploi des termes, soit on parle pas du tout de la même chose, mais il y a un problème dans cette affirmation.

Quant à mon propos sur les formules savantes, je n'ai jamais dis qu'elles n'étaient pas correctes, je dis qu'elles n'aident surement personne parmi les gens qui ont déjà du mal à comprendre ce qu'est et comment fonctionnent ces "AI-trucmuche".

En tout cas on est bien d'accord, et c'est pas faute d'avoir posté 2 fois la vidéo de Mr Phi : ChatGPT répond un truc "probable" et une "moyenne", pas un "résultat juste". Si ça tombe juste, c'est purement une chance statistique.
Ce n'est pas un outil de recherche. (Pas plus que Stable Diffusion n'est un outil de recherche d'image)

[ Dernière édition du message le 28/01/2023 à 11:43:36 ]

3023
Allez, oubliez motus, voici le jeu du week-end

3024
Citation de iktomi :
Citation de miles1981 :
Et en plus, il faudrait enlever de son apprentissage les erreurs passees, ce qui n'est pas possible ! Bref, c'est une mecomprehension profonde du machine learning que de croire qu'on peut corriger correctement un tel modele.


C'est ce que les devs sur Stable Diffusion font en permanence.
Le modèle change continuellement de version, 1.4, 1.5, 2.0, 2.1... avec chacun des variants de tensors, et des fix... Je ne vois pas où est l'obstacle.
Cela reviendrait à dire qu'une fois un modèle créé, non seulement il n'est pas modifiable ou remplaçable (quitte à lui faire réapprendre de zéro après correction), mais qu'en plus on est obligé de continuer à l'utiliser, ou alors bazarder tout le logiciel ?
Soit il y a un soucis d'emploi des termes, soit on parle pas du tout de la même chose, mais il y a un problème dans cette affirmation.)

On ne peut pas desapprendre quelque chose. Une fois que la contribution a ete entrainee, elle est la et elle reste. Oui, elle sera dilluee dans l'ensemble, mais ce n'est pas un argument. Pour properment enlever la contribution d'une image ou d'un texte ou de n'importe quel echantillon dans un reseau de nerones, il faut le re entrainer. de zero.
3025
On débat sur la sémantique : réapprendre de zéro en corrigeant le code de telle sorte que des erreurs n'apparaissent plus, ou "effacer des erreurs de la mémoire"... toujours est-il que l'objectif recherché est atteint.
PS : qui a employé l'argument de la "dilution dans l'ensemble" ? Si ça c'est pas un homme de paille...

[ Dernière édition du message le 30/01/2023 à 11:32:49 ]

3026
Citation de iktomi :
On débat sur la sémantique : réapprendre de zéro en corrigeant le code de telle sorte que des erreurs n'apparaissent plus, ou "effacer des erreurs de la mémoire"... toujours est-il que l'objectif recherché est atteint.
PS : qui a employé l'argument de la "dilution dans l'ensemble" ? Si ça c'est pas un homme de paille...

Pardon, j'etais aussi en train de penser au probleme d'entrainer les reseaux avec des donnees erronees ou copyrightees (cf proces en cours, j'espere que ca va aboutir, y compris sur la generation de code, comme il est bien connu qu'on ne peut pas lire une implementation d'un code protege et le reecrire a cote). Une fois que l'erreur est dans le jeu de donnees, on a entraine le modele avec. Pour enlever cette erreur, deux solutions :
- reprendre a 0 sans cette erreur
- la diluer.
En auoi c'est un homme de paille de dire que l'apprentissage dans un reseau de neurones est une dilution des donnees dans les parametres du reseau ? C'est un fait, c'est comme ca qu'on propage la correction d'erreur, et donc on dilue bien une "erreur" passee en progressivement tentant de supprimer la contribution de cet apprentissage sur les poids du modele, sans jamais reussir a l'enlever totalement., C'est bien une dilution, non ?
3027
Non mais tu invoque la dilution comme si on en avait parlé précédemment, et dans le même post où tu me réponds, pour le réfuter... Comme si ça venait de moi, alors que toi seul en parle.
Depuis le début je parle de corriger le code qui a mené à faire apprendre une erreur. (d'où mon exemple des différentes version de modèles de SD)
La dilution "n'est pas un argument" : ça tombe bien, j'en ai jamais parlé.

[ Dernière édition du message le 30/01/2023 à 13:06:24 ]

3028
Citation de iktomi :
Non mais tu invoque la dilution comme si on en avait parlé précédemment, et dans le même post où tu me réponds, pour le réfuter... Comme si ça venait de moi, alors que toi seul en parle.
Depuis le début je parle de corriger le code qui a mené à faire apprendre une erreur. (d'où mon exemple des différentes version de modèles de SD)
La dilution "n'est pas un argument" : ça tombe bien, j'en ai jamais parlé.

Je dis ca pour expressement desamorcer un argument qui est utilsie par les boites qui "vendent" leur modele pour ne pas avoir a faire le taff de proprement entrainer un modele en toute legalite. Je ne disais pas ca pour toi :clin: Bref.
3029
Fin de ce chapitre de 3 ans et demi. (mais peut-être pas fin de l'affaire)
Pour les personnes qui ne connaissent pas et veulent plus de contexte, je recommande le déroulé des différents vidéos
Spoiler - Cliquer ici pour lire la suite


3030
Oui, j'ai vu. Au bout d'un moment, je finis par zapper ce genre de choses. C'est bien qu'il le mette, par acquis de conscience, pour avoir le maximum de pièces du puzzle à disposition au cas ou, mais la vie est trop courte pour tout regarder. Vive la petite boutique des erreurs.

En plein déménagement. Disponibilité aléatoire.