Se connecter
Se connecter

ou
Créer un compte

ou
FR
EN

Pseudo-sciences et zététique, avez vous un avis debunké ?

  • 4 605 réponses
  • 110 participants
  • 183 483 vues
  • 99 followers
Sujet de la discussion Pseudo-sciences et zététique, avez vous un avis debunké ?
Voila, on a un thread sur les ondes, un sur les ovnis, un sur les chemtrails, et même un sur le foot, alors je me dis qu'on a aussi droit a un espace d'expression dédié au lol zetetique, parce que quand même, ces gens sont bien funs.

J'inaugure avec une émission appelée a entrer dans la légende de la zetetique, l'interview de jacques grimaud par la TeB :



Le rat taupe nu !
Afficher le sujet de la discussion
3001
Non mais dans les grandes lignes, évidemment que ça ne fonctionne pas strictement pareil. (tu as saisis que je m'adressait aux personnes qui ne connaissent rien de ces sujets ?)
C'est aussi vain que de me répondre "non car l'un c'est du texte et l'autre des images !"
En ce qui me concerne je vois de plus en plus de gens découvrir ces outils, et en avoir peur (ce sont souvent des personnes avec un bagage scientifique ou informatique plutôt humble). Je pense que les aider à comprendre comment ça fonctionne et leurs limites peut aider à mieux appréhender ces sujets. (et les désacraliser aussi un peu)
Tes formules, je suis pas certain...

[ Dernière édition du message le 17/01/2023 à 08:45:00 ]

3002
Citation de iktomi :
Non mais dans les grandes lignes, évidemment que ça ne fonctionne pas strictement pareil. (tu as saisis que je m'adressait aux personnes qui ne connaissent rien de ces sujets ?)
C'est aussi vain que de me répondre "non car l'un c'est du texte et l'autre des images !"
En ce qui me concerne je vois de plus en plus de gens découvrir ces outils, et en avoir peur (ce sont souvent des personnes avec un bagage scientifique ou informatique plutôt humble). Je pense que les aider à comprendre comment ça fonctionne et leurs limites peut aider à mieux appréhender ces sujets. (et les désacraliser aussi un peu)
Tes formules, je suis pas certain...

Justement, c'est important de bien dire les choses, d'etre precis. Il y a des subtilites, meme si je suis d'accord avec 95% de ton message. Je vois meme des gens avec un gros bagage scientifique qui pretendent que ca leur repond et que ca permet de faire des recherches parce qu'ils ne comprennent pas la dependance temporelle du modele.
Les formules sont correctes, un reseau tel que chatgpt a une dependance temporelle (type LSTM) sur les precedents (qui sont aussi du coup des sorties precedentes), meme si l'entrainement reste un modele forward pur (pusiqu'on ne sait pas entrainer un modele non forward).
3003
Citation :
En ce qui me concerne je vois de plus en plus de gens découvrir ces outils, et en avoir peur (ce sont souvent des personnes avec un bagage scientifique ou informatique plutôt humble). Je pense que les aider à comprendre comment ça fonctionne et leurs limites peut aider à mieux appréhender ces sujets. (et les désacraliser aussi un peu)

Les gens ont raison d'en avoir peur : comme l'automatisation et la robotisation, ça va flinguer un paquet d'emplois. Sauf qu'au lieu que ça soit du travail manuel qui va passer à la trappe, ça va être du travail dit intellectuel.

Citation :
Je vois meme des gens avec un gros bagage scientifique qui pretendent que ca leur repond et que ca permet de faire des recherches parce qu'ils ne comprennent pas la dependance temporelle du modele.

Je ne comprends pas cette notion de dépendance temporelle (je ne la connais pas, plus exactement). Est-ce ce que ça concerne le fait que les données d'apprentissage sont antérieures à une date donnée et que donc l'engin exclus tout ce qui est récent ? Ou rien à voir ?

En tous cas, que des gens fassent des recherches avec est assez flippant. Enfin, je ne sais pas de quelles recherches on parle, mais dans les différentes vidéos que j'ai vu sur ChatGPT, il est capable de sortir des énormités avec un formidable aplomb. Du coup, ce qu'il sort est à prendre avec beaucoup de pincettes.
D'après ce que j'ai compris, c'est une sorte de beta, un truc en phase de test grandeur nature. Pas un produit supposé fini.
Si on s'en sert comme secrétaire pour lui faire écrire une lettre ou comme codeurs pour lui faire pisser du code (sur des systèmes pas sensibles), ça va. Si la lettre comporte de la merde, on le verra tout de suite. Si le code est foireux (apparemment, il s'en sort plutôt bien), ça va vite se voir aussi.
Mais si on compte dessus pour s'abstenir de chercher soi-même des informations solides de fiables sans prendre le temps de vérifier derrière ce qu'il sort, là ça me semble très casse-gueule.

D'ailleurs, le truc ne se prétend pas (à ma connaissance) être une ressource de savoir, mais un agent conversationnel, comme son nom l'indique. Bref, il est fait pour discuter avec une personne de la façon la plus naturelle et crédible possible. Pas pour remplacer un labo de recherche ou un service documentaire sur des domaines pointus.
3004
Citation de Will Zégal :
Citation :
Je vois meme des gens avec un gros bagage scientifique qui pretendent que ca leur repond et que ca permet de faire des recherches parce qu'ils ne comprennent pas la dependance temporelle du modele.

Je ne comprends pas cette notion de dépendance temporelle (je ne la connais pas, plus exactement). Est-ce ce que ça concerne le fait que les données d'apprentissage sont antérieures à une date donnée et que donc l'engin exclus tout ce qui est récent ? Ou rien à voir ?

En tous cas, que des gens fassent des recherches avec est assez flippant. Enfin, je ne sais pas de quelles recherches on parle, mais dans les différentes vidéos que j'ai vu sur ChatGPT, il est capable de sortir des énormités avec un formidable aplomb. Du coup, ce qu'il sort est à prendre avec beaucoup de pincettes.
D'après ce que j'ai compris, c'est une sorte de beta, un truc en phase de test grandeur nature. Pas un produit supposé fini.
Si on s'en sert comme secrétaire pour lui faire écrire une lettre ou comme codeurs pour lui faire pisser du code (sur des systèmes pas sensibles), ça va. Si la lettre comporte de la merde, on le verra tout de suite. Si le code est foireux (apparemment, il s'en sort plutôt bien), ça va vite se voir aussi.
Mais si on compte dessus pour s'abstenir de chercher soi-même des informations solides de fiables sans prendre le temps de vérifier derrière ce qu'il sort, là ça me semble très casse-gueule.

D'ailleurs, le truc ne se prétend pas (à ma connaissance) être une ressource de savoir, mais un agent conversationnel, comme son nom l'indique. Bref, il est fait pour discuter avec une personne de la façon la plus naturelle et crédible possible. Pas pour remplacer un labo de recherche ou un service documentaire sur des domaines pointus.

La dependance temporelle vient du fait qu'on injecte au reseau de neurones les valeurs precedentes une par une. A chaque fois qu'on injecte une nouvelle valeur, c'est un pas de temps. Et a la fin de l'injection du "prompt", on recupere une nouvelle valeur, qu'on reinjecte en entree pour avoir la suivante.
C'est pour ca que c'est un modele qui ne peut pas faire de recherche, mais certains pensent que ca marche. Et ca peut etre le cas pour des faits tres connus qui sont bien documentes, mais des qu'on part sur des choses peut connues et peu rencontrees, on va partir dans les hallucinations, il invente meme des publis pour des personnes connues.
Pas pour rien que des etudiants l'ont utilise pour des dissertations :|
3005
Merci pour l'explication.

Au final, je trouve que ça ouvre une question assez intéressante : notre dépendance aux outils numériques et les conséquences des limites de leur fiabilité.

Je ne sais pas pourquoi, ça me rappelle un voyage en Espagne où le GPS racontait n'importe quoi. Dans une ville notamment, il avait X fois tenté de nous faire passer en voiture... par des escaliers.
Il nous aurait fait tourner dingos si au lieu d'être en vacances, pas pressés ni stressés, on avait été à la bourre pour un rendez-vous important ou limites pour prendre un avion ou un train.
Là, ça nous a bien fait marrer.
Mais j'ai déjà entendu parler d'accidents de gens qui avaient un peu trop aveuglément suivi leur GPS et avaient fini dans des ports au même (sous réserve) tombés d'une falaise.
Chez moi, Google Maps persiste à signaler comme trajet possible la traversée d'un site militaro-industriel avec des barrières et badges d'accès. :facepalm:
3006
Citation de Will Zégal :
Au final, je trouve que ça ouvre une question assez intéressante : notre dépendance aux outils numériques et les conséquences des limites de leur fiabilité.

J'ai eu le souci a Nouvel An. J'ai aussi fait confiance a Google Maps pour rejoindre ma copine en prenant un bus a l'aeroport. Ben Google m'a envoye dans une autre ville... Je ne m'en suis rendu compte que dans le bus...
3007
x
Hors sujet :
ça, c'est arrivé deux fois à ma douce : on allait quelque part en voiture, mais elle a rentré l'adresse (rue ou lieu dit)... sans faire gaffe à la ville. :mrg: :facepalm:

Bon, dans un cas (rue), on s'est retrouvés à 1,5 km de notre destination. Pas méchant.

Dans l'autre (lieu dit), on s'est retrouvés dans la pampa après 40 bonnes minutes de route, à téléphoner à la personne chez qui on allait et dont la description de l'environnement ne disait absolument rien pour nous guider (tu m'étonnes !), tout ça avec les diificultés d'un réseau bien foireux. Pour finalement se rendre compte de l'erreur et refaire près d'une demi-heure de route pour aller au bon endroit qui était... à 1/4 d'heure de chez nous.

Il va sans dire que je contrôle un peu plus désormais quand c'est elle qui met le GPS. :mrg:

Attention : je ne dis pas que c'était la même chose dans ton cas. Google peut être un peu farceur, en effet. Je me demande ce qui arrivait aux gens qui ne sont pas du coin qui essayent de passer par l'arsenal évoqué plus haut :mrg:
Arrivait parce que j'ai vérifié et ils ont enfin corrigé le tir. Par contre, il font passer en voiture par un autre endroit fermé par un portail, pourtant bien visible sur streat view.
5562833.jpg
3008
x
Hors sujet :
En fait, les bus qui etaient sur Google Maps n'allaient pas la ou Google Maps le disait au moment prevu, ni la bonne ligne. Apparemment en dehors des tres grandes villes, c'est de la m***e.
3009
x
Hors sujet :
Citation de Will Zégal :
on allait quelque part en voiture, mais elle a rentré l'adresse (rue ou lieu dit)... sans faire gaffe à la ville. :mrg: :facepalm:


Ça peut arriver aussi quand tu écries la bonne ville mais pas le bon pays. Vienne dans le Rhône ou Valence en Espagne. Versailles (Kentucky, Missouri, Ohio, Indiana et Illinois). Brest, en Biélorussie...
3010
A l'heure actuelle les possibles problèmes de fiabilité de GPT sont normaux, une IA ça doit apprendre (et être nourris donc), ça n'a pas la science infuse, c'est d'ailleur le principe de la chose, c'est de "l'apprentissage artificiel". Dans le cas de GPT qui est un modèle conversationnel, ce qu'il se passe c'est que si il se trompe, comme on peu lui répondre et le corriger, lui va être capable de prendre en compte les réponses qui lui sont données et apprendre pour ne plus se tromper. C'est tout l'intérêt de la mise à disposition au grand public en ce moment, entraîner l'IA de manière bien plus massive que ce qui aurait pu être possible en labo.

 Un petit sub sympa

Ceux qui déplacent des montagnes... font chier les cartographes.

[ Dernière édition du message le 18/01/2023 à 09:06:57 ]

3011
Encore faut-il que les gens le corrigent. Parce que j'imagine que les gens l'utilisent massivement pour des trucs qu'ils ne savent pas faire.
Enfin, je dis ça, je ne l'ai pas essayé. J'ai quand même l'impression, d'après les vidéos que j'ai vues qu'il est presque aussi long de lui donner des instructions précises que de le faire soi-même.

Exemple : quelqu'un qui sait qu'il a des problèmes d'orthographe / grammaire va peut-être lui faire écrire un mail ou une lettre de motivation. Mais il ne sera pas forcément capable de voir si chatGPT fait des fautes. Donc ne le corrigera pas.
En plus, j'imagine qu'il base son apprentissage sur la masse. Or, la masse est plus ignorante que les spécialistes.
Du coup, si t'as une majorité de gens qui disent que, au pif, le soleil tourne autour de la terre, que va considérer ChatGPT ?

J'ai pris l'exemple basique du mail ou du courrier parce qu'hier, Google mail m'a fait ça :
5563466.jpg

:facepalm:

Le pire, c'est que ça m'a foutu le doute au point que je suis allé vérifier. :8O: :facepalm:

Edit : j'avais posté ça dans "les images qui tordent". Commentaire
Citation de Ema :
Pour Google, c'est une IA, donc la règle est déduite de la majorité des données analysées sur le web. Si une majorité écrit "nous viendront", alors la règle devient "nous viendront"...

Bref, l'orthographe devient démocratique...

...Vive l'ortografe!

[ Dernière édition du message le 18/01/2023 à 10:43:27 ]

3012
Citation de Projacks :
A l'heure actuelle les possibles problèmes de fiabilité de GPT sont normaux, une IA ça doit apprendre (et être nourris donc), ça n'a pas la science infuse, c'est d'ailleur le principe de la chose, c'est de "l'apprentissage artificiel". Dans le cas de GPT qui est un modèle conversationnel, ce qu'il se passe c'est que si il se trompe, comme on peu lui répondre et le corriger, lui va être capable de prendre en compte les réponses qui lui sont données et apprendre pour ne plus se tromper. C'est tout l'intérêt de la mise à disposition au grand public en ce moment, entraîner l'IA de manière bien plus massive que ce qui aurait pu être possible en labo.

Lol. Le principe meme de chatgpt fait que cela ne pourra jamais etre un modele de recherche de quoique ce soit.
3013
Citation de Will Zégal :
Encore faut-il que les gens le corrigent. Parce que j'imagine que les gens l'utilisent massivement pour des trucs qu'ils ne savent pas faire.
Enfin, je dis ça, je ne l'ai pas essayé. J'ai quand même l'impression, d'après les vidéos que j'ai vues qu'il est presque aussi long de lui donner des instructions précises que de le faire soi-même.

Et en plus, il faudrait enlever de son apprentissage les erreurs passees, ce qui n'est pas possible ! Bref, c'est une mecomprehension profonde du machine learning que de croire qu'on peut corriger correctement un tel modele.
3014
L'autre jour, j'ai tenté de discuter avec, pour rire, en lui demandant quand est-ce qu'elle arrivait. Une fois que l'IA m'a dit "dans 15 minute, je suis partie il y a un quart d'heure, je lui ai fait remarquer que c'était un chouia rapide pour un Paris-Marseille. A force de persuasion, de rappels à la logique, elle a réussi à baisser un peu la moyenne, mais pas en dessous de 459 km/h. Une machine qui ne sait pas compter, c'est quand même rare de nos jours. :mrg:
3015
Non mais ChatGPT, c’est juste de la complétion automatique de texte. Du genre : après « telle série de 5 mots », on peut mettre tel morceau de phrase, le tout basé sur ce qu’on trouve sur une sélection du net (exemple : Wikipédia). Mais du coup, si la forme est bonne, et bluffante, comme le sens n’a pas vraiment d’importance, c’est assez voué à l’échec.

C’est plutôt bien expliqué ici :
3016
Déjà vu. C'est bien expliqué pour quelqu'un qui a la volonté de s'accrocher jusqu'au bout. J'aime bien M.Phi (abonné) et Science4All (pas abonné, pas le temps de tout voire et en plus c'est beaucoup plus pointu :mrg:).
3017
Citation de Dr Pouet :
Non mais ChatGPT, c’est juste de la complétion automatique de texte. Du genre : après « telle série de 5 mots », on peut mettre tel morceau de phrase, le tout basé sur ce qu’on trouve sur une sélection du net (exemple : Wikipédia). Mais du coup, si la forme est bonne, et bluffante, comme le sens n’a pas vraiment d’importance, c’est assez voué à l’échec.

C'est ce que j'ai dit :D
3018
3019
Haaaa Meta de Choc, je suis très fan !

Tamen pax et amor, oscula.

3020
Je trouve cette conférence en particulier vraiment réussie question état des lieux et synthèse.
Et j'ai apprécié qu'Elizabeth reprenne (dans le feutré) les propos d'Olivier sur l'anti-science des pseudo-sciences : Ils se présentent bel et bien comme une "science", mais elle-même alternative, avec de l'empirisme à tout va, du témoignage personnel, des prétendues rouages physiques indétectables, et aujourd'hui du quantique de partout (avant d'aller se réfugier dans de l'encore plus petit quand ce sujet deviendra mieux maitrisé par le public).

[ Dernière édition du message le 28/01/2023 à 11:28:49 ]

3021


J’attends la suite avec impatience.

Tamen pax et amor, oscula.

3022
Citation de miles1981 :
Et en plus, il faudrait enlever de son apprentissage les erreurs passees, ce qui n'est pas possible ! Bref, c'est une mecomprehension profonde du machine learning que de croire qu'on peut corriger correctement un tel modele.


C'est ce que les devs sur Stable Diffusion font en permanence.
Le modèle change continuellement de version, 1.4, 1.5, 2.0, 2.1... avec chacun des variants de tensors, et des fix... Je ne vois pas où est l'obstacle.
Cela reviendrait à dire qu'une fois un modèle créé, non seulement il n'est pas modifiable ou remplaçable (quitte à lui faire réapprendre de zéro après correction), mais qu'en plus on est obligé de continuer à l'utiliser, ou alors bazarder tout le logiciel ?
Soit il y a un soucis d'emploi des termes, soit on parle pas du tout de la même chose, mais il y a un problème dans cette affirmation.

Quant à mon propos sur les formules savantes, je n'ai jamais dis qu'elles n'étaient pas correctes, je dis qu'elles n'aident surement personne parmi les gens qui ont déjà du mal à comprendre ce qu'est et comment fonctionnent ces "AI-trucmuche".

En tout cas on est bien d'accord, et c'est pas faute d'avoir posté 2 fois la vidéo de Mr Phi : ChatGPT répond un truc "probable" et une "moyenne", pas un "résultat juste". Si ça tombe juste, c'est purement une chance statistique.
Ce n'est pas un outil de recherche. (Pas plus que Stable Diffusion n'est un outil de recherche d'image)

[ Dernière édition du message le 28/01/2023 à 11:43:36 ]

3023
Allez, oubliez motus, voici le jeu du week-end

3024
Citation de iktomi :
Citation de miles1981 :
Et en plus, il faudrait enlever de son apprentissage les erreurs passees, ce qui n'est pas possible ! Bref, c'est une mecomprehension profonde du machine learning que de croire qu'on peut corriger correctement un tel modele.


C'est ce que les devs sur Stable Diffusion font en permanence.
Le modèle change continuellement de version, 1.4, 1.5, 2.0, 2.1... avec chacun des variants de tensors, et des fix... Je ne vois pas où est l'obstacle.
Cela reviendrait à dire qu'une fois un modèle créé, non seulement il n'est pas modifiable ou remplaçable (quitte à lui faire réapprendre de zéro après correction), mais qu'en plus on est obligé de continuer à l'utiliser, ou alors bazarder tout le logiciel ?
Soit il y a un soucis d'emploi des termes, soit on parle pas du tout de la même chose, mais il y a un problème dans cette affirmation.)

On ne peut pas desapprendre quelque chose. Une fois que la contribution a ete entrainee, elle est la et elle reste. Oui, elle sera dilluee dans l'ensemble, mais ce n'est pas un argument. Pour properment enlever la contribution d'une image ou d'un texte ou de n'importe quel echantillon dans un reseau de nerones, il faut le re entrainer. de zero.
3025
On débat sur la sémantique : réapprendre de zéro en corrigeant le code de telle sorte que des erreurs n'apparaissent plus, ou "effacer des erreurs de la mémoire"... toujours est-il que l'objectif recherché est atteint.
PS : qui a employé l'argument de la "dilution dans l'ensemble" ? Si ça c'est pas un homme de paille...

[ Dernière édition du message le 30/01/2023 à 11:32:49 ]