Se connecter
Se connecter

ou
Créer un compte

ou
Agrandir
Le Pub
le Pub scientifique
Actu
Articles
Tutoriels

Sujet Pseudo-sciences et zététique, avez vous un avis debunké ?

  • 4 072 réponses
  • 105 participants
  • 149 959 vues
  • 98 followers
Sujet de la discussion Pseudo-sciences et zététique, avez vous un avis debunké ?
Voila, on a un thread sur les ondes, un sur les ovnis, un sur les chemtrails, et même un sur le foot, alors je me dis qu'on a aussi droit a un espace d'expression dédié au lol zetetique, parce que quand même, ces gens sont bien funs.

J'inaugure avec une émission appelée a entrer dans la légende de la zetetique, l'interview de jacques grimaud par la TeB :



Le rat taupe nu !
Afficher le sujet de la discussion
3001
Non mais dans les grandes lignes, évidemment que ça ne fonctionne pas strictement pareil. (tu as saisis que je m'adressait aux personnes qui ne connaissent rien de ces sujets ?)
C'est aussi vain que de me répondre "non car l'un c'est du texte et l'autre des images !"
En ce qui me concerne je vois de plus en plus de gens découvrir ces outils, et en avoir peur (ce sont souvent des personnes avec un bagage scientifique ou informatique plutôt humble). Je pense que les aider à comprendre comment ça fonctionne et leurs limites peut aider à mieux appréhender ces sujets. (et les désacraliser aussi un peu)
Tes formules, je suis pas certain...

[ Dernière édition du message le 17/01/2023 à 08:45:00 ]

3002
Citation de iktomi :
Non mais dans les grandes lignes, évidemment que ça ne fonctionne pas strictement pareil. (tu as saisis que je m'adressait aux personnes qui ne connaissent rien de ces sujets ?)
C'est aussi vain que de me répondre "non car l'un c'est du texte et l'autre des images !"
En ce qui me concerne je vois de plus en plus de gens découvrir ces outils, et en avoir peur (ce sont souvent des personnes avec un bagage scientifique ou informatique plutôt humble). Je pense que les aider à comprendre comment ça fonctionne et leurs limites peut aider à mieux appréhender ces sujets. (et les désacraliser aussi un peu)
Tes formules, je suis pas certain...

Justement, c'est important de bien dire les choses, d'etre precis. Il y a des subtilites, meme si je suis d'accord avec 95% de ton message. Je vois meme des gens avec un gros bagage scientifique qui pretendent que ca leur repond et que ca permet de faire des recherches parce qu'ils ne comprennent pas la dependance temporelle du modele.
Les formules sont correctes, un reseau tel que chatgpt a une dependance temporelle (type LSTM) sur les precedents (qui sont aussi du coup des sorties precedentes), meme si l'entrainement reste un modele forward pur (pusiqu'on ne sait pas entrainer un modele non forward).
3003
Citation :
En ce qui me concerne je vois de plus en plus de gens découvrir ces outils, et en avoir peur (ce sont souvent des personnes avec un bagage scientifique ou informatique plutôt humble). Je pense que les aider à comprendre comment ça fonctionne et leurs limites peut aider à mieux appréhender ces sujets. (et les désacraliser aussi un peu)

Les gens ont raison d'en avoir peur : comme l'automatisation et la robotisation, ça va flinguer un paquet d'emplois. Sauf qu'au lieu que ça soit du travail manuel qui va passer à la trappe, ça va être du travail dit intellectuel.

Citation :
Je vois meme des gens avec un gros bagage scientifique qui pretendent que ca leur repond et que ca permet de faire des recherches parce qu'ils ne comprennent pas la dependance temporelle du modele.

Je ne comprends pas cette notion de dépendance temporelle (je ne la connais pas, plus exactement). Est-ce ce que ça concerne le fait que les données d'apprentissage sont antérieures à une date donnée et que donc l'engin exclus tout ce qui est récent ? Ou rien à voir ?

En tous cas, que des gens fassent des recherches avec est assez flippant. Enfin, je ne sais pas de quelles recherches on parle, mais dans les différentes vidéos que j'ai vu sur ChatGPT, il est capable de sortir des énormités avec un formidable aplomb. Du coup, ce qu'il sort est à prendre avec beaucoup de pincettes.
D'après ce que j'ai compris, c'est une sorte de beta, un truc en phase de test grandeur nature. Pas un produit supposé fini.
Si on s'en sert comme secrétaire pour lui faire écrire une lettre ou comme codeurs pour lui faire pisser du code (sur des systèmes pas sensibles), ça va. Si la lettre comporte de la merde, on le verra tout de suite. Si le code est foireux (apparemment, il s'en sort plutôt bien), ça va vite se voir aussi.
Mais si on compte dessus pour s'abstenir de chercher soi-même des informations solides de fiables sans prendre le temps de vérifier derrière ce qu'il sort, là ça me semble très casse-gueule.

D'ailleurs, le truc ne se prétend pas (à ma connaissance) être une ressource de savoir, mais un agent conversationnel, comme son nom l'indique. Bref, il est fait pour discuter avec une personne de la façon la plus naturelle et crédible possible. Pas pour remplacer un labo de recherche ou un service documentaire sur des domaines pointus.
3004
Citation de Will Zégal :
Citation :
Je vois meme des gens avec un gros bagage scientifique qui pretendent que ca leur repond et que ca permet de faire des recherches parce qu'ils ne comprennent pas la dependance temporelle du modele.

Je ne comprends pas cette notion de dépendance temporelle (je ne la connais pas, plus exactement). Est-ce ce que ça concerne le fait que les données d'apprentissage sont antérieures à une date donnée et que donc l'engin exclus tout ce qui est récent ? Ou rien à voir ?

En tous cas, que des gens fassent des recherches avec est assez flippant. Enfin, je ne sais pas de quelles recherches on parle, mais dans les différentes vidéos que j'ai vu sur ChatGPT, il est capable de sortir des énormités avec un formidable aplomb. Du coup, ce qu'il sort est à prendre avec beaucoup de pincettes.
D'après ce que j'ai compris, c'est une sorte de beta, un truc en phase de test grandeur nature. Pas un produit supposé fini.
Si on s'en sert comme secrétaire pour lui faire écrire une lettre ou comme codeurs pour lui faire pisser du code (sur des systèmes pas sensibles), ça va. Si la lettre comporte de la merde, on le verra tout de suite. Si le code est foireux (apparemment, il s'en sort plutôt bien), ça va vite se voir aussi.
Mais si on compte dessus pour s'abstenir de chercher soi-même des informations solides de fiables sans prendre le temps de vérifier derrière ce qu'il sort, là ça me semble très casse-gueule.

D'ailleurs, le truc ne se prétend pas (à ma connaissance) être une ressource de savoir, mais un agent conversationnel, comme son nom l'indique. Bref, il est fait pour discuter avec une personne de la façon la plus naturelle et crédible possible. Pas pour remplacer un labo de recherche ou un service documentaire sur des domaines pointus.

La dependance temporelle vient du fait qu'on injecte au reseau de neurones les valeurs precedentes une par une. A chaque fois qu'on injecte une nouvelle valeur, c'est un pas de temps. Et a la fin de l'injection du "prompt", on recupere une nouvelle valeur, qu'on reinjecte en entree pour avoir la suivante.
C'est pour ca que c'est un modele qui ne peut pas faire de recherche, mais certains pensent que ca marche. Et ca peut etre le cas pour des faits tres connus qui sont bien documentes, mais des qu'on part sur des choses peut connues et peu rencontrees, on va partir dans les hallucinations, il invente meme des publis pour des personnes connues.
Pas pour rien que des etudiants l'ont utilise pour des dissertations :|
3005
Merci pour l'explication.

Au final, je trouve que ça ouvre une question assez intéressante : notre dépendance aux outils numériques et les conséquences des limites de leur fiabilité.

Je ne sais pas pourquoi, ça me rappelle un voyage en Espagne où le GPS racontait n'importe quoi. Dans une ville notamment, il avait X fois tenté de nous faire passer en voiture... par des escaliers.
Il nous aurait fait tourner dingos si au lieu d'être en vacances, pas pressés ni stressés, on avait été à la bourre pour un rendez-vous important ou limites pour prendre un avion ou un train.
Là, ça nous a bien fait marrer.
Mais j'ai déjà entendu parler d'accidents de gens qui avaient un peu trop aveuglément suivi leur GPS et avaient fini dans des ports au même (sous réserve) tombés d'une falaise.
Chez moi, Google Maps persiste à signaler comme trajet possible la traversée d'un site militaro-industriel avec des barrières et badges d'accès. :facepalm:
3006
Citation de Will Zégal :
Au final, je trouve que ça ouvre une question assez intéressante : notre dépendance aux outils numériques et les conséquences des limites de leur fiabilité.

J'ai eu le souci a Nouvel An. J'ai aussi fait confiance a Google Maps pour rejoindre ma copine en prenant un bus a l'aeroport. Ben Google m'a envoye dans une autre ville... Je ne m'en suis rendu compte que dans le bus...
3007
x
Hors sujet :
ça, c'est arrivé deux fois à ma douce : on allait quelque part en voiture, mais elle a rentré l'adresse (rue ou lieu dit)... sans faire gaffe à la ville. :mrg: :facepalm:

Bon, dans un cas (rue), on s'est retrouvés à 1,5 km de notre destination. Pas méchant.

Dans l'autre (lieu dit), on s'est retrouvés dans la pampa après 40 bonnes minutes de route, à téléphoner à la personne chez qui on allait et dont la description de l'environnement ne disait absolument rien pour nous guider (tu m'étonnes !), tout ça avec les diificultés d'un réseau bien foireux. Pour finalement se rendre compte de l'erreur et refaire près d'une demi-heure de route pour aller au bon endroit qui était... à 1/4 d'heure de chez nous.

Il va sans dire que je contrôle un peu plus désormais quand c'est elle qui met le GPS. :mrg:

Attention : je ne dis pas que c'était la même chose dans ton cas. Google peut être un peu farceur, en effet. Je me demande ce qui arrivait aux gens qui ne sont pas du coin qui essayent de passer par l'arsenal évoqué plus haut :mrg:
Arrivait parce que j'ai vérifié et ils ont enfin corrigé le tir. Par contre, il font passer en voiture par un autre endroit fermé par un portail, pourtant bien visible sur streat view.
5562833.jpg
3008
x
Hors sujet :
En fait, les bus qui etaient sur Google Maps n'allaient pas la ou Google Maps le disait au moment prevu, ni la bonne ligne. Apparemment en dehors des tres grandes villes, c'est de la m***e.
3009
x
Hors sujet :
Citation de Will Zégal :
on allait quelque part en voiture, mais elle a rentré l'adresse (rue ou lieu dit)... sans faire gaffe à la ville. :mrg: :facepalm:


Ça peut arriver aussi quand tu écries la bonne ville mais pas le bon pays. Vienne dans le Rhône ou Valence en Espagne. Versailles (Kentucky, Missouri, Ohio, Indiana et Illinois). Brest, en Biélorussie...

En plein déménagement. Disponibilité aléatoire.

3010
A l'heure actuelle les possibles problèmes de fiabilité de GPT sont normaux, une IA ça doit apprendre (et être nourris donc), ça n'a pas la science infuse, c'est d'ailleur le principe de la chose, c'est de "l'apprentissage artificiel". Dans le cas de GPT qui est un modèle conversationnel, ce qu'il se passe c'est que si il se trompe, comme on peu lui répondre et le corriger, lui va être capable de prendre en compte les réponses qui lui sont données et apprendre pour ne plus se tromper. C'est tout l'intérêt de la mise à disposition au grand public en ce moment, entraîner l'IA de manière bien plus massive que ce qui aurait pu être possible en labo.

 Un petit sub sympa

Ceux qui déplacent des montagnes... font chier les cartographes.

[ Dernière édition du message le 18/01/2023 à 09:06:57 ]