réactions à la news Le premier synthé codé par une IA de l'Histoire ?
- 121 réponses
- 21 participants
- 4 698 vues
- 19 followers
Neo Alchemist
7576
Administrateur·trice du site
Membre depuis 4 ans
Sujet de la discussion Posté le 02/03/2023 à 09:56:00Le premier synthé codé par une IA de l'Histoire ?
Il semblerait que oui. En tout cas c'est ce qu'annonce le youtubeur Doctor Mix, qui a collaboré avec un outil d'un nouveau genre.
Lire la news
Ce thread a été créé automatiquement suite à la publication d'une news pour ce produit. N'hésitez pas à poster vos commentaires ici !
Lire la news
Ce thread a été créé automatiquement suite à la publication d'une news pour ce produit. N'hésitez pas à poster vos commentaires ici !
Will Zégal
75122
Will Zégal
Membre depuis 22 ans
91 Posté le 09/03/2023 à 01:37:03
Billybilly
589
Posteur·euse AFfolé·e
Membre depuis 10 ans
92 Posté le 09/03/2023 à 08:26:06
Citation de Will Zégal :
Reste donc à avoir la liste des questions pour lesquelles il a été entraîné.
Mais justement, à partir du moment où on devrait se renseigner sur ce à quoi il peut répondre avant de lui poser une question sachant que ce n'est indiqué nulle part précisément, c'est qu'il y a un énorme problème. Surtout que ChatGPT répond parfois qu'il n'est pas en mesure de répondre ou bien va s'interdire de le faire en invoquant des principes moraux et de neutralité tout en dissertant (délirant) sur les oeufs de cheval.
Et désolé mais la question du requin qui est un mammifère ou un poisson, ce n'est pas un vaste débat qui secoue la communauté scientifique depuis des dizaines d'années Donc si pour un fait établi, qui fait consensus à 100% dans la communauté scientifique, il répond n'importe quoi, qu'est-ce qui m'indique qu'il ne va pas faire de même pour absolument tous les sujets où il n'y a pas eu d'ajustements de la part d'humains derrière ?
Will Zégal
75122
Will Zégal
Membre depuis 22 ans
93 Posté le 09/03/2023 à 08:42:09
Ma phrase était ironique.
Savoir sur quoi il peut répondre, ça voudrait dire un base de données. Laquelle serait tellement grosse qu'il faudrait... un moteur de recherche. Un peu paradoxal.
Ou la solution serait que chatGPT dise lui-même sur quoi il est fiable. Sauf que comme le montre la vidéo de Mr Phi que j'ai postée, ça n'est pas son propos et ça ne serait peut-être même pas techniquement possible dans l'approche technique de sa conception.
Je pense que l'erreur commune de chatGPT est de le prendre pour une intelligence artificielle ou un super moteur de recherche qui rend des résultat en langage courant (fut-ce du code). Sauf que c'est pas ça.
Déjà, l'appellation d'intelligence artificielle est décidément très trompeuse alors qu'il s'agit de machine learning.
Mais c'est fondamentalement un agent conversationnel. Son but est de produire des textes plausibles et cohérents, pas exacts.
Savoir sur quoi il peut répondre, ça voudrait dire un base de données. Laquelle serait tellement grosse qu'il faudrait... un moteur de recherche. Un peu paradoxal.
Ou la solution serait que chatGPT dise lui-même sur quoi il est fiable. Sauf que comme le montre la vidéo de Mr Phi que j'ai postée, ça n'est pas son propos et ça ne serait peut-être même pas techniquement possible dans l'approche technique de sa conception.
Je pense que l'erreur commune de chatGPT est de le prendre pour une intelligence artificielle ou un super moteur de recherche qui rend des résultat en langage courant (fut-ce du code). Sauf que c'est pas ça.
Déjà, l'appellation d'intelligence artificielle est décidément très trompeuse alors qu'il s'agit de machine learning.
Mais c'est fondamentalement un agent conversationnel. Son but est de produire des textes plausibles et cohérents, pas exacts.
Billybilly
589
Posteur·euse AFfolé·e
Membre depuis 10 ans
94 Posté le 09/03/2023 à 10:27:23
Citation de Will Zégal :
Ma phrase était ironique.
Savoir sur quoi il peut répondre, ça voudrait dire un base de données. Laquelle serait tellement grosse qu'il faudrait... un moteur de recherche. Un peu paradoxal.
Ou la solution serait que chatGPT dise lui-même sur quoi il est fiable. Sauf que comme le montre la vidéo de Mr Phi que j'ai postée, ça n'est pas son propos et ça ne serait peut-être même pas techniquement possible dans l'approche technique de sa conception.
Je pense que l'erreur commune de chatGPT est de le prendre pour une intelligence artificielle ou un super moteur de recherche qui rend des résultat en langage courant (fut-ce du code). Sauf que c'est pas ça.
Déjà, l'appellation d'intelligence artificielle est décidément très trompeuse alors qu'il s'agit de machine learning.
Mais c'est fondamentalement un agent conversationnel. Son but est de produire des textes plausibles et cohérents, pas exacts.
Will, je répondais plutôt à 8oris qui pour le coup tient la position que ChatGPT dit la vérité dans l'absolu et que les réponses érronées viendraient de l'utilisateur incapable de formuler correctement une question. (et sinon merci pour le résumé de la vidéo de monsieur phi mais j'ai posté ses deux vidéos consacrées au sujet sur la première page du fil de discussion...)
Will Zégal
75122
Will Zégal
Membre depuis 22 ans
95 Posté le 09/03/2023 à 10:28:18
Oups !
Mais elle était plutôt destinée aussi à 8oris et aux gens qui font un peu trop confiance dans le chatGPT actuel.
On peut lui faire confiance dans une certaine mesure, mais sur ce pour quoi il est fait : générer du texte. Pas apporter des réponses.
Mais elle était plutôt destinée aussi à 8oris et aux gens qui font un peu trop confiance dans le chatGPT actuel.
On peut lui faire confiance dans une certaine mesure, mais sur ce pour quoi il est fait : générer du texte. Pas apporter des réponses.
[ Dernière édition du message le 09/03/2023 à 10:29:48 ]
deb76
3732
Squatteur·euse d’AF
Membre depuis 20 ans
96 Posté le 09/03/2023 à 11:34:39
Citation de Will Zégal :
Oups !
Mais elle était plutôt destinée aussi à 8oris et aux gens qui font un peu trop confiance dans le chatGPT actuel.
On peut lui faire confiance dans une certaine mesure, mais sur ce pour quoi il est fait : générer du texte. Pas apporter des réponses.
Oui, c'est ça, il est fait pour générer du texte. Et il n'apprend pas en temps réel, ce que Chat GPT m'avait précisé : "Je suis désolé pour la confusion. En effet, en tant que modèle de langage, je ne peux pas apprendre de nouvelles compétences en temps réel, mais plutôt utiliser les connaissances que j'ai acquises pendant mon entraînement pour répondre aux questions."
Frajean
2643
Squatteur·euse d’AF
Membre depuis 9 ans
97 Posté le 09/03/2023 à 14:47:11
Non, mais si ChatGPT répond qu'on peut aussi faire une omelette avec des oeufs de poule, c'est qu'il a parfois un peu raison. En attendant, je m'en vais poser mes questions cuisine sur Marmiton, ce sera plus sûr
8oris
5642
Je poste, donc je suis
Membre depuis 20 ans
98 Posté le 09/03/2023 à 18:02:08
Bon, vos exemples démontrent sans conteste que Chatgpt peut faire/dire n'importe quoi. Mais toujours pareil, pour la recette aux oeufs de cochon, je suis désolé mais les "oeufs de cochon" existent. Une simple recherche dans Google le prouve. Alors, évidemment, ce ne sont pas de véritables oeufs de cochon mais une préparation d'oeufs pour les faire ressembler à des cochons.
Du coup, ils ont effectivement une texture différente de celle des oeufs de poule et des qualités nutritionnelles différentes aussi. vous savez que ce ne sont pas des oeufs (au sens ovule animal) parce que vous avez une capacité très difficile à implémenter dans une machine qui s'appelle l'inférence. Quand on vous dit qu'il pleut des cordes ,vous savez qu'il ne pleut pas littéralement des cordes (bon, sauf si vous êtes à Orléans), pour une machine la corde est un objet avec un sens, pleuvoir est une action avec un sens, l'association des deux termes associé leur sens, peu importante la concordance.
Autre problématique des agents coversationnels: les entités nommées. Je ne m'étends pas sur le sujet mais ceux qui se sont frottés au TAL savent de quoi je parle.
Donc, effectivement, Chatgpt peut dire n'importe quoi mais si on prend suffisamment de recul, on peut aisément comprendre pourquoi et donc l'orienter mieux pour qu'il réponse mieux. Dans le coup de la recette, il aurait été intéressant de lui demander ce qu'est un oeuf de cochon.
Pour les œufs de cheval, je n'ai pas chercher mais sachant que "oeuf de cheval" est corrigé automatiquement par Google en "oeuf à Cheval", c'est une piste.
Dans mon cas perso (je suis un genre de développeur), il m'a souvent aidé à trouver des solutions de manière bien plus efficace qu'un moteur de recherche et qui fonctionnaient parfaitement. Je travaille dans une équipe de doctorants en informatique qui l'utilisent aussi pour ce faire. Pour coder certaines "routines" basiques mais non triviales from scratch, et dont on a besoin en one shot, c'est un outil vraiment satisfaisant notamment parce qu'il a la capacité d'adapter ses réponses.
Exemple: j'avais besoin d'un navigateur headless en python capable de gérer des add-ons. Une solution aurait été d'utiliser Sélénium, c'est une bouse intergalactique mais très utilisée. Chatgpt m'a évidemment fait une réponse en me le conseillant, je lui ai demandé d'utiliser une autre solution et il m'a trouvé un autre module (playwright) bien moins connu, bien moins documenté aussi... J'ai gagné 1 semaine de temps de recherche, de lecture de doc, de galères de debuggage, de prise de tête sur STO bref le rêve. Après, la question était très normée, balisée, déterministe, idéale pour une machine. Dans ce cas là, il est très efficace...
Du coup, ils ont effectivement une texture différente de celle des oeufs de poule et des qualités nutritionnelles différentes aussi. vous savez que ce ne sont pas des oeufs (au sens ovule animal) parce que vous avez une capacité très difficile à implémenter dans une machine qui s'appelle l'inférence. Quand on vous dit qu'il pleut des cordes ,vous savez qu'il ne pleut pas littéralement des cordes (bon, sauf si vous êtes à Orléans), pour une machine la corde est un objet avec un sens, pleuvoir est une action avec un sens, l'association des deux termes associé leur sens, peu importante la concordance.
Autre problématique des agents coversationnels: les entités nommées. Je ne m'étends pas sur le sujet mais ceux qui se sont frottés au TAL savent de quoi je parle.
Donc, effectivement, Chatgpt peut dire n'importe quoi mais si on prend suffisamment de recul, on peut aisément comprendre pourquoi et donc l'orienter mieux pour qu'il réponse mieux. Dans le coup de la recette, il aurait été intéressant de lui demander ce qu'est un oeuf de cochon.
Pour les œufs de cheval, je n'ai pas chercher mais sachant que "oeuf de cheval" est corrigé automatiquement par Google en "oeuf à Cheval", c'est une piste.
Dans mon cas perso (je suis un genre de développeur), il m'a souvent aidé à trouver des solutions de manière bien plus efficace qu'un moteur de recherche et qui fonctionnaient parfaitement. Je travaille dans une équipe de doctorants en informatique qui l'utilisent aussi pour ce faire. Pour coder certaines "routines" basiques mais non triviales from scratch, et dont on a besoin en one shot, c'est un outil vraiment satisfaisant notamment parce qu'il a la capacité d'adapter ses réponses.
Exemple: j'avais besoin d'un navigateur headless en python capable de gérer des add-ons. Une solution aurait été d'utiliser Sélénium, c'est une bouse intergalactique mais très utilisée. Chatgpt m'a évidemment fait une réponse en me le conseillant, je lui ai demandé d'utiliser une autre solution et il m'a trouvé un autre module (playwright) bien moins connu, bien moins documenté aussi... J'ai gagné 1 semaine de temps de recherche, de lecture de doc, de galères de debuggage, de prise de tête sur STO bref le rêve. Après, la question était très normée, balisée, déterministe, idéale pour une machine. Dans ce cas là, il est très efficace...
Billybilly
589
Posteur·euse AFfolé·e
Membre depuis 10 ans
99 Posté le 09/03/2023 à 18:14:37
Ok, je comprends bien ton point de vue. C'est ce qui est développé aussi dans la vidéo de Defekator (que j'ai postée un peu plus haut dans le fil), à savoir qu'il faut faire des demandes très précises, très contextualisées pour espérer obtenir quelque chose de pertinent ou exploitable. Mais ça signifie quand même qu'on doit toujours avoir une longueur d'avance sur la machine, ou en tout cas avoir une idée très précise de ce qu'on recherche et que ce n'est vraiment définitivement pas un wikipedia avec interface de langage. Ce que j'en retiens, c'est que là où il peut être le plus intéressant, c'est dans la recherche de procédures (qu'il faudra évidemment vérifier derrière) mais que c'est très bancal dans la recherche de données brutes.
8oris
5642
Je poste, donc je suis
Membre depuis 20 ans
100 Posté le 09/03/2023 à 18:38:31
C'est ça ! Et d'ailleurs,c'est très bien d'avoir besoin d'un temps d'avance sur la machine, cela permet de garder la main dessus.
- < Liste des sujets
- Charte