Se connecter
Se connecter

ou
Créer un compte

ou
Agrandir
Les Mains dans le Cambouis
Bidouille & Développement Informatique

Sujet Le pub des programmeurs

  • 1 925 réponses
  • 117 participants
  • 120 264 vues
  • 130 followers
Sujet de la discussion Le pub des programmeurs
Salut :coucou: y a des programeurs sur AF si oui vous bossez sous quoi ?
Afficher le sujet de la discussion
441

Citation : neural networks for pattern recognition de Bishop (Excellent bouquin par ailleurs), ca n'a rien a voir avec les neurosciences.J'en discutais d'ailleurs il y a 2 jours avec un americain qui bosse dans un labo de neuro sciences au Japon, ce ce type de defauts semantiques (mais apres quelques bieres, ca a devie sur foxnews et les rednecks ). Les reseaux de neurones sont plus trop a la mode, d'ailleurs, en machine learning, j'ai l'impression; maintenant, c'est plus SVM et methodes bayesiennes (reseaux bayesiens).



+1000 pour le bouquin de Bishop
+1000 pour les SVM


Niveau classif, quand, j'ai besoin d'un truc, je me pose pas 40000 questions, SVM !

Par contre, y a pleins d'arguments pro SVM qui ne tiennent pas la route.

Citation : Parce qu'on peut qualifier tout système avec feedback, résonant, de système à apprentissage automatique, non ?



Attention, quand y a feedback (ca depend ce que tu definis par feedback, si c'est un retour d'un systeme expert ton assertion est fausse), c'est que tu es dans des algos a apprentissage supervisé. Tu as des algos par apprentissage sans feedback, on appelle ca simplement apprentissage non supervisé. C'est le cas des carte autoorganisatrice de Kohonen par exemple (SOM)
442

Citation :
Je pense que d'aborder les réseaux de neurones avec l'analogie des neurones aide quand meme pas mal à comprendre...



J'avoue ne pas etre persuade. Enfin bon, je prefere de toute facon l'approche statistique; c'est sur que ca fait moins sexy, mais bon...

Citation :
Attention, quand y a feedback, c'est que tu es dans des algos a apprentissage supervisé.



Ca depend de quel feedback tu parles. Par exemple, si on parle de retropropagation dans les reseaux de neurones, ca n'a en soit rien a voir avec supervise/non supervise.

Les algo EM recursifs que j'utilise sont avec feedback, mais non supervises (dans l'utilisation que j'en fais; tu peux utiliser les GMM dans un contexte supervise, ou chaque mixture est une classe, ou dans une approche non supervisee, ou clustering, ou chaque gaussienne correspond a une classe, dont la probabilite cachee est trouvee grace a l'algo EM). Puis aussi, j'ai pompe l'idee dans un article sur le reinforcement learning, qui est entre supervise et non supervise.
443
Il me semble que les reseaux de neuronnes séduisaient à une époque car on disait que c'était comme le cerveau humain, maintenant le fait que ca soit une boite noire dont on peut rien en dire fait que c'est bcp moins intéréssant.
J'ai un master (tout neuf) qui contenait des unités Apprentissage automatique, Sémantique, etc, et ce qui revenais le plus souvent de la part des enseignants (chercheurs) est que l'intelligence artificielle était dès le début un abus de langage dans lequel on placait trop d'espoir, et qui finalement n'as rien fais de ce qui était promis (genre la Programmation Logique Inductive, etc).
444
Croisage Gabou, je venais jsute de corriger mon post :coucou:

En tout cas en classif, la question du classifieur n'est pas vraiement importante (K-means, RNA, SVM ou autre). L'essentiel ca va toujours rester les PARAMETRES DISCRIMINANTS

parce que tout ca c'est des systemes GIGO: Garbage In- Garbage Out :mrg:
445

Citation :
Il me semble que les reseaux de neuronnes séduisaient à une époque car on disait que c'était comme le cerveau humain,



Oui, il y a 30-40 ans, mais c'etait un modele qui de toute facon n'est plus valable depuis longtemps. Un neurone, c'est nettement plus complique qu'une sigmoide ...

Citation :

En tout cas en classif, la question du classifieur n'est pas vraiement importante (K-means, RNA, SVM ou autre). L'essentiel ca va toujours rester les PARAMETRES DISCRIMINANTS



Certes, "there is no such thing as free lunch", mais ca depend dans quel contexte tu te places. Par exemple, je trouve que ces algos de reinforcement learning sont interessants, car ca permet d'appliquer des methodes de classification avec un bon fond theorique a certains problemes ou la classification etait tres heuristique. Par exemple, pour mon probleme de detection de voix, tu vas avoir des algos sophistiques avec une machine a etat super complique; je trouve un truc comme l'algo EM recursif plus interessant (c'est pas pour rien que je me suis fait chier a le programmer et a le faire inclure dans scipy, pour que d'autres personnes puissent jouer avec).
446
Tiens dans cette discussion autour des réseaux de neurones et un gars nipponisant (devinez qui ?) ça me rappelle aibo, le chien de sony.
Ils ont utilisé un modèle bien plus compliqué qu'un simple perceptron pour l'apprentissage de la marche sur leur chien, non ? Merde encore une source à retrouver...

Je trouve ça quand même pétillant pour l'esprit cette démarche gognitive où on observe la nature on la modélise et on tente de reagrder pourquoi c'est efficace.

Pour les cartes de Kohonen, je connais pas du tout. Je crois que c'est un réseau de neurones où ils sont tous connectés entre eux, avec une organisation "à plat" non (qu'on peut représenter sur un cercle je veux dire) ?

Citation :
PARAMETRES DISCRIMINANTS


Oui +1 pour l'intuition que j'ai de ce problème, même si en classif, hummm, je suis pas du tout expert.

http://soundcloud.com/bat-manson

447

Citation : aibo, le chien de sony.
Ils ont utilisé un modèle bien plus compliqué qu'un simple perceptron pour l'apprentissage de la marche sur leur chien, non ? Merde encore une source à retrouver...


Ouais ce genre d'application c'est pas mal, y'a quelques papier de recherche sur des modèles utilisant des simulation physique pour apprendre ce genre de chose. Quand on vois le temps nécéssaire pour creer des modèles 3D animé, ca serait génial d'avoir un modèle (d'animation) de ce genre.
448
Merci les gars pour tout vos liens et informations!! Je me sens nettement moins bête devant mon problème maintenant.

Il reste toujours des zones d'ombres, mais c'est une question de temps ;)

C'est assez nouveau encore pour moi, mais il semblerai que l'appellation MFCC regroupe finalement plusieurs technique? Par exemple l'idée de base que j'avais était:
FFT -> Pre-emphasis -> mel scale filter bank -> DCT

En tant que novice, je me demandais l'importance du filtre Pre emphasis (dans spro elle est faite sur les donnée audio, et non pas sur le résultat de la FFT).

Merci, Merci Merci!!!
449

Citation : Tiens c'est la première fois que je remarque la faute d'orthographe à pub des prograMeurs


Et c'était la dernière -> correction immédiate.
450

Citation :
C'est assez nouveau encore pour moi, mais il semblerai que l'appellation MFCC regroupe finalement plusieurs technique? Par exemple l'idée de base que j'avais était:
FFT -> Pre-emphasis -> mel scale filter bank -> DCT



Deja, l'ordre est pas bon :) Le pre emphasis, il me semble, est fait dans le domaine temporel; bien sur, rien n'empeche de le faire dans le domaine spectral, mais c'est se compliquer la vie.

Bref, de memoire, j'irai verifier ce soir dans mes docs, je les ai pas au boulot, puis il doit surement y avoir plein de definitions differentes avec des resultats differents

- pre-emphasis. Simple filtre purement non-recursif, en general [1, -alpha] avec alpha dans ]0 1[ (je crois que dans Huang et Rabiner, c'est fixe a 0.99). Le but de ce passe haut est de diminuer l'importance du premier formant, qui n'est pas interessant en general (celui qui correspond a la frequence fondamentale).
- fenetrage (Hamming, par exemple)
- passage au domain spectral, log amplitude
- filtrage mel
- DCT inverse

Apres, tu peux calculer les MFCC a partir des coeff LPC, aussi, mais je me souviens plus tres bien.

La reference pour ce genre de trucs basiques de parole, c'est le Rabiner et Huang.