Se connecter
Se connecter

ou
Créer un compte

ou

Synthese par apprentissage

  • 56 réponses
  • 6 participants
  • 3 181 vues
  • 2 followers
Sujet de la discussion Synthese par apprentissage
SAlut,

Je trippe actuellement sur la recherche de nouveau moyen de synthese du son (du moins j'essaye...) et je reste skocthé par l'algorithme de descente du gradient dans sa version stochastique....(deja utilisé en audio pour faire de la reduction de bruit par exemple)

Principe:

un signal de reference x(t) qui passe dans un modele inconnu (de nous) et qui sonne d(t)...
en parallele on construit un modele type filtre FIR initialisé aleatoirement et on lui met en entree x(t).....on obtient un signal en sortie de ce modele que l'on appele e(t) de t (e pour estimation)...

ensuite on compare d(t) et e(t) puis on recalibre les coefficient du filtre de facon a minimiser cette erreur....ce travail est fait recursivement...(d'ou le terme apprentissage le modele apprend)

Ca m'a donné plein d'idee....que j'ai commencé a exploité au niveau musicale...il y a encore plein de taf...

Imaginez ...x(t) un bruit....et d(t) un son type piano....bon l'algo c'est pas non plus un outil magique il va pas nous sortie e(t) un son de piano....mais par contre on entend une sorte de bruit filtré interessant...lorsque on superpose e(t) et d(t) c'est meme agreable

Il faut que j'etudie ca plus en profondeur mais je pense que ca peut etre un outil interessant pour les sound designer orientés "noise"...synthese par apprentissage, synthese adaptative, je lui ai toujours pas donné son petit nom :clin:

Voila des commentaires ? des suggestions ? des idée ? des connaissances ? je suis souvert a toutes critiques :8)
Afficher le sujet de la discussion
21
Question pour les Support Vector Machine (vapnik il me semble) ...

Je sais pas si j'ai saisit leur fonctionnement car je pensais que ca pouvait uniquement réalsié des regions de sepration de type hyperplan :?:

D'apres ce que j'ai compris dans le cas d'un probleme non lineairement séparable ou avec un ensemble d'apprentissage petit, les MLP par exemple ont a une region de separation qui peut etre proche des donnees marginales, le SVM resout ce probleme en considerant un nouveau critère d'erreur qui maximise la distance entre les données et la region de separation des classes ou un truc du genre :?: mais ca reste une surface de sépration type hyperplan...

Dans le cas d'un ensemble d'apprentissage relativement petit ont se retrouve souvent dans le cas d'un problème lineairement séparable d'ou l'interet des SVM... :?:
22
Les AR sont une simplifications des IIR généraux - il y a juste un polynôme au dénominateur de la transformée en Z, c'est le filtre de base en traitement du signal, et très très rapide à calculer -

Gabou > merci, je vais voir ça ;) Apparemment, d'après ce que j'en sais, c'est seulement les éléments près de la zone de transition qui feront évoluer la machine, les autres ne sont pas pris en compte.
23

Citation : Si j'ai bien compris le reseaux essaye de reconstruire en sortie un vecteur egal à l'entrée...le nombre de neurone de la couche cachée est inferieure aux nombres de neurones de sortie et d'entrée....

On obtient donc une sorte de compression du signal....qui peut etre resumé en deux etapes

entrée -> couche cachée (compression)
couche cachée -> sortie (decompression)



C'est exactement ça !
C'est le grand concurrent de l'ACP (Analyse en Composantes Principales)
Le coté génial, c'est qu'il te réduit le nombre de dimensions tout en gardant
l'information utile, mais comme c'est quand même un réseau, le modèle n'est pas
aussi rigide que dans le cas d'une ACP, et tu peux arriver à réduire l'espace de rprésentation là où l'ACP échoue ... !

Dans le cas de la synthèse, ce qui m'attire c'est la possibilité d'interpoler progressivement
les poids de plusieurs Diabolos pour passer d'une représentation à une autre mais dans
un espace complètement nouveau ...
Le problème c'est le codage des signaux en entrée ...
Willy, zicos electronicien et algorithmes mathématiques
24
Les gars c'est super interessant ce que vous racontez :clin: Merci :8)
25
En même temps, l'ACP :roll:
26

Citation : le SVM resout ce probleme en considerant un nouveau critère d'erreur qui maximise la distance entre les données et la region de separation des classes ou un truc du genre mais ca reste une surface de sépration type hyperplan...



Ben moi j'avais compris qu'une séparation par un Hyperplan ça permet
justement de régler le cas des séparations non-linéaires ...
Les SVMs s'appuient sur l'utilisation d'un "noyau" qui est l'équivalent d'une
projection sur un espace de plus grande dimension où la frontière auparavent
non libnéaire devient alors plane (hyperplane), mais au lieu de s'embêter
à effectuer explicitement cette projection (couteuse) on ne garde que l'expression
ou la fonction permettant la mesure de distance qui n'est plus euclidienne,
puisqu'elle se calcule, elle, dans l'espace de plus grande dimension :
C'est ce qu'on appelle le "noyau" ou la "fonction noyau" :8O:
Willy, zicos electronicien et algorithmes mathématiques
27
Tres schematiquement:

un classificateur, c'est des fonctions f(x,alpha) ou alpha est l'indice de l'ensemble des classificateurs envisages, x les donnees observees, y la classe observe: pour un alpha donne, f(x, alpha) va toujours attribuer la meme classe a une observation x donnee. Le risque, c'est l'esperance de y - f(x,alpha), avec comme pb P(y,x). Le risque empirique, c'est sum(y-f(x_i, alpha), i), a un facteur de normalisation pres. La loi des grds nombres permet de montrer que le risque empirique tend vers le vrai risque. Il suffirait donc de miniser cette somme, qui ne depend plus de P, en fonction de alpha.

Le truc de vapnick, c'est d'avoir un truc style risque < risque empirique + expression(capacite), ou la capacite est rendue compte par la dimension de vapnick, qui a une definition precise que je capte par encore tres bien. L'idee, c'est donc de jouer sur la capacite pour diminer la borne risque empirique + expression(capacite), de telle sorte que le risque empirique soit le plus proche possible du vrai risque. C'est ce qu'ils appellent le risque structurel.
28
Les SVM linéaires séparent à l'aide d'un hyperplan, c'est du linéaire. Les SVM non linéaires créent une hypersurface, qui peut être alors non-linéaire.
29
Le tuto de Burges a l'air d'être une référence incontournable à ce niveau - la publi que je dois étudier le cite uniquement -
30

Citation : Les SVM linéaires séparent à l'aide d'un hyperplan, c'est du linéaire. Les SVM non linéaires créent une hypersurface, qui peut être alors non-linéaire



je ne voyais pas tant de différence entre hyperplan et hypersurface, puisque
tout est dans "hyper" ...
Normalement, les SVMs s'appuient sur l'idée que pour toute surface non plane (cas
des problèmes non linéairement séparables), il existe un espace de plus grande
dimension dans lequel cette surface devient "hyperplane" ... et il est alors possible
d'utiliser une métrique non euclidienne permettant la mesure de distances.

Les SVM (Support Vector Machine) classifient non pas en représentant les classes elles même, mais en choisissant des vecteurs "support" permettant de tracer la frontière
(ce qui n'est pas le cas des MLPs qui cherchent à modéliser la ou les classes...)
Cette frontière doit séparer au mieux les classes, et c'est par un nouveau calcul de
distance (hyperdistance) que des vecteurs, caractérisant au mieux la frontière,
deviennent des vecteurs support.
Ensuite, la position (en terme d'hyperdistance) d'un nouveau vecteur par rapport aux vecteurs supports choisis donne l'appartenance de ce vecteur à une classe ou une autre.

Enfin, comme cette distance se calcule dans un espace donné grace à la fonction noyau,
il ya surement des noyaux plus au moins linéaires ...
Willy, zicos electronicien et algorithmes mathématiques