Se connecter
Se connecter

ou
Créer un compte

ou

Sujet Le pub de Nyquist Shannon et leurs copains

  • 173 réponses
  • 21 participants
  • 15 037 vues
  • 45 followers
Sujet de la discussion Le pub de Nyquist Shannon et leurs copains
Pour poursuivre ici des discussions qui seraient hors-sujet dans d'autres threads... :-D

Donc questions et tests divers autours des convertisseurs anologique / numérique et dans l'autre sens, fréquences d'échantillonnage, repliement, technologies de fabrication, etc...

[ Dernière édition du message le 24/11/2010 à 23:06:31 ]

Afficher le sujet de la discussion
131
tourneson ....

[ Dernière édition du message le 06/05/2011 à 02:45:09 ]

132
Citation :
tu aurais par hasard une référence vers une explication simple et claire ?

Sous le coude, non.

Par contre j'ai trouvé ce site qui est assez complet.
http://www.beis.de/Elektronik/DeltaSigma/DeltaSigma.html

Il commence par expliquer le fonctionnement d'une modulation delta-sigma (pour être rigoureux, dans un CAN c'est une modulation delta-sigma et non sigma-delta qui est utilisée), puis donne la forme du spectre du bruit de quantification résultant par rapport à celui du signal discrétisé (§ "The "Noise View" on Delta Sigma Converters" plus bas).


Mais pour bien comprendre l'intérêt de cette modulation, il faut comprendre comment le sur-échantillonnage permet d'améliorer le pas de quantification d'une conversion (indépendamment de toute modulation).
Je ne sais pas si tu es à l'aise avec les notions de processus stochastiques, de variables aléatoires, d'espérance mathématique, etc. alors je vais faire au plus simple.

Imagine que tu demandes à 10 personnes de mesurer la longueur d'un trait avec une règle graduée. La longueur du trait tombe entre 2 graduations et des personnes vont te rapporter 3.4cm et d'autres 3.5cm.
Au lieu de choisir l'une des 2 valeurs tu peux calculer la moyenne des mesures que l'on t'a rapporté. Tu vas trouver, par exemple, 3.43cm.
A priori il y a de fortes chances que cette moyenne soit proche de la longueur réelle du trait, plus proche en tout cas que 3.4 ou 3.5cm.

En multipliant ainsi les mesures et en faisant leur moyenne, tu peux donc espérer améliorer la précision de ta mesure alors que ta règle ne va pas en-deçà du millimètre.


C'est exactement ce que l'on fait lorsque l'on cherche à améliorer le pas de quantification d'une conversion A/N avec un sur-échantillonnage :
  • On multiplie le nombre de mesures en utilisant une fréquence d'échantillonnage bien supérieure à la fréquence de Nyquist-Shannon.
  • On fait la "moyenne" des échantillons (c'est le filtrage "passe-bas").
  • On réalise une décimation pour se ramener à une fréquence d'échantillonnage plus faible qui correspond à la fréquence de Nyquist-Shannon.


De façon un peu plus rigoureuse, l'erreur de quantification est vue comme un processus stochastique (un signal de bruit).

On considère un signal d'entrée normalisé entre [0;1] (la pleine dynamique) et on code sa valeur sur n bits. Le pas de quantification est alors de 2^-n.
L'erreur commise par la quantification est dans

[ Dernière édition du message le 06/05/2011 à 08:25:42 ]

133
Ok, merci. Bon je crois qu'il faut surtout que je prenne le temps de lire cette page:
http://www.beis.de/Elektronik/DeltaSigma/DeltaSigma.html (sur laquelle on était déjà tombée)




Citation :
Olala, je me relis et je me rends compte que je suis quand-même un sacré NERD!

De toute façon, vu le titre du sujet... :bravo:

Cela dit, ailleurs sur AF, les discussions sur l'harmonie, voire la lutherie peuvent paraître aussi hermétiques !


Citation :
Je ne sais pas si tu es à l'aise avec les notions de processus stochastiques, de variables aléatoires, d'espérance mathématique, etc.

Ben j'ai fait des études d'ingé en électronique, mais c'était il y a 15 ans, et déjà j'écoutais plus en électronique et informatique qu'en maths ou traitement du signal. Je le regrette maintenant !


Citation :
Imagine que tu demandes à 10 personnes de mesurer la longueur d'un trait avec une règle graduée. La longueur du trait tombe entre 2 graduations et des personnes vont te rapporter 3.4cm et d'autres 3.5cm.
Au lieu de choisir l'une des 2 valeurs tu peux calculer la moyenne des mesures que l'on t'a rapporté. Tu vas trouver, par exemple, 3.43cm.
A priori il y a de fortes chances que cette moyenne soit proche de la longueur réelle du trait, plus proche en tout cas que 3.4 ou 3.5cm.

Ça c'était clair pour moi, mais je trouve que ta vulgarisation est excellente, bravo !
134
Citation :
Ça c'était clair pour moi, mais je trouve que ta vulgarisation est excellente, bravo !


En effet ce n'était pas du tout clair pour moi et ça le devient !

 

 

135
Si je comprend bien la figure 2
1) On compare le signal d'entrée avec la valeur estimée(Vmax ou -Vmax) pour obtenir l'erreur instantanée.
2) On accumule l'erreur instantanée dans le temps pour obtenir l'énergie totale de l'erreur de mesure et gommer un peu les hautes fréquences.
3)lorsque l'horloge passe de l'état bas à l'état haut:
Si l'énergie de l'erreur est supérieure à 0, l'estimation est Vmax (bit de sortie a 1)
Si l'énergie est inférieure à 0, l'estimation est -Vmax (bit de sortie à 0)

J'espère que de parler d'énergie pour l'intégrale d'une intensité sans unité (surtout si c'est une tension en l'occurrence) ne froissera pas trop de physicien.

Pour la version numérique c'est une diffusion d'erreur comme en traitement d'image.
136
Citation :
2) On accumule l'erreur instantanée dans le temps pour obtenir l'énergie totale de l'erreur de mesure et gommer un peu les hautes fréquences.

Nope.

Il y a bien une dérivation (delta) et une intégration (sigma), mais ce n'est pas de cette façon qu'elle joue sur les fréquences.
La modulation ne gomme pas les hautes fréquences : elle en crée (mais j'y reviendrai plus tard).


Dans un CAN delta-sigma il y a 4 étapes :
- Échantillonnage haute fréquence,
- Quantification avec une modulation delta-sigma (sur 1bit),
- Filtrage passe-bas (avec la sortie sur plusieurs bits),
- Sous-échantillonnage.

Le bloc de la figure 2 réalise les 2 premières étape seulement.


Regarde la figure 5 pour comprendre l'effet de la modulation sur 1 bit. La courbe verte est le signal d'entrée.

Avec une quantification 'directe' (sans modulation) sur 1 seul bit, tu aurais le bit à 1 quand le signal est > 0, le bit à 0 quand le signal est < 0.
Ça te donnerait un créneau : 1 sur la 1ère moitié du signal, 0 sur la 2nde.

Avec la modulation, tu obtiens la courbe mauve "1-bit DAC" :
- Quand l'entrée est proche de Vref+, le bit de sortie est à 1.
- Quand l'entrée est proche de Vref-, le bit de sortie est à 0.
- Quand l'entrée est proche de 0, le bit de sortie oscille entre 1 et 0 (la valeur change à chaque échantillon).
- Quand l'entrée est proche de Vref+/2, par exemple, les oscillations ne sont pas "régulières" : le bit de sortie est plus souvent à 1 qu'à 0.

Cette figure de Wikipédia le montre assez bien (en bleu les échantillons à 1, en blanc ceux à 0) :
Pulse-density_modulation_1_period.gif

C'est la boucle avec intégration qui permet d'avoir cette fréquence des oscillations qui varie en fonction de la valeur du signal d'entrée (imagine un oscillateur à rampe dont la pente est imposée par le delta)


La conversion A/N n'est pas terminée. Le 'bitstream' est envoyé dans un filtre pas-bas qui coupe les hautes-fréquences.
Ce filtre revient à calculer la moyenne des échantillons sur une petite fenêtre de temps et c'est ici que le CAN gagne en précision (on va calculer la moyenne de 4 échantillons successifs, par exemple) :
- Quand l'entrée est proche de Vref+, le bit de sortie reste à 1 sur les 4 échantillons : la valeur de la moyenne est 1.
- Quand l'entrée est proche de Vref-, le bit de sortie reste à 0 sur les 4 échantillons : la valeur de la moyenne est 0.
- Quand l'entrée est proche de 0, le bit de sortie oscille entre 0 et 1 à chaque échantillon : la valeur de la moyenne est de 0.5.
- Quand l'entrée est proche de Vref+/2, la moyenne du bitstream sera de 0.75.


Du coup, au lieu d'avoir une sortie sur un bit qui vaut 1 ou 0, tu obtiens une moyenne du bitstream qui prend les valeurs 0, 0.25, 0.5, 0.75, 1 : Tu as bien gagné des bits de quantifications.
Et comme le bitstream est passé dans un filtre passe-bas, il est possible de réduire sa fréquence d'échantillonnage.


Pour formaliser les choses un peu mieux :

La modulation delta-sigma provoque des oscillations haute-fréquence. En fait, elle met en forme le bruit de quantification (le signal d'erreur) pour qu'il soit essentiellement dans les hautes-fréquences (que l'on va supprimer ensuite) plutôt que dans les basses-fréquences (où l'on ne pourrait pas le supprimer sans perdre le signal d'entrée).

L'étape suivante "calcule de la moyenne" est en réalité un filtrage passe-bas qui permet de gagner en précision (c'est ici que hautes-fréquences sont gommées) puis de passer dans un sous-échantillonnage.



Citation :
Pour la version numérique c'est une diffusion d'erreur comme en traitement d'image.

Si tu fais référence à l'algo de Floyd–Steinberg, c'est pour le dithering qui est un autre problème (à moins que je n'ai pas compris à quoi tu voulais faire allusion :?: )

[ Dernière édition du message le 07/05/2011 à 12:46:39 ]

137
Je parlais des fréquences supérieures à la fréquence d'horloge.
En accumulant on ne considère plus une valeur instantanée sur le click d'horloge.
Pour la diffusion d'erreur je parle de la version basique. même si l'objectif est différent l'implémentation est la même.
138
Citation :
Je parlais des fréquences supérieures à la fréquence d'horloge.

Il n'y a pas de fréquence supérieure à la fréquence d'horloge. D'ailleurs, il n'y a pas de fréquence supérieure à Fe/2 : un signal analogique passe toujours dans un filtre passe-bas avant d'être échantillonné ( "Nyquist Shannon" ).

Le signal qui attaque la modulation delta-sigma est passé dans un filtre passe-bas avant d'être échantillonné (même dans la version "analogique" figure 2, sinon la boucle de rétroaction poserait de sérieux problèmes avec le repliement spectral qui interviendrait après la bascule).


Citation :
En accumulant on ne considère plus une valeur instantanée sur le click d'horloge

La façon convenable de représenter l'erreur de quantification est de considérer un processus stochastique (c'est d'ailleurs vrai pour tous les signaux) et son spectre ne présente aucune fréquence supérieure à Fe/2.
A chaque coup d'horloge on considère une variable aléatoire qui suit une distribution uniforme.


Citation :
Pour la diffusion d'erreur je parle de la version basique. même si l'objectif est différent l'implémentation est la même.

Oui c'est vrai, on en revient à cumuler spatialement des erreurs de quantif dans l'image.

[ Dernière édition du message le 07/05/2011 à 17:03:47 ]

139
Bonjour,
Pour ceux que cela intéresse, je suis tombé par hasard sur la numérisation d'un petit bouquin bien utile pour les non-spécialistes et que je possède depuis longtemps. Il aborde de façon théorique (assez simple) et pratique pas mal de notions TS&Audio qui sont toujours d'actualité : http://www.ingelec.uns.edu.ar/pds2803/Materiales/LibrosPDF/Randall/TOC.htm

Passer pour un idiot aux yeux d'un imbécile est une volupté de fin gourmet. (G. Courteline)

140
Je ne connaissais pas ce bouquin et c'est vrai qu'il n'est pas mal fichu du tout.
Surtout, il explicite bien les notions de processus et de stationnarité qui sont essentielles et souvent mal (ou pas du tout) connues.
Bref, c'est un "must have".


Seul bémol, j'ai parcouru le reste du bouquin rapidement et je n'ai rien vu sur les méthodes paramétriques (estimation d'un modèle AR, décomposition en sous-espace).
Sans rentrer dans les détails, il aurait sans doute était intéressant de les évoquer comme des alternatives à l'estimation du périodogramme (FFT & co) en expliquant les limites et contraintes de ces différentes familles de techniques.

Je vais creuser de mon côté pour voir si je trouve quelque chose sur ce sujet avec le même niveau pédagogique du très bon bouquin que tu viens de mettre en lien.

[ Dernière édition du message le 20/12/2011 à 12:34:22 ]