Le pub de Nyquist Shannon et leurs copains
- 173 réponses
- 21 participants
- 16 126 vues
- 45 followers

Dr Pouet


Donc questions et tests divers autours des convertisseurs anologique / numérique et dans l'autre sens, fréquences d'échantillonnage, repliement, technologies de fabrication, etc...
[ Dernière édition du message le 24/11/2010 à 23:06:31 ]

Danguit


Zerosquare

Danguit > quand je dis "on peut les retrouver", je veux dire "il est possible que ça se produise", pas "il y a moyen de le faire à tous les coups avec la bonne formule"


guitoo

edit: effectivement quand on s'approche des 16 bits on entend une forme de grésillement pseudo-sinusoïdal. Ca rappelle un peu les bruits de modem et de lecteur cassette des vieux ordis quand on écoute le bruit séparément. Quand le signal est bien au dessus du seuil le bruit de quantif est bien un bruit blanc (inaudible si).
Le grésillement disparait une fois le seuil passé et on entend plus que le signal d'origine. Ce qui est normal et souhaitable.
Bien évidement avec le dithering activé (en mode onde) on entend un bruit dans l'aigu constant dans ses propriétés statistique peu importe le niveau du signal.
Je vais essayer de réduire la taille du projet audacity pour le mettre en ligne.
[ Dernière édition du message le 03/05/2011 à 20:21:34 ]

EraTom

En traitement du signal la quantification est un arrondi qui entraîne une erreur (belle lapalissade).
Quand le pas de quantif est assez fin, cette erreur se comporte comme une bruit blanc uniforme (blanc : qui recouvre uniformément le spectre, uniforme : la distribution statistique qui n'est pas gaussienne).
Assez fin ça veut dire quoi ? En normalisant la dynamique du signal à [-1;1], on peut considérer que le bruit est blanc pour un pas de quantif de 2^-4 (c'est la valeur "standard" en traitement du signal, mais pour les applications audio c'est un seuil un peu trop "large" ; avec ma pratique je dirais que c'est vrai pour 2^-6).
Le niveau du bruit diminue d'environ 6.5dB pour chaque bit de quantification supplémentaire (pour un CD sur 14bits, le SNR entre le signal le plus fort et le bruit de quantification est de 14*6.5 = 91dB).
C'est une application directe de la formule de Bennett.
https://perso.telecom-paristech.fr/~rioul/documents/200604dsp.pdf (§3.4)
Quand l'amplitude du signal est faible (devant le pas de quantification), le bruit de quantif n'est plus franchement blanc et devient carrément audible en introduisant des sons assez étranges. S'il n'y a que des "gros kicks" et des "saturations à fond", osef, mais sur un fading ou si l'on cherche à laisser mourir une reverb jusqu'au bout, c'est assez désastreux.
Le but du dithering est alors de rendre l'erreur de quantification la plus "aléatoire possible" afin qu'elle ne gêne pas l'auditeur.
Il y a plusieurs techniques ; certains ajoutent un bruit coloré hautes-fréquences (que l'oreille ne discerne pas facilement) tiré à partir d'un générateur pseudo aléatoire, d'autres réinjectent l'erreur de quantification après l'avoir passée dans un filtre de mise en forme (c'est l'algo de Floyd–Steinberg, initialement utilisé en traitement d'image. L'intérêt de cette technique est que si l'entrée = 0, la sortie = 0).
L'une des caractéristiques du bruit de quantification est que sa puissance totale ne dépend pas de la fréquence d'échantillonnage (elle ne dépend que du pas de quantification) : quand on augmente la fréquence d'échantillonnage, la puissance du bruit dans chaque bande du spectre diminue.
Ainsi, on peut sur-échantillonner un signal avec un pas de quantification grossier, le faire passer dans un filtre passe-bas et le sous-échantillonné en gagnant des bits de précision : la puissance du bruit de quantification a été étalée, donc réduite dans la bande utile et on a gagné en précision.
Pour gagne n bits, il faut sur-échantillonner de 2^(2n) (ça se montre facilement en considérant que l'aire du "rectangle" du spectre du signal sur-échantillonné reste constant).
La modulation sigma-delta permet d'aller encore plus loin. C'est une transformation non-linéaire qui met en forme le bruit de quantification en le rejetant des basses-fréquences vers les hautes-fréquences : à fréquence de sur-échantillonnage identique, le gain de précision dans la bande utile est plus important.
Par contre, le bruit de quantification n'est plus blanc : la mise en forme du bruit de quantification est également observée dans la bande utile ; il est plus présent dans les hautes fréquences qu'avec une quantification "classique"
https://upload.wikimedia.org/wikipedia/commons/4/42/DeltaSigmaNoise.svg
Bien, pas bien... je ne sais pas. Mais si on ajoute un bruit supplémentaire pour le dithering sur des pistes qui ont été enregistrées avec un CAN sigma-delta, on risque de se retrouver avec pas mal de monde dans les hautes-fréquences.
[ Dernière édition du message le 06/05/2011 à 01:12:21 ]

Dr Pouet

À propos de modulation delta-sigma, tu aurais par hasard une référence vers une explication simple et claire ? Mais si j'ai compris quelques points, je n'ai pas encore trouvé mon bonheur jusqu'à maintenant.
Par contre il semble que ce soit le type de convertisseur le plus utilisé (voire le seul ? ) dans les interfaces audionumériques.

scare

Construction du nouveau studio
Visitez le site THD STUDIO / page FB THD Studio
Dossier : Conversion analogique-numérique (pour les courageux)
[ Dernière édition du message le 06/05/2011 à 02:45:09 ]

EraTom

tu aurais par hasard une référence vers une explication simple et claire ?
Sous le coude, non.
Par contre j'ai trouvé ce site qui est assez complet.
http://www.beis.de/Elektronik/DeltaSigma/DeltaSigma.html
Il commence par expliquer le fonctionnement d'une modulation delta-sigma (pour être rigoureux, dans un CAN c'est une modulation delta-sigma et non sigma-delta qui est utilisée), puis donne la forme du spectre du bruit de quantification résultant par rapport à celui du signal discrétisé (§ "The "Noise View" on Delta Sigma Converters" plus bas).
Mais pour bien comprendre l'intérêt de cette modulation, il faut comprendre comment le sur-échantillonnage permet d'améliorer le pas de quantification d'une conversion (indépendamment de toute modulation).
Je ne sais pas si tu es à l'aise avec les notions de processus stochastiques, de variables aléatoires, d'espérance mathématique, etc. alors je vais faire au plus simple.
Imagine que tu demandes à 10 personnes de mesurer la longueur d'un trait avec une règle graduée. La longueur du trait tombe entre 2 graduations et des personnes vont te rapporter 3.4cm et d'autres 3.5cm.
Au lieu de choisir l'une des 2 valeurs tu peux calculer la moyenne des mesures que l'on t'a rapporté. Tu vas trouver, par exemple, 3.43cm.
A priori il y a de fortes chances que cette moyenne soit proche de la longueur réelle du trait, plus proche en tout cas que 3.4 ou 3.5cm.
En multipliant ainsi les mesures et en faisant leur moyenne, tu peux donc espérer améliorer la précision de ta mesure alors que ta règle ne va pas en-deçà du millimètre.
C'est exactement ce que l'on fait lorsque l'on cherche à améliorer le pas de quantification d'une conversion A/N avec un sur-échantillonnage :
- On multiplie le nombre de mesures en utilisant une fréquence d'échantillonnage bien supérieure à la fréquence de Nyquist-Shannon.
- On fait la "moyenne" des échantillons (c'est le filtrage "passe-bas").
- On réalise une décimation pour se ramener à une fréquence d'échantillonnage plus faible qui correspond à la fréquence de Nyquist-Shannon.
De façon un peu plus rigoureuse, l'erreur de quantification est vue comme un processus stochastique (un signal de bruit).
On considère un signal d'entrée normalisé entre [0;1] (la pleine dynamique) et on code sa valeur sur n bits. Le pas de quantification est alors de 2^-n.
L'erreur commise par la quantification est dans
[ Dernière édition du message le 06/05/2011 à 08:25:42 ]

Dr Pouet

http://www.beis.de/Elektronik/DeltaSigma/DeltaSigma.html (sur laquelle on était déjà tombée)
Olala, je me relis et je me rends compte que je suis quand-même un sacré NERD!
De toute façon, vu le titre du sujet...

Cela dit, ailleurs sur AF, les discussions sur l'harmonie, voire la lutherie peuvent paraître aussi hermétiques !
Je ne sais pas si tu es à l'aise avec les notions de processus stochastiques, de variables aléatoires, d'espérance mathématique, etc.
Ben j'ai fait des études d'ingé en électronique, mais c'était il y a 15 ans, et déjà j'écoutais plus en électronique et informatique qu'en maths ou traitement du signal. Je le regrette maintenant !
Imagine que tu demandes à 10 personnes de mesurer la longueur d'un trait avec une règle graduée. La longueur du trait tombe entre 2 graduations et des personnes vont te rapporter 3.4cm et d'autres 3.5cm.
Au lieu de choisir l'une des 2 valeurs tu peux calculer la moyenne des mesures que l'on t'a rapporté. Tu vas trouver, par exemple, 3.43cm.
A priori il y a de fortes chances que cette moyenne soit proche de la longueur réelle du trait, plus proche en tout cas que 3.4 ou 3.5cm.
Ça c'était clair pour moi, mais je trouve que ta vulgarisation est excellente, bravo !

DiZ69

Ça c'était clair pour moi, mais je trouve que ta vulgarisation est excellente, bravo !
En effet ce n'était pas du tout clair pour moi et ça le devient !

guitoo

1) On compare le signal d'entrée avec la valeur estimée(Vmax ou -Vmax) pour obtenir l'erreur instantanée.
2) On accumule l'erreur instantanée dans le temps pour obtenir l'énergie totale de l'erreur de mesure et gommer un peu les hautes fréquences.
3)lorsque l'horloge passe de l'état bas à l'état haut:
Si l'énergie de l'erreur est supérieure à 0, l'estimation est Vmax (bit de sortie a 1)
Si l'énergie est inférieure à 0, l'estimation est -Vmax (bit de sortie à 0)
J'espère que de parler d'énergie pour l'intégrale d'une intensité sans unité (surtout si c'est une tension en l'occurrence) ne froissera pas trop de physicien.
Pour la version numérique c'est une diffusion d'erreur comme en traitement d'image.

EraTom

2) On accumule l'erreur instantanée dans le temps pour obtenir l'énergie totale de l'erreur de mesure et gommer un peu les hautes fréquences.
Nope.
Il y a bien une dérivation (delta) et une intégration (sigma), mais ce n'est pas de cette façon qu'elle joue sur les fréquences.
La modulation ne gomme pas les hautes fréquences : elle en crée (mais j'y reviendrai plus tard).
Dans un CAN delta-sigma il y a 4 étapes :
- Échantillonnage haute fréquence,
- Quantification avec une modulation delta-sigma (sur 1bit),
- Filtrage passe-bas (avec la sortie sur plusieurs bits),
- Sous-échantillonnage.
Le bloc de la figure 2 réalise les 2 premières étape seulement.
Regarde la figure 5 pour comprendre l'effet de la modulation sur 1 bit. La courbe verte est le signal d'entrée.
Avec une quantification 'directe' (sans modulation) sur 1 seul bit, tu aurais le bit à 1 quand le signal est > 0, le bit à 0 quand le signal est < 0.
Ça te donnerait un créneau : 1 sur la 1ère moitié du signal, 0 sur la 2nde.
Avec la modulation, tu obtiens la courbe mauve "1-bit DAC" :
- Quand l'entrée est proche de Vref+, le bit de sortie est à 1.
- Quand l'entrée est proche de Vref-, le bit de sortie est à 0.
- Quand l'entrée est proche de 0, le bit de sortie oscille entre 1 et 0 (la valeur change à chaque échantillon).
- Quand l'entrée est proche de Vref+/2, par exemple, les oscillations ne sont pas "régulières" : le bit de sortie est plus souvent à 1 qu'à 0.
Cette figure de Wikipédia le montre assez bien (en bleu les échantillons à 1, en blanc ceux à 0) :

C'est la boucle avec intégration qui permet d'avoir cette fréquence des oscillations qui varie en fonction de la valeur du signal d'entrée (imagine un oscillateur à rampe dont la pente est imposée par le delta)
La conversion A/N n'est pas terminée. Le 'bitstream' est envoyé dans un filtre pas-bas qui coupe les hautes-fréquences.
Ce filtre revient à calculer la moyenne des échantillons sur une petite fenêtre de temps et c'est ici que le CAN gagne en précision (on va calculer la moyenne de 4 échantillons successifs, par exemple) :
- Quand l'entrée est proche de Vref+, le bit de sortie reste à 1 sur les 4 échantillons : la valeur de la moyenne est 1.
- Quand l'entrée est proche de Vref-, le bit de sortie reste à 0 sur les 4 échantillons : la valeur de la moyenne est 0.
- Quand l'entrée est proche de 0, le bit de sortie oscille entre 0 et 1 à chaque échantillon : la valeur de la moyenne est de 0.5.
- Quand l'entrée est proche de Vref+/2, la moyenne du bitstream sera de 0.75.
Du coup, au lieu d'avoir une sortie sur un bit qui vaut 1 ou 0, tu obtiens une moyenne du bitstream qui prend les valeurs 0, 0.25, 0.5, 0.75, 1 : Tu as bien gagné des bits de quantifications.
Et comme le bitstream est passé dans un filtre passe-bas, il est possible de réduire sa fréquence d'échantillonnage.
Pour formaliser les choses un peu mieux :
La modulation delta-sigma provoque des oscillations haute-fréquence. En fait, elle met en forme le bruit de quantification (le signal d'erreur) pour qu'il soit essentiellement dans les hautes-fréquences (que l'on va supprimer ensuite) plutôt que dans les basses-fréquences (où l'on ne pourrait pas le supprimer sans perdre le signal d'entrée).
L'étape suivante "calcule de la moyenne" est en réalité un filtrage passe-bas qui permet de gagner en précision (c'est ici que hautes-fréquences sont gommées) puis de passer dans un sous-échantillonnage.
Pour la version numérique c'est une diffusion d'erreur comme en traitement d'image.
Si tu fais référence à l'algo de Floyd–Steinberg, c'est pour le dithering qui est un autre problème (à moins que je n'ai pas compris à quoi tu voulais faire allusion

[ Dernière édition du message le 07/05/2011 à 12:46:39 ]

guitoo

En accumulant on ne considère plus une valeur instantanée sur le click d'horloge.
Pour la diffusion d'erreur je parle de la version basique. même si l'objectif est différent l'implémentation est la même.

EraTom

Je parlais des fréquences supérieures à la fréquence d'horloge.
Il n'y a pas de fréquence supérieure à la fréquence d'horloge. D'ailleurs, il n'y a pas de fréquence supérieure à Fe/2 : un signal analogique passe toujours dans un filtre passe-bas avant d'être échantillonné ( "Nyquist Shannon" ).
Le signal qui attaque la modulation delta-sigma est passé dans un filtre passe-bas avant d'être échantillonné (même dans la version "analogique" figure 2, sinon la boucle de rétroaction poserait de sérieux problèmes avec le repliement spectral qui interviendrait après la bascule).
En accumulant on ne considère plus une valeur instantanée sur le click d'horloge
La façon convenable de représenter l'erreur de quantification est de considérer un processus stochastique (c'est d'ailleurs vrai pour tous les signaux) et son spectre ne présente aucune fréquence supérieure à Fe/2.
A chaque coup d'horloge on considère une variable aléatoire qui suit une distribution uniforme.
Pour la diffusion d'erreur je parle de la version basique. même si l'objectif est différent l'implémentation est la même.
Oui c'est vrai, on en revient à cumuler spatialement des erreurs de quantif dans l'image.
[ Dernière édition du message le 07/05/2011 à 17:03:47 ]

Danguit

Pour ceux que cela intéresse, je suis tombé par hasard sur la numérisation d'un petit bouquin bien utile pour les non-spécialistes et que je possède depuis longtemps. Il aborde de façon théorique (assez simple) et pratique pas mal de notions TS&Audio qui sont toujours d'actualité : http://www.ingelec.uns.edu.ar/pds2803/Materiales/LibrosPDF/Randall/TOC.htm

EraTom

Surtout, il explicite bien les notions de processus et de stationnarité qui sont essentielles et souvent mal (ou pas du tout) connues.
Bref, c'est un "must have".
Seul bémol, j'ai parcouru le reste du bouquin rapidement et je n'ai rien vu sur les méthodes paramétriques (estimation d'un modèle AR, décomposition en sous-espace).
Sans rentrer dans les détails, il aurait sans doute était intéressant de les évoquer comme des alternatives à l'estimation du périodogramme (FFT & co) en expliquant les limites et contraintes de ces différentes familles de techniques.
Je vais creuser de mon côté pour voir si je trouve quelque chose sur ce sujet avec le même niveau pédagogique du très bon bouquin que tu viens de mettre en lien.
[ Dernière édition du message le 20/12/2011 à 12:34:22 ]

Danguit

J'avais déjà constaté avec une troisième carte que US-2000 et UA4-FX avaient un comportement similaire jusqu'à 44k => même circuit ? même filtre ?
Au-delà, on peut distinguer la périodicité du signal échantillonné, pas suffisamment filtré dans les deux cas.

EraTom

Au-delà, on peut distinguer la périodicité du signal échantillonné
Comment est-ce que tu as réalisé ta mesure ?
Même circuit => En tout cas mêmes coeff et même ordre pour le filtre. C'est possible, les fabricants ne réinventent pas la roue à chaque fois.
S'ils ont choisis le même circuit intégrés pour le CAN (et des CAN pour l'audio, certainement avec une modulation delta-sigma, il n'y en a pas des milliers), tu dois trouver une note d'application du fabriquant de composant qui décrit "le" filtre à mettre en place.
Ce qui est possible également c'est qu'ils soient arrivés à peu près aux mêmes gabarits de filtres (puisqu'ils ont a priori les mêmes contraintes), puis s'ils ont opté pour la même famille de filtre (filtre de Tchebychev de type 2, ou filtre elliptique) les jeux de coeffs seront les mêmes.
Le plancher de bruit et les pics que tu observes à la fin ne sont peut-être plus la réponse du filtre :
- Chaque composant apporte son lot de "bruit thermique" ; le "résidu" du filtrage dans la bande atténué devient négligeables devant les bruits ajoutés par les composants.
- Les pics peuvent être des parasites apportés par les différentes horloges (numériques) de la carte.
Pour en avoir le cœur net, tu peux réaliser une mesure avec une entrée à 0. Si tu constates toujours la présence marquée de ces pics entre 60 et 200 kHz, c'est qu'il s'agit de parasites.
La conclusion serait alors que que l'US-2000 ajoute un bruit et des parasites moins importants que l'U4A-FX.
La seule façon de la prévenir ce problème c'est à la conception, en portant un soin particulier sur le routage de la carte, le découplage et en choisissant les composants avec le bruit thermique le plus faible possible (mais plus chers...).
Si tu ne retrouves plus ces pics, alors j'ai bien une autre explication, mais là ça devient un peu plus "touchy".
Les filtres analogiques sont réalisés avec des condo et des bobines, or à partir de certaines fréquences (HF) les modèles "classiques" des composants ne fonctionnent plus.
Certains éléments généralement négligés dans les basses fréquences ne peuvent plus l'être dans les hautes fréquences. A partir de combien ? Typiquement dans les fréquences supérieures à la dizaine de kHz.
Voici un exemple :
http://f5zv.pagesperso-orange.fr/RADIO/RM/RM24/RM24G/Rm24G23.html
Les composants Rs, Ri et L sont des parasites qui ne peuvent plus être négligés (dans l'exemple en lien, à partir de 1MHz, le condo se comporte comme une inductance

Ceci dit, je trouve tes pics assez marqués et assez localisés, j'opterais plutôt pour les horloges.
[ Dernière édition du message le 10/02/2012 à 18:31:15 ]

Danguit

Comment est-ce que tu as réalisé ta mesure ?
Ce que l'on voit ne correspond pas à des horloges (signaux bande étroite), à part quelques raies (64k, etc.), mais a priori aux images de la fréquence courante pas complètement éliminées par le filtrage (et pas à du bruit) ; leur amplitude donne la réponse des filtres. On voit d'ailleurs un creux sur les harmoniques de 44.1k (symétrie). Je n'ai pas mis la suite, mais l'on retrouve la même chose sur les harmoniques de 4*Fe et la US-2000 est meilleure (mieux filtrée en HF) car il n'y a plus rien autour de 700k contrairement à la UA4-FX.
Pour les considérations sur les éléments parasites, merci je sais depuis longtemps, mais je pense qu'ici ce n'est pas vraiment le problème.
Je voulais simplement montrer qu'en sortie de convertisseur D-A, la réalité ne correspond pas vraiment à ce que certains croient (rien au-delà de Fe/2).

Zerosquare


Danguit

je pense que l'échelle peut induire en erreur. Ça donnerait quoi en dbFS ?

Zerosquare


Danguit

Oui oui, mais ça reste des dB "tout court", donc c'est relatif. Par exemple, sur la courbe bleue, je vois un pic à 22,050 kHz qui a l'air d'être à environ -1 ou -2 dB.
Le relevé a été fait avec un signal wobbulé entre 20 et 22050Hz, de niveau 0dBFS, sur une sortie analogique (ici casque) à un niveau "normal".
Ce que l'on voit sur le graphe est l'enveloppe de tous les signaux, càd que pour un sinus de F1=1kHz, par exemple, la première image se trouve à 43.1kHz (Fe-F1) et son atténuation par rapport à F1 est celle relevée sur le graphe à 43.1kHz (pas facile à lire sur ce graphe, mais faible). D'autres images du 1kHz se trouvent dans les différentes bosses et l'on voit que certaines fréquences ont une image d'ordre plus élevé qui peut monter à -40dB (sous le 1k) pour la UA4-FX.
En ce qui concerne le pic à 22.05k, c'est simplement parce qu'à cette fréquence la première image est aussi à 22.05K et les signaux s'ajoutant, le niveau augmente.
La région qui intéressera habituellement est celle comprise grosso modo entre 20 et 22.05k car le filtrage anti-crénelage n'étant pas suffisant, ces fréquences sont fortement distordues par leur fréquence image de niveau relatif élevé.
Par exemple sur le graphe suivant (https://img.audiofanzine.com/image.php?lang=fr&identifier=image&size=normal&module=user&userPhoto_id=223976) seule la fréquence de 21.5kHz existe dans le fichier, mais en sortie on retrouve aussi son image, à un niveau non négligeable.
[ Dernière édition du message le 11/02/2012 à 08:30:56 ]

Zerosquare

Le relevé a été fait avec un signal wobbulé entre 20 et 22050Hz, de niveau 0dBFS, sur une sortie analogique (ici casque) à un niveau "normal".
Ce que l'on voit sur le graphe est l'enveloppe de tous les signaux
Mais soit je me plante, soit tu as oublié un truc. Ton signal a un niveau de 0 dBFS, mais il est wobulé et tu mesures une moyenne, ce qui veut dire que le niveau dans chaque bande de fréquence est plus faible. C'est comme si tu mesurais avec un signal large bande de niveau inférieur.
Je viens de tester en simulation avec un éditeur audio. Si je génère un sinus à 1 kHz avec une amplitude de 100%, l'analyseur de spectre intégré au soft me donne un pic unique à 1 kHz avec une amplitude de 0 dBFS (logique). Avec un sweep linéaire de 20 à 22050 Hz, sur une durée de 10 secondes, j'obtiens un spectre plat... mais avec une amplitude bien plus faible.
Est-ce que tu pourrais refaire le même test avec un simple sinus à 1 kHz, en mesurant le spectre à partir de 20 Hz ?

Danguit

Mais soit je me plante, soit tu as oublié un truc. Ton signal a un niveau de 0 dBFS, mais il est wobulé et tu mesures une moyenne,
Le dernier exemple avec les 2 raies a été fait avec Goldwave et une carte son comme numériseur et l'on voit bien que la fréquence de 21.5k, prise à la volée (copie d'écran), a le même niveau que le reste (courbe enveloppe rouge).
Et si je fais la même chose avec de simples sinus, je trouve évidemment le même résultat : d'ailleurs, avant de faire des balayages pour avoir une vision globale, j'avais commencé par des sinus de fréquences différentes, donc inutile de recommencer.

EraTom

Ce que l'on voit ne correspond pas à des horloges (signaux bande étroite), à part quelques raies (64k, etc.), mais a priori aux images de la fréquence courante pas complètement éliminées par le filtrage (et pas à du bruit) ; leur amplitude donne la réponse des filtres. On voit d'ailleurs un creux sur les harmoniques de 44.1k (symétrie).
Je ne comprends pas.
Il y a un pic +20dB vers 44kHz qui correspond à la fréquence d'échantillonnage.
Il y a une bosse avec une forme bien particulière (une discontinuité de +10 à +15dB) vers 88kHz, ça ressemble à la 1ère harmonique d'un signal à 44kHz qui passe dans une topologie complexe (les largeurs des bandes sur les harmoniques d'un parasite dépendent de la topologie de la carte qui les ramène).
- < Liste des sujets
- Charte