Se connecter
Se connecter

ou
Créer un compte

ou

Gabou de l aide!;)

  • 91 réponses
  • 12 participants
  • 6 992 vues
  • 1 follower
Sujet de la discussion Gabou de l aide!;)
Bon Gabou on m a dit que tt hyper calé en informatique.
Et il se trouve que je suis en premiere S et avec un pote(Renzi en l occureence) on doit faire un TPE physique math


bon on se dirige vers la compression sonore(par ex le format mp3)

est ce que vite fai tu peux me dire deux mots sur son principe de fonctionnement? Des algos? T as des formules?

je sais je n demande ptetre trop mais bon si tu est calé autant nous apprendre des choses hein :mdr: :clin:

Merci d avance
Afficher le sujet de la discussion
11
RB je suis là pour t'aider à accoucher de ton 1000è post

Sinon, tu sais qu'on a prévu un 4è apéro, va voir le lien dans le pub si tu veux ...

I'm Back

12
COOL LE VOILA LE 1000 :mdr: :bravo: :bravo: :bravo: :bravo:


C quand l apero je veux venir!!!!
13

Citation :
donc c t pour te demande ce qu'etait l'algorythme de hoffman en gros ?



On écrit algorithme, pour commencer ;)

Très schématiquement, par un exemple. Tu sais peut être que la plupart des fichiers textes sont encodés sur un octet=8bits, c'est le format ASCII (le format ASCII original était sur 7 bits, mais là n'est pas le propos de toute façon). Chaque caractère (2 puissance 8 = 256 caractères max différents) correspond à un numéro, par exemple 32 pour le caractère espace.

Au niveau encombrement mémoire, c'est crétin, et voilà pourquoi : chaque caractètre recquiert 8 bits pour être encodé, mais tous les caractères ne sont pas équiprobables. Par exemple, en français, il y a des chances pour qu'il y ait plus souvent de fois e que x dans un texte. L'idée d'Huffman, dans cet exemple, est la suivante : tu codes les caractères les plus courants sur le plus petit nombre de bits possible (par exemple 1 bit pour e, 2 bits pour a et i, etc...), et du coup, ça prend beaucoup moins de place. Le zip, rar, etc..., très basiquement, ça marche comme ça : on cherche mes caractères les plus courants, on construit une table d'équivalence, et on code.

C'est pour ça qu'encoder un wav en rar ou en zip, ça marche pas génial en général : tous les symboles (ici, ce sont plus les caractères, mais les valeurs d'amplitude en fonction du temps) sont plus ou moins équiprobables (on a pas encore trouvé de loi de probabilité de la musique ;) ).

Un truc important à savoir : c'est pas toujours évident que le truc obtenu soit plus petit que l'original. D'ailleurs, tu peux le montrer par l'absurde : si c'était le cas, tu pourrais recompresser un truc déjà compressé, et ce à l'infini, et donc obtenir un fichier de taille nulle à la fin...

Théoriquement, on peut construire une borne (i.e. une limite) inférieure à la performance de tout codage, liée à ce que l'on appelle l'entropie. Là, ça devient compliqué, c'est un des principes fondamentaux découvert par Shanon et qui a permis l'éclatement du numérique, au moins d'un point de vue fondamental et théorique. Bref, tout codage est forcément plus gros que la limite donnée par Shanon (c'est un théorème). Et le codage de Hufmman est "presque optimal" ( c'est à dire est presque égale à la limite, donc au meilleur codage possible), à 1 bit près. En fait, tu es sûr que le codage de Huffman est au pire 1 bit par symbole (un symbole, dans mon exemple, c'est un caractère) plus gros que ce que tu peux faire de mieux. On connaît pas de meilleur codage à ma connaissance (le fait que ce soit possible ne veut pas dire que l'on sache en construire un; comme souvent en maths, on peut montrer qu'un truc existe sans le "montrer" ou savoir à quoi "ça ressemble"; c'est ce qu'on appelle un théorème non constructif, qui fait d'ailleurs à mon goût toute la beauté des maths, et qui fait dire que les maths ne servent à rien).
14

Hors sujet :

Désolé de venir parler de ça sur un thread sérieux, RB inscris-toi d'abord et suis ce thread, on essaie de recenser tous les Afiens du coin et de la région ...


I'm Back

15
Ok je commence à comprendre.... putain c cho, c vrai j'ai regardé un peu les trucs sur le codage... il me manque des trucs, j'aurai du prendre ca en terminale, mais bon je suis motivé donc je garde espoir :) en plus t la...

j'ai encore des questions ( de toute faocn je crois que ca sera pas la derniere )
Le codage différentiel (DPCM, ADPCM, ADM) ?
donc si j'ai bien compris le codage PCM ca encode les echantillons et le codage différentiel ca encode les différences entre les échantillons, c ca ?

pour le mp3, on utilise un codage PCM c bien ca ?

merci encore
16
Up .....
17
Yep Gabou puré nous voila avec la convolutionde Fournier!!!!

Citation : http://www.essi.fr/~leroux/presentationfourier/presentationfourier.html#4




heu tu serais pas nous expliquer cette équation? parce que meme notre prof a du,mal!!!

Merci d avance Gabou
putain je sais pas si on va pas changert de sujet tellement c cho
18
En tout cas ca a l'air marrant
19

Citation :
Le codage différentiel (DPCM, ADPCM, ADM) ?
donc si j'ai bien compris le codage PCM ca encode les echantillons et le codage différentiel ca encode les différences entre les échantillons, c ca ?



C'est à peu près ça. L'idée, c'est que coder sur 16 ou 24 bits est très dur, par contre, échantillonner à des fréquences importantes, on sait faire (le temps à toujours été le truc que l'on mesurait le mieux). Donc coder les différence à plusieurs mhz, sur qqs bits voire un seul, c'est censé être plis facile. En pratique, ça pose d'autres problèmes.

Citation :
pour le mp3, on utilise un codage PCM c bien ca ?



Non, le MP3 est un codage totalement différent. En général, il part d'un truc encodé en PCM, mais on peut très bien imaginer de partir d'un truc ADCPM, je pense.

Citation :
http://www.essi.fr/~leroux/presentationfourier/presentationfourier.html#4



Bon, on va essayer de faire simple. Fourier a étudié la transformation de Fourier (TF en abrégé) pour résoudre l'équation de la chaleur, qui est montré sur ton lien. En physique, la plupart des problèmes peuvent être résumés en équations dites différentielles.

A priori, tu sais ce qu'est une dérivée. Tu sais aussi normalement que si x(t) représente le mouvement d'un point dans l'espace, la dérivée de x par rapport au temps, c'est la vitesse instantanée. Les principes généraux de physique, que ce soit en physique mécanique, en physique electro magnétique, en physique quantique, sont tous des trucs qui se ramènent souvent à des équations qui relient entre elles des fonctions et leur dérivée.

On sait résoudre toutes les équations différentielles simples : une seule inconnue, la fonction ne dépend que d'un paramètre, et "linéaire", c'est à dire que si y est la fonction inconnue, il ne traîne pas des y^2 quelque part, ou des sin(y). Si on note y' la dérivée première, etc... les seuls equa diff que l'on sait résoudre, c'est de ce style là

y + a*y' = 0 avec a une constante.

L'équation différentielle que t'as sur ton lien est dite aux dérivées partielles. C'est à dire que la fonction incconnu n'a pas une mais plusieurs variables (ici le temps, x et y qui représentent les coordonnées dans un plan : ça décrit par exemple la température d'une plaque fine en fonction du temps et de la position).

Et là, pas de bol, il y a aucune méthode connue pour résoudre ça de manière systématique. Chaque fois qu'il y a une nouvelle forme qui apparaît, t'as une bonne thèse de maths voire plus pour tenter de voir la gueule de la solution (en général, faut pas se voiler, t'auras jamais la solution. Par contre, tu arriveras à savoir à peu près si la solution a une "bonne geule", ce genre de choses. Après, tu peux qu'obtenir des solutions approchées par des méthodes numériques).

Bref, Fourier a eu ce problème, et la TF est sa méthode pour résoudre son équation.
20
T'a déjà pensé à faire prof de math ? :8)
merci beaucoup :bravo: