Se connecter
Se connecter

ou
Créer un compte

ou

Sujet Tordre le cou au moteur audio:

  • 212 réponses
  • 40 participants
  • 28 829 vues
  • 56 followers
Sujet de la discussion Tordre le cou au moteur audio:
Ok, je vais essayer de mettre dans ce thread un petit recapitulatif d'avis t d'infos récupérés a droite a gauche sur le net, afin de ruiner le vieux mythe du moteur audio. merci de ne pas poster de commentaires et de ne pas entamer de fumeux debats sans arguments ici.
pour ça, un autre thread:
Tordre le coup au moteur audio: polemiques et crtiques
Afficher le sujet de la discussion
21
Je trouve le coup du pan tres revelateur, quand meme. Beaucoup de gens sont la a dire qu'il faut etre sourd pour pas entendre les differences, que l'un sonne beaucoup mieux que l'autre, et quand tu vois que la cause, c'est juste une baisse de niveau de 3 dB...
22
En plus ça peut se régler cette histoire de répartition stéreo à -3dB... suffit d'aller dans la config du projet...

La différence entre la théorie et la pratique est, en théorie, qu'il n'y a pas de différence...

23
Que quelqu'un livre un zip ou un rar avec des pistes "déjà mixées", genre que je puisse insérer à 0dB dans mes séquenceurs histoire de tester la sommation. Et après si vous voulez (et si vous me laissez le temps) je vous fais des bounces avec Magix, Cubase SX3, Nuendo 3, ProTools M-Powered et un ProTools HD.

Ca vous tente ?
24
La différence samplitude/sx, j'ai déjà entendu !!
D'une certaine manière, Samplitude me paraît plus flatteur...
L'histoire du panning me paraît être évidemment la raison essentielle..
Mais ne pigeant que couic à l'anglais (ou si peu), est-ce que vous pourriez préciser un tant soit peu ce réglage ? quel intérêt de passer de 0db à -3db ?
Merci pour ce futur cours de rattrapage !!

Mais si, mais si, on va y arriver...

25
Bara je retiens la proposition, dès que je peux (d'ici quelques semaines) j'essaye de m'y atteler).
26
Suite au thread d'EnergyXT2, donc Silicon tu avais raison, suite a tes propres test j'ai refais les miens sur la demo song de Reaper de manière plus rigoureuse et effectivement pas d'artefact entre Reaper et Sawstudio. En m^me temps ce n'est pas étonnant puisque il n'y a pas véritablement de traitement du signal, mais uniquement des déplacements de données numériques d'un soft a un autre via export/bounce et import....

Par contre j'ai effectué des test a partir d'un conversion A/D de chaque soft pour voir comment ils réagissaient lors d'un signal analo entrant, et là mes impressions accoustiques se confirme concrètement grâce a ton truc de l'inversion de phase...
La procédure : a partir d'un source sonore externe qui tourne en boucle sur un PC(2 mesure de Drum'n bass)et qui attaque une entree analogique de la carte son d'un autre PC, puis enregistrement en analo ( donc convertion A/D) de la boucle en temps réel sous Reaper puis Sawstudio avec tout le qualibrage necessaire (pan law -3db, buffer identique, 0db en entree etc...), et enfin passage sous Wavelab, les 2 fichiers semble avoir une amplitude identique, mais lors du test de la phase + soustraction = gros artefact.

Si tu peux faire ce test de ton coté histoire de voir si je n'ai pas fait d'erreur comme precedemment cela pourrait nous faire avancer dans la réflexion (le but n'étant pas de savoir qui a tort ou raison, mais de rechercher pour affiner notre jugement)...
27
Le probleme, c'est que la convertion A/D, ca se fait pas dans le logiciel, mais par la carte...
28
Sinon si t'as vraiment de gros restes, ça sent le probleme de synchro entre les deux enregistrements.
29
Vous avez sans doute raison d'ailleur oui a priori seul le hardware fait la conversion, et oui l'histoire du buffer doit être affiné.... cela dit il y a un truc que je ne m'explique pas et peut-être que vous avez une réponse :

Le terme "audio engine" existe dans les specs de softs, ça a la rigueur c'est du marketing... mais des codeurs tres respectables l'utilise aussi, veulent-ils vraiment tous nous raconter des salades?...

Et surtout j'ai pratiqué des enregistrements de ma basse sous divers softs, comme c'est un instrument que je pratique depuis 15 ans c'est pour moi assez fiable pour évaluer le rendus avec mes oreilles, et celles-ci n'entendent pas les m^mes résultat d'un DAW a l'autre, voire d'une version a l'autre ...si ce n'était qu'une histoire de pan law comment ce fait-il que ma basse dans Live 5 (dont soit-disant le moteur audio a été amélioré) possède des médium plus précis que dans Live 4, le pan law aurait-il subitement changé?

Putain si tout se résume a un pan law alors vive le -3db....
30

Citation :

Le terme "audio engine" existe dans les specs de softs, ça a la rigueur c'est du marketing... mais des codeurs tres respectables l'utilise aussi, veulent-ils vraiment tous nous raconter des salades?...



Non, c'est juste que ca ne veut pas dire la meme chose pour toi que pour eux. En general, ca recouvre le coeur de ce qui fait les operations de base telle que communication avec la carte, systeme de bus, etc...Ca n'a en general aucune influence sur le son.

Citation :
si ce n'était qu'une histoire de pan law comment ce fait-il que ma basse dans Live 5 (dont soit-disant le moteur audio a été amélioré) possède des médium plus précis que dans Live 4, le pan law aurait-il subitement changé?



En fait Live est un peu special, dans le sens ou il est base sur le time stretching, c'est a dire qu'il donne l'illusion que tu peux changer le tempo comme tu veux de tes pistes audio. Mais ca ne peut se faire sans deformation du son (par definition). Donc a moins que le tempo "joue" par live corresponde exactement au tempo auquel tu as fixe la piste wave correspondantes, il va effectuer des transformations, transformations qui sont tout sauf neutres (qui ont clairement des consequences extremement audibles; le time stretching est quelque chose de tres complexe a faire).