Se connecter
Se connecter

ou
Créer un compte

ou

Sujet Waldorf en faillite

  • 159 réponses
  • 29 participants
  • 6 725 vues
  • 2 followers
Sujet de la discussion Waldorf en faillite
Je n'ai pas vu la news passer sur AF, alors désolé pour ceux qui sont déjà au courant:
donc, après Cre@mware, c'est au tour de Waldorf de déposer le bilan (banqueroute).

Tout est là, en teuton dans le texte.

Vu que le site Waldorf est down, les abonnés à l'ancien forum sont invités s'ils le souhaitent à rejoindre un nouveau forum non-officiel:
http://waldorf.synth.net

:mrg:

« What is full of redundancy or formula is predictably boring. What is free of all structure or discipline is randomly boring. In between lies art. » (Wendy Carlos)

Afficher le sujet de la discussion
131

Citation :
Ce qui pourrait être plus drôle, avec l'avènement des derniers DSPs et des FPGAs, c'est de voir lequel tournerait le mieux... Avec un DSP capable de mettre le plus gros Pentium dans le vent, un synthé hard serait largement meilleur - je pense justement à Analog Devices avec leur Shark et plus dernièrement le Blackfin -, mais quand on utilise en parallèle 3 DSPs, on peut se dire que le FPGA, c'est pas mal aussi... Evolutivité, SIMD massif,



Tiens, au boulot, j'ai encore la preuve que ce qui compte, c'est la pratique. On arrête pas de dire que la course au ghz, c'est de la connerie. Je commence à croire que c'est la critique intel qui est de la connerie, oui. J'ai recu un nouveau pentium IV 3 Ghz au boulot. Mes scripts matlab sont presque deux fois plus rapides que sous mon portable (ok, il y a le dd qui est super lent sur mon portable), qui est un PIV 1.8 Ghz.

J'ai mis combien de temps pour multiplier la vitesse par deux ? 0 s de programmation, qqs dizaines de minutes pour recompiler les parties en C.

Ca m'aurait pris combien de temps sur un dsp ? Des mois.

Je sais pas quelle peut être la puissance des derniers dsp flottant abordables, mais combien peuvent faire 150 000 FFT de 1024 points en une seconde ?

Puis bon, la puissance des dsp susr les synthés, ben, euh, comment dire... elle est ridicule.
132
Putain le tueur... :lol:
133
Avec la différence que tout ce qu'un PC peut faire, les procs dédiés peuvent le faire qqs mois plus tard...
Le dernier de chez TI à GHz avec multiplication en 1 coup d'horologe, ça te fait plus que ça sans pb...
Au passage, Matlab utilise FFTW, qui est très portable et qui torche sa mère, c'est pas grâce à Matlab, merci le MIT...

Tiens, la course au GHz, c'est de la connerie... La preuve étant le XP d'AMD, largement plus rapide à fréquence égale ou le M qui a vu sa fréquence divisée par 2 d'un coup... Tu m'étonnes, il devient RISC, le petit, et pique tout ce qui a fait que les autres procs étaient plus rapides...

Ta FFT, quand tu la fait, elle est peut-être optimisée, en revanche, pourquoi est-ce que Voxengo and C° ressortent l'assembleur ? parce que sur DSP on fait mieux. D'ailleurs, les interfaces avec un DSP d'effets ont encore la côte.

BTW, la pratique, je connais aussi...
134
Et de deux. Waldorf est né des cendres du célèbre PPG de W. Palm qui était fabriqué justement à Waldorf (D), ça fait tout simplement deux fois qu'ils se plantent, pas mal, à quand la troisième?
135

Citation : ça fait tout simplement deux fois qu'ils se plantent, pas mal, à quand la troisième?


Et Bull, combien de fois ils se sont plantés ? Cette boite n'a jamais été rentable, l'état a tjs foutu du fric dans cette boite pour la redresser...

Waldorf est mort. VIVE WALDORF.

En France, on a les grandes gueules, et c'est pas avec les produits de l'IRCAM, et leur tapis de douche avec des pads (cf musikmesse2004) , qu'on va inonder le marché. Tandis qu'en Allemagne, ils conçoivent et fabriquent des synthétiseurs. C'est toute la différence...

En France, on commence à se réveiller de nouveau avec des boites comme EOWAVE et Analog Lab (Toulouse)...

Il y a que celui qui fait rien qui risque pas de se casser la gueule...

"On parle d'écriture inclusive alors que les femmes n'arrêtent pas de dire qu'elles s'en "battent les couilles""

136
Juste pour mettre mon grain de sel;
puissance procs vs algorithmique: mon frangin fait de la physique théorique (quantique), et en ce moment l'option est plutot de revoir tous les algos et en trouver d'autres, car le gain est bien bien plus important que ce qu'apportent les différentes générations de processeurs (on parle là de supercalculateurs, qui coute trés chers, et dont le CPU est souvent facturé à la seconde).

Pour les synthés, c'est pareil: ce qui va compter, ce sont surtout les nouveaux algorithmes, les nouvelles méthodes; et ensuite viendra le codage. Je ne sais pas exactement lequel prend le plus de temps (concevoir de nouveaux algos ou l'implémenter), et je veux bien concevoir que l'implémentation en assembleur ou DSP est plus fastidieuse qu'en C, mais je pense que cela reste tout de mm dans les proportions standard de l'informatique, à savoir 80/20 (specification, conception vs codage).
137

Citation :
Avec la différence que tout ce qu'un PC peut faire, les procs dédiés peuvent le faire qqs mois plus tard...



A quel coût ? La question centrale est là.

Vous me faites rigoler à parler de DSP à 1 Ghz, c'est quoi qui tourne dans le micro Q : 1 57303. Oui, un. Des dizaines de fois moins puissant que n'importe quel pc d'aujourd'hui.

Citation :
Le dernier de chez TI à GHz avec multiplication en 1 coup d'horologe, ça te fait plus que ça sans pb...



Mais en pratique, le pentuim IV aussi. Si tu te demerdes bien, tu peux même en faire 2, voire plus en utilisant les instructions SIMD.

Je sais très bien que matlab utilise fftw, c'est d'ailleurs pour ça que les résultats que j'ai donnés sont pris du site de fftw directement.

Mais ça ne fait que renforcer mon propos: les DSP, c'est bien, mais faut programmer en assembleur, ce qui veut dire que pour des petites boîtes, et c'est le cas de toutes les boites de MAO, en gros, il faut rester sur une architecture particulière pour la connaître, car tu peux pas te permettre d'avoir 50 développeurs.

A ton avis, pourquoi les librairies les plus rapides pour faire de l'algèbre linéaire, c'est encore écrit en fortran ? Parce que c'est le meilleur langage ? Juste parce que ça fait des années qu'elles existent, et qu'on les connaît sur le bout des doigts. Avec les dsp, tout le monde est d'accord pour dire qu'ilfaut coder en assembleur, ce qui veut dire se retaper un truc nouveau toutes les générations de dsp, c'est à dire... Pas longtemps.

Citation :
Tu m'étonnes, il devient RISC, le petit, et pique tout ce qui a fait que les autres procs étaient plus rapides...



Mouais, sauf que risc, ça n'a jamais voulu dire être plus rapide. Surtout, ce mot n'a plus de sens depuis des années. Quand on me sort le mot risc aujourd'hui, direct, j'entend BS dans ma tête ... Parce que ça fait vraiment débat à la mord moi le noeud qui n'existent que dans la tête de certains décideurs. Techniquement, le risc pur a perdu depuis des années, et presque tous les procs ont des core plus ou moins risc.

Comme le dit l'ancien chef architect des ultra sparc david ditzel, procs risc par excellence:



Citation :
"Today [in RISC] we have large design teams and long design cycles," he said. "The performance story is also much less clear now. The die sizes are no longer small. It just doesn't seem to make as much sense." The result is the current crop of complex RISC chips. "Superscalar and out-of-order execution are the biggest problem areas that have impeded performance [leaps]," Ditzel said. "The MIPS R10,000 and HP PA-8000 seem much more complex to me than today's standard CISC architecture, which is the Pentium II. So where is the advantage of RISC, if the chips aren't as simple anymore?"



Quand on me dit qu'un G4 est risc, je rigole, parce que l'altivec, c'est fondamentalement anti risc comme concept, et c'est ce qui fait la différence avec le G3, entre autre.

Citation :
We now live in a "post-RISC" world, where the terms RISC and CISC have lost their relevance (except to marketing departments and platform advocates). In a post-RISC world, each architecture and implementation must be judged on its own merits, and not in terms of a narrow, bipolar, compartmentalized worldview that tries to cram all designs into one of two "camps."



Encore une fois, c'est pas le design qui compte, mais l'implémentation. Ta remarque sur l'athlon le montre parfaitement.

Si tu lis ça, à mon sens un des meilleurs articles qu'il m'ait été donné de lire sur l'architecture des processeurs, tu comprendras peut être mieux mon point de vue:

https://arstechnica.com/cpu/4q99/risc-cisc/rvc-1.html

Un proc, à une architecture donnée, peut avoir des performances assez fortement liées à sa fréquence de fonctionnement. POur les calculs, avec des PIV (conçu pour aller haut en fréquence, il est vrai), je le vérifie tous les jours.

Est ce que c'est la pacanée ? Certainement pas. Ca consomme comme pas possible, il faut un environnement de malade autour au niveau hard, etc... Pleins de paramètres qui expliquent le succés des dsp, et autres arm. Mais la puissance, tout autre paramètre mis de côté, ça n'en est pas un. Intel, ibm, AMD, sont tellement énormes qu'ils peuvent aller beaucoup plus vite en progression, en fabrication (la qualité des chaines de fabrication jouent énormément à ce niveau là).
138

Citation :
Juste pour mettre mon grain de sel;
puissance procs vs algorithmique: mon frangin fait de la physique théorique (quantique), et en ce moment l'option est plutot de revoir tous les algos et en trouver d'autres, car le gain est bien bien plus important que ce qu'apportent les différentes générations de processeurs (on parle là de supercalculateurs, qui coute trés chers, et dont le CPU est souvent facturé à la seconde).



Mauvais exemple: ces types d'ordinateur ne progressent pas aussi vite en terme de puissance que les proces 'généralistes'. La clé est là. D'ailleurs, pourquoi linux explose pour les clusters quand sgi et autres cray s'effondrent ? Pour le coup. Quand tu vois le prix ridicule d'un cluster de 1000 G5, et ce qu'il faut avoir pour la même puissance en super ordinateur...

Perso, dans mon champ, qui est bien différent, il est vrai, la puissance des cpu a tout changé. Il y a 20 ans, fallait découper son signal et se prendre la tête pour calculer UNE fft. Aujourd'hui, des fft à court terme, j'en fait sur des signaux de plusieurs secondes par centaine.

En traitement de signal, les algo restent assez bas niveau par rapport à ce qu'on peut voir pour de la physique (je sais pas de quoi on peut parler en quantique, mais des trucs comme la résolution numérique des EDP, ben là,c'est clair que l'algo va tout faire), surtout pour l'audio. Il y a des trucs plus haut niveau, qui restent peu utilisés dans le commerce.

Mais faire des LFO, des oscillo, des filtres, c'est avant tout une question d'implémentation. Ca reste assez 'trivial' dans le concept (il y a évidemment pleins de subtilités autour).
139
Une multiplication en 1 cycle sur un P4 ? J'aimerai vraiment que tu me montres où tu as lu ça, ça me ferait changer d'avis sur les procs...
RISC, c'est pas pour rendre les puces plus simples, au contraire, dès le départ avec le séquenceur câblé, au savait que c'était plus compliqué. L'avantage est le jeu d'instructions. Les instructions sont simples et celles-ci sont simples...

Tiens, d'ailleurs, ta FFT, elle est FFT parce que qqn a trouvé un super algo pour fare passer du N² à Nlog(N), sinon, ton PC, il ne ferait jamais ce qu'il fait. En revanche, avec des optimisations, le DSP aurait réussi - d'ailleurs, ne mélange pas DSP et ARM stp, c'est PAS DU TOUT la même chose -

Une génération de DSP tient plus longtemps que ce que tu dis, peut-être moins que l'x86 - qui j'espère enfin va disparaître -, mais plus que qqs années. De plus, les compilateurs fournis permettent de se passer de l'assembleur, tout peut être fait en C ou C++ avec peu d'overhead. Parfois, ton implémentation C n'est pas optimale, et c'est là que le bas blesse, parce que sur un PC, tu ne feras pas mieux. Avec les archis RISC sur les nouveaux DSP, programmer en assembleur n'est plus optimale dans 95% des cas. Donc les libs de PC sont utilisables...
J'ai vu des optimisations de programmes que les compilos GCC ou .NET ne pourraient même pas envisager, l'ICC peut-être.
140

Hors sujet : Si vous comprenez quelque chose à ce débat, ne prenez pas la route. :up: