Se connecter
Se connecter

ou
Créer un compte

ou
FR
EN

Waldorf en faillite

  • 159 réponses
  • 29 participants
  • 7 248 vues
  • 2 followers
Sujet de la discussion Waldorf en faillite
Je n'ai pas vu la news passer sur AF, alors désolé pour ceux qui sont déjà au courant:
donc, après Cre@mware, c'est au tour de Waldorf de déposer le bilan (banqueroute).

Tout est là, en teuton dans le texte.

Vu que le site Waldorf est down, les abonnés à l'ancien forum sont invités s'ils le souhaitent à rejoindre un nouveau forum non-officiel:
http://waldorf.synth.net

:mrg:

« What is full of redundancy or formula is predictably boring. What is free of all structure or discipline is randomly boring. In between lies art. » (Wendy Carlos)

Afficher le sujet de la discussion
126
C pô possible de mettre des vestes aussi pourris.
127

Citation : Il en manque


Problème financier -> Sous traitance et réduction de personnel ? :8O:
128
Bounjour,
je voulais juste revenir sur le debat hard ou soft.
je pense que l'ergonomie est un element primordial de tout synthé,car elle conditionne en grande partie l'utilisation de la machine(hard).c'est comme les guitares: quand tu as une guitare accoustique pan coupé,tu peu atteindre plus facilement les aigues donc tu seras (plus)tenté de jouer dans les aigues,alors qu'avec une accoustique normale,ton jeu se concentrera sur les 15 premieres case du manche.cela ne fait pas de la gratte pan coupé une gratte meilleurs que les grattes normales,au contraire sa donne un caractere bien particulier et defini a chacune d'elles.pour les synthé c'est pareil,le fait que tel ou tel fonction soit plus accessible sur tel ou tel synthé donne un caractere propre au synthé par le conditionnement meme de son utilisation.c'est a mon avis une difference de taille avec les softs ou tout est accessible,c'est bien me diront certain parce que commme sa on utilise le soft a fond,mais on fini donc par utiliser tous les soft de la meme facon.
apres question son,c'est le meme probleme.quand tu achete un synthe hard,il a tel convertiseur,tel type de prise jack etc...si tu rachete le meme synthé dans cinq ans,il aura toujours le meme convertiseur etc,et c'est ce qui donne aussi un caractere a un synthe hard.si tu achete un synthe soft,ton son sera forcement different(a plus ou moin grande echelle) a chaque fois que tu changera de carte son.certain me dirons que c'est tant mieux parce que tu peux gagner en qualité,mais le probleme n'est a nouveau pas la .ok les synthé numerique c'est que des algorythmes ,mais c'est dernier son restitués par des convertisseurs specifique pour chaque synthés,et c'esdt aussi sa qui fait le son d'un synthé.alors tant que les fabriquants de soft ne fournirons pas "la" carte son qui va avec leur synthe soft,ces dernier n'auront jamais ce caractere bien defini qu'on les synthés hard,et pour moi ce qui differencie un instrumlent d'un autre c'est son caractere a lui.
petit exemple pour finir:j'ai acheté il y a quatre ans un nordlead.il y a trois mois j'en ai acheté un deuxieme d'occaz:les deux ont exactement le meme son.
ily adeux ans j'utilisais fruityloop3 sur une maxi studio isis,aujourd'hui je l'utilise sur une audiophile 24/96,et sa ne sonne pas du tout pareil.
Some people have got no pride,they do not understand the urgency of life....
129
Tiens, moi aussi, je vais continuer...
Si tout le monde utilise le même hard, c'est peut-être parce que ça coûte super cher à développer ? On a facilement à disposition des cartes d'éval, des compilos, des émulateurs, ...
Ce qui pourrait être plus drôle, avec l'avènement des derniers DSPs et des FPGAs, c'est de voir lequel tournerait le mieux... Avec un DSP capable de mettre le plus gros Pentium dans le vent, un synthé hard serait largement meilleur - je pense justement à Analog Devices avec leur Shark et plus dernièrement le Blackfin -, mais quand on utilise en parallèle 3 DSPs, on peut se dire que le FPGA, c'est pas mal aussi... Evolutivité, SIMD massif, ...

Si ton synthé hard a le même son 5 ans plus tard, c'est que le soft interne n'a pas changé... Or, ce qui est intéressant effectivement, c'est cette capacité à changer. Facilement dispo sur PC ou Mac - ben oui, le compilo existe, pas cher, ... -, sur hard dédié, c'est autre chose... Recréer un complio C pour une machine massivement SIMD et pipelinée, voire RISC pour compliquer les choses, c'est presque suicidaire...
En général, on conçoit les algos sur PC, on les teste avec notre Matlab favori, puis on regarde les éléments critiques qui ont besoin de vitesse, qui seront ensuite implémentés en hard directement, le reste sera traité avec un "processeur standard" créé à côté des unités de traitement spécialisées - PLL, MAC, ... -. Et développer ça, ça prend largement plus de temps sur hard dédié que sur PC... Le prix du soft n'est pas le même, et c'est ce que l'un de vous avait souligné tandis que les autres, je ne sais pas, mais bon...

Ah oui, l'ergonomie, c'est vraiment pas ce qu'il y a de plus lourd à faire...
130
Mmm... là je crois qu'on a besoin de Gabou.
131

Citation :
Ce qui pourrait être plus drôle, avec l'avènement des derniers DSPs et des FPGAs, c'est de voir lequel tournerait le mieux... Avec un DSP capable de mettre le plus gros Pentium dans le vent, un synthé hard serait largement meilleur - je pense justement à Analog Devices avec leur Shark et plus dernièrement le Blackfin -, mais quand on utilise en parallèle 3 DSPs, on peut se dire que le FPGA, c'est pas mal aussi... Evolutivité, SIMD massif,



Tiens, au boulot, j'ai encore la preuve que ce qui compte, c'est la pratique. On arrête pas de dire que la course au ghz, c'est de la connerie. Je commence à croire que c'est la critique intel qui est de la connerie, oui. J'ai recu un nouveau pentium IV 3 Ghz au boulot. Mes scripts matlab sont presque deux fois plus rapides que sous mon portable (ok, il y a le dd qui est super lent sur mon portable), qui est un PIV 1.8 Ghz.

J'ai mis combien de temps pour multiplier la vitesse par deux ? 0 s de programmation, qqs dizaines de minutes pour recompiler les parties en C.

Ca m'aurait pris combien de temps sur un dsp ? Des mois.

Je sais pas quelle peut être la puissance des derniers dsp flottant abordables, mais combien peuvent faire 150 000 FFT de 1024 points en une seconde ?

Puis bon, la puissance des dsp susr les synthés, ben, euh, comment dire... elle est ridicule.
132
Putain le tueur... :lol:
133
Avec la différence que tout ce qu'un PC peut faire, les procs dédiés peuvent le faire qqs mois plus tard...
Le dernier de chez TI à GHz avec multiplication en 1 coup d'horologe, ça te fait plus que ça sans pb...
Au passage, Matlab utilise FFTW, qui est très portable et qui torche sa mère, c'est pas grâce à Matlab, merci le MIT...

Tiens, la course au GHz, c'est de la connerie... La preuve étant le XP d'AMD, largement plus rapide à fréquence égale ou le M qui a vu sa fréquence divisée par 2 d'un coup... Tu m'étonnes, il devient RISC, le petit, et pique tout ce qui a fait que les autres procs étaient plus rapides...

Ta FFT, quand tu la fait, elle est peut-être optimisée, en revanche, pourquoi est-ce que Voxengo and C° ressortent l'assembleur ? parce que sur DSP on fait mieux. D'ailleurs, les interfaces avec un DSP d'effets ont encore la côte.

BTW, la pratique, je connais aussi...
134
Et de deux. Waldorf est né des cendres du célèbre PPG de W. Palm qui était fabriqué justement à Waldorf (D), ça fait tout simplement deux fois qu'ils se plantent, pas mal, à quand la troisième?
135

Citation : ça fait tout simplement deux fois qu'ils se plantent, pas mal, à quand la troisième?


Et Bull, combien de fois ils se sont plantés ? Cette boite n'a jamais été rentable, l'état a tjs foutu du fric dans cette boite pour la redresser...

Waldorf est mort. VIVE WALDORF.

En France, on a les grandes gueules, et c'est pas avec les produits de l'IRCAM, et leur tapis de douche avec des pads (cf musikmesse2004) , qu'on va inonder le marché. Tandis qu'en Allemagne, ils conçoivent et fabriquent des synthétiseurs. C'est toute la différence...

En France, on commence à se réveiller de nouveau avec des boites comme EOWAVE et Analog Lab (Toulouse)...

Il y a que celui qui fait rien qui risque pas de se casser la gueule...

"On parle d'écriture inclusive alors que les femmes n'arrêtent pas de dire qu'elles s'en "battent les couilles""

136
Juste pour mettre mon grain de sel;
puissance procs vs algorithmique: mon frangin fait de la physique théorique (quantique), et en ce moment l'option est plutot de revoir tous les algos et en trouver d'autres, car le gain est bien bien plus important que ce qu'apportent les différentes générations de processeurs (on parle là de supercalculateurs, qui coute trés chers, et dont le CPU est souvent facturé à la seconde).

Pour les synthés, c'est pareil: ce qui va compter, ce sont surtout les nouveaux algorithmes, les nouvelles méthodes; et ensuite viendra le codage. Je ne sais pas exactement lequel prend le plus de temps (concevoir de nouveaux algos ou l'implémenter), et je veux bien concevoir que l'implémentation en assembleur ou DSP est plus fastidieuse qu'en C, mais je pense que cela reste tout de mm dans les proportions standard de l'informatique, à savoir 80/20 (specification, conception vs codage).
137

Citation :
Avec la différence que tout ce qu'un PC peut faire, les procs dédiés peuvent le faire qqs mois plus tard...



A quel coût ? La question centrale est là.

Vous me faites rigoler à parler de DSP à 1 Ghz, c'est quoi qui tourne dans le micro Q : 1 57303. Oui, un. Des dizaines de fois moins puissant que n'importe quel pc d'aujourd'hui.

Citation :
Le dernier de chez TI à GHz avec multiplication en 1 coup d'horologe, ça te fait plus que ça sans pb...



Mais en pratique, le pentuim IV aussi. Si tu te demerdes bien, tu peux même en faire 2, voire plus en utilisant les instructions SIMD.

Je sais très bien que matlab utilise fftw, c'est d'ailleurs pour ça que les résultats que j'ai donnés sont pris du site de fftw directement.

Mais ça ne fait que renforcer mon propos: les DSP, c'est bien, mais faut programmer en assembleur, ce qui veut dire que pour des petites boîtes, et c'est le cas de toutes les boites de MAO, en gros, il faut rester sur une architecture particulière pour la connaître, car tu peux pas te permettre d'avoir 50 développeurs.

A ton avis, pourquoi les librairies les plus rapides pour faire de l'algèbre linéaire, c'est encore écrit en fortran ? Parce que c'est le meilleur langage ? Juste parce que ça fait des années qu'elles existent, et qu'on les connaît sur le bout des doigts. Avec les dsp, tout le monde est d'accord pour dire qu'ilfaut coder en assembleur, ce qui veut dire se retaper un truc nouveau toutes les générations de dsp, c'est à dire... Pas longtemps.

Citation :
Tu m'étonnes, il devient RISC, le petit, et pique tout ce qui a fait que les autres procs étaient plus rapides...



Mouais, sauf que risc, ça n'a jamais voulu dire être plus rapide. Surtout, ce mot n'a plus de sens depuis des années. Quand on me sort le mot risc aujourd'hui, direct, j'entend BS dans ma tête ... Parce que ça fait vraiment débat à la mord moi le noeud qui n'existent que dans la tête de certains décideurs. Techniquement, le risc pur a perdu depuis des années, et presque tous les procs ont des core plus ou moins risc.

Comme le dit l'ancien chef architect des ultra sparc david ditzel, procs risc par excellence:



Citation :
"Today [in RISC] we have large design teams and long design cycles," he said. "The performance story is also much less clear now. The die sizes are no longer small. It just doesn't seem to make as much sense." The result is the current crop of complex RISC chips. "Superscalar and out-of-order execution are the biggest problem areas that have impeded performance [leaps]," Ditzel said. "The MIPS R10,000 and HP PA-8000 seem much more complex to me than today's standard CISC architecture, which is the Pentium II. So where is the advantage of RISC, if the chips aren't as simple anymore?"



Quand on me dit qu'un G4 est risc, je rigole, parce que l'altivec, c'est fondamentalement anti risc comme concept, et c'est ce qui fait la différence avec le G3, entre autre.

Citation :
We now live in a "post-RISC" world, where the terms RISC and CISC have lost their relevance (except to marketing departments and platform advocates). In a post-RISC world, each architecture and implementation must be judged on its own merits, and not in terms of a narrow, bipolar, compartmentalized worldview that tries to cram all designs into one of two "camps."



Encore une fois, c'est pas le design qui compte, mais l'implémentation. Ta remarque sur l'athlon le montre parfaitement.

Si tu lis ça, à mon sens un des meilleurs articles qu'il m'ait été donné de lire sur l'architecture des processeurs, tu comprendras peut être mieux mon point de vue:

https://arstechnica.com/cpu/4q99/risc-cisc/rvc-1.html

Un proc, à une architecture donnée, peut avoir des performances assez fortement liées à sa fréquence de fonctionnement. POur les calculs, avec des PIV (conçu pour aller haut en fréquence, il est vrai), je le vérifie tous les jours.

Est ce que c'est la pacanée ? Certainement pas. Ca consomme comme pas possible, il faut un environnement de malade autour au niveau hard, etc... Pleins de paramètres qui expliquent le succés des dsp, et autres arm. Mais la puissance, tout autre paramètre mis de côté, ça n'en est pas un. Intel, ibm, AMD, sont tellement énormes qu'ils peuvent aller beaucoup plus vite en progression, en fabrication (la qualité des chaines de fabrication jouent énormément à ce niveau là).
138

Citation :
Juste pour mettre mon grain de sel;
puissance procs vs algorithmique: mon frangin fait de la physique théorique (quantique), et en ce moment l'option est plutot de revoir tous les algos et en trouver d'autres, car le gain est bien bien plus important que ce qu'apportent les différentes générations de processeurs (on parle là de supercalculateurs, qui coute trés chers, et dont le CPU est souvent facturé à la seconde).



Mauvais exemple: ces types d'ordinateur ne progressent pas aussi vite en terme de puissance que les proces 'généralistes'. La clé est là. D'ailleurs, pourquoi linux explose pour les clusters quand sgi et autres cray s'effondrent ? Pour le coup. Quand tu vois le prix ridicule d'un cluster de 1000 G5, et ce qu'il faut avoir pour la même puissance en super ordinateur...

Perso, dans mon champ, qui est bien différent, il est vrai, la puissance des cpu a tout changé. Il y a 20 ans, fallait découper son signal et se prendre la tête pour calculer UNE fft. Aujourd'hui, des fft à court terme, j'en fait sur des signaux de plusieurs secondes par centaine.

En traitement de signal, les algo restent assez bas niveau par rapport à ce qu'on peut voir pour de la physique (je sais pas de quoi on peut parler en quantique, mais des trucs comme la résolution numérique des EDP, ben là,c'est clair que l'algo va tout faire), surtout pour l'audio. Il y a des trucs plus haut niveau, qui restent peu utilisés dans le commerce.

Mais faire des LFO, des oscillo, des filtres, c'est avant tout une question d'implémentation. Ca reste assez 'trivial' dans le concept (il y a évidemment pleins de subtilités autour).
139
Une multiplication en 1 cycle sur un P4 ? J'aimerai vraiment que tu me montres où tu as lu ça, ça me ferait changer d'avis sur les procs...
RISC, c'est pas pour rendre les puces plus simples, au contraire, dès le départ avec le séquenceur câblé, au savait que c'était plus compliqué. L'avantage est le jeu d'instructions. Les instructions sont simples et celles-ci sont simples...

Tiens, d'ailleurs, ta FFT, elle est FFT parce que qqn a trouvé un super algo pour fare passer du N² à Nlog(N), sinon, ton PC, il ne ferait jamais ce qu'il fait. En revanche, avec des optimisations, le DSP aurait réussi - d'ailleurs, ne mélange pas DSP et ARM stp, c'est PAS DU TOUT la même chose -

Une génération de DSP tient plus longtemps que ce que tu dis, peut-être moins que l'x86 - qui j'espère enfin va disparaître -, mais plus que qqs années. De plus, les compilateurs fournis permettent de se passer de l'assembleur, tout peut être fait en C ou C++ avec peu d'overhead. Parfois, ton implémentation C n'est pas optimale, et c'est là que le bas blesse, parce que sur un PC, tu ne feras pas mieux. Avec les archis RISC sur les nouveaux DSP, programmer en assembleur n'est plus optimale dans 95% des cas. Donc les libs de PC sont utilisables...
J'ai vu des optimisations de programmes que les compilos GCC ou .NET ne pourraient même pas envisager, l'ICC peut-être.
140

Hors sujet : Si vous comprenez quelque chose à ce débat, ne prenez pas la route. :up:

141
Je l'ai pas lu, je le pratique :bave: Evidemment, il faut bien se démerder, faut que ça tienne en cache, tout ça. Mais si tu te démerdes pour pas avoir d'embranchement, plus bien connaître ton compilo (l'ordre de séquences peut faire gagner un facteur 2, parfois), ben... ca marche à peu près. Evidemment, en vrai, il prend pleins de cycles pour la faire, mais si tu sais un peu comment toujours remplir le pipeline, c'est tout comme ci.

J'ai été surpris il y a deux ans pendant un stage où mon boss m'a montré en 10 minutes comment multiplier par deux la vitesse d'un algo, avec des trucs mais d'une simplicité déconcertante.

Enfin bon, on parle, on parle, et ça ne prouve rien. Je te file un bout de code qui montre mes dires dans qqs minutes.

Citation :
En revanche, avec des optimisations, le DSP aurait réussi - d'ailleurs, ne mélange pas DSP et ARM stp, c'est PAS DU TOUT la même chose -



Je mélange pas, mais ce sont deux types de proc spécialisés, les plus célèbres que je 'connaisse', d'ailleurs, par opposition aux pentium et autres sparc. Par contre, je comprends pas du tout la relation entre la fft en n log n et les dsp ? (arrête de me prendre pour un benet, aussi :diable: ; la fft, je prétends connaître un tout petit peu, quand même, pour en avoir programmé une).

Citation :
De plus, les compilateurs fournis permettent de se passer de l'assembleur, tout peut être fait en C ou C++ avec peu d'overhead.



J'ai jamais vu un seul programmeur de dsp utiliser un compilo C pour les synthés. Jamais.

Citation :
Donc les libs de PC sont utilisables...



Les compilos fortran, c'est répandu sur dsp ? ;)

Citation :
RISC, c'est pas pour rendre les puces plus simples, au contraire, dès le départ avec le séquenceur câblé, au savait que c'était plus compliqué



Euh ????? Le principe même du risc, c'est d'avoir un truc simple, pour avoir moins de transistors, et éviter, à l'origine, d'avoir plusieurs core qui communiqueraient entre eux par des voies trop lentes. Le principe a toujours été plus simple. D'ailleurs, aujourd'hui, les core sont risc quasiment partout (PIV en premier), il interprète l'ISA d'origine à la volée.

Le X86 va aller de mieux en mieux. Son archi est pourrie des le départ ? Oui. C'est chiant d'avoir tous ces trucs de compatibilité ? Oui. Et c'est pour ça que ça marche. Regarde le 'titanium', merveille technologique, gouffre pour intel, ratage presque complet. Repose beaucoup trop sur le compilo. L'ultra sparc, c'est joli ? Oui. Mais c'est lent et cher.

Il y a un truc à conserver en tête: l'x86 n'a pas gagné en dépit de toutes ses faiblesses, mais GRACE à ses faiblesses.

Bon, je te code l'exemple.
142
Le RISC, c'est pas un proc, simple, c'est un jeu d'instructions simplifiées...

Plus sérieusement, t'es sûr l'hitoire de la multiplication en un coup d'horloge ??
Si les DSP de synthé ne sont pas encore programmés en C, ça ne saurait tardé, les derniers sont largement mieux en codage C - je parlais de librairies en C aussi :D -

Parlons de l'x86. Tous les vrais programmeurs lui tapent dessus. Pourquoi ça a marché ? parce qu'à l'époque tout le monde programmait en ASM, et si pour le 186, ils avaient changé le set d'instructions, ils perdaient le marché. Pourquoi aujourd'hui l'Itanium n'a pas marché ? parce que le compilo à utiliser est effectievement d'une architecture ambitieuse, différente même de ce qui existe dans les autres procs.
Oui, il a gagné grâce à ses faiblesses et l'appat du gain...

Tiens, je veux bien voir tes exemples de codage, plus on apprend, mieux c'est :D
143

Citation : Tiens, je veux bien voir tes exemples de codage



Dites, vous voulez pas aller faire vos cochonneries ailleurs?

:langue:

« What is full of redundancy or formula is predictably boring. What is free of all structure or discipline is randomly boring. In between lies art. » (Wendy Carlos)

144
Bon, gcc est pas génial...

Mais quand même:

Citation :
#include <iostream>
#include <math.h>

#include "cycle.h"

inline void f1(const float* lx, const float* ly,
float* lz, const int size)
{
int i = 0;

for (i = 0; i < size; ++i)
{
lz[i] += lx[i] * ly[i];
}
}

void app_hann(float* &h ,unsigned int N)
{
if ( N < 1 )
{
std::cerr << "N must be equal or greater than 1n";
exit(1);
}

// Initialisation :
// - s : is for sin calculation
// - c : c is for cos.
//
// Last and curr var are used to compute sin and cos ( cf Numerical
// recipes in C, chap 5.5. )

float s_last = 0;
float s_curr = 0;
float c_last = 1.0;
float c_curr = 0;
float alpha = 0.1;
float beta = 0.2;
float delta = 3.14159/N;

//alpha = 2*(sin(delta)*sin(delta));
//beta = sin(2*delta);

//h = new float[N];
h[0] = 0;

for ( int loop = 1 ; loop < N ; ++loop)
{
// First the alpha*cos(teta)+beta*sin(teta) is computed
// This operation MUST be done at the begining.

c_curr = (-1) * alpha * c_last + (-1) * beta * s_last;
s_curr = (-1) * alpha * s_last + beta * c_last;

// computation of the actual windows coefficients

c_curr += c_last;
s_curr += s_last;

h[loop] = 0.5-0.5*c_curr;

// New values of c_last and s_last

c_last = c_curr;
s_last = s_curr;
}
}

int main()
{
ticks t0, t1;

float *x, *y, *z;
const int N = 1024;
const int Nloop = 16;

x = new float[N];
y = new float[N];
z = new float[N];

double result;

for (int loop = 0; loop < N; ++loop)
{
// convert to float to have float division instead of
// euclidian division !
x[loop] = (float)loop/N;
y[loop] = -(float)loop/N;
}

// f1, pass 1
t0 = getticks();

for (int loop = 0; loop < Nloop; ++loop)
{
f1(x, y, z, N);
}

t1 = getticks();

double result1 = elapsed(t1, t0);

std::cout << "ticks for f1, pass 1 is around : " << result1/Nloop << std::endl;

// f2, pass 1
t0 = getticks();

for (int loop = 0; loop < Nloop; ++loop)
{
//N * 8
app_hann( z, N);
}

t1 = getticks();

double result2 = elapsed(t1, t0);

std::cout << "ticks for f2, pass 1 is around : " << result2/Nloop << std::endl;
std::cout << "For this number of cycles, there is : n"
<< N*8 << " muln"
<< N*6 << " addn"
<< N*7 << " assignementsn";

delete[] x;
delete[] y;
delete[] z;

return 0;
}



Le resultat:

Citation :
ticks for f1, pass 1 is around : 4302.5
ticks for f2, pass 1 is around : 26105
For this number of cycles, there is :
8192 mul
6144 add
7168 assignements



Avec gcc 3.3 , -O2 et funroll-loops. Faut pas faire attention aux fonctions, j'ai enlevé tout ce qui ne rentrait pas en compte, à la base, la fonction sert à calculer une fenêtre de hanning en évitant les appels ultra couteux à la fonction sin de la librairie standart.

C'est con, j'avais un exemple plus parlant, mais il marche pas avec gcc, et j'ai pas trop les moyens de me payer VS, ni l'envie de le modifier pour qu'il passe sous gcc :¤)

Tu remarqueras des petites astuces, style inversion de lignes, pour laisser le pipeline toujours rempli, etc...

Citation :
Parlons de l'x86. Tous les vrais programmeurs lui tapent dessus.



Entendons ce que dit un illustre inconnu sur le x86:

Citation :
In a discussion on the merits of various processors, Torvalds wrote that Intel had made the same mistakes "that everybody else did 15 years ago" when RISC architecture was first appearing. Itanium tries to introduce an architecture that is clean and technically pure, something that just doesn't seem to work in the real world. He claims that Intel "threw out all the good parts of the x86 because people thought those parts were ugly. They aren't ugly, they're the 'charming oddity' that makes it do well."



Cet illustre inconnu, c'est torvald...

On continue

Citation :
Clever architecture is something that has trapped others in the past. The Alpha processor team spent years learning that many of the architecturally correct ideals they had held needed to be thrown out when it came to the real world. According to Torvalds, "And all the RISC stuff that tried to avoid it was just a BIG WASTE OF TIME. Because the _only_ thing the RISC approach ended up showing was that eventually you have to do the hard stuff anyway, so you might as well design for doing it in the first place."



Quand un des programmeurs les plus géniaux des ces 15 dernières années, ET un des concepteurs d'une des architectures les plus réputées (Ultras sparc), disent tous deux que le risc (sous entendu pur, hein), c'est de la connerie, il y a peut être qqch à en retirer, non ? ;)

Je suis prêt à parier que dans 5 ans, les descendants de l'x86 (comprendre IA-64) seront encore plus répandus. Par exemple, sun risque très certainement d'abandonner l'ultra sparc en faveur de l'opteron.

Le x86 est moche, mais un cpu d'ordi EST moche par définition, ça doit faire pleins de trucs. C'est comme dire qu'un OS généraliste est moche. C'est moche. Linux est moche, windows est moche, etc... Le principe même d'ordinateur personnel est infame, quelque part.

Citation :
Le RISC, c'est pas un proc, simple, c'est un jeu d'instructions simplifiées...



Oui, mais l'interêt du jeu d'instruction simple, c'était pour faire un proc plus simple. Au début des années 80, quand on concevait le RISC dans les universités américaines, le pb des cpu de l'époque était qu'ils étaient trop compliqués pour qu'on mette tout sur un même DIE, donc on partageait en plusieurs morceaux, et les coûts de transfert entre les différentes parties coutaient la peau du cul. Le RISC devait permettre d'avoir moins de transistors, pour tout laisser sur un même DIE.

Lis l'article d'ars technica, il est vachement intéressant. Tu sais, quand tu lis ce que tanenbaum disait il y a 12 ans, on aurait tous aujourd'hui des OS distribués sur alpha. Bon, l'alpha, ça existe plus, aujourd'hui, c'est balaud !

https://arstechnica.com/cpu/4q99/risc-cisc/rvc-1.html

Sinon, le code est tout moche, hein, c'est juste pour l'exemple.
145
C'est vrai, tu marques un point ;)

J'ai pas encore testé ton programme, j'ai pas de gcc sous la main potable - cygwin beurk, mingw beurk, ... -, mais je vais tenter .NET - étudiant power :) -

D'ailleurs, c'est pas la première fois qu'Intel se casse la figure à essayer d'imposer qqch de nouveau - ils avaient un nouveau proc, une nouvelle archi juste avant le 186, et voulaient tout virer comme l'a fait Moto à l'époque -... A quand la prochain e?
146
Si tu veux vraiment compiler mon code, il faut cycle.h, qui se trouve sur le site de fftw.

Ca permet de compter à peu près le nombre de cycles pris par un bloc de manière assez portable (ça utilise le compteur de cycle des procs, ça marche au moins sur mips, x86 et sparc, c'est évidemment de l'assembleur à l'intérieur).

Le code compilait sous VS 6 qui était une merde niveau standart, donc j'imagine que le 7, assez réputé à ce niveau là, devrait assurer.

Un jour, j'essayerais d'installer ICC sous ma debian, je pense que ça devrait torcher. Mais 4000 cycles pour 2048 additions, 1024 assignements et 1024 multiplications, c'est pas mal, quand même, non ? Même si le cas n'est pas réaliste (en général, pour du MAC, tu vas avoir une petite réponse impulsionelle, les tailles sont pas les mêmes, et tu peux avoir besoin d'accéder à des zones de mémoire non contigues.)

Qu'on soit d'accord: en vrai, le PIV met beaucoup plus qu'une instruction pour une multiplication flottante. C'est une fois le pipeline pris en compte, en faisant en sorte qu'il n'ait pas à se vider (erreur de prédiction), que tu as 1-2 cycles. Et sans ASM, stp (avec SSE, tu peux arriver en dessous d'un cycle dans les bons cas, où t'as des vecteurs alignés).
147
Si avec tout ça, il y a pas méga alerte gabou geek :oops: Je me suis pas autant laché depuis mon explication du MP3 pour les lycées.

Qui a dit qu'af n'était pas technique ?
148
Bon, j'ai foutu le nécessaire pour compiler le truc là

http://perso.enst.fr/~cournape/photos/bench.tar

Makefile, cycle.h et main.cpp (j'ai pas fait gaffe à ce que le code soit C compatible, donc faut un compilo C++).
149
Et dire que le sujet du thread c'est "waldorf en faillite"... :mrg:
150
M'ont tout salopé mon thread.

Salauds de geeks.

:mrg:

« What is full of redundancy or formula is predictably boring. What is free of all structure or discipline is randomly boring. In between lies art. » (Wendy Carlos)