Au programme de cette version 1.1 du firmware du MicroMonsta :
- Compatibilité avec le mode MPE (expression polyphonique MIDI)
- Entrée USB MIDI (la sortie n’est pas encore finalisée)
- Mode Drone
- Accordage global entre 432 et 445 Hz
- Micro-accordage
- Affichage du nom du patch dans le menu Save
- Affichage de petites icônes pour les fonctions Chorder, Latch (drone) et Arp sur l’écran d’accueil
- Support du CC7
- Implémentation du buffer d’édition Sysex
- Sortie 24 bits et améliorée
- Amélioration de l’algorithme de panoramique
- Amélioration de la synchronisation à une horloge MIDI externe
- Changement du comportement de la pédale de sustain en mode mono/legato (sustain uniquement sur la dernière note relâchée)
- Ajout d’une fenêtre de confirmation lors de la sauvegarde des paramètres système et de l’envoi d’un fichier Sysex en buffer à la sortie MIDI
Voici une démo des nouveautés les plus importantes, pour mettre le firmware à jour, rendez-vous sur www.audiothingies.com.
-
willowhisper56Drogué·e à l’AFéinePosté le 09/04/2018 à 16:43:59
Alors qu'est-ce donc que le MPE j'ai pas tout compris.
Il faut un contrôleur qui envoie des notes sur un canal midi différent pour chacune ou c'est défini dans le MM ?
Dans la video, l'accord est configuré dans le MM ?
Exemples concrets avec le MM ?
Midi.org article MPE.
https://www.midi.org/articles/midi-polyphonic-expression-mpe -
willowhisper56Drogué·e à l’AFéinePosté le 09/04/2018 à 21:27:24Si je comprends bien (ou mieux), un contrôleur MPE utilise un canal midi différent pour chaque note et un Control Change associé sur le même canal.
Avec un clavier midi standard, je pourrais donc programmer un midi processor pour que la dernière note jouée envoie sur un canal midi différent des autres notes ainsi que les Control Change / Pitchbend qui suivent...
Yen a qui suivent ?
aaB ? -
static volatileAFicionado·aPosté le 09/04/2018 à 21:57:04Quelques questions qui me sont passées par la tête dans le tram en rentrant du boulot
Oui, tu pourrais peut-être, mais à y réfléchir il me semble que tu perdrais pas mal des bénéfices du MPE.
Citation de MPE :
In essence, each note will have its own MIDI channel as soon as the Note On message is generated. This channel will be assigned to that note as long as no corresponding Note Off message was received on this channel. Any expression on that MIDI channel will only apply to the notes it was assigned to. Multiple notes might be active on a given channel for legato playing or when the polyphony is higher than the number of available Per-Note channels.
L'idée est d'assigner un nouveau canal à chaque Note On et temps que le Note Off n'est pas envoyé sur ce canal, tous les CC et Channel Messages émis sur ce canal ne concernent que la note en cours.
C'est vraiment conçu pour que des interfaces physiques puissent proposer une expressivité plus grande: tant que le doigt est posé sur le controleur, tout mouvement ne concernera que la note jouée par ce doigt (PB, AT, CC, etc.).
Imaginons émuler ce fonctionnement avec un processeur MIDI, quelques problèmes se posent:
- pas d'interface physique pour départager les évenements.
- assigner un canal à chaque Note On et le libérer à chaque Note Off est trivial, mais quid des CC et Channel Messages?
- il faut pouvoir émettre, pour chaque note des CC et Channel Messages sur un canal différent sans perdre la cohérence (les contrôles émis sont bien émis pour la bonne note).
- sans processeur MIDI, avec une OT par exemple, on peut imaginer une piste par note, mais au final on n'est plus très loin de la bête multitimbralité déjà connue et implémentée dans nombre synthés.
- avec processeur MIDI, on pourrait imaginer une solution naive qui prendrait un subset de CC et/ou Channel Messages, disons 8:
NOTE 0, CHNL 0: CC 0, ..., CC7
NOTE 1, CHNL 1: CC 8, ..., CC15
etc...
Charge au processeur de mapper ces CC vers des messages prédéfinis:
CC [0, 8, 16, 32, ...]: AT
CC [1, 9, 17, 33, ...]: PB
etc...
Mais ça ne marchera pas.
Ça serait un enfer au niveau manipulations.
Grosse contradiction, vu que le MPE est conçu pour ajouter de l'expressivité et là on rend quasi impossible le jeu en temps réel. À jeter.
- Comment séquencer ça de manière simple et intuitive?
- Dans un PC, on pourrait écrire un séquenceur MPE, dans ce cas pas besoin de mapping bizarre, mais on perdrait la capacité d'en jouer en temps réel, donc au final c'est pas si avantageux.
Mon intuition me dit que le MPE n'est vraiment utile que si on a un controleur physique dédié (et ça coûte un bras! bras qui nous manquera certainement quand on voudra faire un truc expressif!).
Le MPE sans contrôleur se réduirait vite à un synthé multitimbral avec le même patch sur tous les canaux et un petit algorithme de note stealing, donc pas besoin de MPE pour le faire. Même pas besoin de multitimbralité, un synthé polyphonique le fait déjà et on économise le (peu de) travail consistant à faire le note stealing. -
willowhisper56Drogué·e à l’AFéinePosté le 09/04/2018 à 22:58:42Citation :
sans processeur MIDI, avec une OT par exemple, on peut imaginer une piste par note, mais au final on n'est plus très loin de la bête multitimbralité déjà connue et implémentée dans nombre synthés.
Rien que ça c'est super !
Je me posais la question aussi dans l'avion.
Merci pour ce partage de réflexions MPEsques. J'attends d'avoir le MM et je teste d'abord avec l'OT !