ChatDSP est un ensemble de trois dispositifs Max for Live développé par Dillon Bastan, conçu pour fonctionner directement dans Ableton Live. Il permet de décrire en texte un instrument, un effet audio ou un effet MIDI, et de le générer à la volée pour une utilisation immédiate dans un projet. Le dispositif s’appuie sur des modèles de langage accessibles via les API Anthropic (Claude) et OpenAI (GPT). Le choix du modèle et de son niveau de raisonnement est configurable depuis l’interface. Chaque prompt de génération ou de modification consomme des crédits sur le compte API de l’utilisateur·rice, et le coût varie selon le modèle choisi et la complexité de la requête, mais n’implique aucun abonnement spécifique à ChatDSP.
Fonctionnement et paramètres générés
Chaque dispositif généré peut comporter jusqu’à 48 paramètres, tous assignables et automatisables dans Ableton Live. Le dispositif instrument embarque des paramètres fixes pour le portamento, le nombre de voix, la transposition, l’enveloppe ADSR d’amplitude, le pitch bend et la molette de modulation. Le dispositif effet audio intègre un réglage de mix dry/wet. Des options de réinitialisation et de randomisation des paramètres sont disponibles, ainsi qu’une fonction d’annulation des modifications. Il est également possible d’exporter le code généré pour une utilisation dans d’autres environnements, et les créations peuvent être sauvegardées comme presets pour une réutilisation sans coût supplémentaire en crédits.
Compatibilité et tarif
ChatDSP est disponible au prix de 10 $. Il requiert Ableton Live 10, 11 ou version ultérieure (édition Suite ou Standard) ainsi qu’une licence Max for Live.
Suivez toute l’actualité d’Audiofanzine sur Google Actualités !
-
Aubailly FrederiquePosteur·euse AFfamé·ePosté le 12/03/2026 à 18:07:02Toutes ces IA coutent une blinde à la longue , moi je me suis payé ACE STUDIO perpétuel et je l' ai payé une fois et maintenant je génère à l' infini pour zero centime de plus . Les abonnements on sait ou ça commence mais jamais ou ça fini !! -
BudxPosteur·euse AFfamé·ePosté le 12/03/2026 à 18:26:50Il y a ça aussi: https://github.com/tiianhk/MaxMSP-MCP-Server plus générique.
Perso, je pilote déjà mon setup par IA. Mais j'ai dû trouver un tas de bricolages pour y arriver (comme des cartes SD wifi pour gérer les presets). Il faut que les différents fabriquants se mettent à créer des outils scriptables et commendables. Mais, avec les archaïsmes (MIDI, cartes SD, etc... ) et les niches proprio qui règnent dans le monde de la MAO, c'est pas gagné... -
Thomas La CharretteDrogué·e à l’AFéinePosté le 12/03/2026 à 20:47:44C est a dire que tu pilotes ton studio par IA ? -
BudxPosteur·euse AFfamé·ePosté le 13/03/2026 à 00:51:14Citation de Thomas La Charrette :C est a dire que tu pilotes ton studio par IA ?
Oui, mais il faut développer ses outils soi-même (jusqu'à ce que les fabriquants se bougent). C'est la partie qui coûte un peu plus cher en IA (compter 10-20 € par appareil pour du boulot sérieux, plutôt 10€ si on sait optimiser l'usage entre les différents modèles pour l'archi, le code et la doc). Mais, j'avoue que je dév avec l'IA depuis une année et je sais où taper pour optimiser les coûts à l'usage. C'est essentiel de partir avec un plan et d'en surveiller l'implémentation par l'IA, sinon ça fini en usine à gaz.
Je me suis fait un serveur MCP par appareil (c'est plus clean), y compris un pour le routage MIDI dans Windows et des plugs VST. Ils sont tous contrôlés par un serveur principal depuis lequel je peux adresser n'importe quel paramètre exposé par les serveurs contrôlés. La seule conditions est que les cibles soit contrôlables d'une façon ou d'une autre (CCs, OSC, raccourcis clavier, cartes SD wifi, USB, etc...). L'IA les implémente dans le code à partir des spécifications sans que j'ai aucune idée où ils se trouvent physiqument
A l'usage, une fois implémenté, c'est beaucoup moins cher. Il suffit de lancer le serveur principal dans une des IA les moins chères du marché et de juste lui parler musique, pas de raccourcis ou de navigation dans les menus
La prochaine étape est de demander à l'IA de générer une interface pour tous les paramètres exposés.