Je continu mon exploration avec l'intelligence artificielle pour créer des voix , toute la musique est composée par moi et tous les instruments sont programmés par moi aussi , il n'y a que la voix qui a été généré par IA .
Comme on m'a posé aussi la question en message privé je répond ici comme çà tout le monde sera au courant , j'ai utilisé SUNO ,tout d'abord j’insère ma compo (l'audio instrumental , donc sans voix ) puis j'écris un prompt le plus précis possible pour avoir le résultat escompté , je mets la tonalité , le tempo , le style de voix ( par exemple voix féminine , couplet calme , refrain agressif , interprétation triste ,etc ...) , j’insère mon texte,je défini la structure correspondante à ma compo ,ensuite je génère des chansons jusqu’à un résultat satisfaisant ( çà peut être jusqu'à 30 chansons ... ) , une fois l'interprétation trouvée j'isole la voix dans SUNO , ensuite je la nettoie avec IZOTOPE RX 11( j'enléve la reverb , le delay , etc ... ), puis je mets la voix dans CUBASE là où j'ai ma compo , je contrôle que le tempo est le bon , si la structure proposée ne correspond pas je découpe la voix pour l'adapter à la mienne , je modifie les notes qui ne me vont pas avec le VARIAUDIO de CUBASE , je traite la voix selon mes souhaits ( EQ , distortion , reverb, delay ,etc ...) et une fois cela fait je réarrange la partie instrumentale pour qu'il y est le plus de cohérence possible entre la voix et tous les instruments , j'ai passé quelques heures pour avoir le résultat que je voulais ... Ceci dit quand je travaille avec un chanteur pour mes compos je procède quasiment de la même manière , j'essaye aussi d'être le plus précis possible .