Mon Premier Lac des Cygnes : Karl Paquette transmet la passion du ballet
Incarnant aussi bien les rôles de princes par sa haute figure et son port altier, que des rôles sombres par […]
Au milieu des années 1820, Henri Berton reprochait à Rossini de faire de la musique trop mécanique. Le travail à la chaîne n’avait pas encore été théorisé par les grands industriels américains, qu’on reprochait déjà au compositeur d’avoir des procédés huilés comme une usine capables de générer un opéra en trois semaines. Deux siècles plus tard, il suffit de mettre un paquet de partitions d’un Bach, d’un Mozart ou d’un Rossini pour générer automatiquement d’autres œuvres dans le style dudit compositeur. Pour enquêter sur ce que l’intelligence artificielle peut générer en musique, David Christoffel a interrogé Philippe Esling (maître de conférences à Sorbonne-Université et chercheur à l’Ircam en intelligence artificielle musicale) et Léopold Crestel (chercheur au Laboratoire Sony CSL).
Philippe Esling : David Cope est précurseur dans le domaine de la génération automatique de musique. La génération musicale consiste généralement à construire un modèle, et à l’aide d’outils mathématiques, à structurer une musique nouvelle à partir de l’observation d’exemples. Cette méthode prévaut actuellement dans l’intelligence artificielle, fondée sur l’apprentissage automatique. David Cope utilise les « chaînes de Markov ». On peut considérer la musique comme une chaîne d’événements, ou une chaîne d’états, chaque état pouvant engendrer l’état suivant. L’hypothèse « markovienne », c’est qu’un état donné n’est déterminé que par l’état précédent. L’ensemble des états par lesquels on est passé n’importe pas : c’est l’état courant qui détermine l’état suivant.
Détails d’un ordinateur © Pixabay
Généralement, on applique d’abord un ensemble d’opérations de prétraitement. Par exemple, tout ramener à la même tonalité. On s’assure que l’on réduit les variations qui seraient difficiles à traiter, en uniformisant l’ensemble de départ. Cela permet à l’ordinateur de cibler des récurrences plus simples.
Aujourd’hui encore, dans l’apprentissage automatique et les réseaux de neurones, le gros problème, et ce qui choque à l’écoute, c’est la construction du discours à grande échelle. Localement, on est assez bluffé, mais il y a une difficulté à construire un discours musical cohérent.
Léopold Crestel : En grande partie pour des raisons pratiques. Pour imiter le style d’un compositeur avec l’apprentissage automatique, il faut disposer d’un grand nombre de partitions modèles. Car cet apprentissage, c’est de l’inférence statistique. Plus vous avez un grand nombre d’exemples, plus vous pouvez modéliser de chemins différents, de solutions possibles.
En travaillant avec le répertoire classique on évite également les problèmes de copyright qui apparaissent dès que l’on aborde du répertoire contemporain.
Bach est souvent utilisé en informatique musicale, pour une raison simple : sa musique repose sur des règles assez strictes. C’est très codifié, et la structure est très logique. Ses chorals, par exemple, avec leur harmonie à quatre voix, sont en un sens assez faciles à modéliser pour un algorithme.
Comme je l’expliquais, on a besoin d’un grand nombre d’exemples pour inférer les règles sur lesquelles doit se baser l’algorithme. Le corpus des réductions pour piano de Liszt des symphonies de Beethoven est large et très cohérent stylistiquement. On peut ainsi faire apprendre la transformation inverse, à savoir l’orchestration d’une partition. Le but est ensuite de donner une partition pour piano à l’algorithme, pour qu’il en génère un arrangement pour orchestre.
Partition © Pixabay
Philippe Esling : Effectivement, cette recherche est un peu l’opération inverse, l’opération d’induction. Le travail de Léopold est de l’orchestration projective : on a une grille harmonique, et l’on essaie de la projeter vers l’orchestre. Moi, j’essaye de faire l’inverse, c’est-à-dire de prendre un son, un timbre, et de le transformer en partition pour orchestre. Le but est d’obtenir une partition pour orchestre qui, si elle est jouée par des humains, produit le même son que le son d’origine.
C’est la grande problématique. Car on peut facilement transcrire un son en une partition, complètement injouable, pour différents instruments. Mais l’idée, c’est que cette partition soit, d’une part acoustiquement proche du son d’origine, d’autre part humainement jouable.
Avec les gouttes de pluie, c’est assez simple. Le système choisit naturellement de les transformer en pizzicati, ce qui est pour nous une forme de victoire, car il aurait pu mettre n’importe quoi de moins bon à la place. Le problème devient vraiment plus intéressant quand on choisit des timbres complexes, comme par exemple des cris ou des cloches, et qu’on demande au système de les reproduire avec des instruments de l’orchestre.
Léopold Crestel : Il y aurait beaucoup d’applications plus ou moins belles. Il y a beaucoup à faire, avec ces algorithmes de génération automatique, dans la musique de jeux vidéo, par exemple. On pourrait avoir des thèmes qui se développent à l’infini, qui se modifieraient sans cesse, en fonction de l’environnement dans lequel le joueur évoluerait. On peut aussi imaginer des applications pour les installations artistiques, avec l’idée d’une génération infinie de musiques. Il y aurait des choses plus mercantiles certainement, pour la musique de film. Cela permettrait peut-être de gagner du temps. Mais surtout, quand j’écoute les résultats de mes algorithmes, je me dis que finalement ça reste du pastiche de compositeurs et que, tel quel, leur intérêt artistique est très limité. En revanche, si des compositeurs s’en emparent, dans un usage plus expérimental, ils arriveront peut-être à en faire des choses inédites et intéressantes. C’est en détournant les technologies de synthèse instrumentale des années 1980-1990 que sont nées toutes sortes de musiques électroniques, comme l’acid, la house, etc.
Toutes les émissions Métaclassique sur Classicagenda
Incarnant aussi bien les rôles de princes par sa haute figure et son port altier, que des rôles sombres par […]
Nous avons rencontré Ewen d’Aviau de Ternay, ingénieur luthier au service des arts et lauréat de la Fondation Banque Populaire. […]
Dans cet épisode de Métaclassique, David Christoffel invite à dialoguer l’historienne de l’hypnose musicale Céline Frigau Manning, qui prépare un […]
Le programme du dernier enregistrement de Judith Jáuregui, construit autour des œuvres de Clara et Robert Schumann, le couple mythique du 19ème […]
L’un des violonistes français les plus appréciés de sa génération fait sa mue, ajoutant la pédagogie à son activité de […]
Relayée chaque mois par Classicagenda à travers des transcriptions d’émissions et diffusée par plusieurs dizaines de radios associatives, Métaclassique poursuit […]
Comment éteindre une note ? Faut-il marquer les fins de phrases ? David Christoffel reçoit deux instrumentistes dans son émission « Métaclassique » […]
Le spectacle du 5 décembre 2020, présenté au Grimaldi Forum par l’Opéra de Monte-Carlo, était mémorable pour trois raisons : un […]
Une plage, la nuit. Les vagues bleu foncé s’écrasent lentement contre les rochers et les falaises. Un regard se jette […]
Vos commentaires