fred voisin

(smart (music (engines)))

Amplification / Synaptique

Festival des Musiques Inventives d’Annecy 2008

Après le concert en plein air dans le Diois, ouverture du flux de Amplification / Synaptique au Festival des Musiques Inventives d’Annecy, au « Brise Glace » (Annecy), le 18 novembre 2008.


HTML - 6 ko
Flux amplification/synaptique
Page principale du flux de Amplification / Synaptique

Avec cette installation musicale, nous expérimentons, Jean-Luc Hervé et moi-même, l’idée d’une écologie informatique, ramification cybernétique, en réalisant un système musical interactif (quasi-)autonome, capable d’évolution et d’apprentissage, imitant en quelque sorte des organismes vivants, tels ceux de la faune plus ou moins sauvage rencontrée lors du Laché des sons, dans le Massif du Diois.
Dans l’installation Amplification / Synaptique, l’idée d’interactivité s’effectue sur plusieurs niveaux.
Du point de vue temporel, l’installation a été prévue pour fonctionner sur internet de manière continue pendant au moins un cycle des saisons (un an).
L’évolution de ce système, et son activité musicale, s’appréciera donc sur cet ordre de grandeurs temporelles, au fil des saisons, à l’instar de l’observation ornithologique par exemple, les chants des oiseaux, et leur apprentissage, étant le plus souvent installés sur une telle période...
L’observation dépend des outils d’écoute utilisés et du nombre d’observateurs, lesquels peuvent « malencontreusement » déclencher l’interruption temporaire de l’observation : bien que permanente, l’émission des sons peut être fugitive et plus ou moins prévisible...

Le flux audio Amplification/Synaptique est généré en temps réel sur internet par un réseaux de plusieurs centaines de neurones formels qui « apprennent », par auto-adaptation de leurs connexions synaptiques, la partition originale de Jean-Luc, les gestes musicaux constitutifs qui la composent et les règles implicites qui s’y expriment.

Les gestes, les structures harmoniques et rythmiques sont appris par un réseau en forme de carte auto-organisatrice (SOM), tandis que la structure temporelle de la pièce est apprise et réalisée par un perceptron multi-couches récurrent (MLP récurrents).

L’apprentissage et la production sonore se font conjointement : le flux sur internet donne à entendre les activations du réseau de neurones tandis que celui-ci évolue en apprennant la partition originale, continument et relativement aux cycles écologiques du lieu du Laché des sons, dans le Massif du Diois.

La synthèse sonore est effectuée en temps-réel exclusivement au moyen de trois synthétiseurs par modulation de fréquence ad-hoc, réalisés dans le programme Puredata.
La logique générale et les réseaux de neurones est exécutée dans le même temps, en langage LISP (SBCL).
L’ensemble du système (IA, synthèse sonore, diffusion, interface web), expérimental et aux ressources matérielles volontairement restreintes, est susceptible d’évoluer. Il met actuellement en oeuvre deux PC recyclés, GNU Linux, de type « Pentium 3 », 256 Mo de mémoire, avec internet pour seule interface.

Documentation et code source sont mis à disposition, leurs mises à jour effectuées au cours de l’évolution de l’installation (cf. liens ci-dessous).

Frédéric Voisin
Annecy, novembre 2008


Festival MIA 2008 :


En savoir plus