fred voisin

(smart (music (engines)))

Accueil > Création > Amplification / Synaptique

Amplification / Synaptique

Jean-Luc Hervé & Frédéric Voisin

mardi 18 novembre 2008

Ouverture du flux de Amplification / Synaptique au Festival des Musiques Inventives d’Annecy, le 18 novembre 2008, au « Brise Glace » (Annecy)


HTML - 6 ko
Flux amplification/synaptique
Page principale du flux de Amplification / Synaptique

Avec cette installation musicale, nous expérimentons, Jean-Luc Hervé et moi-même, l’idée d’une écologie informatique, ramification cybernétique, en réalisant un système musical interactif (quasi-)autonome, capable d’évolution et d’apprentissage, imitant en quelque sorte des organismes vivants, tels ceux de la faune plus ou moins sauvage rencontrée lors du Laché des sons, dans le Massif du Diois.
Dans l’installation Amplification / Synaptique, l’idée d’interactivité s’effectue sur plusieurs niveaux.
Du point de vue temporel, l’installation a été prévue pour fonctionner sur internet de manière continue pendant au moins un cycle des saisons (un an).
L’évolution de ce système, et son activité musicale, s’appréciera donc sur cet ordre de grandeurs temporelles, au fil des saisons, à l’instar de l’observation ornithologique par exemple, les chants des oiseaux, et leur apprentissage, étant le plus souvent installés sur une telle période...
L’observation dépend des outils d’écoute utilisés et du nombre d’observateurs, lesquels peuvent « malencontreusement » déclencher l’interruption temporaire de l’observation : bien que permanente, l’émission des sons peut être fugitive et plus ou moins prévisible...

Le flux audio Amplification/Synaptique est généré en temps réel sur internet par un réseaux de plusieurs centaines de neurones formels qui « apprennent », par auto-adaptation de leurs connexions synaptiques, la partition originale de Jean-Luc, les gestes musicaux constitutifs qui la composent et les règles implicites qui s’y expriment.

Les gestes, les structures harmoniques et rythmiques sont appris par un réseau en forme de carte auto-organisatrice (SOM), tandis que la structure temporelle de la pièce est apprise et réalisée par un perceptron multi-couches récurrent (MLP récurrents).

L’apprentissage et la production sonore se font conjointement : le flux sur internet donne à entendre les activations du réseau de neurones tandis que celui-ci évolue en apprennant la partition originale, continument et relativement aux cycles écologiques du lieu du Laché des sons, dans le Massif du Diois.

La synthèse sonore est effectuée en temps-réel exclusivement au moyen de trois synthétiseurs par modulation de fréquence ad-hoc, réalisés dans le programme Puredata.
La logique générale et les réseaux de neurones est exécutée dans le même temps, en langage LISP (SBCL).
L’ensemble du système (IA, synthèse sonore, diffusion, interface web), expérimental et aux ressources matérielles volontairement restreintes, est susceptible d’évoluer. Il met actuellement en oeuvre deux PC recyclés, GNU Linux, de type « Pentium 3 », 256 Mo de mémoire, avec internet pour seule interface.

Documentation et code source sont mis à disposition, leurs mises à jour effectuées au cours de l’évolution de l’installation (cf. liens ci-dessous).

Frédéric Voisin
Annecy, novembre 2008


Festival MIA 2008 :

- site du Festival MIA
- programme du Festival

- Entretiens avec Gérome Delormas, revue de LUX n°2 :

Binary Data - 2.2 Mo
Entretiens avec Frédéric Voisin et Jean-Luc Hervé
(pdf)

En savoir plus

- A propos de « Réseaux de neurones artificiels et création musicale électro-acoustique »