Christophe Lengelé

étudiant-e - Postdoc

Université de Montréal

Composition électroacoustique, Faculté de musique
https://github.com/Xon77/Live4Life
Christophe Lengelé est titulaire d’un doctorat en composition et création sonore de l’Université de Montréal. Il développe depuis 2011 un outil de création sonore et de mise en espace sonore. Outil libre qui vise à faciliter l’improvisation de musiques électroniques sur de multiples haut-parleurs. Sa recherche spatiale, qui questionne les manières d’associer les paramètres rythmiques et spatiaux, se base sur le concept d’oeuvres ouvertes, autant du point de vue de la forme que dans la diffusion du code en source libre (https://github.com/Xon77/Live4Life).

Il réalise actuellement un stage postdoctoral à l’École des arts visuels et médiatiques de l'UQÀM, de septembre 2022 jusqu’en août 2024 sous la supervision de Philippe-Aubert Gauthier. Ce stage est rendu possible grâce à un financement FRQSC pour post-doctorant.

Durant ce stage, il réalisera un projet de recherche-création en improvisation spatiale (sonore et multi-sensorielle) autour de trois axes :

1. La réalisation d’installations performatives autour du thème de la solitude: Le public pourra expérimenter en temps réel le contrôle des paramètres de multiples objets sonores dans l’espace via plusieurs interfaces physiques et tactiles. L’outil de performance sonore sera ainsi évalué auprès du public, aussi bien du point de vue perceptif qu’en termes de contrôle et d’ergonomie.

2. La mise en place d’ateliers de formation en immersion et spatialisation sonore: Les participants pourront entre autres s’approprier des outils gratuits pour créer et improviser avec l’espace.

3. La création d’improvisations spatiales dans un contexte multi-sensoriel, combinant et alternant musique, vidéo / lumière et danse:
Des collaborations audiovisuelles (qu'il recherche actuellement) seront mises en place aussi bien avec des développeurs vidéos pour créer le visuel à partir des données sonores générées, qu’avec des danseurs pour finalement évaluer l’impact entre le geste du performer, les corps dansants et l’environnement vidéo. Techniquement, la correspondance de l’objet audiovisuel pourra être développée via des outils en source libre, comme Processing, Open Frameworks, Hydra, ou même via des outils commerciaux comme Touch Designer et Resolume, dans la mesure où le processus de création et le code sont diffusés sur Github et ouverts à tous.