locus sonus > Wimicam.frLast changed: 2012/12/03 22:41
|
||
---|---|---|
Difference between revisions from 2012/12/03 16:41 and 2012/12/03 16:37.{html} <DIV style="align:right;"> <SPAN ID=s12 style="color:#FFF; font-style:bold; background-color:red; padding:2px;"> <A HREF="http://locusonus.org/w/?page=Productions+labo" style="color:#FFF;" target="_top">BACK PRODUCTIONS LAB</A> </SPAN> </DIV> <br><br> {/html} !WimiCam (2006-2007) {html} <br><br> <SPAN style="color:#FFF; font-style:bold; background-color:#000; padding:2px;">cette page est en cours de rédaction / This page is under construction / página en construcción </SPAN> {/html} {br}{br} !! (Wireless Parabolic Mike & Cam with Controllers) {br}{br} !! Introduction Parallèlement à la mise en place et le développement du projet des microphones ouverts le laboratoire Locus Sonus démarre un axe d'expérimentation complémentaire basé sur la capture et l'amplification sonore dans un espace relativement restreint, un relevé audio, pour ainsi dire, d'un paramètre limité autour du point d'amplification, position de l'auditeur. L'intention de départ était de rendre le flux audio mobile, en contrepoint au projet "locustream" dans lequel la position de captation est fixée. Inversant le principe de base du micro ouvert par le fait de lier le point de capture à la déambulation d'une personne (performeur), le flux sonore devient un sélection subjective et donc un représentation personnelle de cette espace offert par la personne qui manipule le microphone. L’hypothèse étant qu’en rendant mobile nos espaces personnels, (via l'utilisation de téléphones mobiles, ordinateurs portables, ipods etc.) ce même principe pourrait devenir la base d'un pratique artistique. Prenant comme référence des projets artistiques et musicaux basés sur le "live sampling" (Kaffe Matthews) mais également des performances qui s’appuient sur la narration sonore improvisée en temps réel (Laurie Anderson, Janet Cardiff dans ses "sound walks") Locus Sonus commence ses expérimentations en utilisant des micros et casques sans fils pour se concentrer dans un premier temps sur l'espace imposé par les limites de transmission comme territoire à travailler. Cette partie de la recherche ouvre naturellement sur des actions artistiques de type performance ou concert, importantes pour un équilibre des formes d’expérimentations dont l'autre versant amène (voir doc 1.....) plutôt vers des dispositifs d'installation, de visite ou d’écoute. Pour les premières expériences qui ont eu lieu a l’ ESAA en mars 2006, nous nous sommes servis d’un micro émetteur en le déplaçant d'un endroit à un autre à l'intérieur de l'enceinte de l'école et en le laissant à chaque fois dans une position fixe . Nous mixions les sons en provenance du microphone distant avec ceux produits (avec objets et des instruments) dans l’espace de diffusion et à la fois avec les sons des streams (Locustream). Nous remarquons que, comme avec les streams lointains (micros ouverts), le contenu audio avait tendance à être assez pauvre ou en tout cas imprévisible quant à la fréquence et à la nature des sons. Il était donc difficile de savoir si nous allions obtenir un matériel sonore exploitable pour la performance au moment voulu. {br}{br} !! Expérience de narration: (image) A l’occasion d’une des sessions de travail à l’ESAA nous avons tenté un protocole qui consistait à tracer le territoire défini par les limites de transmission du microphone, décrivant oralement la scène visuelle. La performeuse (Esther Salmona) sortait de l'espace de l’espace de diffusion et elle déambulait dans les espaces alentours. Hors de vue, sa participation dans l'improvisation en cours se manifestait par une présence vocale amplifiée qui décrivait l'environnement qu’elle parcourait. Ce principe fut aussi utilisé à l’occasion d'un présentation publique des travaux de Locus Sonus en cours (work in progress) à la Villa Arson en Avril 2006. Malgré le grand intérêt de ce principe nous l'avions, dans un premier temps, mis de coté pour laisser place à d'autres expérimentations* que nous allons décrire ci-dessous. $ {small}(Note de bas de page) *Esther Salmona a continué cette piste plus tard dans le laboratoire avec son projet de projet de lecture de stream.{/small} {br}{br} !! Échantillonnage Durant la même session Lydwine Van der Hulst (musicienne) avait utilisé le microphone mobile pour "sonder" un environnement déterminé (par la zone de transmission) en cherchant des phénomènes acoustiques et en jouant avec des objets pour produire des sons pendant que d'autres membres du groupe organisaient (orchestraient) ces sons avec des techniques d'audio numérique (pure data). C'est principalement cet axe d'expérimentation qui à été développé par la suite. {br}{br} !! Parabole Rotative (image) Locus Sonus utilise des paraboles pour augmenter la directionnalité et la sensibilité des microphones électret en les adaptant au projet des microphones ouverts "Locustream". En nous intéressant aux possibilités spatiales et aux pouvoirs de focalisation des paraboles nous avons développé une machine-prototype combinant une parabole rotative avec une spatialisation numérique sur huit haut-parleurs. Les auditeurs sont invités à se placer au centre du cercle de haut-parleurs pour entendre un panoramique parfait sur 360° synchronisé avec les mouvements mécaniques de la parabole. Le cercle de haut-parleurs est positionné dans l'espace de façon à permettre à l'auditeur de percevoir le microphone, situé en extérieur, à travers la fenêtre. Le microphone tourne sur un socle à un trentaine de mètres de là. En dehors de l'intérêt provoqué par le phénomène de perception : le mouvement distant du microphone permetant l'expérience de l'audition de sa captation depuis un espace éloigné. Il présente aussi un intérêt au niveau du phénomène acoustique (balayage/filtrage) lié au mouvement (rotation de la parabole). Cette expérience de spatialisation "artificielle" combinée avec la prise de son "naturelle" a ouvert un chemin vers l'exploration d'espaces "hybrides" et vers le développement de formes qui apparaissent par la suite où la distinction entre captation et création d'espaces sonores s’efface ( voir projet concert sympathique mondiale - LS / SL etc.) {br}{br} {html} <p> <a href="http://locusonus.org/documentation/img/PROJETSLAB/wimicam/2006_microparabolique.png" rel="lightbox-wimicam" title="Wimicam Cap15 2006"><img src="http://locusonus.org/documentation/img/PROJETSLAB/wimicam/2006_microparabolique.jpg" alt="" /></a> <a href="http://locusonus.org/documentation/img/PROJETSLAB/wimicam/2006_microparaboliquesspatialisation.png" rel="lightbox-wimicam" title="Wimicam Cap15 2006"><img src="http://locusonus.org/documentation/img/PROJETSLAB/wimicam/2006_microparaboliquesspatialisation.jpg" alt="" /></a> </p> {/html} ''Click to enlarge'' {br}{br} {br}{br} !! Wimicam 1 - Performance en duplex Une des conséquences de ces différentes expérimentations a été la construction d'un premier microphone parabolique et d’une caméra sans fil (Wimicam) en juillet 2006. (Image) Une webcam wifi (un micro-serveur de stream vidéo) à été ajoutée à la parabole, le champs visuel de la webcam couvre, à quelque chose près, le champ du microphone directionnel, l'image de la camera est accessible via le web. Cette première version de la Wimicam à été fabriquée en deux exemplaires afin d'expérimenter des performances et des concerts en duplex basés sur la rencontre de deux espaces distants. L'interprétation de chaque espace est assurée par une équipe de deux personnes, la première personne manipule la Wimicam et la deuxième traite et transforme le matériel audio pour l'envoyer à distance en stream vers l'autre équipe. Un retour est organisé pour que les membres des deux équipes (par casque sans fil pour les preneurs de son) non seulement entendent la composition qui se déroule localement mais également celle de l'espace distant. Ce dispositif permet une véritable mise en correspondance entre deux espaces acoustiques et de musiciens distants les uns des autres. {br} {small}(Note de bas de page) '''Parabolic Wimicam Duo / Peter Sinclair et Jérôme Joy''' (Oct 2007 - GMEM - Locus Sonus Roadshow){br} Développées à partir d'expérimentations sur la captation mobile et sur le traitement acoustique en direct d'un micro ouvert (voir le projet Locustream), les Wimicams sont des micros équipés d'une parabole permettant de cibler des sélections sonores dans un environnement capté. Ces micros "sans fil" permettent de réaliser des performances sonores en duplex, ils transmettent, à l'aide des techniques de streaming, des éléments captés dans différents lieux.{br} Deux Wimicams sont utilisées, l'une capte des sons, et la seconde, réalisée dernièrement en collaboration avec le STEIM à Amsterdam, est équipée de "controllers" accessibles sur la poignée du microphone qui pilotent directement les fonctions et les paramètres de traitement sonore (PureData).{br} Des webcams sont fixées sur les paraboles et dirigées vers les sons captés. Il s'agit d'images sans intention visuelle, témoins du direct et de la distance, projetées simultanément avec les sons dans l'espace d'écoute. Les "capteurs" de sons performent en échantillonnant, filtrant, traitant et "depitchant" les sons depuis leur point de captation. Le public assiste à un duo qui se joue sur deux espaces, l'un en proximité et l'autre éloigné. Malgré la distance, les joueurs s'entendent et improvisent ensemble et réagissent en retour sur leur propre "prise de son".{br} Une performance de promeneurs/marcheurs dans des paysages sonores.{/small} {br}{br} (diagram) {html} <TABLE BORDER="0"> <TR> <TD width="80"></TD> <TD bgcolor="lightgreen"> <SPAN ID=s14> « Je m'empare de la « Wimicam » pour découvrir l'environnement sonore qui m'entoure, et en révéler le pouvoir musical. Des gestes se précisent (le mouvement rapide de la parabole dans l'air, le déplacement plus ou moins rapide dans l'espace ) et font naître des petites narrations. »<BR> Une performance avec cette interface de jeu est présentée en duplex lors du « Road show » à New York. Une partie de l’équipe joue depuis le Roebling Bridge (Pensylvanie), l'autre dans une galerie d'art à "Triangle Below Canal Street" (NYC).<BR><BR> « Je ballade la « Wimicam »dans le quartier, je « pioche », saisis les ambiances et Peter Sinclair les retraite en direct, dans la galerie. La rue devient une véritable source d'orchestration sonore, en temps réel. Je mêle spontanément des voix, des bruits de pas, des sons de voitures, d'oiseaux, d'avion; je saisis l'énergie bouillonnante du quartier pour la retransmettre dans les différents lieux connectés à mon flux.<BR> Celui-ci est teinté par le traitement de Peter Sinclair et se superpose au stream provenant du second lieu de performance, jusqu'à se fondre parfois dans un amalgame sonore, laissant surgir un espace autre, non réel. »<BR><BR> (Extrait du mémoire de Lydwine Van Der Hulst) </SPAN> </TD></TR></TABLE> <BR><BR> <p> <a href="http://locusonus.org/documentation/img/PROJETSLAB/wimicam/lydw_parabole26.JPG" rel="lightbox-wimicam" title="Wimicam Villa Arson Nice 2006"><img src="http://locusonus.org/documentation/img/PROJETSLAB/wimicam/lydw_parabole26s.jpg" alt="" /></a> <a href="http://locusonus.org/documentation/img/PROJETSLAB/wimicam/parabole2.jpg" rel="lightbox-wimicam" title="Wimicam Villa Arson Nice 2006"><img src="http://locusonus.org/documentation/img/PROJETSLAB/wimicam/parabole2.jpg" alt="" /></a> </p> {/html} ''Click to enlarge'' {br}{br} A l’occasion de la seconde performance (en avril 2006) nous n’utilisons qu’une seule Wimicam afin de mieux travailler les aspects locaux de la performance. Le champ autour du lieu de diffusion (l'amphithéâtre de ESAA) est couvert par la preneuse de son/performeuse (Lydwine Van der Hulst) qui quitte la scène pour faire le tour du bâtiment pendant que le deuxième performeur (Peter Sinclair) transforme les sons devant un public dans la salle. L'image de la camera embarquée est projetée derrière lui. (image) (ref à l'enregistrement) {br}{br} {html} <p> <B>Schéma de la performance en réseau à partir de deux wimicam, USA 2007</B><BR><br> <a href="http://locusonus.org/documentation/img/PROJETSLAB/wimicam/imgperfusabig.jpg" rel="lightbox-wimicam" title="Performance Wimicam en reseau NYC <-> Delaware USA 2007"><img src="http://locusonus.org/documentation/img/PROJETSLAB/wimicam/imgperfusabigp.jpg" alt="" /></a> </p> {/html} ''Click to enlarge'' {br}{br} {br}{br} !! Wimicam 2 Malgré ses grandes possibilités d’expression la première Wimicam présente encore des désavantages notamment dans le fait que la personne qui tient l'appareil portable à la main ne peut pas intervenir dans le choix ou le traitement des objets sonores capturés et que de la même façon la personne au traitement audio ne peut pas guider ou encourager la personne qui tient le microphone. Habituellement dans une situation d'improvisation musicale ou sonore les deux collaborateurs dépendent l'un sur l'autre et ont tendance à utiliser des signes visuels pour correspondre. Plusieurs solutions à ce problème de communication sont envisagés : par exemple la séparation par canaux dans le casque sans fil afin de permettre la transmission de la voix (pour la communication) sur un canal et le "mix/performance" sur un autre canal. La solution finalement adoptée à été de modifier la Wimicam pour permettre de manipuler le programme de traitement audio à distance en l'équipant de capteurs et de contrôleurs et d'un émetteur sans fil pour transmettre directement les données à un ordinateur. Ce problème a été soumis au groupe de recherche musicale STEIM* (Amsterdam, NL), spécialisé depuis une trentaine d’années dans la conception et la construction d'interfaces pour le contrôle de l'audio. En Janvier 2006, une résidence Locus Sonus au Steim a permis la réalisation spécifique de l'interface en collaboration avec Jorgen Brinkman (hardware) et Frank Baldé (software). L'interface développée utilise une carte de contrôle sans fil de STEIM d’une portée de 50 à 100 mètre (fournies par le Steim). Deux accéléromètres permettent à l'utilisateur de contrôler les paramètres d'un programme à partir des mouvements de l'objet lui-même, auxquels s’ajoutent de deux contrôleurs rotatifs et 4 boutons poussoirs. Ce prototype utilise une alimentation sur batterie (pour l’occasion celle d'une perceuse sans fil) ce qui permet d’avoir une autonomie plus ample pour la Wimicam et la camera. Avec cette nouvelle Wimicam Locus Sonus a expérimenté différentes combinaisons de logiciels afin d’exploiter au mieux ce nouveau prototype : le programme "Junxion" du STEIM pour formater les données de contrôle, Lisa, PD et MaxMSP pour le traitement audionumérique. Les processus de traitement ont été progressivement simplifiés, éliminant la plupart des "effets" transformation sonore pour n’utiliser que l'échantillonnage (sampling) comme principe de choix personnalisé. Dans sa version la plus récente le programme fonctionne avec un enregistrement automatique d'échantillons (par la détection d'attaques) et joue chaque "objet sonore" en boucle dans une mémoire tampon jusqu'à ce qu’il soit remplacé par l'événement sonore suivant ou choisi par l'utilisateur et ainsi stocké sous la forme d’un fichier pour être rappelé par le programme. Ainsi un nouvel environnement sonore est construit à partir des sons que le performeur a sélectionnés et sauvés. {br}{br} {html} <p> <a href="http://nujus.net/~locusonus/documentation/img/PROJETSLAB/wimicam/wimicam_steim_1.jpg" rel="lightbox-wimicam" title="Wimicam Steim"><img src="http://nujus.net/~locusonus/documentation/img/PROJETSLAB/wimicam/wimicam_steim_1s.jpg" alt="" /></a> <a href="http://nujus.net/~locusonus/documentation/img/PROJETSLAB/wimicam/wimicam_steim_2.jpg" rel="lightbox-wimicam" title="Wimicam Steim"><img src="http://nujus.net/~locusonus/documentation/img/PROJETSLAB/wimicam/wimicam_steim_2s.jpg" alt="" /></a> <a href="http://nujus.net/~locusonus/documentation/img/PROJETSLAB/wimicam/wimicam_steim_3.jpg" rel="lightbox-wimicam" title="Wimicam Steim"><img src="http://nujus.net/~locusonus/documentation/img/PROJETSLAB/wimicam/wimicam_steim_3s.jpg" alt="" /></a> </p> {/html} ''Click to enlarge'' {br}{br} !! Spatialisation Un autre développement important concerne la spatialisation d’environnements sonores utilisant un système de diffusion multi-haut-parleurs et des objets développés pour PD (Pure Data) développés par le GMEM (Charles Bascou) en collaboration avec Locus Sonus. Au moment de l'enregistrement de chaque échantillon l'utilisateur de la Wimicam peut utiliser les coordonnées x et y fournies par les accéléromètres incorporés à la poignée pour positionner l'échantillon dans l’espace de diffusion. Lorsque le fichier est sauvé il est annoté avec ses coordonnées et lorsqu’il est rejoué il est placé à l'endroit qu'elles indiquent. Ce processus de spatialisation permet également la mise en place de protocoles qui utilisent des corrélations géographiques entre l'environnement "naturel", d'où les échantillons proviennent, et l'environnement "électroacoustique" défini par le programme et le dispositif de diffusion. Les sons peuvent être re-placés en fonction de leurs coordonnées spatiales ou bien en fonction de l'ordre chronologique dans lequel ils ont été « cueillis » et ainsi de suite. Nous avons également fait d’autres essais pour définir un protocole qui prend en compte la provenance de différentes sources, notamment de deux Wimicams éloignées géographiquement (cf Jérôme Joy et Peter Sinclair entre le GMEM et Cap15 - Locusonus Roadshow, sept 2007). La performance démarre avec les environnements sonores diffusés aux pôles opposés de l'espace electroaccoustique qui se rapprochent progressivement l'un de l'autre pendant la performance pour finir sur une rencontre des deux environnements et "compositions" proposés par les deux personnes distantes. {br}{br} !! Wimicam3 : Un nouveau développement (décembre 2007) incorpore l'échantillonnage et la spatialisation d’images synchronisés avec le son. Ainsi plutôt que de présenter le simple "point de vue" du microphone, il est maintenant possible d'enregistrer une image vidéo (prise directe de la webcam) et de la positionner à l'intérieur de la projection dans une petite fenêtre avec les contrôleurs x et y de la Wimicam (Scott Fitzgerald). Cette visualisation de la spatialisation facilite la compréhension pour le public du processus. (image) {br}{br} !! Les limites et les inconvénients du dispositif actuel : La mise en place du dispositif de performance prend un temps considérable à cause de la complexité de l'ensemble. Ceci est du principalement à l'accumulation des diffèrent éléments pensés et développés les uns après les autres avec les autres plutôt que dans leur ensemble. En conséquence, il est difficile d’une part de travailler de façon régulière ou d’adapter le dispositifs sur différent sites part et donc maîtrise que nécessite un travail musicale avec n'importe quel appareil ou instrument n'a pu être développé.. Par ailleurs si nous voulions proposer actuellement l’utilisation de la Wimicam à des personnes non initiées cela ne serait pas possible car l'appareil est trop compliqué en tant qu’instrument et trop coûteux pour être reproduit en grand nombre. Jusqu’à présent les présentations ont plutôt été considérées comme des "démos" plutôt que comme des concerts ou des oeuvres. L’ extrême difficulté à capturer du son dans le même espace où se trouve le système d'amplification (à cause de l'effet Larsen) fait que le performeur est rarement présent à l'intérieur de l'espace de diffusion. Bien que cette présence/absence fait partie intégrante de la problématique artistique, il est nécessaire de réfléchir davantage à la perception de l'oeuvre du point de vue du public. Il est possible qu’ une autre forme que la performance scénique soit mieux adaptée au projet (par exemple avec une présence en ligne). L'aspect de l'objet, son esthétique (appelée en plaisantant "Arme fatale" ) rend son utilisation difficile dans des espaces publics. Pris dans son ensemble (casque, microphone parabolique, caméra) l'équipement requis pour jouer crée une image rappelant l'espionnage ou la surveillance et a tendance à générer des réactions négatives, ceci d'autant plus délicat lorsqu’il s'agit d'espaces publics. Les commentaires indiquent que le public à parfois une perception peu réaliste de la portée du microphone, le croyant capable de capter des sons distants au travers des murs etc. {br}{br} !! Conclusion Ces différents systèmes semblent offrir un riche champ d'exploration, notamment en termes de création artistique. Les points suivants nous intéressent plus particulièrement : - La référence aux appareils portables d'usage courant (tels que téléphones mobiles) et à l'ubiquité sonore qu'ils impliquent combinés avec le concept d'expression musical ou sonore, « l'instrumentalisation » des technologies ou peut-être devrait-on dire la "lutherisation". Les particularités de cette "lutherisation" résident dans fait de pouvoir manipuler en temps réels le son pris par le microphone et dans l’utilisation d’une qualité et précision du son transmis, nettement supérieures au standards d'un téléphone mobile par exemple. - La performance en duplex, la rencontre de deux (ou éventuellement plusieurs) propositions en provenance de personnes et de lieux différents. D'autres artistes ou musiciens travaillent sur la question du concert ou de la performance en ligne, la particularité du projet Wimicam est de combiner ce type de rencontre avec l'instrumentalisation de l'environnement de chaque site. Le rapport qui se créer entre juxtaposition des espaces distants, l'écoute et l'improvisation nous parait particulièrement fructueux (même si difficile à maîtriser sous tous ses aspects). - ( Voir : Pauline Oliveros "Deep Listening" www.deeplistening.org/site/telematic , le Placard, Christophe Charles…) - La composante visuelle accompagne la sélection sonore. Nous inversons délibérément la notion du son accompagnant l'image, (comme au cinéma). Ici l'image est un moyen pour rendre compréhensible les actions du performeur et permettre une plus grand liberté en termes d'expression musicale. L’image accompagne le son. - L'invention de protocoles pour sonder, jouer avec des espaces distants, basée sur les déplacements des performeurs et les espaces architecturaux. Cette piste semble offrir un éventail vaste d’explorations d’expressions artistiques que nous commençons juste à expérimenter. Le développement de la Wimicam amène Locus Sonus à étudier de plus prés différents types d'appareils audio-portables. Nous allons continuer à : - travailler sur la voie de la "lutherie" avec des microphones et émetteurs de bonne qualité - expérimenter des formes faisant moins référence à des technologies de surveillance (voir ci-dessus) - nous intéresser au développement d’une version moins coûteuse pour la production en série d’exemplaires afin d'expérimenter d’autres formes avec des usagers multiples. Nous prévoyons une collaboration avec le Laboratoire des Usages à Sophia Antipolis / ENST (*France Eurocom avec Marc relieu et Christian Licoppe) qui étudient l'utilisation de la téléphonie mobile et d'autres technologies de communication personnelles en réseau. Nous espérons bénéficier des études sur l'utilisation des technologies existantes pour d’une part mieux préciser nos expérimentations artistiques et d’autre part confronter nos propres résultats avec ceux de la recherche en Sociologie (voir aussi collaboration avec le LAMES et le CRESSON). {br}{br} {br}{br} {br}{br} {html} <p> <a href="http://locusonus.org/documentation/img/PROJETSLAB/wimicam/2007_wimicam_bourges.jpg" rel="lightbox-wimicam" title="Wimicam Bourges 2007"><img src="http://locusonus.org/documentation/img/PROJETSLAB/wimicam/2007_wimicam_bourges.jpg" alt="" /></a> </p> {/html} ''Click to enlarge'' {br}{br} {br}{br} ---- ''''__Collaborations__'''': Interfaces physiques de performance : STEIM Amsterdam Spatialisation ; GMEM Marseille, Charles Bascou -
|
||
Lab 2013/2014: Elena Biserna, Stéphane Cousot, Laurent Di Biase, Grégoire Lauvin, Fabrice Métais, Marie Müller, (Julien Clauss, Alejandro Duque), Jérôme Joy, Anne Roquigny, Peter Sinclair. 2008/2014 — Powered by LionWiki 2.2.2 — Thanks to Adam Zivner © images Locus Sonus webmaster & webdesign : Jérôme Joy contact: info (at) locusonus.org 2004-2014 Locus Sonus |
Article:
Admin functions:
Other:
Search:
Language:
Info:
Powered by LionWiki 2.2.2
Tested on FireFox2, FireFox3, Safari2, Safari3