Musique en réseau - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

Conditions techniques d'un concert de musique en réseau

Telles qu'elles sont listées dans l'ouvrage de Xiaoyuan Gu, les facteurs techniques liés à la réussite d'un concert en réseau sont la sollicitation de la bande passante de la connexion, la sensibilité de la latence et l'optimisation de la synchronisation requise pour une transmission en streaming audio. Ces différents facteurs sont décrits avec plus de détail ci-dessous.

Les commentaires actuels proposent d’accentuer la perfectibilité technique, c’est-à-dire que l’influence des appareils sur le rendu doit être supprimée au maximum avant de pouvoir parler véritablement de l’exécution et de la réalisation d’une œuvre musicale.

Bande passante

Le streaming audio de haute définition (de très haut débit et de type « full audio ») utilisé pour rendre les concerts en réseau aussi « réaliste » que possible, requiert une bande passante très optimisée et large et donc une technologie très avancée qui dépasse la configuration standard de connexion.

Toutefois, et selon l'objectif fixé, il est tout-à-fait possible de monter des configurations assez sophistiquées (multipoints) de concerts en réseau sur des connexions de type ADSL, en sachant que les taux de compression audio et les temps de latences seront dans un registre correspondant à la qualité de la bande passante. Dans ce cas, plusieurs paramètres peuvent venir perturber la réception et l'émission des streams, et causer, d'une part, la nécessité de prendre une compression basse ou standard, et, d'autre part, des pertes de données (drops, clicks). Ces effets peuvent être pris en compte en tant que matériau sonore (généré par le système) par les musiciens.

Temps de latence

Un des plus grands problèmes de la musique en réseau est que le temps de latence fait partie intégrante du son car il est généré par le système local du musicien et envoyé au travers du système en réseau. Pour que l'interaction musicale dans un concert en réseau soit perçue comme « naturelle », le temps de latence doit être inférieur à 30 millisecondes, en dessous du seuil de la perception humaine. Si il a trop de délai (retard) dans le système en réseau, cela rend difficile la jouabilité collective si les musiciens veulent adjuster leur jeu et se coordonner en fonction des sons qu'ils entendent (reçoivent) et qui sont joués par les autres instrumentistes et musiciens. Toutefois, la tolérance à cette difficulté liée au temps de la latence est fixée par le caractère, la nature et la structure de l'œuvre jouée, les musiciens, et les types d'instruments ou systèmes utilisés. Des éléments de synchronisation autres que l'écoute directe (ou plus justement, médiatisée) peuvent être utilisés dans un concert en réseau, afin de rendre possible un jeu musical réactif et interactif dans le cadre de temps longs de latence.

Synchronisation des streams audio

Les points d'émission et de réception d'un système en réseau multipoints doivent synchroniser les streams audio afin de garantir une présentation homogène et intègrale de la musique selon le degré de perfection choisi. C'est l'enjeu actuel de la musique en réseau.

Un point de vue intéressant est de considérer les imperfections de la synchronisation musicale en réseau, à titre d'exemple, comme faisant partie des qualités et des propriétés du dispositif en réseau, qu’il faut exploiter. Par exemple, la latence et le retard (delay) sont perçus dans les systèmes de streaming (de ruissellement selon l’adaptation franco-québécoise), quel que soit le débit technique de transfert autorisé par la structure de communication, comme des défauts qu’il resterait à améliorer pour obtenir une synchronisation quasi-parfaite (à l’égal d’une synchronisation d’événements dans un même espace).

Ces défauts peuvent réintroduire des effets de « distance », et ainsi induire une acoustique artificielle et fluctuante liée aux variations de transferts de données sur le réseau ; cette « presqu’acoustique » s’additionne à l’acoustique de l’espace d’émission/captation et à celle de l’espace de diffusion où le son transmis est réinjecté. Les effets de latence influant sur cette acoustique « artificielle » créent, d’une part, des décalages temporels (delays), et, d’autre part, des erreurs de transferts — et qui peuvent sembler être des parasites dans le son transmis — . Á titre d'exemple, sur un système de streaming standard en Icecast, les variations de latence peuvent aller de 10 secondes à 30 secondes. Ces erreurs sont principalement causées par des pertes de paquets lors du parcours des données, par des désynchronisations lors des procédures de compression et de décompression, et par d’autres artéfacts aléatoires liés à la communication, le tout influant sur la reconstitution intégrale du signal envoyé.

Ces défauts présenteraient tout de même une propriété, celle de faire apparaître une matérialité (i.e. du grain, de « l’immatériau ») liée à la technique des flux en streaming, qui peut être acceptée en tant que matériau sonore. En l’état actuel, ces effets ou artéfacts de matérialité ne sont ni contrôlables ni jouables en tant que tels (à part dans le cas d’un bouclage du système en feedback et en modifiant volontairement des paramètres et des fonctions des organes contrôlant les transferts et l’encodage/décodage) ; par contre, ils peuvent être interprétables dans le jeu musical. Cette propriété de granularité acoustique résultante produite par le système télématique peut prendre une importance dans la perception de la traversée d’un troisième environnement, jusqu’à présent, peu tangible, entre l’espace destinateur et l’espace destinataire.

Page générée en 0.105 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales
Version anglaise | Version allemande | Version espagnole | Version portugaise