Skip to content. | Skip to navigation

Emergences

Lettre d'information n° 13

Image emergences pour impression
Personal tools
You are here: Home 2010 Lettre d'information n° 13 Musique en 3D
Document Actions

Musique en 3D

Mieux séparer les différents sons au sein d'un enregistrement pour les remixer à volonté et les rediffuser en 3D : c'est l'objectif de i3DMusic, une collaboration franco-suisse où se retrouvent deux PME et deux centres de recherche. Des algorithmes plus performants pourraient donner naissance à de nouvelles applications pour les professionnels de la musique, comme l'explique Emmanuel Vincent, responsable de ces recherches au centre Inria Rennes - Bretagne Atlantique.

 Mieux séparer les différents sons au sein d'un enregistrement pour les remixer à volonté et les rediffuser en 3D : c'est l'objectif de i3DMusic, une collaboration franco-suisse où se retrouvent deux PME et deux centres de recherche. Des algorithmes plus performants pourraient donner naissance à de nouvelles applications pour les professionnels de la musique, comme l'explique Emmanuel Vincent, responsable de ces recherches au centre Inria Rennes - Bretagne Atlantique. 

 Les fans d'Edith Piaf n'en sont pas encore revenus. Le film La Môme restitue la voix de la chanteuse avec une proximité jusqu'alors inconnue. Magie du cinéma ? Pas seulement. Un précieux coup de pouce algorithmique vient revisiter les enregistrements mono d'époque pour séparer le chant du fond instrumental, puis créer un nouveau mix au format 5.1(1). Ce travail d'extraction informatique a été réalisé par Audionamix. La PME parisienne fournit des services audio pour le milieu du spectacle. Les amateurs de football lui doivent aussi le célèbre Vuvuzela Remover, un logiciel capable de mettre en sourdine les tonitruantes trompettes des supporters Sud-Africains sans pour autant perdre le reste de l'ambiance ou le commentaire du match.

Du mixage à la spatialisation interactive, ce genre de prouesses ouvre de nouvelles perspectives aux ingénieurs du son et aux artistes. Mais la technologie bute sur un point dur : le direct. "Pour effectuer un rendu 3D de qualité et positionner les sons à volonté, il faut pouvoir  disposer de sources sonores parfaitement séparées. C'est rarement le cas en pratique: même lorsqu'il s'agit de musique électronique ou enregistrée en studio, les pistes d'origine ne sont généralement pas disponibles, constate le chercheur Emmanuel Vincent. Dans une situation de concert par exemple, les micros enregistrent immanquablement du son où se mélangent plusieurs sources, plusieurs instruments. Impossible pour l'instant d'effectuer la séparation de ces signaux à la volée. Le résultat présente des imperfections qui accrochent l'oreille." Ces couacs rédhibitoires s'appellent des artefacts.

Un projet Eurostars

 C'est précisément pour tenter de lever ce verrou que Metiss *, une équipe rennaise de l'Inria débute un partenariat avec Audionamix, mais aussi le Laboratoire d'électromagnétisme et d'acoustique de l'Ecole polytechnique fédérale de Lausanne et Sonic Emotion, un fabricant suisse de haut-parleurs et DSP (2) pour le rendu sonore 3D. Baptisée i3DMusic, cette collaboration pour 3 ans s'organise dans le cadre d'un projet Eurêka, et plus précisément de son volet Eurostars qui s'adresse aux PME. "L'objectif est de produire des algorithmes pour permettre une meilleure séparation en temps-réel d'un enregistrement, mais aussi pour optimiser la spatialisation", c'est à dire le filtrage vers les haut-parleurs.

"Les algorithmes temps-réel utilisés pour l'instant demeurent assez simplistes. Ceux que nous allons concevoir se révéleront sans nul doute plus performants. Cependant, nous ignorons s'ils parviendront au niveau unique de qualité exigé."  Car le direct introduit une contrainte supplémentaire. Il nécessite un compromis entre le temps de calcul et la limite acceptable de perte de qualité. Toute la question est de savoir si les artefacts sauront se faire imperceptibles à l'oreille. "Nous attachons donc une grande importance à la phase d'évaluation de ces travaux qui sera menée par les spécialistes en psychoacoustique de l'EPFL. Si la contrainte de temps-réel s'avère trop forte, nous nous tournerons vers d'autres scénarios applicatifs où la qualité sera au rendez-vous grâce à une séparation préalable en temps différé, tout en gardant la possibilité de spatialiser en temps réel les sources ainsi séparées."



Notes :
(1) Un format audio à 5 voies destiné à reproduire six canaux sonores. Le chiffre 5 correspond à cinq enceintes principales. Le 1 correspond à un haut-parleur supplémentaire (subwoofer) pour des basses fréquences.
(2) Digital Signal Processor : un microprocesseur optimisé pour le traitement du signal numérique (filtrage, extraction...).

* Metiss est une équipe-projet de l'Inria commune avec le CNRS.