1_guideSon
π Science et technologies π Industrie
Pourquoi la recherche sonore va faire grand bruit

Comment recréer un son virtuellement en 3D

avec Sylvain Ferrand, ingénieur de recherche au Centre de mathématiques appliquées à l'École polytechnique (IP Paris), François Alouges, professeur au Centre de mathématiques appliquées à l'École polytechnique (IP Paris) et Philippe Le Borgne, cofondateur et développeur de ConnectSuit
Le 20 février 2024 |
5 min. de lecture
Sylvain Ferrand
Sylvain Ferrand
ingénieur de recherche au Centre de mathématiques appliquées à l'École polytechnique (IP Paris)
Avatar
François Alouges
professeur au Centre de mathématiques appliquées à l'École polytechnique (IP Paris)
philippe leborgne
Philippe Le Borgne
cofondateur et développeur de ConnectSuit
En bref
  • Le son binaural est une méthode de diffusion sonore qui permet de recréer virtuellement un son en 3D.
  • Le son binaural couplé à un système d’head-tracking peut indiquer la direction à suivre indépendamment de l’orientation de la tête, et ainsi devenir un outil de guidage performant.
  • Cet outil de guidage performant pourra être utilisé dans différents contextes (sportifs ou touristiques) et par tous (personnes malvoyantes, ou non).
  • En plein développement, ce projet pourrait à terme être utilisé par tous en s’intégrant aux applications de navigation et dispositifs d’écoute déjà commercialisés.
  • Basé sur notre morphologie et le fonctionnement naturel du cerveau, le système de son binaural est intuitif et ne demande aucun nouvel apprentissage.

Fer­mez les yeux, lais­sez-vous gui­der par le son, et vous attein­drez votre « point d’arrivée » aus­si sim­ple­ment et pré­ci­sé­ment qu’en sui­vant les indi­ca­tions de votre appli­ca­tion de navi­ga­tion habi­tuelle. C’est la prouesse per­mise par Run­Blind, start-up ini­tiée par deux cher­cheurs de l’École poly­tech­nique (IP Paris).

L’aventure démarre il y a 7 ans, quand Fran­çois Alouges, pro­fes­seur au Centre de mathé­ma­tiques appli­quées (CMAP) de Poly­tech­nique, s’interroge avec son équipe sur les appli­ca­tions du « son binau­ral », Ce der­nier est à l’ouïe ce que les lunettes de vision 3D sont à la vue, c’est-à-dire qu’il per­met de recréer vir­tuel­le­ment un son en 3D.

Syl­vain Fer­rand, ingé­nieur de recherche, avait enten­du par­ler de spor­tifs non-voyants pra­ti­quant le rol­ler ou la course à pied avec un gui­dage sonore. L’athlète s’oriente grâce aux bruits des pas ou des rol­lers de son guide. A l’instar de ces spor­tifs, l’ingénieur et son équipe ima­ginent per­mettre à des per­sonnes mal­voyantes de trou­ver leur che­min en sui­vant un son. C’est ain­si que Syl­vain Fer­rand démarre une thèse sur les « Tech­niques de spa­tia­li­sa­tion binau­rale pour le gui­dage de spor­tifs non-voyants ».

Le son binaural, définition

Signi­fiant « ayant trait aux deux oreilles », le son binau­ral est basé sur une méthode de cap­ta­tion du son adap­tée à la mor­pho­lo­gie de la tête humaine. Lorsque nous regar­dons un objet, chaque œil dis­pose d’un champ de vision qui lui est propre (notre œil droit voit la même image que notre œil gauche, mais déca­lée de quelques cen­ti­mètres). De même, si un bruit est émis à droite de notre tête, notre oreille gauche l’entendra de façon légè­re­ment déca­lée. Dans les deux cas, c’est notre cer­veau qui se charge de res­ti­tuer une image unique, ou un son unique. Il en va de même pour l’intensité. Avec un son fort, le cer­veau réa­li­se­ra que la source est proche. Avec un son plus faible et plus étouf­fé, il en dédui­ra que la source est loin­taine. Le cer­veau décode aus­si les dif­fé­rences de fil­trage d’une oreille à l’autre, per­met­tant de loca­li­ser la source sonore : devant, der­rière, au-des­sus ou au-des­sous de soi.

Notre sys­tème audi­tif est conçu pour entendre par­ti­cu­liè­re­ment bien face à soi, dans la direc­tion de notre regard. Mais com­ment res­ti­tuer cette impres­sion tri­di­men­sion­nelle ? Grâce à la forme et au pla­ce­ment des micros. Ins­tal­lés de façon que leurs cap­sules soient espa­cées de 18 cen­ti­mètres (la moyenne d’espacement entre les deux oreilles chez l’être humain), ils sont mon­tés sur un sup­port simu­lant la forme d’une tête. Ceci recrée pré­ci­sé­ment la dif­fé­rence de temps et d’intensité per­çue entre nos deux oreilles. 

L’équipe déve­loppe des algo­rithmes de trai­te­ment du signal pour repro­duire ces carac­té­ris­tiques et simu­ler des sources sonores vir­tuelles à par­tir de sons mono­pho­niques : c’est la syn­thèse binau­rale. Pour que le résul­tat soit par­fait, le sys­tème d’écoute binau­rale doit être relié à un head-tra­cker, un cap­teur qui per­met de prendre en compte les mou­ve­ments de tête de l’utilisateur en temps réel. Ain­si, si l’utilisateur tourne la tête vers la droite, le vio­lon qu’il enten­dait par exemple devant lui se retrou­ve­ra sur sa gauche. Il en va de même pour tous les sons, d’où qu’ils pro­viennent. Pour res­ti­tuer cet effet sur un casque por­té par l’auditeur, il fau­dra le son envoyé à chaque oreille selon l’orientation de la tête.

Il existe déjà de nom­breuses tech­no­lo­gies de res­ti­tu­tion tri­di­men­sion­nelle du son, mais elles néces­sitent plu­sieurs enceintes répar­ties dans une pièce, comme le Dol­by Atmos. A contra­rio, la dif­fu­sion du son 3D en binau­ral est com­pa­tible avec n’importe quel casque hi-fi ou écou­teurs intra-auri­cu­laires, voire même des lunettes connectées.

La spatialisation binaurale : quels intérêts ?

Petit rap­pel pour bien com­prendre l’intérêt de cette tech­nique : le son sté­réo que l’on a l’habitude d’entendre, bre­ve­té dans les années 30, visait déjà à recons­ti­tuer la répar­ti­tion dans l’es­pace des sources sonores. Pour cela, les enre­gis­tre­ments de deux micros sont dif­fu­sés par deux haut-par­leurs ou deux écou­teurs. En sté­réo on peut ain­si, quand on écoute par exemple un orchestre sym­pho­nique depuis son cana­pé, dis­tin­guer le son du pia­no à gauche, de celui de la contre­basse, à droite.Mais le son binau­ral offre une immer­sion bien plus réa­liste. L’auditeur a l’impression d’être pré­sent en 3D sur les lieux de la prise de son.

Si pour un usage récréa­tif le résul­tat est déjà très appré­ciable, le son binau­ral peut être un outil de gui­dage per­for­mant s’il est cou­plé au sys­tème de sui­vi des mou­ve­ments de la tête (« head-tra­cking »). En effet, la source sonore indi­quant la direc­tion reste indé­pen­dante de l’orientation de la tête. Dans le cadre de sa thèse, Syl­vain Fer­rand a tes­té et mis au point, avec des défi­cients visuels, un pre­mier pro­to­type de gui­dage adap­ta­tif, de type « fée clo­chette ». Une source sonore pré­cède conti­nuel­le­ment la per­sonne pour lui indi­quer le che­min à suivre.

Pour ce faire, il a fal­lu loca­li­ser pré­ci­sé­ment l’utilisateur dans l’espace et créer les sources vir­tuelles spa­tia­li­sées en temps réel pour le gui­der. Pour être uti­li­sé dans un contexte spor­tif, le dis­po­si­tif doit être extrê­me­ment réac­tif et léger. « Le pre­mier pro­to­type pesait 2,7 kilos. Main­te­nant on uti­lise direc­te­ment des écou­teurs stan­dards de quelques grammes asso­ciés à un smart­phone », explique S. Fer­rand. En pra­tique, le der­nier pro­to­type per­met à des per­sonnes aveugles de pra­ti­quer la marche spor­tive, la course à pied ou le rol­ler en auto­no­mie par­tielle, y com­pris dans un contexte de recherche de per­for­mance (pour l’amateur).

Un seul dispositif, diverses applications 

Ce qui peut gui­der les mal­voyants pour­rait éga­le­ment aider toute per­sonne cher­chant à déta­cher son regard du smart­phone tout en sui­vant une appli­ca­tion de gui­dage. En 2019, les cher­cheurs du CMAP s’associaient pour déve­lop­per une start-up dans le cadre de l’incubateur de Poly­tech­nique, le Drahi‑X nova­tion cen­ter. Ils sont alors rejoints par Phi­lippe Le Borgne, entre­pre­neur depuis plus de vingt ans dans des socié­tés infor­ma­tiques et à impact social et envi­ron­ne­men­tal. Il devient co-fon­da­teur et pré­sident de Run­Blind.

Le trio cherche désor­mais des fonds pour fina­li­ser le pro­jet, et pro­po­ser un kit-logi­ciel pou­vant s’intégrer aux dif­fé­rentes appli­ca­tions de navi­ga­tion, et être implé­men­té sur des casques et écou­teurs déjà com­mer­cia­li­sés pour le grand public (Apple, Sony, Google…). L’algorithme demande encore un tra­vail de déve­lop­pe­ment et d’optimisation. Mais demain, un uti­li­sa­teur lamb­da pour­rait par­tir à la décou­verte d’une ville, à pied le nez au vent, sim­ple­ment gui­dé par le son de sa musique. « La déam­bu­la­tion en sui­vant un son est tota­le­ment intui­tive, aucun appren­tis­sage n’est néces­saire, et la pré­ci­sion est extrême, de l’ordre de quelques degrés », expliquent les co-fon­da­teurs. Plus effi­cace et moins las­sante que la voix de syn­thèse qui vous intime de tour­ner « légè­re­ment » à droite.

Que ce soit en inté­rieur, pour se repé­rer dans un hôpi­tal ou un musée, ou en exté­rieur, pour suivre des par­cours tou­ris­tiques ou spor­tifs, les appli­ca­tions de cette « fée clo­chette » du 21ème siècle paraissent illimitées.

Marina Julienne

Soutenez une information fiable basée sur la méthode scientifique.

Faire un don