Damien Lescal et le professeur Pierre Lachapelle, directeur du Réseau Vision
Voir avec ses oreilles... Cet étonnant mode de perception pourrait être prometteur pour une personne atteinte d'une déficience visuelle.
Depuis 2007, plusieurs chercheurs (1) ont montré qu'il est possible de transformer une image en une stimulation sonore afin de reconnaître des objets simples. Mais est-il possible d'encoder une scène visuelle en une scène sonore?
C'est la question à laquelle a répondu Damien Lescal, un étudiant diplômé du groupe de recherche en Neurosciences computationnelles et traitement intelligent des signaux (NECOTIS) du Département de génie électrique et de génie informatique de l'Université de Sherbrooke.
" Les prothèses visuelles ou auditives impliquent des opérations chirurgicales invasives complexes et coûteuses. De plus, elles sont limitées par un nombre restreint de conducteurs électroniques et ne peuvent être utilisées que lorsque la déficience est périphérique", explique Damien Lescal qui a d'ailleurs remporté pour ces avancées, le prix de la meilleure présentation lors de la réunion annuelle de l'axe rétine en santé de la vision du Fonds de la recherche en santé du Québec tenue le 4 novembre dernier à l'Université Laval.
Le chercheur et ses collaborateurs ont développé un système qui analyse et localise dans l'image des objets visuels. Par la suite, ils sont transformés en stimulations auditives stéréophoniques en tenant compte des spécificités de l'audition pour permettre à l'ouïe de repérer les objets dans l'espace. Le professeur Jean Rouat de la Faculté de génie en coopération avec le professeur Stéphane Molotchnikoff du Département de sciences biologiques de l'Université de Montréal ont supervisé les travaux.
Pour y parvenir, les chercheurs ont utilisé un modèle de localisation spatiale basé sur les différences interaurales d'amplitude (IAD) pour les hautes fréquences (résultat des écarts de niveau sonore dans les hautes fréquences aux deux oreilles) et les différences interaurales de temps (ITD) pour les basses fréquences (différence dans le temps de captation d'un son par les deux oreilles) qui ont permis d'encoder la position des objets dans l'image.
" Nous avons déployé la technique VAS (Virtual Acoustic Space) qui consiste à présenter des sons en provenance d'une direction souhaitée aux oreilles par l'intermédiaire d'écouteurs ", ajoute le spécialiste en génie électrique. Un tel modèle crée l'illusion qu'il existe une source sonore virtuelle en dehors de la tête de la personne.
Note:
(1) Akinbiyi (2007) de John Hopkins University, Merabet (2009) de Harvard University et Hanneton (2010) de l'Université Paris-Descartes.