À l'
Institut des systèmes intelligents et de robotique (ISIR - CNRS/Sorbonne Université), Alexandra de Lagarde et Louise P. Kirsch se posent une question surprenante: et si nous pouvions entendre une caresse ? De cette réflexion est né
Audio-touch, un
projet de
recherche qui explore de nouvelles manières de recréer le
toucher social à distance.
Convertir des gestes tactiles affectifs en sons interprétables, c'est l'objectif du projet
Audio-touch, mené à l'ISIR dans le cadre du programme ANR MATCH. Cette approche s'appuie sur une
observation simple mais prometteuse: toucher et
audition reposent tous deux sur la perception de vibrations. Elle s'inscrit dans un
contexte où les interactions physiques se raréfient - isolement social, digitalisation, interactions virtuelles - alors même que le toucher est essentiel à notre développement, à notre
bien-être émotionnel et à la
régulation du
stress.
Membres de l'ISIR, Alexandra de Lagarde, doctorante, Catherine Pelachaud, directrice de recherche CNRS, Louise P. Kirsch, maîtresse de conférences à l'Université Paris Cité et Malika Auvray, directrice de recherche CNRS, ont permis de déterminer si des gestes tels qu'une caresse, une tape ou un frottement sur la peau peuvent être sonifiés de façon à transmettre des informations socio-affectives à un auditeur ou une auditrice.
Pour cela, les chercheuses ont enregistré des gestes peau à peau à l'aide de capteurs vibrotactiles, puis transformé ces données en sons, des
stimuli audio-touch. Ces sons ont alors été présentés à des participantes et participants dans une série de quatre expériences visant à évaluer leur capacité à reconnaître la nature et l'intention des gestes.
Les résultats montrent que les sons issus de gestes tactiles sont interprétables de façon cohérente:
- Les gestes sont bien catégorisés (1
ère expérience),
- Leurs intentions émotionnelles sont identifiées (2
ème expérience),
- Et la surface d'exécution du geste (peau humaine
versus objet inanimé) influence significativement la perception du geste et celle des émotions (3
ème et 4
ème expériences).
Ces résultats, publiés dans la revue
Proceedings of the National Academy of Sciences (PNAS), suggèrent que l'audition peut, dans une certaine mesure, véhiculer des indices normalement transmis par le toucher. En d'autres termes, il est possible de "faire entendre" une intention tactile.
Le projet s'inscrit à l'intersection de plusieurs champs: cognition sociale, perception sensorielle, interaction humain-agent, haptique et design sonore. Tandis que le projet ANR MATCH explore les illusions de toucher en
réalité virtuelle via des retours multisensoriels,
Audio-touch interroge spécifiquement le rôle du canal auditif dans la transmission du lien social.
En démontrant que des gestes affectifs peuvent être reconnus par leur seule traduction sonore,
Audio-touch ouvre de nouvelles pistes pour le design d'interfaces sensibles à l'affect et, plus largement, pour le développement de formes
alternatives de
communication multisensorielle dans des environnements numérisés.