👂 Et si nous pouvions entendre une caresse ?

Publié par Adrien,
Source: CNRS INS2I
Autres langues: EN, DE, ES, PT
Restez toujours informé: suivez-nous sur Google Actualités (icone ☆)

À l'Institut des systèmes intelligents et de robotique (ISIR - CNRS/Sorbonne Université), Alexandra de Lagarde et Louise P. Kirsch se posent une question surprenante: et si nous pouvions entendre une caresse ? De cette réflexion est né Audio-touch, un projet de recherche qui explore de nouvelles manières de recréer le toucher social à distance.


Convertir des gestes tactiles affectifs en sons interprétables, c'est l'objectif du projet Audio-touch, mené à l'ISIR dans le cadre du programme ANR MATCH. Cette approche s'appuie sur une observation simple mais prometteuse: toucher et audition reposent tous deux sur la perception de vibrations. Elle s'inscrit dans un contexte où les interactions physiques se raréfient - isolement social, digitalisation, interactions virtuelles - alors même que le toucher est essentiel à notre développement, à notre bien-être émotionnel et à la régulation du stress.

Membres de l'ISIR, Alexandra de Lagarde, doctorante, Catherine Pelachaud, directrice de recherche CNRS, Louise P. Kirsch, maîtresse de conférences à l'Université Paris Cité et Malika Auvray, directrice de recherche CNRS, ont permis de déterminer si des gestes tels qu'une caresse, une tape ou un frottement sur la peau peuvent être sonifiés de façon à transmettre des informations socio-affectives à un auditeur ou une auditrice.

Pour cela, les chercheuses ont enregistré des gestes peau à peau à l'aide de capteurs vibrotactiles, puis transformé ces données en sons, des stimuli audio-touch. Ces sons ont alors été présentés à des participantes et participants dans une série de quatre expériences visant à évaluer leur capacité à reconnaître la nature et l'intention des gestes.

Les résultats montrent que les sons issus de gestes tactiles sont interprétables de façon cohérente:
- Les gestes sont bien catégorisés (1ère expérience),
- Leurs intentions émotionnelles sont identifiées (2ème expérience),
- Et la surface d'exécution du geste (peau humaine versus objet inanimé) influence significativement la perception du geste et celle des émotions (3ème et 4ème expériences).

Ces résultats, publiés dans la revue Proceedings of the National Academy of Sciences (PNAS), suggèrent que l'audition peut, dans une certaine mesure, véhiculer des indices normalement transmis par le toucher. En d'autres termes, il est possible de "faire entendre" une intention tactile.

Le projet s'inscrit à l'intersection de plusieurs champs: cognition sociale, perception sensorielle, interaction humain-agent, haptique et design sonore. Tandis que le projet ANR MATCH explore les illusions de toucher en réalité virtuelle via des retours multisensoriels, Audio-touch interroge spécifiquement le rôle du canal auditif dans la transmission du lien social.

En démontrant que des gestes affectifs peuvent être reconnus par leur seule traduction sonore, Audio-touch ouvre de nouvelles pistes pour le design d'interfaces sensibles à l'affect et, plus largement, pour le développement de formes alternatives de communication multisensorielle dans des environnements numérisés.
Page générée en 0.299 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales
Version anglaise | Version allemande | Version espagnole | Version portugaise