« Les jeunes autistes n’ont pas conscience de ce qu’ils expriment au niveau de leur visage, et ont du mal à décrypter ce qu’ils perçoivent sur les visages des autres », pose comme préalable Adela Barbulescu, docteur en mathématiques et informatique et project manager, avant de présenter son projet EmoFace. Le logiciel, basé sur la modélisation statistique des émotions, reproduit, grâce à un procédé de capture de mouvement(1), une palette d’expressions du visage par l’intermédiaire d’avatars virtuels. Les 412 émotions vont du basique (joie, tristesse) au plus subtil (ironie, gêne). Grâce à l’attribution d’un contexte social, le « joueur » dispose d’un décodeur pour associer l’expression avec l’état émotionnel correspondant et ainsi la reproduire ou la comprendre dans le monde réel en connaissant la bonne distance physique et émotionnelle à avoir. « Ce sera un outil pour les professionnels de la santé ou de l’éducation », poursuit Adela. « Ils pourront créer des exercices spécifiques grâce aux fonctionnalités du logiciel, qui permettent par exemple de ralentir l’expression ou de zoomer sur des parties du visage », ajoute-t-elle. En phase d’incubation depuis un an, la validation scientifique du logiciel est prévue pour septembre, et sa version bêta pour l’année prochaine.
(1) Technologie qui permet d’enregistrer les mouvements d’une personne et de les reproduire dans un environnement virtuel.