L'équipe MPACIF(*) du département Parole et Cognition de Gipsa-lab est lauréate du 2e challenge international LIPS2009 organisé dans le cadre de la conférence AVSP (Auditory-Visual Speech Processing) qui s\u2019est tenu à l\u2019université de East Anglia (UK) en septembre 2009.
Le challenge LIPS (lèvres en français) met chaque année en compétition une douzaine d\u2019équipes scientifiques dans le monde sur un test de synthèse de parole visuelle. Ce test consiste à synchroniser les gestes faciaux d\u2019une tête parlante animée avec des phrases audio naturelles (locutrice anglaise). La qualité des animations proposées par les compétiteurs est alors évaluée par un panel de sujets non spécialistes du domaine suivant deux dimensions:
- l\u2019intelligibilité des paroles prononcées : la proportion de mots bien reconnus indique l\u2019apport positif (ou négatif) de l\u2019animation faciale à la compréhension du message.
- la qualité de synchronisation du mouvement des lèvres avec le signal audio.

 

La difficulté est que les phrases de test sont des phrases non prédictives d\u2019un point de vue sémantique, c\u2019est-à-dire qu\u2019il est impossible d\u2019utiliser le sens de la phrase pour deviner l\u2019une ou l\u2019autre partie de la phrase (exemple : « la table mange le four qui joue »). Dans ce cas, la transcription phonétique des sujets ne dépend que de ce qu\u2019ils entendent (message audio) et voient (mouvement des lèvres).
Les résultats de ce challenge LIPS2009 classent ainsi l\u2019équipe MPACIF de Gipsa-lab à la première place au test d\u2019intelligibilité et à la deuxième place (derrière le China Microsoft Research laboratory) au test de synchronisation.

Visuel
Image
Picto event
Type d'évènement
Mode d'affichage
Sans la vignette (utilisé principalement pour les vieux contenus avec une vignette générique...)
oldid
124