Vous êtes ici : GIPSA-lab > CRISSPAccueil CRISSP
 
Équipe

COGNITIVE ROBOTICS, INTERACTIVE SYSTEMS, & SPEECH PROCESSING
Responsable(s) d'équipe : Gérard BAILLYThomas HUEBER

L’équipe CRISSP mène des recherches fondamentales et appliquées dans le domaine de la communication parlée. Nos travaux visent notamment : 

    • à capturer, analyser et modéliser les différents signaux verbaux et co-verbaux mis en jeu dans une situation d’interaction communicationnelle entre deux humains, ou entre un humain et un robot humanoïde.
    • à mieux comprendre la production de la parole, en modélisant notamment les relations entre l’activité articulatoire (c’est-à-dire le mouvement de la langue, des lèvres, etc.), et le signal acoustique.
    • à mieux comprendre les mécanismes de communication chez les personnes malentendantes
    • à concevoir des outils technologiques pour la rééducation orthophonique, la suppléance vocale, le divertissement et les robots humanoïdes

 

Les 3 axes de recherches de l’équipe CRISSP sont :

    • Robotique cognitive : développer les capacités socio-communicatives de robots humanoïdes communicants.
    • Systèmes interactifs : développer des systèmes réactifs de communication « augmentée » exploitant des caractéristiques multimodales de la parole (son, vision, gestes).
    • Traitement de la parole : étude de l’appareil de production de la parole (modélisation articulatoire-acoustique), synthèse vocale et conversion de voix.

Domaines d’expertises de l’équipe

    • Traitement du signal audio (analyse, compression, filtrage, débruitage par séparation de sources, etc.) et en particulier le signal de parole (analyse, transformation, morphing, reconnaissance automatique, synthèse à partir du texte, synthèse articulatoire, inversion acoustico-articulatoire)
    • Modélisation par apprentissage statistique (machine learning
    • Acquisition de données articulatoires (electrographie electromagnétique (EMA), imagerie ultrasonore, IRM, video rapide, EMG).
    • Conception de protocoles expérimentaux nécessitant l’acquisition simultanée de différents signaux verbaux et co-verbaux sur un ou plusieurs humains en situation d’interaction (motion capture, eye-tracking, etc.)

 

Les membres

(photo prise le 18/12/2015)

 

Contact : Gérard Bailly et Thomas Hueber (e-mail : prenom.nom@gipsa-lab.fr)




Dernières publications de l'équipe

A New Re-synchronization Method based Multi-modal Fusion for Automatic Continuous Cued Speech Recognition

Li Liu, Gang Feng, Denis Beautemps, Xiao-Ping Zhang. A New Re-synchronization Method based Multi-modal Fusion for Automatic Continuous Cued Speech Recognition. 2020. ⟨hal-02433830⟩

A pilot study on Mandarin Cued Speech

Li Liu, Gang Feng. A pilot study on Mandarin Cued Speech. 2020. ⟨hal-01845295v2⟩

Rehabilitation of speech disorders following glossectomy, based on ultrasound visual illustration and feedback

Marion Girod-Roux, Thomas Hueber, Diandra Fabre, Silvain Gerber, Mélanie Canault, et al.. Rehabilitation of speech disorders following glossectomy, based on ultrasound visual illustration and feedback. Clinical Linguistics & Phonetics, Taylor & Francis, 2020, pp.1-18. ⟨10.1080/02699206.2019.1700310⟩. ⟨hal-01977670⟩


Voir toutes les publications de l'équipe dans HAL
GIPSA-lab, 11 rue des Mathématiques, Grenoble Campus BP46, F-38402 SAINT MARTIN D'HERES CEDEX - 33 (0)4 76 82 71 31