Vous êtes ici : GIPSA-lab > CRISSPAccueil CRISSP
 
Équipe

COGNITIVE ROBOTICS, INTERACTIVE SYSTEMS, & SPEECH PROCESSING
Responsable(s) d'équipe : Gérard BAILLYThomas HUEBER

L’équipe CRISSP mène des recherches fondamentales et appliquées dans le domaine de la communication parlée. Nos travaux visent notamment : 

    • à capturer, analyser et modéliser les différents signaux verbaux et co-verbaux mis en jeu dans une situation d’interaction communicationnelle entre deux humains, ou entre un humain et un robot humanoïde.
    • à mieux comprendre la production de la parole, en modélisant notamment les relations entre l’activité articulatoire (c’est-à-dire le mouvement de la langue, des lèvres, etc.), et le signal acoustique.
    • à mieux comprendre les mécanismes de communication chez les personnes malentendantes
    • à concevoir des outils technologiques pour la rééducation orthophonique, la suppléance vocale, le divertissement et les robots humanoïdes

 

Les 3 axes de recherches de l’équipe CRISSP sont :

    • Robotique cognitive : développer les capacités socio-communicatives de robots humanoïdes communicants.
    • Systèmes interactifs : développer des systèmes réactifs de communication « augmentée » exploitant des caractéristiques multimodales de la parole (son, vision, gestes).
    • Traitement de la parole : étude de l’appareil de production de la parole (modélisation articulatoire-acoustique), synthèse vocale et conversion de voix.

Domaines d’expertises de l’équipe

    • Traitement du signal audio (analyse, compression, filtrage, débruitage par séparation de sources, etc.) et en particulier le signal de parole (analyse, transformation, morphing, reconnaissance automatique, synthèse à partir du texte, synthèse articulatoire, inversion acoustico-articulatoire)
    • Modélisation par apprentissage statistique (machine learning
    • Acquisition de données articulatoires (electrographie electromagnétique (EMA), imagerie ultrasonore, IRM, video rapide, EMG).
    • Conception de protocoles expérimentaux nécessitant l’acquisition simultanée de différents signaux verbaux et co-verbaux sur un ou plusieurs humains en situation d’interaction (motion capture, eye-tracking, etc.)

 

Les membres

(photo prise le 18/12/2015)

 

Contact : Gérard Bailly et Thomas Hueber (e-mail : prenom.nom@gipsa-lab.fr)




Dernières publications de l'équipe

Multichannel Identification and Nonnegative Equalization for Dereverberation and Noise Reduction based on Convolutive Transfer Function

Xiaofei Li, Sharon Gannot, Laurent Girin, Radu Horaud. Multichannel Identification and Nonnegative Equalization for Dereverberation and Noise Reduction based on Convolutive Transfer Function. IEEE/ACM Transactions on Audio, Speech and Language Processing, Institute of Electrical and Electronics Engineers, 2018, pp.1-14. 〈10.1109/TASLP.2018.2839362〉. 〈hal-01645749v3〉

Automatic segmentation of speech articulators from real-time midsagittal MRI based on supervised learning

Mathieu Labrunie, Pierre Badin, Dirk Voit, Arun Joseph, Jens Frahm, et al.. Automatic segmentation of speech articulators from real-time midsagittal MRI based on supervised learning. Speech Communication, Elsevier : North-Holland, 2018, 99, pp.27 - 46. 〈10.1016/j.specom.2018.02.004〉. 〈hal-01758873〉

Multisource MINT Using the Convolutive Transfer Function

Xiaofei Li, Sharon Gannot, Laurent Girin, Radu Horaud. Multisource MINT Using the Convolutive Transfer Function. IEEE International Conference on Acoustic, Speech and Signal Processing, Apr 2018, Calgary, Alberta, Canada. 〈hal-01718106〉


Voir toutes les publications de l'équipe dans HAL
GIPSA-lab, 11 rue des Mathématiques, Grenoble Campus BP46, F-38402 SAINT MARTIN D'HERES CEDEX - 33 (0)4 76 82 71 31