Vous êtes ici : GIPSA-lab > Animation > Séminaires

Séminaire du département Images et Signal du 06/05/2013 à 13h30

 

représentation parcimonieuse pour les signaux multivariés

Intervenant : Quentin Barthelemy, CEA / Gipsa-lab

Lieu : salle chartreuse

 

Résumé :

Dans cette thèse, nous étudions les méthodes de décomposition de signaux et d'apprentissage de dictionnaire qui fournissent des représentations parcimonieuses. Ces méthodes permettent d'analyser des bases de données très redondantes à l'aide de dictionnaires d'atomes appris, avec des performances supérieures en qualité que les dictionnaires analytiques classiques.

Nous considérons plus particulièrement des signaux multivariés résultant de l'acquisition simultanée de plusieurs grandeurs, comme les signaux EEG ou les signaux de mouvements 2D et 3D. Nous étendons les méthodes de représentations parcimonieuses au modèle multivarié, pour prendre en compte les interactions entre les différentes composantes acquises simultanément. Ce modèle est plus flexible que l'habituel modèle multicanal qui impose une hypothèse de rang 1.

Nous étudions des modèles de représentations invariantes : invariance par translation temporelle, invariance par rotation, etc. En ajoutant des degrés de liberté supplémentaires, chaque noyau est potentiellement démultiplié en une famille d'atomes, translatés à tous les échantillons, tournés dans toutes les orientations, etc. pour engendrer un dictionnaire d'atomes très redondant. Les méthodes de décomposition et d’apprentissage de dictionnaire sont adaptées à ces modèles.  Dans le cas de l'invariance par rotation 2D et 3D, nous constatons l'efficacité de l'approche non-orientée sur celle orientée, même dans le cas où les données ne sont pas tournées. En effet, le modèle non-orienté permet de détecter les invariants des données et assure la robustesse à la rotation quand les données tournent.

Nous constatons aussi la reproductibilité des décompositions parcimonieuses sur un dictionnaire appris. Dans le cas de l’invariance par translation, des vecteurs de caractéristiques sont extraits des décompositions grâce à des fonctions de groupement consistantes par translation. La classification résultante est robuste à la translation des signaux.

 

 

Abstract

In this thesis, we study signals decomposition and dictionary learning methods which provide sparse representations. These methods allow to analyze very redundant data-bases thanks to learned atoms dictionaries, which are more efficient in representation quality than classical analytic dictionaries.

We consider more particularly multivariate signals coming from the simultaneous acquisition of several quantities, as EEG signals or 2D and 3D motion signals. We extend sparse representation methods to the multivariate model, to take into account interactions between the different components acquired simultaneously. This model is more flexible than the common multichannel one which imposes a hypothesis of rank 1.

We study models of invariant representations: invariance to temporal shift, invariance to rotation, etc. Adding supplementary degrees of freedom, each kernel is potentially replicated in an atoms family, translated at all samples, rotated at all orientations, etc. to generate a very redundant atoms dictionary. Decomposition and dictionary learning methods are adapted to these models. In the 2D and 3D rotation invariant case, we observe the efficiency of the non-oriented approach over the oriented one, even when data are not revolved. Indeed, the non-oriented model allows to detect data invariants and assures the robustness to rotation when data are revolved.

We also observe the reproducibility of the sparse decompositions on a learned dictionary. In the shift-invariance case, features are extracted from decompositions thanks to shift consistent pooling functions. The resulting classification is robust to signals translation.



GIPSA-lab, 11 rue des Mathématiques, Grenoble Campus BP46, F-38402 SAINT MARTIN D'HERES CEDEX - 33 (0)4 76 82 71 31