LES INSCRIPTIONS SONT CLOSES !

Programme :
9h30-10h00  Accueil avec café et viennoiseries

10h00-11h00 Exposé de Rémi Gribonval (INRIA, Rennes) - Sparse dictionary learning in the presence of noise and outliers
A popular approach within the signal processing and machine learning communities consists in modelling signals as sparse linear combinations of atoms selected from a learned dictionary. While this paradigm has led to numerous empirical successes in various fields ranging from image to audio processing, there have only been a few theoretical arguments supporting these evidences. In particular, sparse coding, or sparse dictionary learning, relies on a non-convex pro- cedure whose local minima have not been fully analyzed yet. Considering a probabilistic model of sparse signals, we show that, with high probability, sparse coding admits a local minimum around the reference dictionary generating the signals. Our study takes into account the case of over-complete dictionaries and noisy signals, thus extending previous work limited to noiseless settings and/or under-complete dictionaries. The analysis we conduct is non-asymptotic and makes it possible to understand how the key quantities of the problem, such as the coherence or the level of noise, can scale with respect to the dimension of the signals, the number of atoms, the sparsity and the number of observations.

11h00-12h00 Exposé de Jérôme Idier (IRCCyN, Nantes) - Optimisation par majoration-minimisation pour les problèmes inverses linéaires
La résolution de nombreux problèmes inverses en traitement du signal, tels que la restauration d'image, peut se ramener à la minimisation d'un critère pénalisé qui prend en compte conjointement les observations et les informations préalables. Nous nous intéressons ici principalement à la minimisation des critères pénalisés différentiables. Nous discutons plus précisément du choix d'une stratégie de recherche de pas dans les algorithmes de descente itérative, en mettant en avant le recours au principe de Majoration-Minimisation (MM). Ce principe est ancien [1] et sous-tend de nombreux algorithmes d'optimisation: algorithmes EM, algorithmes de seuillage itératif, algorithmes de moindres carrés repondérés. Il repose sur la spécification en tout point d'une approximation majorante de la fonction objectif, qui soit tangente au point courant. Un algorithme MM est alors obtenu en minimisant l'approximation majorante pour engendrer le nouveau point courant. Le caractère monotone décroissant de la suite des critères engendrée est immédiat, et différents résultats de convergence sont disponibles sous des hypothèses variées.
Les algorithmes MM proposés dans la littérature reposent principalement sur deux types d'approximation majorante: les approximations séparables (par exemple, les algorithmes de seuillage itératif) et les approximations quadratiques (par exemple, les algorithmes de moindres carrés repondérés).
Nous nous sommes intéressés à la seconde catégorie. Bien qu'utilisés en restauration d'image (et souvent baptisés algorithmes semi-quadratiques dans ce contexte), les algorithmes de ce type ont un coût élevé par itération pour les problèmes de grande taille, puisque chaque itération suppose la résolution d'un système linéaire. Une de nos contributions a consisté à démontrer la convergence de versions tronquées de ces algorithmes, obtenues par résolution inexacte du système linéaire à chaque itération.
Nous avons ensuite considéré différentes stratégies de direction de descente plus naturellement adaptées aux problèmes de grande taille (gradient conjugué [2], mais aussi LBFGS, pseudo-Newton tronqué), en les associant systématiquement à une stratégie de pas conçcue comme un algorithme MM univarié. Les algorithmes ainsi obtenus sont à la fois convergents sous des conditions mathématiques larges, d'une conception simple et d'un comportement pratique très efficace. La formulation la plus efficace est un algorithme à mémoire de gradient consistant à effectuer l'itération courante dans un sous-espace plutôt que le long d'une direction [3]. Notre formulation MM permet alors la sélection d'un pas multivarié, d'une façcon simple et mathématiquement fondée.
Une caractéristique de notre démarche est de permettre l'optimisation (locale) de critères non convexes [2,3,4]. D'autre part, elle n'est pas limitée aux approximations majorantes quadratiques. En particulier, dans certains cas de critères présentant des barrières aux frontières de leur domaine (critères entropiques, log-vraisemblance poissonienne), pour lesquels ces dernières sont mal adaptées, nous avons développé une stratégie de pas spécifique s'appuyant sur une approximation non quadratique, et nous avons montré la convergence de plusieurs algorithmes de descente incorporant cette stratégie de pas [5,6].
[1] E. Weiszfeld, Sur le point pour lequel la somme des distances de $n$ points donnés est minimum, Tôhoku {M}athematical {J}ournal}, 43 (1937), pp. 355-386
[2] C. Labat et J. Idier, Convergence of conjugate gradient methods with a closed-form stepsize formula, J. Optim. Theory Appl.}, 136 (2008), pp. 43-60
[3] E. Chouzenoux, J. Idier et S. Moussaoui, A majorize-minimize strategy for subspace optimization applied to image restoration, IEEE Trans. Image Processing}, 20 (2011), pp. 1517-1528
[4] E. Chouzenoux, A. Jezierska, J.-C. Pesquet and H. Talbot. A Majorize-Minimize Subspace Approach for l2-l0 Image Regularization. SIAM Journal on Imaging Science, Vol. 6, No. 1, pages 563-591, 2013
[5] E. Chouzenoux, S. Moussaoui, J. Idier et F. Mariette, Efficient maximum entropy reconstruction of nuclear magnetic resonance T1-T2 spectra, IEEE Trans. Signal Processing}, 58 (2010), pp. 6040-6051
[6] E. Chouzenoux, S. Moussaoui et J. Idier, Majorize-minimize linesearch for inversion methods involving barrier function optimization, Inverse Problems, vol. 28, 065011, oct. 2012

12h00-14h00 Pause déjeuner : buffet offert uniquement aux participants inscrits AVANT le 16 septembre.

14h00-15h00 Exposé de Loïc Denis (Laboratoire Hubert Curien, St Etienne) - Restauration d'images floues
La restauration des images par des méthodes numériques est pratiquée depuis de nombreuses années pour réduire le flou et ainsi gagner en résolution et en contraste. Lorsque le flou est invariant dans le champ, la restauration est un problème inverse de type "déconvolution". En pratique, il est très contraignant et souvent impossible de connaître précisément le flou (la réponse impulsionnelle). Il est donc nécessaire de développer des méthodes d'auto-calibration capables d'estimer à la fois une image restaurée (plus nette) et le flou. On parle de méthodes de déconvolution myopes ou aveugles selon la connaissance sur le flou à laquelle on a accès. Dans de nombreux cas (microscopie 3D, astronomie ou imagerie grand-champ), le flou varie spatialement dans l'image. Il est alors nécessaire de modéliser correctement le processus de dégradation (problème direct) pour pouvoir restaurer les images. La présentation tentera de donner une introduction accessible au non spécialiste du problème de la restauration d'image et des méthodologies employées pour le résoudre, puis décrira des avancées récentes sur le problème de la déconvolution aveugle en microscopie 3D d'une part, et en modélisation d'un flou spatialement variable d'autre part.

15h00-16h00 Exposé de Pierre Grangeat (CEA-Leti, Grenoble) - Reconstruction de profils moléculaires à partir de mesures de masse.


LES INSCRIPTIONS SONT CLOSES !


Vous trouverez plus de détails sur le site SIERRA.

Plan d'accès à Gipsa-lab

Visuel
Image
Picto event
Type d'évènement
Étiquette de l’événement
Mode d'affichage
Sans la vignette (utilisé principalement pour les vieux contenus avec une vignette générique...)
oldid
384