Modélisation Statistique des Images

Rencontre mathématique à Luminy, 5-9 mai 2008



Titres et résumés


 Informations pratiques 

Titres et résumés

  • Jean-Yves Audibert (CERTIS, École Nationale des Ponts et Chaussées)

    Titre: ``Graph Laplacian for transductive learning: application to image segmentation and interactive image search''

    Résumé: To extract knowledge from a small number of samples containing very complex high-dimensional data is impossible if the data has no particular structure. This presentation will consider the case when the high dimensional data lies on an unknown low dimensional manifold. In this situation, one can avoid the curse of dimensionality by using algorithms based on appropriate neighborhood graphs. The discrete Laplacians on such graphs can be used successfully to do transductive learning and solve efficiently some computer vision tasks. We will first present the pointwise limit of the three different graph Laplacians used in the literature as the sample size increases and the neighborhood size approaches zero. Then we will illustrate Graph Laplacian based tranductive learning by considering two computer vision tasks: segmenting an image into regions consistent with user-supplied seeds (e.g., a sparse set of broad brush strokes), and interactive image search in a large image database.

  • Francis Bach (Willow Project, École Normale Supérieure)

    Titre: ``Méthodes à noyaux pour l'analyse d'images''

    Résumé: Je présenterai certains développement récents des méthodes à noyaux ainsi que leur application à l'analyse d'images. En particulier, l'accent sera mis sur (1) les méthodes d'apprentissage du noyau et leurs liens avec les normes parcimonieuses, et (2) et sur les noyaux structurés utilisables en vision, qui mettent en oeuvre les représentations classiques des images (segmentations, points d'intérêt, etc...).

  • Sylvain Baillet (LENA, Université Pierre et Marie Curie)

    Titre: ``Identification and tracking in time-resolved functional brain imaging''

    Résumé: Functional brain mapping is developing rapidly through a variety of techniques. Electromagnetic functional imaging has recently emerged as a direct imaging tool of electrical currents generated by neural cell assemblies. The resulting modality has reasonable centimetre spatial resolution and excellent millisecond time resolution. The resulting analysis of dense sequences of brain responses implies that salient functional features be identified and tracked in time onto the complex circumvoluted cortical surface. We have recently proposed an extension of the estimation of optical flow on arbitrary manifolds [1]. In our application, the resulting vector field is representative of the local dynamics of neural current flows on the cortical mantle. We propose to design new indices of brain dynamics using this measure; one key application being the identification of modulations on the dynamics of brain activity.

    [1] Lefèvre, J. & Baillet, S. Optical Flow and Advection on 2-Riemannian Manifolds: a Common Framework IEEE Trans. on Pattern Analysis & Machine Intelligence, 2008, in press - available online

  • Toni Buades (MAP5, Université Paris Descartes)

    Titre: ``Analysis of the bidimensional distribution of natural colors in RGB space''

    Résumé: When observing the colours of a natural image in RGB space (the so-called RGB cube) one realizes that they are distributed roughly following some surfaces that stretch from dark to brigh colors. Moreover, when removing from the representation the colors with low local density most of the isolated points dissappear and these surfaces are more clearly visible, almost becoming 1D structures. These observations lead Omer and Werman to propose a new representation for color images based on these 1D structures, which they called color lines. They applied this representation to segmentation, compression, color editing and color correction. However, in most cases, by removing these points important image information may be missed. We pretend to make conspicuous the 2D structure of the distribution of the colors in natural images. To this aim the original 2D structure shall be interpolated and a new, cleaner and clearer representation shall be obtained.

  • Bernard Chalmond (CMLA, École Normale Supérieure de Cachan)

    Titre: ``3D cell high resolution imaging advances : slice-to-volume registration, reconstruction and deconvolution''
    (joint work with Y. Yu, A. Trouvé and B. Le Saux).

    Résumé: Cell imaging is based on two data sets of different type : a slice stack of the cell at low resolution and an unregistered slice series of this cell at standard resolution. We propose a statistical procedure to compute an isotropic high resolution of the cell volume.

  • Antoine Chambaz (MAP5, Université Paris Descartes)

    Titre: ``A propos de la dimension intrinsèque''

    Résumé: Je présenterai le problème de l'estimation de la dimension intrinsèque en m'appuyant sur un certain nombre d'articles récents.

  • Serge Cohen (Netherlands Cancer Institute NKI, Pays-Bas)



  • Julie Delon (TSI, Telecom Paris)

    Titre: ``Réduction du papillonnage dans les vieux films''

    Résumé: Le phénomène de papillonnage dans les vieux films, appelé aussi ``flicker'', se caractérise par d'importantes variations de contraste d'une image à l'autre (dûes par exemple pour les vieux films à l'instabilité des produits chimiques utilisés pour la pellicule, ou encore à une non-uniformité des temps d'exposition pour chaque image). Dans cet exposé, nous introduirons d'abord le modèle mathématique utilisé pour modéliser le flicker, puis nous expliquerons la difficulté du problème de suppression du flicker, particulièrement dans le cas où celui-ci est local et varie spatialement d'une image à l'autre. Nous proposerons ensuite une méthode de réduction du flicker et nous en montrerons les résultats sur différents exemples.

  • Agnès Desolneux (MAP5, Université Paris Descartes)

    Titre: ``Méthodes a contrario et méthodes bayesiennes: quels liens et quelles différences ?''

    Résumé: Dans cet exposé, nous commencerons par illustrer à travers quelques exemples l'idée de l'approche a contrario en analyse d'images. Puis nous discuterons quels sont les liens et les différences avec des méthodes bayesiennes qui nécessitent la donnée d'un a priori.

  • Bruno Galerne (CMLA, École Normale Supérieure de Cachan)

    Titre: ``Synthèse de textures par principe de transparence''

    Résumé: Dans cet exposé nous nous intéressons à la synthèse de textures par principe de transparence. Dans un premier temps nous présentons le "spot noise" qui est une méthode de synthèse de textures introduite par van Wijk. Ici la transparence est linéaire puisque cette méthode de synthèse consiste à superposer un grand nombre de translations aléatoires d'une même image. Nous définissons rigoureusement la texture stationnaire asymptotique obtenue par le "spot noise", puis nous comparons visuellement cette technique de synthèse avec le procédé qui consiste à rendre aléatoire la phase de l'image originale. Dans la seconde partie de l'exposé, le principe de transparence par superposition linéaire est remplacé par un principe plus physique qui correspond au principe d'occlusion entre objets transparents. Ce principe de transparence est illustré par l'étude d'un nouveau processus stochastique, le modèle "feuilles mortes transparentes". Les différentes méthodes de synthèse sont analysées dans les espaces fonctionnelles qui leurs sont propres et illustrées par des expériences numériques.
    Ces travaux sont effectués sous la direction de Yann Gousseau et de Jean-Michel Morel.

  • Donald Geman (Department of Applied Mathematics and Statistics, Johns Hopkins University, Baltimore, USA)

    Titre: ``Interactive Search for Image Categories by Mental Matching''

    Résumé: Everybody knows about Google. Inventing analogues for image-based search is proving far more difficult, partly because large image databases are not, and currently cannot be, sematically annotated. The standard scenario in image retrieval, and the one that works well, is "query-by-visual-example": the "query image" resides in the database and is matched by the system with other images. Suppose, instead, the query image is "external" and the matching is "mental." For instance, an image resides in the mind of the user or there is an actual object or photograph. The user may seek versions of the same image (e.g., the same face) or images belonging to the same class (e.g., similar landscapes) and responds to a sequence of machine-generated queries designed to accelerate the search. For example, the user declares which of several displayed images is "closest" to his query. These similarity decisions are entirely subjective and user-dependent. I will discuss a stochastic, model-based interactive search engine which mixes geometry, information theory and statistical inference. Performance is measured by the expected number of iterations necessary to display an exemplar from the user's class. Designing metrics and models which are consistent with human behavior is essential for achieving practical results with large databases, as illustrated with art and faces.

  • Joan Glaunès (MAP5, Université Paris Descartes)

    Titre: ``Modèles de courants pour la comparaison des courbes et surfaces''

    Résumé: Ce travail trouve son origine dans le problème de la comparaison et du recalage des images médicales, basé sur l'extraction préalable de points d'intérêt, qui peuvent être de différentes natures géométriques: points de références simples, mais aussi bouts de courbes, ou surfaces. Se pose alors la question: comment comparer des courbes ou des surfaces, comment définir une distance ayant un sens géométrique entre de tels objets ? Leur modélisation en tant que mesures vectorielles (courants) est un outil commode pour les décrire en tant qu'éléments d'un espace vectoriel, puis pour les comparer via des normes duales calculables explicitement. Cette approche permet d'écrire des méthodes d'appariement efficaces dont je montrerai quelques exemples. Ce modèle de courant est assez souple et permet en fait de considérer d'autres objets tels que des moyennes de surfaces, faisceaux de courbes, images, ou bien des données fonctionnelles sur des surfaces, pour lesquels il devient alors possible de mener des calculs statistiques sur des groupes de données.

  • Rafael Grompone (CMLA, École Normale Supérieure de Cachan)

    Titre: ``LSD: a line segment detector''

    Résumé: A new line segment detector will be introduced. It is a fast algorithm based on Desolneux, Moisan and Morel a contrario detection theory. It produces accurate results without the need of parameter tuning. An extension to curve detection and some experiments of image analysis will be discussed.

  • Mohamed Hachama (MAP5, Université Paris Descartes)

    Titre: ``Modèles de classes pour le recalage des images médicales''

    Résumé: Le recalage des images est un sujet central en imagerie médicale, utilisé dans beaucoup d'applications [1]. Bien qu'il ait bénéficié d'une attention particulière de la part des chercheurs, le recalage pose toujours des problèmes non résolus. Dans cet exposé, nous présentons des méthodes pour résoudre un problème particulier, rencontré dans plusieurs applications. Il s'agit de la présence de classes de pixels, avec des propriétés différentes. Nous développons deux méthodes de recalage [2, 3]. La première s'apparente à un recalage robuste, tandis que la deuxième combine le recalage des images et la classification des pixels. Deux exemples d'application sont exposés : la segmentation par transport de prototype et la détection de lésions en mammographie. En plus, une évaluation quantitative sur une base d'images simulées est réalisée.

    [1] F. Richard, "Modèles élastiques d'ajustement d'images et applications aux paires bilatérales et temporelles de mammographies", PHD thesis, Université René Descartes, Paris, France, décembre 2000

    [2] M. Hachama, F. Richard and A. Desolneux "A mammogram registration technique dealing with outliers", Proc. of the IEEE International Symposium on Biomedical Imaging, ISBI'06 , Arlington, Virginia, USA, april, 2006.

    [3] M. Hachama, A. Desolneux et F. Richard, "A probabilistic approach for the simultaneous mammogram registration and abnormality detection", In Proc. of the International Workshop on Digital Mammography, IWDM'06 , LNCS, vol. 4046, pp. 205-212, Manchester, UK, 2006.

  • Jérémie Jakubowicz (CMLA, École Normale Supérieure) de Cachan

    Titre: ``Segmentation des signaux par modélisation a contrario''

    Résumé: En cherchant à détecter les segments de droites dans les images [3], nous avons mis au point un algorithme de segmentation des suites binaires via une méthode a contrario. Afin de comparer la qualité des différentes segmentations on associe un test à chaque segmentation. Puis à chaque test, on associe un nombre réel, son nombre de fausses alarmes (NFA), conformément à ce qui est fait dans [1] et [2]. On compare alors la pertinence des différents tests en comparant leur NFA (plus le NFA est petit, plus le test est significatif). On présentera une modification de cette méthode pour l'adapter au cas des signaux quelconques et plus forcément binaires. Ce problème fait l'objet d'une abondante bibliographie. On comparera notre algorithme de segmentation a contrario à d'autres méthodes bien connues.

    [1] A Unified Framework for Detecting Groups and Application to Shape Recognition. F. Cao, J. Delon, A. Desolneux, P. Musé, F. Sur. JMIV 2007.

    [2] Meaningful Alignments. A. Desolneux, L. Moisan, J.-M. Morel. IJCV 2000.

    [3] On Straight Line Segment Detection. R. Grompone von Gioi, J. Jakubowicz, J.-M. Morel, G. Randall. Prépublication CMLA,

  • Erwan Le Pennec (LPMA, Université Paris 7)

    Titre: ``Bien représenter pour les problèmes inverses: l'exemple de l'estimation tomographique par needlets de Radon''
    (en collaboration avec G. Kerkyacharian et D. Picard)

    Résumé: Dans les problèmes inverses, il faut souvent choisir une représentation bien adaptée à l'opérateur (SVD) ou une représentation bien adaptée aux signaux à estimer. Lorsque les vecteurs propres de la SVD correspondent à la base de Fourier, je montrerai pourquoi les ondelettes constituent souvent un très bon choix. Dans l'estimation tomographique, les vecteurs propre de la SVD ne sont plus des éléments de la base de Fourier. Il s'agit alors de construire à partir de ces vecteurs propres une nouvelle représentation, adaptée à la fois à l'opérateur et aux images, la représentation en needlet de Radon. On verra ensuite comment un simple opérateur de seuillage dans cette représentation permet de définir un estimateur d'une fonction à partir de sa transformée de Radon qui est minimax sur des classes de fonctions intéressantes. Enfin une illustration numérique de ces résultats sera proposée.

  • Cécile Louchet (MAP5, Université Paris Descartes)

    Titre: ``Total Variation denoising using posterior expectation''

    Résumé: Total Variation image denoising, generally formulated in a variational setting, can be seen as a Maximum A Posteriori Bayesian estimate relying on a simple analytic image prior. In this formulation, the denoised image is the most likely image of the posterior distribution, which favors regularity but produces staircasing artifacts: in regions where smooth-varying intensities would be expected, constant zones appear separated by artificial boundaries. In this talk, we propose to use the Least Square Error (LSE) criterion instead of the MAP, yielding a more realistic denoising method called TV-LSE. This new filter, which amounts to compute the expectation of the posterior distribution, can be implemented with a Monte-Carlo Markov Chain based on Metropolis scheme. We discuss the properties of this filter, and show in particular that it does not suffer from the staircasing effect.

  • François Malgouyres (LAGA et L2TI, Université Paris 13)

    Titre: ``Average performance of the sparsest approximation using a general dictionary''
    (joint work with Mila Nikolova)

    Résumé: We consider the minimization of the number of non-zero coefficients (the l0 ``norm'') of the representation of a data set in terms of a dictionary under a fidelity constraint. (Both the dictionary and the norm defining the constraint are arbitrary.) This (nonconvex) optimization problem naturally leads to the sparsest representations, compared with other functionals instead of the l0 ``norm''. Our goal is to measure the sets of data yielding a K-sparse solution -i.e. involving K non-zero components. Data are assumed uniformly distributed on a domain defined by any norm- to be chosen by the user. A precise description of these sets of data is given and relevant bounds on the Lebesgue measure of these sets are derived. They naturally lead to bound the probability of getting a K-sparse solution. We also express the expectation of the number of non-zero components.

  • Lionel Moisan (MAP5, Université Paris Descartes)

    Titre: Mise en correspondance de points par méthode a contrario
    (travail réalisé en collaboration avec Bérenger Stival)

    Résumé: Nous dérivons et discutons des critères statistiques pour l'appariement automatique de points entre deux images, sous diverses hypothèses de déformation, allant du simple mouvement de translation à la déformation 3D générale (stéréovision).

  • Sylvain Pelletier (CEREMADE, Université Paris-Dauphine)

    Titre: ``Segmentation vidéo temps-réel par méthode a contrario''

    Résumé: On présente une nouvelle méthode temps-réel pour détecter les objets en mouvement dans un film vidéo tourné avec une caméra fixe. D'abord, on utilise les lignes de niveaux pour comparer le fond avec l'image courante, de manière à déterminer les pixels occultés par les objets en mouvement. Ensuite, on utilise la méthode générale de détection a contrario pour détecter les groupements de pixels où il y a de forts changements. Contrairement à la plupart des méthodes temps-réels, l'algorithme consiste en une détection de régions, et non uniquement en une classification fond/dynamique des pixels.

  • Xavier Pennec (projet ASCLEPIOS, INRIA Sophia-Antipolis)

    Titre: ``Statistics on manifolds for computational anatomy''

    Résumé: Computational anatomy is an emerging discipline that aim at analysing and modeling the biological variability of the human anatomy. The goal in not only to model the representative normal shape (the atlas) and its normal variations among a poulation, but also discover morphological differences between normal and pathological populations, and possibly to detect, model and classify the pathologies from structural anomalities. To reach this goal, the method is to identify anatomically representative geometric features (points, tensors, curves, surfaces, volume transformations), and to describe their statistical distribution. This can be done for instance via a mean shape and covariance structure after a group-wise matching. Then, in order to compare populations, we need to compare feature distributions and to test for statistical differences.
        Unfortunately, geometric features often belong to manifolds that are not vector spaces. Based on a Riemannian manifold structure, we previously develop a consistent framework for statistical computing on manifolds which proves to be also usefull for a number of more classical image analysis problems (e.g. DTI processing). For computational anatomy, we used this framework to model the brain variability from a dataset of lines on the cerebral cortex. As a result, we obtained a dense 3D variability map which can be seen as the diagonal elements of the Green's function of the Brain accross subjects. We will first present new results which extend this modeling with non-diagonal element by computing significantly correlated regions in the brain. Finally, we will discuss some recent methods for computing statistics on diffeomorphisms and show how the computational advances they bring practically improves non-linear registration algorithm.

  • Maël Primet (MAP5, Université Paris Descartes)

    Titre: ``Suivi d'objets en mouvement : revue et développements''

    Résumé: Le suivi d'objets dans une séquence vidéo est un problème fréquemment rencontré dans les domaines de la vision et du traitement d'image, de part ses nombreuses applications : pour le suivi de personnes ou de véhicules (surveillance), la compression des signaux vidéo (MPEG), de nombreuses applications scientifiques (comptage et suivi de cellules), ou l'amélioration d'algorithmes existants (déflouage, super-résolution). Nous nous proposons d'effectuer une revue des principaux cadres et algorithmes de suivi d'objets utilisés aujourd'hui (se basant sur des principes d'optimisation ou sur des cadres statistiques), et de présenter des pistes de développement utilisant le cadre a contrario de Desolneux, Moisan et Morel pour améliorer les algorithmes existants ou en proposer de nouveaux.

  • Julien Rabin (TSI, Telecom Paris)

    Titre: ``Des descripteurs locaux aux objets, approches a contrario pour la mise en correspondance d'images''
    (en collaboration avec Julie Delon et Yann Gousseau, TELECOM ParisTech)

    Résumé: La représentation des images par des descripteurs géométriques locaux s'est imposée dans nombre d'applications comme la détection d'objets, l'identification de scène, la reconstruction 3D, la création de panorama, etc. Ces descripteurs sont généralement construits autour de points d'intérêt, par exemple sous la forme d'histogrammes locaux d'orientation du gradient de l'image (cas des descripteurs SIFT proposés par D. Lowe), ce qui leur permet d'être invariants ou robustes à de nombreuses transformations et altérations de l'image. Dans cet exposé, on s'intéresse à l'appariement de tels descripteurs. Pour chaque descripteur d'un ensemble de requêtes, on souhaite décider s'il ressemble ou non à certains descripteurs d'une base de données. Dans la littérature, cette étape se résume souvent au choix d'un seuil sur la distance euclidienne au plus proche voisin. La procédure de mise en correspondance que nous proposons utilise d'une part une distance de transport entre descripteurs et d'autre part une approche a contrario qui permet de valider ou pas les mises en correspondance. Cette approche fournit des seuils de validation qui s'adaptent automatiquement à la complexité de chaque descripteur requête et à la diversité de la base de données. Elle permet à la fois de détecter plusieurs occurrences d'une même requête et de gérer correctement les cas où aucune de ces requêtes n'est présente dans la base de données. Aux appariements ainsi validés correspondent des transformations dans le plan des images. La détection de groupes géométriquement cohérents permet in fine de reconnaître des "formes globales" entre les images considérées.

  • Frédéric Richard (MAP5, Université Paris Descartes)

    Titre: ``Tests statistiques d'anisotropie sur textures browniennes et applications en imagerie médicale''

    Résumé: Nous présentons une méthode d'analyse de textures qui inclut de nouveaux tests statistiques d'anisotropie. Cette méthode, qui est basée sur des modèles de champs aléatoires browniens fractionnaires anisotropes, repose sur l'utilisation d'estimateurs de paramètres directionnels pour lesquels nous avons établi des résultats de convergence. Nous appliquons cette méthode à deux problèmes importants d'imagerie médicale : la caractérisation de la densité des seins à partir des textures mammographiques et la caractérisation de l'ostéoporose à partir des radiographies d'os.

  • Nicolas Rougon (ARTEMIS, Telecom &er; Management SudParis)

    Titre: ``Mesures d'informations généralisées pour le recalage, la segmentation et le filtrage statistique d'images''

    Résumé: L'utilisation de mesures d'information dans le cadre d'approches variationnelles de recalage et de segmentation d'images a fait l'objet d'actives recherches en vision par ordinateur et en imagerie médicale. En raison de l'universalité du cadre de Shannon en l'absence de connaissances a priori, ces recherches se sont focalisés sur l'information mutuelle et sur des mesures entropiques dérivées. La pertinence de mesures d'information non Shannoniennes a toutefois été suggérée et investiguée dans des contextes restreints : recalage rigide par f-informations, segmentation par régions actives pour les flots de Bhattacharyaa, Hellinger et Renyi.
    Dans cet exposé, nous présenterons une synthèse de nos travaux en vue d'élaborer un cadre variationnel statistique de portée générale pour la vision bas-niveau fondé sur la classe de mesures d'information d'Ali-Silvey. Nous aborderons successivement :
    - leur optimisation sur des espaces de transformations spatiales régulières (de dimension finie ou infinie), aboutissant à des modèles de recalage non rigide statistique;
    - leur optimisation sur des espaces de formes régulières, conduisant à des modèles (paramétriques ou non paramétriques) de régions actives statistiques (info-snakes); les différences avec des modèles dérivés d'approximations ergodiques des mesures associées seront en particulier discutées;
    - l'application de flots de type info-snake à la décomposition morphologique d'une image en ensembles de niveau, débouchant sur des modèles non-locaux de filtrage statistique par EDP.

  • Neus Sabater (CMLA, École Normale Supérieure de Cachan)

    Titre: ``Meaningful Matches in Stereovision''

    Résumé: Binocular stereo reconstruction algorithms aim at reconstructing a 3D model of a scene from two or more images acquired from different angles. Assuming that the cameras are calibrated and the image stereo-rectified, our work focuses on the correspondence process in a pair of stereo images. We shall focus on the simplest and probably the most popular method, namely the block or patch matching, which compares iteratively windows, or patches, of the left image with windows of the right image in an epipolar neighborhood. Conventionally, manual thresholding is used to decide when a patch is similar to another. Because of occlusions we cannot presuppose the existence of correspondences for any pixel in the image. Thus, a decision must be taken of whether a patch in the left image actually meaningfully matches or not to its best match in the right image. We shall address this problem in a statistical setting usually called the a contrario approach.

  • Joseph Salmon (LPMA, Université Paris 7)

    Titre: ``Survol sur l'agrégation d'estimateurs en lien avec les NL-Means''

    Résumé: Depuis leur introduction, la méthode de débruitage d'image numérique par NL-Means a su prouver son efficacité numérique. Les performances actuelles font de cette méthode un "état de l'art" dans le domaine. Pour autant, le cadre théorique des NL-Means reste en grande partie à développer. Dans cette présentation, après avoir rappelé le fonctionnement de la méthode elle-même, nous envisagerons une voie permettant de rendre compte de son efficacité. Nous ferons donc un survol des techniques dites "d'agrégation d'estimateurs " en abordant les points suivants: poids exponentiels, optimalité et PAC-Bayesien, à la lumière des travaux récents dans ce domaine.

  • Alain Trouvé (CMLA, École Normale Supérieure de Cachan)



  • Nicolas Vayatis (CMLA, École Normale Supérieure de Cachan)

    Titre: ``On ROC curves from the viewpoint of statistical learning''
    (joint work with Stéphan Clémençon, Telecom-ParisTech)

    Résumé: Receiver Operating Characteristic (ROC) curves were first introduced to measure the performance of detection devices used in signal processing. Now, ROC curves have become a standard tool for visualizing test results in medical diagnosis. These curves have also been considered for assessing performance in ranking applications. In the talk, I will present learning methods based on the optimization the ROC curve and related performance measures.

  • Tieyong Zeng (CMLA, École Normale Supérieure de Cachan)

    Titre: ``Statistical approach for dictionary learning''
    (joint work with Alain Trouvé, ENS Cachan)

    Résumé: This talk explores the dictionary learning problem. The developing point of view is to regard this problem as a parameter estimation problem in a family of additive generative models. The introduction of random on/off switches of Bernoulli activating or deactivating each element of a translation invariant dictionary to be estimated allows the identification under rather general conditions in particular if the coefficients are Gaussian. By using an EM variational technique and the approximation of the posterior distribution by mean field, we derive from an estimation principle by maximum likelihood a new effective algorithm of dictionary learning which one can connect for certain aspects with algorithm K-SVD. The experimental results on synthetic data illustrate the possibility of a correct identification of a source dictionary and several applications in image decomposition and image denoising.