|
Les Publications
Résultat de la recherche dans la liste des publications :
90 Rapports de recherche et Rapports techniques |
44 - Dictionary-based Stochastic Expectation-Maximization for SAR amplitude probability density function estimation. G. Moser et J. Zerubia et S.B. Serpico. Rapport de Recherche 5154, INRIA, France, mars 2004. Mots-clés : Radar a Ouverture Synthetique (SAR), EM Stochastique (SEM), Modeles de melange fini.
@TECHREPORT{5154,
|
author |
= |
{Moser, G. and Zerubia, J. and Serpico, S.B.}, |
title |
= |
{Dictionary-based Stochastic Expectation-Maximization for SAR amplitude probability density function estimation}, |
year |
= |
{2004}, |
month |
= |
{mars}, |
institution |
= |
{INRIA}, |
type |
= |
{Research Report}, |
number |
= |
{5154}, |
address |
= |
{France}, |
url |
= |
{https://hal.inria.fr/inria-00071429}, |
pdf |
= |
{https://hal.inria.fr/file/index/docid/71429/filename/RR-5154.pdf}, |
ps |
= |
{https://hal.inria.fr/docs/00/07/14/29/PS/RR-5154.ps}, |
keyword |
= |
{Radar a Ouverture Synthetique (SAR), EM Stochastique (SEM), Modeles de melange fini} |
} |
Résumé :
En télédetection, un problème vital est le besoin de développer des modèles précis pour représenter les statistiques des intensités des images. Dans ce rapport de recherche, nous traitons le problème de l'estimation de la densité de probabilité de l'amplitude d'une image de type Radar à Synthèse d'Ouverture (RSO). Plusieurs modèles théoriques ou heuristiques, ultilisés pour représenter l'amplitude d'un signal du type RSO, ont été proposés dans la littérature et ce sont révelés être efficaces pour différentes types de classes dans le contexte des cartes d'occupation des sols, rendant ainsi difficile le choix d'une seule densité de probabilité paramétrique. Dans ce rapport de recherche, un algorithme d'estimation innovant est proposé, se fondant sur un modèle de mélange fini pour la densité de probabilité de l'amplitude, les diverses composantes du mélange appartenant à un dictionnaire specifique. La mèthode proposée dans ce rapport intégre, de fa on automatique, les procédures de sélection d'un modèle optimal pour chaque composante, d'estimation de paramètres et d'optimisation du nombre de composantes, en combinant un algorithme EM stochastique et la méthode des logs-cumulants pour l'estimation de la densité de probabilité paramètrique. Des resultats expérimentaux sur plusieurs images RSO réelles sont présentés, montrant ainsi que la mèthode proposée est suffisamment précise pour modéliser les statistiques du signal d'amplitude radar de type RSO. |
Abstract :
In the context of remotely sensed data analysis, a crucial problem is represented by the need to develop accurate models for the statistics of the pixel intensities. In the current research report, we address the problem of parametric probability density function (PDF) estimation in the context of Synthetic Aperture Radar (SAR) amplitude data analysis. Specifically, several theoretical and heuristic models for the PDFs of SAR data have been proposed in the literature, and have been proved to be effective for different land-cover typologies, thus making the choice of a single optimal SAR parametric PDF a hard task. In thia report, an innovative estimation algorithm is proposed, which addresses this problem by adopting a finite mixture model (FMM) for the amplitude PDF, with mixture components belonging to a given dictionary of SAR-specific PDFs. The proposed method automatically integrates the procedures of selection of the optimal model for each component, of parameter estimation, and of optimization of the number of components, by combining the Stochastic Expectation Maximization (SEM) iterative methodology and the recently proposed «method-of-log-cumulants» (MoLC) for parametric PDF estimation for non-negative random variables. Experimental results on several real SAR images are presented, showing the proposed method is accurately modelling the statistics of SAR amplitude data. |
|
45 - Models of the Unimodal and Multimodal Statistics of Adaptive Wavelet Packet Coefficients. R. Cossu et I. H. Jermyn et K. Brady et J. Zerubia. Rapport de Recherche 5122, INRIA, France, février 2004. Mots-clés : Paquet d'ondelettes, Texture.
@TECHREPORT{5122,
|
author |
= |
{Cossu, R. and Jermyn, I. H. and Brady, K. and Zerubia, J.}, |
title |
= |
{Models of the Unimodal and Multimodal Statistics of Adaptive Wavelet Packet Coefficients}, |
year |
= |
{2004}, |
month |
= |
{février}, |
institution |
= |
{INRIA}, |
type |
= |
{Research Report}, |
number |
= |
{5122}, |
address |
= |
{France}, |
url |
= |
{https://hal.inria.fr/inria-00071461}, |
pdf |
= |
{https://hal.inria.fr/file/index/docid/71461/filename/RR-5122.pdf}, |
ps |
= |
{https://hal.inria.fr/docs/00/07/14/61/PS/RR-5122.ps}, |
keyword |
= |
{Paquet d'ondelettes, Texture} |
} |
Résumé :
De récents travaux ont montré que bien que les histogrammes de sous-bandes pour les coefficients d'ondelettes standards ont une forme de gaussienne généralisée, ce n'est plus vrai pour les bases de paquets d'ondelettes adaptés à une certaine texture. Trois types de statistiques sont alors observés pour les sous-bandes: gaussienne, gaussienne generalisée et dans certaines sous-bandes des histogrammes multimodaux sans mode en zéro. Dans ce rapport, nous démontrons que ces sous-bandes sont étroitement liées à la structure de la texture et sont ainsi primordiales dans les applications dans lesquelles la texture joue un rôle important. Fort de ces observations, nous étendons l'approche de modélisation de textures proposée par en incluant ces sous-bandes. Nous modifions l'hypothèse gaussienne pour inclure les gaussiennes généralisées et les mixtures de gaussiennes contraintes. Nous utilisons une méthodologie bayésienne, définissant des estimateurs MAP pour la base adaptative, pour la sélection du modèle de la sous-bande et pour les paramètres de ce modèle. Les résultats confirment l'efficacité de la méthode proposée et soulignent l'importance des sous-bandes multimodales pour la discrimination et la modélisation de textures. |
Abstract :
In recent work, it was noted that although the subband histograms for standard wavelet coefficients take on a generalized Gaussian form, this is no longer true for wavelet packet bases adapted to a given texture. Instead, three types of subband statistics are observed: Gaussian, generalized Gaussian, and most interestingly, in some subbands, multimodal histograms with no mode at zero. As will be demonstrated in this report, these latter subbands are closely linked to the structure of the texture, and are thus likely to be important for many applications in which texture plays a role. Motivated by these observations, we extend the approach to texture modelling proposed by to include these subbands. We relax the Gaussian assumption to include generalized Gaussians and constrained Gaussian mixtures. We use a Bayesian methodology, finding MAP estimates for the adaptive basis, for subband model selection, and for subband model parameters. Results confirm the effectiveness of the proposed approach, and highlight the importance of multimodal subbands for texture discrimination and modelling. |
|
46 - Structure and Texture Compression. J.F. Aujol et B. Matei. Rapport de Recherche 5076, INRIA, France, janvier 2004. Mots-clés : Espace Variations Bornees, Decomposition d'images, Texture, Structure.
@TECHREPORT{5076,
|
author |
= |
{Aujol, J.F. and Matei, B.}, |
title |
= |
{Structure and Texture Compression}, |
year |
= |
{2004}, |
month |
= |
{janvier}, |
institution |
= |
{INRIA}, |
type |
= |
{Research Report}, |
number |
= |
{5076}, |
address |
= |
{France}, |
url |
= |
{https://hal.inria.fr/inria-00071507}, |
pdf |
= |
{https://hal.inria.fr/file/index/docid/71507/filename/RR-5076.pdf}, |
ps |
= |
{https://hal.inria.fr/docs/00/07/15/07/PS/RR-5076.ps}, |
keyword |
= |
{Espace Variations Bornees, Decomposition d'images, Texture, Structure} |
} |
Résumé :
Dans ce papier, nous nous intéressons au problème de la compression d'image. Les ondelettes se sont révélées être un outil particulièremment efficace . Récemment, de nombreux algorithmes ont été proposés pour amméliorer la compression par ondelettes en essayant de prendre en compte les strucutres présentes dans l'image. De telles méthodes se révèlents très efficaces pour les images géométriques. Nous construisons un algorithme de compression d'images qui prend en compte la géométrie de l'image tout en étant capable d'être performant sur des images contenant à la fois des structures et des textures. Pour cela, nous utilisons un algorithme de décomposition d'image récemment introduit dans . Cet algorithme permet de séparer une image en deux composantes, une première composante contenant l'information géométrique de l'image, et une deuxième contenant les éléments oscillants de l'image. L'idée de notre méthode de compression est la suivante. Nous commen ons par décomposer l'image à compresser en sa partie géométrique et sa partie oscillante. Nous effectuons ensuite la compression de la partie géométrique à l'aide de l'algorithme introduit dans , ce dernier étant particulièrement bien adapté pour la compression des structures d'une image. Pour la partie oscillante de l'image, nous utilisons l'algorithme classique de compression par ondelettes biorthogonales. sur les zones régulières d'une image). l'image. Notre nouvel algorithme de compression s'avère plus performant que la méthode classique par ondelettes biorthogonales. meilleurs à la fois en PSNR, et aussi visuellement (les bords sont plus précis et les textures sont mieux conservées). |
Abstract :
In this paper, we tackle the problem of image compression. During the last past years, many algorithms have been proposed to take advantage of the geometry of the image. We intend here to propose a new compression algorithm which would take into account the structures in the image, and which would be powerful even when the original image has some textured areas. To this end, we first split our image into two components, a first one containing the structures of the image, and a second one the oscillating patterns. We then perform the compression of each component separately. Our final compressed image is the sum of these two compressed components. This new compression algorithm outperforms the standard biorthogonal wavelets compession. |
|
47 - Contours Actifs d'Ordre Supérieur Appliqués à la Détection de Linéiques dans des Images de Télédétection. M. Rochery et I. H. Jermyn et J. Zerubia. Rapport de Recherche 5063, INRIA, France, décembre 2003. Mots-clés : Reseaux lineiques, Contour actif, Modeles deformables, Extraction d'objets.
@TECHREPORT{RRRochery03,
|
author |
= |
{Rochery, M. and Jermyn, I. H. and Zerubia, J.}, |
title |
= |
{Contours Actifs d'Ordre Supérieur Appliqués à la Détection de Linéiques dans des Images de Télédétection}, |
year |
= |
{2003}, |
month |
= |
{décembre}, |
institution |
= |
{INRIA}, |
type |
= |
{Research Report}, |
number |
= |
{5063}, |
address |
= |
{France}, |
url |
= |
{https://hal.inria.fr/inria-00071521}, |
pdf |
= |
{https://hal.inria.fr/file/index/docid/71521/filename/RR-5063.pdf}, |
ps |
= |
{https://hal.inria.fr/docs/00/07/15/21/PS/RR-5063.ps}, |
keyword |
= |
{Reseaux lineiques, Contour actif, Modeles deformables, Extraction d'objets} |
} |
Résumé :
Dans ce rapport, nous présentons une nouvelle méthode pour l'incorporation d'une information sur la géométrie a priori dans le cadre des contours actifs. Nous introduisons une nouvelle classe de contours actifs d'ordre supérieur, qui sont des énergies quadratiques sur l'espace des 1-chaînes, contrairement aux énergies classiquement utilisées qui sont linéaires. Ces énergies permettent de définir des interactions non triviales entre les différents points du contour. Elles donnent naissance à des forces non locales, permettant ainsi d'introduire une information géométrique forte dans le modèle. D'un point de vue algorithmique, nous utilisons la méthodologie par courbes de niveau afin de trouver le minimum de l'énergie, la présence de forces non locales nécessitant une extension des méthodes standard utilisées pour l'évolution que nous décrivons. Nous utilisons ce nouveau modèle pour la détection de linéiques (routes, rivières, ...) dans les images de télédétection et nous montrons des résultats d'extraction sur des images réelles. |
Abstract :
In this report, we introduce a new class of active contour energies, quadratic on the space of 1-chains, as opposed to classical energies, which are linear. These energies define non trivial interactions between different points of the contour, and thus allow the incorporation of a priori shape information through the generation of non-local forces that carry geometric information. They also allow the definition of complex data terms linking the data at different points of the contour. To solve the models, we use the level set methodology, in the process extending the standard evolution methods to deal with the non-locality of the forces involved. We use this new approach in order to define models for the extraction of line networks (roads, rivers, ...) in satellite imagery. We show some results on real-world images. |
|
48 - A Multiresolution Approach for Shape from Shading Coupling Deterministic and Stochastic Optimization. A. Crouzil et X. Descombes et J.D. Durou. Rapport de Recherche 5006, INRIA, France, décembre 2003. Mots-clés : Shape from shading, Recuit Simule, Optimisation, Multiresolution.
@TECHREPORT{Crouzil03,
|
author |
= |
{Crouzil, A. and Descombes, X. and Durou, J.D.}, |
title |
= |
{A Multiresolution Approach for Shape from Shading Coupling Deterministic and Stochastic Optimization}, |
year |
= |
{2003}, |
month |
= |
{décembre}, |
institution |
= |
{INRIA}, |
type |
= |
{Research Report}, |
number |
= |
{5006}, |
address |
= |
{France}, |
url |
= |
{https://hal.inria.fr/inria-00071578}, |
pdf |
= |
{https://hal.inria.fr/file/index/docid/71578/filename/RR-5006.pdf}, |
ps |
= |
{https://hal.inria.fr/docs/00/07/15/78/PS/RR-5006.ps}, |
keyword |
= |
{Shape from shading, Recuit Simule, Optimisation, Multiresolution} |
} |
Résumé :
Le Shape from shading est un problème inverse mal posé pour lequel aucune méthode de résolution complètement satisfaisante n'a encore été proposée. Dans ce rapport technique, nous ramenons le à un problème d'optimisation. Nous montrons d'abord que l'approche déterministe fournit des algorithmes efficaces en termes de temps de calcul, mais est d'un intérêt limité lorsque l'énergie comporte des minima locaux très profonds. Nous proposons comme alternative une approche stochastique utilisant le recuit simulé. Les résultats obtenus dépassent largement ceux de l'approche déterministe. La contrepartie est l'extrême lenteur du processus d'optimisation. Pour cette raison, nous proposons une approche hybride qui combine les approches déterministe et stochastique dans un cadre de multi-résolution. |
Abstract :
Shape from shading is an ill-posed inverse problem for which there is no completely satisfactory solution in the existing literature. In this technical report, we address shape from shading as an energy minimization problem. We first show that the deterministic approach provides efficient algorithms in terms of CPU time, but reaches its limits since the energy associated to shape from shading can contain multiple deep local minima. We derive an alternative stochastic approach using simulated annealing. The obtained results strongly outperform the results of the deterministic approach. The shortcoming is an extreme slowness of the optimization. Therefore, we propose an hybrid approach which combines the deterministic and stochastic approaches in a multiresolution framework. |
|
49 - A Binary Tree-Structured MRF Model for Multispectral Satellite Image Segmentation. G. Scarpa et G. Poggi et J. Zerubia. Rapport de Recherche 5062, INRIA, France, décembre 2003. Mots-clés : Estimation bayesienne, Classification, Champs de Markov, Modeles hierarchiques.
@TECHREPORT{Scarpa03,
|
author |
= |
{Scarpa, G. and Poggi, G. and Zerubia, J.}, |
title |
= |
{A Binary Tree-Structured MRF Model for Multispectral Satellite Image Segmentation}, |
year |
= |
{2003}, |
month |
= |
{décembre}, |
institution |
= |
{INRIA}, |
type |
= |
{Research Report}, |
number |
= |
{5062}, |
address |
= |
{France}, |
url |
= |
{https://hal.inria.fr/inria-00071522}, |
pdf |
= |
{https://hal.inria.fr/file/index/docid/71522/filename/RR-5062.pdf}, |
ps |
= |
{https://hal.inria.fr/docs/00/07/15/22/PS/RR-5062.ps}, |
keyword |
= |
{Estimation bayesienne, Classification, Champs de Markov, Modeles hierarchiques} |
} |
Résumé :
Dans ce rapport, nous proposons un modèle markovien a priori structuré à arbre binaire (le TS-MRF) pour la segmentation d'images satellitaires multispectrales. Ce modèle permet de représenter un champ bidimensionnel par une séquence de champs de Markov binaires, chacun correspondant à un noeud de l'arbre. Pour avoir une bonne classification, on peut adapter le modèle TS-MRF à la structure intrinsèque des données, en définissant un MRF, à plusieurs paramètres, très flexible. Bien que l'on définisse le modèle global sur tout l'arbre, l'optimisation et l'estimation peuvent être poursuivis en considérant un noeud à la fois, à partir de la racine jusqu'aux feuilles, avec une réduction significative de la complexité. En effet, on a montré expérimentalement que l'algorithme global est beaucoup plus rapide qu'un algorithme conventionnel fondé sur le modèle markovien d'Ising, en particulier quand le nombre des bandes spectrales est très grand. Grâce à la procédure d'optimisation séquentielle, ce modèle permet aussi de déterminer le nombre des classes présentes dans l'image satellitaire, dans le cadre d'une classification non supervisée, à travers une condition d'arrêt définie localement pour chaque noeud. Nous avons effectué des expériences sur une image SPOT de la baie de Lannion, pour laquelle nous disposons d'une vérité terrain, et nous avons trouvé que le modèle proposé fournit de meilleurs résultats que certains autres modèles de Markov et que d'autres méthodes variationnelles. |
Abstract :
In this work we detail a tree-structured MRF (TS-MRF) prior model useful for segmentation of multispectral satellite images. This model allows a hierarchical representation of a 2-D field by the use of a sequence of binary MRFs, each corresponding to a node in the tree. In order to get good performances, one can fit the intrinsic structure of the data to the TS-MRF model, thereby defining a multi-parameter, flexible, MRF. Although a global MRF model is defined on the whole tree, optimization as well estimation can be carried out by working on a single node at a time, from the root down to the leaves, with a significant reduction in complexity. Indeed the overall algorithm is proved experimentally to be much faster than a comparable algorithm based on a conventional Ising MRF model, especially when the number of bands becomes very large. Thanks to the sequential optimization procedure, this model also addresses the cluster validation problem of unsupervised segmentation, through the use of a stopping condition local to each node. Experiments on a SPOT image of the Lannion Bay, a ground-truth of which is available, prove the superior performance of the algorithm w.r.t. some other MRF based algorithms for supervised segmentation, as well as w.r.t. some variational methods. |
|
50 - Flattening of 3D Data. R. Acar et B.W. Seales. Rapport de Recherche 5048, INRIA, France, décembre 2003. Mots-clés : Conservation numerique, Analyse de documents, Restauration.
@TECHREPORT{Acar03,
|
author |
= |
{Acar, R. and Seales, B.W.}, |
title |
= |
{Flattening of 3D Data}, |
year |
= |
{2003}, |
month |
= |
{décembre}, |
institution |
= |
{INRIA}, |
type |
= |
{Research Report}, |
number |
= |
{5048}, |
address |
= |
{France}, |
url |
= |
{https://hal.inria.fr/inria-00071535}, |
pdf |
= |
{https://hal.inria.fr/file/index/docid/71535/filename/RR-5048.pdf}, |
ps |
= |
{https://hal.inria.fr/docs/00/07/15/35/PS/RR-5048.ps}, |
keyword |
= |
{Conservation numerique, Analyse de documents, Restauration} |
} |
Résumé :
Le but du projet de la bibliothèque numérique est de numériser les collections spéciales des bibliothèques; ceci consiste à transformer en données binaires des photographies du contenu de manuscripts rares ou anciens. L'objet, typiquement, n'est pas dans un plan. On enregistre, en même temps que des photographies de l'objet non plat et du texte déformé qui s'y trouve, la forme et la position de sa surface en utilisant un laseromètre. La manière de se servir de cette information pour enlever la distortion de la photographie avant d'enregistrer l'image numérique est alors un problème mathématique. Nous en examinons une formulation variationnelle et l'implantation correspondante. |
Abstract :
The digital library project strives to digitise special collections of libraries; this consists in storing as binary data, photographs of the content of ancient or rare manuscripts. The object is typically not in a flat plane. One collects, along with the photograph of the unflattened object (and the inevitably distorted text), a positional reading of its surface using laserometer. It is then a mathematical problem of how to use the latter information to undo the distortion of the photograph before storing the digitised image. |
|
51 - Extraction de Houppiers par Processus Objet. G. Perrin et X. Descombes et J. Zerubia. Rapport de Recherche 5037, INRIA, France, décembre 2003. Mots-clés : Extraction d'objets, Extraction de Houppiers, Geometrie stochastique, Processus ponctuels marques, RJMCMC.
@TECHREPORT{Perrin03,
|
author |
= |
{Perrin, G. and Descombes, X. and Zerubia, J.}, |
title |
= |
{Extraction de Houppiers par Processus Objet}, |
year |
= |
{2003}, |
month |
= |
{décembre}, |
institution |
= |
{INRIA}, |
type |
= |
{Research Report}, |
number |
= |
{5037}, |
address |
= |
{France}, |
url |
= |
{https://hal.inria.fr/inria-00071547}, |
pdf |
= |
{https://hal.inria.fr/file/index/docid/71547/filename/RR-5037.pdf}, |
ps |
= |
{https://hal.inria.fr/docs/00/07/15/47/PS/RR-5037.ps}, |
keyword |
= |
{Extraction d'objets, Extraction de Houppiers, Geometrie stochastique, Processus ponctuels marques, RJMCMC} |
} |
Résumé :
Nous cherchons à extraire des houppiers à partir d'images de télédétection. Pour ce faire, nous construisons un processus objet et assimilons nos images d'arbres à des réalisations de ce processus. La première étape consiste à définir d'une part les objets géométriques modélisant les arbres, et d'autre part la densité du processus à simuler.La seconde étape consiste à construire un algorithme MCMC à sauts réversibles, et une estimée de la configuration d'objets. Les transitions aléatoires de la chaîne sont régies par des noyaux de propositions, chacun étant associé à une perturbation.Nous testons notre modèle sur des images aériennes de peupleraies fournies par l'IFN. |
Abstract :
In this paper we aim at extracting tree crowns from remotely sensed images. Our approach is to consider that these images are some realizations of a marked point process. The first step is to define the geometrical objects that design the trees, and the density of the process.Then, we use a reversible jump MCMC dynamics and a simulated annealing to get the maximum a posteriori estimator of the tree crowns distribution on the image. Transitions of the Markov chain are managed by some specific proposition kernels.Results are shown on aerial images of poplars given by IFN. |
|
52 - Texture-adaptive mother wavelet selection for texture analysis. G.C.K. Abhayaratne et I. H. Jermyn et J. Zerubia. Research Report, INRIA, France, décembre 2003.
@TECHREPORT{Abhayaratne,
|
author |
= |
{Abhayaratne, G.C.K. and Jermyn, I. H. and Zerubia, J.}, |
title |
= |
{Texture-adaptive mother wavelet selection for texture analysis}, |
year |
= |
{2003}, |
month |
= |
{décembre}, |
institution |
= |
{INRIA}, |
type |
= |
{Research Report}, |
address |
= |
{France}, |
url |
= |
{https://hal.inria.fr/hal-01208017}, |
pdf |
= |
{Rapports/RR-8783.pdf}, |
keyword |
= |
{} |
} |
|
53 - A Probabilistic Framework for Adaptive Texture Description. K. Brady et I. H. Jermyn et J. Zerubia. Rapport de Recherche 4920, INRIA, France, septembre 2003. Mots-clés : Segmentation, Texture, Paquet d'ondelettes.
@TECHREPORT{4920,
|
author |
= |
{Brady, K. and Jermyn, I. H. and Zerubia, J.}, |
title |
= |
{A Probabilistic Framework for Adaptive Texture Description}, |
year |
= |
{2003}, |
month |
= |
{septembre}, |
institution |
= |
{INRIA}, |
type |
= |
{Research Report}, |
number |
= |
{4920}, |
address |
= |
{France}, |
url |
= |
{https://hal.inria.fr/inria-00071659}, |
pdf |
= |
{https://hal.inria.fr/file/index/docid/71659/filename/RR-4920.pdf}, |
ps |
= |
{https://hal.inria.fr/docs/00/07/16/59/PS/RR-4920.ps}, |
keyword |
= |
{Segmentation, Texture, Paquet d'ondelettes} |
} |
Résumé :
Ce rapport présente le développement d'un nouveau cadre probabiliste cohérent pour la description adaptative de texture. En partant d'une distribution de probabilité sur un espace d'images infinies, nous générons une distribution sur des régions finies par marginalisation. Pour une distribution gaussienne, les contraintes de calcul imposées par la diagonalisation nous conduisent naturellement à des modèles utilisant des paquets d'ondelettes adaptatifs. Ces modèles reflètent les principales périodicités présentes dans les textures et permettent également d'avoir des corrélations à longue portée tout en préservant l'indépendance des coefficients des paquets d'ondelettes. Nous avons appliqué notre méthode à la segmentation. Deux types de données figurent dans notre ensemble de test: des mosaïques synthétiques de Brodatz et des images satellitaires haute résolution. Dans le cas des textures synthétiques, nous utilisons la version non-décimée de la transformée en paquets d'ondelettes afin de diagonaliser la distribution gaussienne de manière efficace, bien qu'approximative. Cela nous permet d'effectuer une classification de la mosaique pixel par pixel. Une étape de régularisation est ensuite effectuée afin d'arriver à un résultat de segmentation final plus lisse. Afin d'obtenir les meilleurs résultats possibles dans le cas de données réelles, la moyenne de la distribution est ensuite introduite dans le modèle. L'approximation faite pour la classification des mosaiques de textures synthetiques a été testée sur des images réelles, mais les résultats obtenus n'étaient pas satisfaisants. C'est pourquoi nous avons introduit, pour ce type de données, une technique de classification heuristique basée sur la transformée en paquets d'ondelettes décimée. Les résultats de segmentation sont ensuite régularisés à l'aide de la même méthode que dans le cas synthétique. Nous présentons les résultats pour chaque type de données et concluons par une discussion. |
Abstract :
This report details the development of a probabilistic framework for adaptive texture description. Starting with a probability distribution on the space of infinite images, we generate a distribution on finite regions by marginalisation. For a Gaussian distribution, the computational requirement of diagonalisation leads naturally to adaptive wavelet packet models which capture the principal periodicities present in the textures and allow long-range correlations while preserving the independence of the wavelet packet coefficients. These models are then applied to the task of segmentation. Two data types are included in our test bed: synthetic Brodatz mosaics and high-resolution satellite images. For the case of the synthetic textures, undecimated versions of the wavelet packet transform are used to diagonalise the Gaussian distribution efficiently, albeit approximately. This enables us to perform a pixelwise classification of the mosaics. A regularisation step is then implemented in order to arrive at a smooth final segmentation. In order to obtain the best possible results for the real dataset, the mean of the distribution is included in the model. The approximation made for the classification of the synthetic texture mosaics is tested on the remote sensing images, but it produces unsatisfactory results. Therefore we introduce a heuristic classification technique for this dataset, based on a decimated wavelet packet transform. The resulting segmentation is then regularised using the same method as in the synthetic case. Results are presented for both types of data and a discussion follows. |
|
54 - Automatic 3D Land Register Extraction from Altimetric Data in Dense Urban Areas. M. Ortner et X. Descombes et J. Zerubia. Rapport de Recherche 4919, INRIA, France, septembre 2003. Mots-clés : Extraction d'objets, Batiments, RJMCMC, Geometrie stochastique, Modele numerique d'elevation (MNE), Processus ponctuels marques.
@TECHREPORT{4919,
|
author |
= |
{Ortner, M. and Descombes, X. and Zerubia, J.}, |
title |
= |
{Automatic 3D Land Register Extraction from Altimetric Data in Dense Urban Areas}, |
year |
= |
{2003}, |
month |
= |
{septembre}, |
institution |
= |
{INRIA}, |
type |
= |
{Research Report}, |
number |
= |
{4919}, |
address |
= |
{France}, |
url |
= |
{https://hal.inria.fr/inria-00071660}, |
pdf |
= |
{https://hal.inria.fr/file/index/docid/71660/filename/RR-4919.pdf}, |
ps |
= |
{https://hal.inria.fr/docs/00/07/16/60/PS/RR-4919.ps}, |
keyword |
= |
{Extraction d'objets, Batiments, RJMCMC, Geometrie stochastique, Modele numerique d'elevation (MNE), Processus ponctuels marques} |
} |
Résumé :
Ce travail présente un algorithme qui extrait automatiquement un plan cadastral de la description altimétrique (relief) d'une zone urbaine dense. L'altimétrie d'une ville est une donnée qui est maintenant facilement accessible. Dans ce rapport, nous présentons par exemple des résultats sur deux types de données altimétriques : le premier consiste en un Modèle Numérique d'Elévation (MNE) obtenu par corrélation d'images optiques, le second correspond à un MNE obtenu par mesure LASER.Notre objectif principal est de définir un algorithme entièrement automatique capable d'extraire un grand nombre de bâtiments dans des zones urbaines denses.Nous nous intéressons donc plus particulièrement à l'extraction de formes élémentaires et proposons un algorithme qui modélise les bâtiments par des formes rectangulaires. Le résultat obtenu consiste en une carte cadastrale qui peut être utilisée pour faire une estimation précise des formes de toits, par exemple.L'algorithme proposé ici repose sur nos travaux précédents. Nous modélisons des villes par des configurations de rectangles auxquelles nous associons une énergie définie de manière à tenir compte aussi bien d'une information de bas niveau provenant des données utilisées que d'une connaissance géometrique de l'agencement des bâtiments dans les zones urbaines.L'estimation est ensuite faite en minimisant l'énergie définie grace à un recuit-simulé.Nous utilisons un échantilloneur MCMC qui est une combinaison de techniques générales de type Metropolis Hastings Green et de l'algorithme de simulation de processus ponctuel proposé par Geyer et Møller. Nous utilisons en particulier des noyaux de proposition originaux comme la naissance ou mort dans un voisinage, et nous définissons l'énergie par rapport à un processus ponctuel de Poisson non-homogène, ce qui permet d'améliorer le comportement dynamique de l'algorithme.Les resultats que nous présentons sont obtenus sur des donnée réelles fournies par l'IGN. Nous extrayons automatiquement des configurations composées d'une centaine de bâtiments sur des zones dont la taille est en moyenne de 200m sur 200m. L'erreur commise est en moyenne de 15. |
Abstract :
This work present an automatic algorithm that extract 3D land register from altimetric data in dense urban areas. Altimetry of a town is a data which is easily available yet difficult to exploit. For instance, we present here results on two kind of measurements : the first one consists in a Digital Elevation Model (DEM) built using a correlation algorithm and some optical data, while the second one consists in a DEM obtained by Laser measurments.Our main objective is to design an entirely automatic method that is able to deal with this kind of data in very dense urban areas.We thus focus on elementary shape extraction and propose an algorithm that extracts rectangular buildings. The result provided consists in a kind of vectorial land register map that can be used, for instance, to perform precise roof shape estimation.The proposed algorithm uses our previous work. Using a point process framework, we model towns as configuration of rectangles. An energy is defined, that takes into account both a low level information provided by the altimetry of the scene, and some geometric knowledge of the disposition of buildings in towns.The estimation is done by minimizing the energy using a simulated annealing. We use a MCMC sampler that is a combination of general Metropolis Hastings Green techniques and Geyer and Møller algorithm of sampling of point processes. We use some original proposition kernels, such as birth or death in a neighborhood and define the energy with respect to an inhomogeneous Poisson point process.We present results on real data provided by IGN (French Mapping Institute). Results were automatically obtained, on areas that are 200m by 200m large. These results consist in configurations of around 100 rectangles describing considered areas with an error of 15 missclassification. |
|
55 - Improved RJMCMC Point Process Sampler for Object Detection by Simulated Annealing. M. Ortner et X. Descombes et J. Zerubia. Rapport de Recherche 4900, INRIA, France, août 2003. Mots-clés : Batiments, Extraction d'objets, RJMCMC, Processus ponctuels marques.
@TECHREPORT{4900,
|
author |
= |
{Ortner, M. and Descombes, X. and Zerubia, J.}, |
title |
= |
{Improved RJMCMC Point Process Sampler for Object Detection by Simulated Annealing}, |
year |
= |
{2003}, |
month |
= |
{août}, |
institution |
= |
{INRIA}, |
type |
= |
{Research Report}, |
number |
= |
{4900}, |
address |
= |
{France}, |
url |
= |
{https://hal.inria.fr/inria-00071683}, |
pdf |
= |
{https://hal.inria.fr/file/index/docid/71683/filename/RR-4900.pdf}, |
ps |
= |
{https://hal.inria.fr/docs/00/07/16/83/PS/RR-4900.ps}, |
keyword |
= |
{Batiments, Extraction d'objets, RJMCMC, Processus ponctuels marques} |
} |
Résumé :
Nous commen ons par résumer l'algorithme de Geyer et Møller qui permet, en utilisant une chaîne de Markov, d'échantillonner des lois de processus ponctuels. Nous rappelons également le cadre théorique proposé par Green qui permet d'imposer la réversibilité d'une chaîne de Markov sous une loi désirée.Dans le cadre de nos applications en traitement d'image, nous sommes intéressés par la simulation de processus ponctuels dont la loi dépend fortement de la localisation géographique des points. Nous présentons donc ici des noyaux de proposition qui améliorent la capacité de l'algorithme de Geyer et Meyer à explorer les bons endroits de l'espace d'état. En particulier, nous proposons une transformation qui permet de faire apparaître ou disparaître des points dans un voisinage quelconque d'un autre point. Nous gardons également la possibilité de générer des points suivant une loi non uniforme.Nous construisons donc de tels noyaux de perturbations grâce au travail de Green de manière à garder la-(.) réversibilité de la chaîne de Markov construite. Nous démontrons ensuite les bonnes propriétés de stabilité qui assurent le bon comportement asymptotique de la chaîne. En particulier, grâce à une condition de «drift», nous montrons l'ergodicité géométrique et la récurrence de la chaîne au sens de Harris.Nous concluons en validant par l'expérience nos résultats théoriques, et en montrons leur utilité sur un exemple concret.Nous proposons d'ultimes améliorations pour conclure. |
Abstract :
We first recall Geyer and Møller algorithm that allows to sample point processes using a Markov chain. We also recall Green's framework that allows to build samplers on general state spaces by imposing reversibility of the designed Markov chain.Since in our image processing applications, we are interested by sampling highly spatially correlated and non-invariant point processes, we adapt these ideas to improve the exploration ability of the algorithm. In particular, we keep the ability of generating points with non-uniform distributions, and design an updating scheme that allows to generate points in some neighborhood of other points. We first design updating schemes under Green's framework to keep (.) reversibility of the Markov chain and then show that stability properties are not loosed. Using a drift condition we prove that the Markov chain is geometrically ergodic and Harris recurrent.We finally show on experimental results that these kinds of updates are usefull and propose other improvements. |
|
56 - Modeling very Oscillating Signals : Application to Image Processing. G. Aubert et J.F. Aujol. Rapport de Recherche 4878, INRIA, France, juillet 2003. Mots-clés : Espace Variations Bornees, Espaces de Sobolev, Decomposition d'images, Optimisation, Equation aux derivees partielles.
@TECHREPORT{4878,
|
author |
= |
{Aubert, G. and Aujol, J.F.}, |
title |
= |
{Modeling very Oscillating Signals : Application to Image Processing}, |
year |
= |
{2003}, |
month |
= |
{juillet}, |
institution |
= |
{INRIA}, |
type |
= |
{Research Report}, |
number |
= |
{4878}, |
address |
= |
{France}, |
url |
= |
{https://hal.inria.fr/inria-00071705}, |
pdf |
= |
{https://hal.inria.fr/file/index/docid/71705/filename/RR-4878.pdf}, |
ps |
= |
{https://hal.inria.fr/docs/00/07/17/05/PS/RR-4878.ps}, |
keyword |
= |
{Espace Variations Bornees, Espaces de Sobolev, Decomposition d'images, Optimisation, Equation aux derivees partielles} |
} |
Résumé :
Cet article complète le travail présenté dans cite{Aujol[3]} dans lequel nous avions développé l'analyse numérique d'un modéle variationnel, initialement introduit par L. Rudin, S. Osher and E. Fatemi cite{Rudin[1]}, et revisité depuis par Y. Meyer cite{Meyer[1]}, pour supprimer le bruit et isoler les textures dans une image. Dans un tel modèle, on décompose l'image f en deux composantes (u+v), u et v minimisant une énergie. La première composante u appartient à BV et contient l'information géométrique de l'image, alors que la seconde v appartient à un espace G qui contient les signaux à fortes oscillations, i.e. le bruit et les textures. Dans cite{Meyer[1]}, Y. Meyer effectue son étude dans ^2 entier, et son approche repose principalement sur des outils d'analyse harmonique. Nous nous pla ons dans le cas d'un ouvert borné de ^2, ce qui constitue le cadre adapté au traitement d'images, et notre approche repose sur des arguments d'analyse fonctionnelle. Nous définissons l'espace G dans ce cadre puis donnons quelques unes de ses propriétés. Nous étudions ensuite la fonctionnelle permettant de calculer les composantes u et v. |
Abstract :
This article is a companion paper of a previous work cite{Aujol[3]} where we have developed the numerical analysis of a variational model first introduced by L. Rudin, S. Osher and E. Fatemi cite{Rudin[1]} and revisited by Y. Meyer cite{Meyer[1]} for removing the noise and capturing textures in an image. The basic idea in this model is to decompose f into two components (u+v) and then to search for (u,v) as a minimizer of an energy functional. The first component u belongs to BV and contains geometrical informations while the second one v is sought in a space G which contains signals with large oscillations, i.e. noise and textures. In Y. Meyer carried out his study in the whole ^2 and his approach is rather built on harmonic analysis tools. We place ourselves in the case of a bounded set of ^2 which is the proper setting for image processing and our approach is based upon functional analysis arguments. We define in this context the space G, give some of its properties and then study in this continuous setting the energy functional which allows us to recover the components u and v. model signals with strong oscillations. For instance, in an image, this space models noises and textures. case of a bounded open set of ^2 which is the proper setting for image processing. We give a definition of G adapted to our case, and we show that it still has good properties to model signals with strong oscillations. In cite{Meyer[1]}, the author had also paved the way to a new model to decompose an image into two components: one in BV (the space of bounded variations) which contains the geometrical information, and one in G which consists in the noises ad the textures. An algorithm to perform this decomposition has been proposed in cite{Meyer[1]}. We show here its relevance in a continuous setting. |
|
57 - Image Denoising using Stochastic Differential Equations. X. Descombes et E. Zhizhina. Rapport de Recherche 4814, INRIA, France, mai 2003. Mots-clés : Debruitage.
@TECHREPORT{4814,
|
author |
= |
{Descombes, X. and Zhizhina, E.}, |
title |
= |
{Image Denoising using Stochastic Differential Equations}, |
year |
= |
{2003}, |
month |
= |
{mai}, |
institution |
= |
{INRIA}, |
type |
= |
{Research Report}, |
number |
= |
{4814}, |
address |
= |
{France}, |
url |
= |
{https://hal.inria.fr/inria-00071772}, |
pdf |
= |
{https://hal.inria.fr/file/index/docid/71772/filename/RR-4814.pdf}, |
ps |
= |
{https://hal.inria.fr/docs/00/07/17/72/PS/RR-4814.ps}, |
keyword |
= |
{Debruitage} |
} |
Résumé :
Ce rapport concerne le problème de la restauration d'image avec une approche par Équation Différentielle Stochastique. Nous considérons un processus de diffusion convergeant vers une mesure de Gibbs. L'hamiltonien de la mesure de Gibbs contient un terme d'interactions, apportant des contraintes de lissage sur la solution, et un terme d'attache aux données. Nous étudions deux schémas d'approximation discrète de la dynamique de Langevin associée à ce processus de diffusion : les approximation d'Euler et explicite forte de Taylor. La vitesse de convergence des algorithmes correspondants est comparée à celle de l'algorithme de Metropolis-Hasting. Des résultats sont montrés sur des images de synthèse et réelles. Il montrent la supériorité de l'approche proposée lorsque l'on considère un faible nombre d'itérations. |
Abstract :
We address the problem of image denoising using a Stochastic Differential Equation approach. We consider a diffusion process which converges to a Gibbs measure. The Hamiltonian of the Gibbs measure embeds an interaction term, providing smoothing properties, and a data term. We study two discrete approximations of the Langevin dynamics associated with this diffusion process: the Euler and the Explicit Strong Taylor approximations. We compare the convergence speed of the associated algorithms and the Metropolis-Hasting algorithm. Results are shown on synthetic and real data. They show that the proposed approach provides better results when considering a small number of iterations. |
|
58 - The Methodology and Practice of the Evaluation of Image Retrieval Systems and Segmentation Methods. I. H. Jermyn et C. Shaffrey et N. Kingsbury. Rapport de Recherche 4761, INRIA, France, mars 2003. Mots-clés : Base de donnees Image, Segmentation, Semantique.
@TECHREPORT{4761,
|
author |
= |
{Jermyn, I. H. and Shaffrey, C. and Kingsbury, N.}, |
title |
= |
{The Methodology and Practice of the Evaluation of Image Retrieval Systems and Segmentation Methods}, |
year |
= |
{2003}, |
month |
= |
{mars}, |
institution |
= |
{INRIA}, |
type |
= |
{Research Report}, |
number |
= |
{4761}, |
address |
= |
{France}, |
url |
= |
{https://hal.inria.fr/inria-00071825}, |
pdf |
= |
{https://hal.inria.fr/file/index/docid/71825/filename/RR-4761.pdf}, |
ps |
= |
{https://hal.inria.fr/docs/00/07/18/25/PS/RR-4761.ps}, |
keyword |
= |
{Base de donnees Image, Segmentation, Semantique} |
} |
Résumé :
La recherche d'images par le contenu est importante pour deux raisons. Premièrement, la croissance d'archives d'images fréquemment citée dans beaucoup d'applications, et l'expansion rapide du Web, signifient qu'il est nécessaire d'utiliser des systèmes de recherche efficaces pour les bases de données afin que la masse de données accumulée soit utile. Deuxièmement, la recherche dans les bases de données image pose des questions importantes liées à la vision par ordinateur : une recherche efficace demande une véritable compréhension des images. Pour ces raisons, l'évaluation des systèmes de recherche dans les bases de données image devient une priorité. Il existe déjà une littérature importante évaluant des systèmes spécifiques, mais peu de discussions sont publiées sur les méthodes d'évaluation en soi. Dans la première partie de ce rapport, nous proposons un cadre dans lequel ces sujets peuvent être abordés, nous analysons des méthodologies d'évaluation possibles, indiquant quand elles sont pertinentes et quand elles ne le sont pas, et nous critiquons la technique «query-by-example» et les méthodes d'évaluation qui s'y rapportent. Dans la deuxième partie du rapport, nous appliquons les résultats de cette analyse à une collection spécifique d'images. Cette collection est problématique mais typique: il n'existe pas de vérité terrain sémantique. Considérant la recherche fondée sur la segmentation d'image, nous présentons une nouvelle méthode pour son évaluation. Contrairement aux méthodes d'évaluation qui reposent sur l'existence ou la création d'une vérité terrain, la méthodologie proposée utilise des sujets humains pour un test psychovisuel qui compare les résultats des différentes méthodes de segmentation. Le test est con u pour répondre à deux questions : existe-t-il une segmentation «meilleure» que les autres et si oui qu'apprenons-nous des méthodes de segmentation pour la recherche dans des bases de données image? Les résultats confirment la cohérence des jugements humains, permettant ainsi une évaluation significative. |
Abstract :
Content-Based Image Retrieval is important for two reasons. First, the oft-cited growth of image archives in many fields, and the rapid expansion of the Web, mean that successful image retrieval systems are fast becoming a necessity if the mass of accumulated data is to be useful. Second, database retrieval provides a framework within which the important questions of machine vision are brought into focus: successful retrieval is likely to require genuine image understanding. In view of these points, the evaluatio- n of retrieval systems becomes a matter of priority. There is already a substantial literature evaluating specific systems, but little high-level discussion of the evaluation methodologies themselves seems to have taken place. In the first part of the report, we propose a framework within which such issues can be addressed, analyse possible evaluation methodologies, indicate where they are appropriate and where they are not, and critique query-by-example and evaluation methodologies related to it. In the second part of the report, we apply the results of this analysis to a particular dataset. The dataset is problematic but typical: no ground truth is available for its semantics. Considering retrieval based on image segmentation- s, we present a novel method for its evaluation. Unlike methods of evaluation that rely on the existence or creation of ground truth, the proposed evaluatio- n procedure subjects human subjects to a psychovisual test comparing the results of different segmentation schemes. The test is designed to answer two questions: does consensus about a `best' segmentation exist, and if it does, what do we learn about segmentation schemes for retrieval? The results confirm that human subjects are consistent in their judgements, thus allowing meaningful evaluation. |
|
59 - Image Decomposition : Application to Textured Images and SAR Images. J.F. Aujol et G. Aubert et L. Blanc-Féraud et A. Chambolle. Rapport de Recherche 4704, INRIA, France, janvier 2003. Mots-clés : Variation totale, Espace Variations Bornees, Texture, Classification, Restauration, Radar a Ouverture Synthetique (SAR).
@TECHREPORT{4704,
|
author |
= |
{Aujol, J.F. and Aubert, G. and Blanc-Féraud, L. and Chambolle, A.}, |
title |
= |
{Image Decomposition : Application to Textured Images and SAR Images}, |
year |
= |
{2003}, |
month |
= |
{janvier}, |
institution |
= |
{INRIA}, |
type |
= |
{Research Report}, |
number |
= |
{4704}, |
address |
= |
{France}, |
url |
= |
{https://hal.inria.fr/inria-00071882}, |
pdf |
= |
{https://hal.inria.fr/file/index/docid/71882/filename/RR-4704.pdf}, |
ps |
= |
{https://hal.inria.fr/docs/00/07/18/82/PS/RR-4704.ps}, |
keyword |
= |
{Variation totale, Espace Variations Bornees, Texture, Classification, Restauration, Radar a Ouverture Synthetique (SAR)} |
} |
Résumé :
Dans ce rapport, nous présentons un nouvel algorithme pour décomposer une imagef en u+v, u étant à variation bornée, et v contenant les textures et le bruit de l'image originale. Nous introduisons une fonctionnelle adaptée à ce problème. Le minimum de cette fonctionnelle correspond à la décomposition cherchée de l'image. Le calcul de ce minimum se fait par minimisation successive par rapport à chacune des variables, chaque minimisati- on étant réalisée à l'aide d'un algorithme de projection. Nous faisons l'étude théorique de notre modèle, et nous présentons des résultats numériques. D'une part, nous montrons comment la composante v peut être utilisée pour faire de la classification d'images texturées, et d'autre part nous montrons comment la composante u peut être utilisée en restauration d'images SAR. |
Abstract :
In this report, we present a new algorithm to split an image f into a component u belonging to BV and a component v made of textures and noise of the initial image. We introduce a functional adapted to this problem. The minimum of this functional corresponds to the image decomposition we want to get. We compute this minimum by minimizing successively our functional with respect to u and v. We carry out the mathematical study of our algorithm. We present some numerical results. On the one hand, we show how the v component can be used to classify textured images, and on the other hand, we show how the u component can be used in SAR image restoration. |
|
60 - Supervised Classification for Textured Images. J.F. Aujol et G. Aubert et L. Blanc-Féraud. Rapport de Recherche 4640, Inria, France, novembre 2002. Mots-clés : Texture, Classification, Ondelettes, Equation aux derivees partielles, Courbes de niveaux.
@TECHREPORT{4640,
|
author |
= |
{Aujol, J.F. and Aubert, G. and Blanc-Féraud, L.}, |
title |
= |
{Supervised Classification for Textured Images}, |
year |
= |
{2002}, |
month |
= |
{novembre}, |
institution |
= |
{Inria}, |
type |
= |
{Research Report}, |
number |
= |
{4640}, |
address |
= |
{France}, |
url |
= |
{https://hal.inria.fr/inria-00071945}, |
pdf |
= |
{https://hal.inria.fr/file/index/docid/71945/filename/RR-4640.pdf}, |
ps |
= |
{https://hal.inria.fr/docs/00/07/19/45/PS/RR-4640.ps}, |
keyword |
= |
{Texture, Classification, Ondelettes, Equation aux derivees partielles, Courbes de niveaux} |
} |
Résumé :
Dans ce rapport, nous présentons un modèle de classification supervisée basé sur une approche variationnelle. Ce modèle s'applique spécifiquement aux images texturées. Nous souhaitons obtenir une partition optimale de l'image constituée de textures séparées par des interfaces régulières. Pour cela, nous représentons les régions définies par les classes ainsi que leurs interfaces par des fonctions d'ensemble de niveaux. Nous définissons une fonctionnelle sur ces ensembles de niveaux dont le minimum est une partition optimale. Cette fonctionnelle comporte en particulier un terme d'attache aux données spécifique aux textures. Nous utilisons une transformée en paquets d'ondelettes pour analyser les textures, ces dernières étant caractérisées par la distribution de leur énergie dans chaque sous-bande de la décompositon. Les équations aux dérivées partielles (EDP) relatives à la minimisation de la fonctionnelle sont couplées et plongées dans un schéma dynamique. En fixant un ensemble de niveaux initial, les différents termes des EDP guident l'évolution des interfaces (ensemble de niveau zéro) vers les frontières de la partion optimale, par le biais de forces externes (régularité de l'interface) et internes (attache aux données et contraintes partition). Nous avons effectué des tests sur des images synthétiques et sur des images réelles. |
Abstract :
In this report, we present a supervised classification model based on a variational approach. This model is specifically devoted to textured images. We want to get an optimal partition of an image which is composed of textures separated by regular interfaces. To reach this goal, we represent the regions defined by the classes as well as their interfaces by level set functions. We define a functional on these level sets whose minimizers define an optimal partition. In particular, this functional owns a data term specific to textures. We use a packet wavelet transform to analyze the textures, these ones being characterized by their energy distribution in each sub-band of the decomposition. The partial differential equations (PDE) related to the minimization of the functional are embeded in a dynamical scheme. Given an initial interface set (zero level set), the different terms of the PDE's govern the motion of interfaces such that, at convergence, we get an optimal partition as defined above. Each interface is guided by external forces (regularity of the interface), and internal ones (data term and partition constraints). We have conducted several experiments on both synthetic and real images. |
|
61 - On Bayesian Estimation in Manifolds. I. H. Jermyn. Rapport de Recherche 4607, Inria, France, novembre 2002. Mots-clés : Évenement rare, Estimation bayesienne, Invariant.
@TECHREPORT{4607,
|
author |
= |
{Jermyn, I. H.}, |
title |
= |
{On Bayesian Estimation in Manifolds}, |
year |
= |
{2002}, |
month |
= |
{novembre}, |
institution |
= |
{Inria}, |
type |
= |
{Research Report}, |
number |
= |
{4607}, |
address |
= |
{France}, |
url |
= |
{https://hal.inria.fr/inria-00071978}, |
pdf |
= |
{https://hal.inria.fr/file/index/docid/71978/filename/RR-4607.pdf}, |
ps |
= |
{https://hal.inria.fr/docs/00/07/19/78/PS/RR-4607.ps}, |
keyword |
= |
{Évenement rare, Estimation bayesienne, Invariant} |
} |
Résumé :
Il est fréquemment dit que les estimées au sens du maximum a posteriori (MAP) et du minimum de l'erreur quadratique moyenne (MMSE) d'un paramètre continu ne sont pas invariantes relativement aux «reparamètrisations» de l'espace des paramètres . Ce rapport clarifie les questions autour de ce problème, en soulignant la différence entre l'invariance aux changements de coordonnées, qui est une condition sine qua non pour un problème mathématiq- uement bien défini, et l'invariance aux difféomorphismes, qui est une question significative, et fournit une solution. On montre d'abord que la présence d'une structure métrique sur peut être utilisée pour définir les estimées aux sens du MAP et du MMSE qui sont invariantes aux changements de coordonnées, et on explique pourquoi cela est la fa on naturelle et nécessaire pour le faire. Le problème de l'estimation et les quantités géométriques qui y sont associées sont tous définis d'une fa on clairement invariante aux changements de coordonnées. On montre que la même estimée au sens du MAP est obtenue en utilisant soit la `maximisation d'une densité' soit une fonction de perte delta, définie de fa on invariante. Puis, on discute le choix d'une métrique pour . En imposant un critère d'invariance qui est naturel dans le cadre bayesien, on montre que ce choix est unique. Il ne correspond pas nécessairement à un choix de coordonnées. L'estimée au sens du MAP qui en résulte coincide avec l'estimée fondée sur la longueur minimum de message (MML), mais la demonstration n'utilise pas de discrétisation ou d'approximation. |
Abstract :
It is frequently stated that the maximum a posteriori (MAP) and minimum mean squared error (MMSE) estimates of a continuous parameter are not invariant to arbitrary «reparametrizations» of the parameter space . This report clarifies the issues surrounding this problem, by pointing out the difference between coordinate invariance, which is a sine qua non for a mathematically well-defined problem, and diffeomorphism invariance, which is a substantial issue, and provides a solution. We first show that the presence of a metric structure on can be used to define coordinate-invari- ant MAP and MMSE estimates, and we argue that this is the natural and necessary way to proceed. The estimation problem and related geometrical quantities are all defined in a manifestly coordinate-invariant way. We show that the same MAP estimate results from `density maximization' or from using an invariantly-defined delta function loss. We then discuss the choice of a metric structure on . By imposing an invariance criterion natural within a Bayesian framework, we show that this choice is essentially unique. It does not necessarily correspond to a choice of coordinates. The resulting MAP estimate coincides with the minimum message length (MML) estimate, but no discretization or approximation is used in its derivation. |
|
62 - Analyse Intra-urbaine à partir d'Images Satellitaires par une Approche de Fusion de Données sur la Ville de Mexico. O. Viveros-Cancino et X. Descombes et J. Zerubia. Rapport de Recherche 4578, Inria, France, octobre 2002. Mots-clés : Fusion de donnees, Champs de Markov, Texture, Zones urbaines, Matrice de confusion.
@TECHREPORT{4578,
|
author |
= |
{Viveros-Cancino, O. and Descombes, X. and Zerubia, J.}, |
title |
= |
{Analyse Intra-urbaine à partir d'Images Satellitaires par une Approche de Fusion de Données sur la Ville de Mexico}, |
year |
= |
{2002}, |
month |
= |
{octobre}, |
institution |
= |
{Inria}, |
type |
= |
{Research Report}, |
number |
= |
{4578}, |
address |
= |
{France}, |
url |
= |
{https://hal.inria.fr/inria-00072010}, |
pdf |
= |
{https://hal.inria.fr/file/index/docid/72010/filename/RR-4578.pdf}, |
ps |
= |
{https://hal.inria.fr/docs/00/07/20/10/PS/RR-4578.ps}, |
keyword |
= |
{Fusion de donnees, Champs de Markov, Texture, Zones urbaines, Matrice de confusion} |
} |
Résumé :
Ce document présente une analyse intra-urbaine afin d'améliorer la détection des différents tissus urbains avec une application sur la ville de Mexico. La méthode de fission-fusion est proposée ainsi qu'une méthode pour fusionner les classes existantes. Les deux méthodes se composent des étapes suivantes : premièrement, une analyse de texture, nommée étape de fission, est faite pour mieux décrire l'image, ensuite, une classification supervisée, nommée étape de fusion, est faite sur les paramètres issus de l'analyse de texture à partir des valeurs de qualité, notamment la valeur Kappa calculée sur la matrice de confusion. Ces étapes sont réalisées sur des images optiques (SPOT) et radar (ERS) de la ville de Mexico et sont suivies d'un régularisation. |
Abstract :
In this research report we present an intra-urban analysis to improve urban texture extraction. Two methods are proposed : a fission-fusion method and another method which fuses already existing classes. Both methods consist of two steps. The first step, called fission, performs a texture analysis which looks for structures with different parameters. The second step, called fusion, involves a supervised classification using quality parameters, in particular the kappa value which is computed from the confusion matrix. These two steps are carried out on SPOT and radar images of Mexico city. A regularization step is then performed which completes our analysis. |
|
63 - Gamma-Convergence of Discrete Functionals with non Convex Perturbation for Image Classification. G. Aubert et L. Blanc-Féraud et R. March. Rapport de Recherche 4560, Inria, France, septembre 2002. Mots-clés : Gaussiennes generalisees, Classification, Regularisation.
@TECHREPORT{4560,
|
author |
= |
{Aubert, G. and Blanc-Féraud, L. and March, R.}, |
title |
= |
{Gamma-Convergence of Discrete Functionals with non Convex Perturbation for Image Classification}, |
year |
= |
{2002}, |
month |
= |
{septembre}, |
institution |
= |
{Inria}, |
type |
= |
{Research Report}, |
number |
= |
{4560}, |
address |
= |
{France}, |
url |
= |
{https://hal.inria.fr/inria-00072028}, |
pdf |
= |
{https://hal.inria.fr/file/index/docid/72028/filename/RR-4560.pdf}, |
ps |
= |
{https://hal.inria.fr/docs/00/07/20/28/PS/RR-4560.ps}, |
keyword |
= |
{Gaussiennes generalisees, Classification, Regularisation} |
} |
Résumé :
Ce rapport contient la justification mathématique du modèle variationnel proposé en traitement d'image pour la classification supervisée. A partir des travaux effectués en mécanique des fluides pour les transitions de phase, nous avons développé un modèle de classification par minimisation d'une suite de fonctionnelles. Le résultat est une image de classes formée de régions homogènes séparées par des contours réguliers. Ce modèle diffère de ceux utilisés en mécanique des fluides car la perturbation utilisée n'est pas quadratique mais correspond à une fonction de régularisation d'image préservant les contours. La gamma-convergence de cette nouvelle suite de fonctionnelles est prouvée. |
Abstract :
The purpose of this report is to show the theoretical soundness of a variation- al method proposed in image processing for supervised classification. Based on works developed for phase transitions in fluid mechanics, the classification is obtained by minimizing a sequence of functionals. The method provides an image composed of homogeneous regions with regular boundaries, a region being defined as a set of pixels belonging to the same class. In this paper, we show the gamma-convergence of the sequence of functionals which differ from the ones proposed in fluid mechanics in the sense that the perturbation term is not quadratic but has a finite asymptote at infinity, corresponding to an edge preserving regularization term in image processing. |
|
haut de la page
Ces pages sont générées par
|