|
Publications of type 'techreport'
Result of the query in the list of publications :
90 Technical and Research Reports |
51 - Extraction de Houppiers par Processus Objet. G. Perrin and X. Descombes and J. Zerubia. Research Report 5037, INRIA, France, December 2003. Keywords : Object extraction, Tree Crown Extraction, Stochastic geometry, Marked point process, RJMCMC.
@TECHREPORT{Perrin03,
|
author |
= |
{Perrin, G. and Descombes, X. and Zerubia, J.}, |
title |
= |
{Extraction de Houppiers par Processus Objet}, |
year |
= |
{2003}, |
month |
= |
{December}, |
institution |
= |
{INRIA}, |
type |
= |
{Research Report}, |
number |
= |
{5037}, |
address |
= |
{France}, |
url |
= |
{https://hal.inria.fr/inria-00071547}, |
pdf |
= |
{https://hal.inria.fr/file/index/docid/71547/filename/RR-5037.pdf}, |
ps |
= |
{https://hal.inria.fr/docs/00/07/15/47/PS/RR-5037.ps}, |
keyword |
= |
{Object extraction, Tree Crown Extraction, Stochastic geometry, Marked point process, RJMCMC} |
} |
Résumé :
Nous cherchons à extraire des houppiers à partir d'images de télédétection. Pour ce faire, nous construisons un processus objet et assimilons nos images d'arbres à des réalisations de ce processus. La première étape consiste à définir d'une part les objets géométriques modélisant les arbres, et d'autre part la densité du processus à simuler.La seconde étape consiste à construire un algorithme MCMC à sauts réversibles, et une estimée de la configuration d'objets. Les transitions aléatoires de la chaîne sont régies par des noyaux de propositions, chacun étant associé à une perturbation.Nous testons notre modèle sur des images aériennes de peupleraies fournies par l'IFN. |
Abstract :
In this paper we aim at extracting tree crowns from remotely sensed images. Our approach is to consider that these images are some realizations of a marked point process. The first step is to define the geometrical objects that design the trees, and the density of the process.Then, we use a reversible jump MCMC dynamics and a simulated annealing to get the maximum a posteriori estimator of the tree crowns distribution on the image. Transitions of the Markov chain are managed by some specific proposition kernels.Results are shown on aerial images of poplars given by IFN. |
|
52 - Texture-adaptive mother wavelet selection for texture analysis. G.C.K. Abhayaratne and I. H. Jermyn and J. Zerubia. Research Report, INRIA, France, December 2003.
@TECHREPORT{Abhayaratne,
|
author |
= |
{Abhayaratne, G.C.K. and Jermyn, I. H. and Zerubia, J.}, |
title |
= |
{Texture-adaptive mother wavelet selection for texture analysis}, |
year |
= |
{2003}, |
month |
= |
{December}, |
institution |
= |
{INRIA}, |
type |
= |
{Research Report}, |
address |
= |
{France}, |
url |
= |
{https://hal.inria.fr/hal-01208017}, |
pdf |
= |
{Rapports/RR-8783.pdf}, |
keyword |
= |
{} |
} |
|
53 - A Probabilistic Framework for Adaptive Texture Description. K. Brady and I. H. Jermyn and J. Zerubia. Research Report 4920, INRIA, France, September 2003. Keywords : Segmentation, Texture, Wavelet packet.
@TECHREPORT{4920,
|
author |
= |
{Brady, K. and Jermyn, I. H. and Zerubia, J.}, |
title |
= |
{A Probabilistic Framework for Adaptive Texture Description}, |
year |
= |
{2003}, |
month |
= |
{September}, |
institution |
= |
{INRIA}, |
type |
= |
{Research Report}, |
number |
= |
{4920}, |
address |
= |
{France}, |
url |
= |
{https://hal.inria.fr/inria-00071659}, |
pdf |
= |
{https://hal.inria.fr/file/index/docid/71659/filename/RR-4920.pdf}, |
ps |
= |
{https://hal.inria.fr/docs/00/07/16/59/PS/RR-4920.ps}, |
keyword |
= |
{Segmentation, Texture, Wavelet packet} |
} |
Résumé :
Ce rapport présente le développement d'un nouveau cadre probabiliste cohérent pour la description adaptative de texture. En partant d'une distribution de probabilité sur un espace d'images infinies, nous générons une distribution sur des régions finies par marginalisation. Pour une distribution gaussienne, les contraintes de calcul imposées par la diagonalisation nous conduisent naturellement à des modèles utilisant des paquets d'ondelettes adaptatifs. Ces modèles reflètent les principales périodicités présentes dans les textures et permettent également d'avoir des corrélations à longue portée tout en préservant l'indépendance des coefficients des paquets d'ondelettes. Nous avons appliqué notre méthode à la segmentation. Deux types de données figurent dans notre ensemble de test: des mosaïques synthétiques de Brodatz et des images satellitaires haute résolution. Dans le cas des textures synthétiques, nous utilisons la version non-décimée de la transformée en paquets d'ondelettes afin de diagonaliser la distribution gaussienne de manière efficace, bien qu'approximative. Cela nous permet d'effectuer une classification de la mosaique pixel par pixel. Une étape de régularisation est ensuite effectuée afin d'arriver à un résultat de segmentation final plus lisse. Afin d'obtenir les meilleurs résultats possibles dans le cas de données réelles, la moyenne de la distribution est ensuite introduite dans le modèle. L'approximation faite pour la classification des mosaiques de textures synthetiques a été testée sur des images réelles, mais les résultats obtenus n'étaient pas satisfaisants. C'est pourquoi nous avons introduit, pour ce type de données, une technique de classification heuristique basée sur la transformée en paquets d'ondelettes décimée. Les résultats de segmentation sont ensuite régularisés à l'aide de la même méthode que dans le cas synthétique. Nous présentons les résultats pour chaque type de données et concluons par une discussion. |
Abstract :
This report details the development of a probabilistic framework for adaptive texture description. Starting with a probability distribution on the space of infinite images, we generate a distribution on finite regions by marginalisation. For a Gaussian distribution, the computational requirement of diagonalisation leads naturally to adaptive wavelet packet models which capture the principal periodicities present in the textures and allow long-range correlations while preserving the independence of the wavelet packet coefficients. These models are then applied to the task of segmentation. Two data types are included in our test bed: synthetic Brodatz mosaics and high-resolution satellite images. For the case of the synthetic textures, undecimated versions of the wavelet packet transform are used to diagonalise the Gaussian distribution efficiently, albeit approximately. This enables us to perform a pixelwise classification of the mosaics. A regularisation step is then implemented in order to arrive at a smooth final segmentation. In order to obtain the best possible results for the real dataset, the mean of the distribution is included in the model. The approximation made for the classification of the synthetic texture mosaics is tested on the remote sensing images, but it produces unsatisfactory results. Therefore we introduce a heuristic classification technique for this dataset, based on a decimated wavelet packet transform. The resulting segmentation is then regularised using the same method as in the synthetic case. Results are presented for both types of data and a discussion follows. |
|
54 - Automatic 3D Land Register Extraction from Altimetric Data in Dense Urban Areas. M. Ortner and X. Descombes and J. Zerubia. Research Report 4919, INRIA, France, September 2003. Keywords : Object extraction, Buildings, RJMCMC, Stochastic geometry, Digital Elevation Model (DEM), Marked point process.
@TECHREPORT{4919,
|
author |
= |
{Ortner, M. and Descombes, X. and Zerubia, J.}, |
title |
= |
{Automatic 3D Land Register Extraction from Altimetric Data in Dense Urban Areas}, |
year |
= |
{2003}, |
month |
= |
{September}, |
institution |
= |
{INRIA}, |
type |
= |
{Research Report}, |
number |
= |
{4919}, |
address |
= |
{France}, |
url |
= |
{https://hal.inria.fr/inria-00071660}, |
pdf |
= |
{https://hal.inria.fr/file/index/docid/71660/filename/RR-4919.pdf}, |
ps |
= |
{https://hal.inria.fr/docs/00/07/16/60/PS/RR-4919.ps}, |
keyword |
= |
{Object extraction, Buildings, RJMCMC, Stochastic geometry, Digital Elevation Model (DEM), Marked point process} |
} |
Résumé :
Ce travail présente un algorithme qui extrait automatiquement un plan cadastral de la description altimétrique (relief) d'une zone urbaine dense. L'altimétrie d'une ville est une donnée qui est maintenant facilement accessible. Dans ce rapport, nous présentons par exemple des résultats sur deux types de données altimétriques : le premier consiste en un Modèle Numérique d'Elévation (MNE) obtenu par corrélation d'images optiques, le second correspond à un MNE obtenu par mesure LASER.Notre objectif principal est de définir un algorithme entièrement automatique capable d'extraire un grand nombre de bâtiments dans des zones urbaines denses.Nous nous intéressons donc plus particulièrement à l'extraction de formes élémentaires et proposons un algorithme qui modélise les bâtiments par des formes rectangulaires. Le résultat obtenu consiste en une carte cadastrale qui peut être utilisée pour faire une estimation précise des formes de toits, par exemple.L'algorithme proposé ici repose sur nos travaux précédents. Nous modélisons des villes par des configurations de rectangles auxquelles nous associons une énergie définie de manière à tenir compte aussi bien d'une information de bas niveau provenant des données utilisées que d'une connaissance géometrique de l'agencement des bâtiments dans les zones urbaines.L'estimation est ensuite faite en minimisant l'énergie définie grace à un recuit-simulé.Nous utilisons un échantilloneur MCMC qui est une combinaison de techniques générales de type Metropolis Hastings Green et de l'algorithme de simulation de processus ponctuel proposé par Geyer et Møller. Nous utilisons en particulier des noyaux de proposition originaux comme la naissance ou mort dans un voisinage, et nous définissons l'énergie par rapport à un processus ponctuel de Poisson non-homogène, ce qui permet d'améliorer le comportement dynamique de l'algorithme.Les resultats que nous présentons sont obtenus sur des donnée réelles fournies par l'IGN. Nous extrayons automatiquement des configurations composées d'une centaine de bâtiments sur des zones dont la taille est en moyenne de 200m sur 200m. L'erreur commise est en moyenne de 15. |
Abstract :
This work present an automatic algorithm that extract 3D land register from altimetric data in dense urban areas. Altimetry of a town is a data which is easily available yet difficult to exploit. For instance, we present here results on two kind of measurements : the first one consists in a Digital Elevation Model (DEM) built using a correlation algorithm and some optical data, while the second one consists in a DEM obtained by Laser measurments.Our main objective is to design an entirely automatic method that is able to deal with this kind of data in very dense urban areas.We thus focus on elementary shape extraction and propose an algorithm that extracts rectangular buildings. The result provided consists in a kind of vectorial land register map that can be used, for instance, to perform precise roof shape estimation.The proposed algorithm uses our previous work. Using a point process framework, we model towns as configuration of rectangles. An energy is defined, that takes into account both a low level information provided by the altimetry of the scene, and some geometric knowledge of the disposition of buildings in towns.The estimation is done by minimizing the energy using a simulated annealing. We use a MCMC sampler that is a combination of general Metropolis Hastings Green techniques and Geyer and Møller algorithm of sampling of point processes. We use some original proposition kernels, such as birth or death in a neighborhood and define the energy with respect to an inhomogeneous Poisson point process.We present results on real data provided by IGN (French Mapping Institute). Results were automatically obtained, on areas that are 200m by 200m large. These results consist in configurations of around 100 rectangles describing considered areas with an error of 15 missclassification. |
|
55 - Improved RJMCMC Point Process Sampler for Object Detection by Simulated Annealing. M. Ortner and X. Descombes and J. Zerubia. Research Report 4900, INRIA, France, August 2003. Keywords : Buildings, Object extraction, RJMCMC, Marked point process.
@TECHREPORT{4900,
|
author |
= |
{Ortner, M. and Descombes, X. and Zerubia, J.}, |
title |
= |
{Improved RJMCMC Point Process Sampler for Object Detection by Simulated Annealing}, |
year |
= |
{2003}, |
month |
= |
{August}, |
institution |
= |
{INRIA}, |
type |
= |
{Research Report}, |
number |
= |
{4900}, |
address |
= |
{France}, |
url |
= |
{https://hal.inria.fr/inria-00071683}, |
pdf |
= |
{https://hal.inria.fr/file/index/docid/71683/filename/RR-4900.pdf}, |
ps |
= |
{https://hal.inria.fr/docs/00/07/16/83/PS/RR-4900.ps}, |
keyword |
= |
{Buildings, Object extraction, RJMCMC, Marked point process} |
} |
Résumé :
Nous commen ons par résumer l'algorithme de Geyer et Møller qui permet, en utilisant une chaîne de Markov, d'échantillonner des lois de processus ponctuels. Nous rappelons également le cadre théorique proposé par Green qui permet d'imposer la réversibilité d'une chaîne de Markov sous une loi désirée.Dans le cadre de nos applications en traitement d'image, nous sommes intéressés par la simulation de processus ponctuels dont la loi dépend fortement de la localisation géographique des points. Nous présentons donc ici des noyaux de proposition qui améliorent la capacité de l'algorithme de Geyer et Meyer à explorer les bons endroits de l'espace d'état. En particulier, nous proposons une transformation qui permet de faire apparaître ou disparaître des points dans un voisinage quelconque d'un autre point. Nous gardons également la possibilité de générer des points suivant une loi non uniforme.Nous construisons donc de tels noyaux de perturbations grâce au travail de Green de manière à garder la-(.) réversibilité de la chaîne de Markov construite. Nous démontrons ensuite les bonnes propriétés de stabilité qui assurent le bon comportement asymptotique de la chaîne. En particulier, grâce à une condition de «drift», nous montrons l'ergodicité géométrique et la récurrence de la chaîne au sens de Harris.Nous concluons en validant par l'expérience nos résultats théoriques, et en montrons leur utilité sur un exemple concret.Nous proposons d'ultimes améliorations pour conclure. |
Abstract :
We first recall Geyer and Møller algorithm that allows to sample point processes using a Markov chain. We also recall Green's framework that allows to build samplers on general state spaces by imposing reversibility of the designed Markov chain.Since in our image processing applications, we are interested by sampling highly spatially correlated and non-invariant point processes, we adapt these ideas to improve the exploration ability of the algorithm. In particular, we keep the ability of generating points with non-uniform distributions, and design an updating scheme that allows to generate points in some neighborhood of other points. We first design updating schemes under Green's framework to keep (.) reversibility of the Markov chain and then show that stability properties are not loosed. Using a drift condition we prove that the Markov chain is geometrically ergodic and Harris recurrent.We finally show on experimental results that these kinds of updates are usefull and propose other improvements. |
|
56 - Modeling very Oscillating Signals : Application to Image Processing. G. Aubert and J.F. Aujol. Research Report 4878, INRIA, France, July 2003. Keywords : Bounded Variation Space, Sobolev space, Image decomposition, Optimization, Partial differential equation.
@TECHREPORT{4878,
|
author |
= |
{Aubert, G. and Aujol, J.F.}, |
title |
= |
{Modeling very Oscillating Signals : Application to Image Processing}, |
year |
= |
{2003}, |
month |
= |
{July}, |
institution |
= |
{INRIA}, |
type |
= |
{Research Report}, |
number |
= |
{4878}, |
address |
= |
{France}, |
url |
= |
{https://hal.inria.fr/inria-00071705}, |
pdf |
= |
{https://hal.inria.fr/file/index/docid/71705/filename/RR-4878.pdf}, |
ps |
= |
{https://hal.inria.fr/docs/00/07/17/05/PS/RR-4878.ps}, |
keyword |
= |
{Bounded Variation Space, Sobolev space, Image decomposition, Optimization, Partial differential equation} |
} |
Résumé :
Cet article complète le travail présenté dans cite{Aujol[3]} dans lequel nous avions développé l'analyse numérique d'un modéle variationnel, initialement introduit par L. Rudin, S. Osher and E. Fatemi cite{Rudin[1]}, et revisité depuis par Y. Meyer cite{Meyer[1]}, pour supprimer le bruit et isoler les textures dans une image. Dans un tel modèle, on décompose l'image f en deux composantes (u+v), u et v minimisant une énergie. La première composante u appartient à BV et contient l'information géométrique de l'image, alors que la seconde v appartient à un espace G qui contient les signaux à fortes oscillations, i.e. le bruit et les textures. Dans cite{Meyer[1]}, Y. Meyer effectue son étude dans ^2 entier, et son approche repose principalement sur des outils d'analyse harmonique. Nous nous pla ons dans le cas d'un ouvert borné de ^2, ce qui constitue le cadre adapté au traitement d'images, et notre approche repose sur des arguments d'analyse fonctionnelle. Nous définissons l'espace G dans ce cadre puis donnons quelques unes de ses propriétés. Nous étudions ensuite la fonctionnelle permettant de calculer les composantes u et v. |
Abstract :
This article is a companion paper of a previous work cite{Aujol[3]} where we have developed the numerical analysis of a variational model first introduced by L. Rudin, S. Osher and E. Fatemi cite{Rudin[1]} and revisited by Y. Meyer cite{Meyer[1]} for removing the noise and capturing textures in an image. The basic idea in this model is to decompose f into two components (u+v) and then to search for (u,v) as a minimizer of an energy functional. The first component u belongs to BV and contains geometrical informations while the second one v is sought in a space G which contains signals with large oscillations, i.e. noise and textures. In Y. Meyer carried out his study in the whole ^2 and his approach is rather built on harmonic analysis tools. We place ourselves in the case of a bounded set of ^2 which is the proper setting for image processing and our approach is based upon functional analysis arguments. We define in this context the space G, give some of its properties and then study in this continuous setting the energy functional which allows us to recover the components u and v. model signals with strong oscillations. For instance, in an image, this space models noises and textures. case of a bounded open set of ^2 which is the proper setting for image processing. We give a definition of G adapted to our case, and we show that it still has good properties to model signals with strong oscillations. In cite{Meyer[1]}, the author had also paved the way to a new model to decompose an image into two components: one in BV (the space of bounded variations) which contains the geometrical information, and one in G which consists in the noises ad the textures. An algorithm to perform this decomposition has been proposed in cite{Meyer[1]}. We show here its relevance in a continuous setting. |
|
57 - Image Denoising using Stochastic Differential Equations. X. Descombes and E. Zhizhina. Research Report 4814, INRIA, France, May 2003. Keywords : Denoising.
@TECHREPORT{4814,
|
author |
= |
{Descombes, X. and Zhizhina, E.}, |
title |
= |
{Image Denoising using Stochastic Differential Equations}, |
year |
= |
{2003}, |
month |
= |
{May}, |
institution |
= |
{INRIA}, |
type |
= |
{Research Report}, |
number |
= |
{4814}, |
address |
= |
{France}, |
url |
= |
{https://hal.inria.fr/inria-00071772}, |
pdf |
= |
{https://hal.inria.fr/file/index/docid/71772/filename/RR-4814.pdf}, |
ps |
= |
{https://hal.inria.fr/docs/00/07/17/72/PS/RR-4814.ps}, |
keyword |
= |
{Denoising} |
} |
Résumé :
Ce rapport concerne le problème de la restauration d'image avec une approche par Équation Différentielle Stochastique. Nous considérons un processus de diffusion convergeant vers une mesure de Gibbs. L'hamiltonien de la mesure de Gibbs contient un terme d'interactions, apportant des contraintes de lissage sur la solution, et un terme d'attache aux données. Nous étudions deux schémas d'approximation discrète de la dynamique de Langevin associée à ce processus de diffusion : les approximation d'Euler et explicite forte de Taylor. La vitesse de convergence des algorithmes correspondants est comparée à celle de l'algorithme de Metropolis-Hasting. Des résultats sont montrés sur des images de synthèse et réelles. Il montrent la supériorité de l'approche proposée lorsque l'on considère un faible nombre d'itérations. |
Abstract :
We address the problem of image denoising using a Stochastic Differential Equation approach. We consider a diffusion process which converges to a Gibbs measure. The Hamiltonian of the Gibbs measure embeds an interaction term, providing smoothing properties, and a data term. We study two discrete approximations of the Langevin dynamics associated with this diffusion process: the Euler and the Explicit Strong Taylor approximations. We compare the convergence speed of the associated algorithms and the Metropolis-Hasting algorithm. Results are shown on synthetic and real data. They show that the proposed approach provides better results when considering a small number of iterations. |
|
58 - The Methodology and Practice of the Evaluation of Image Retrieval Systems and Segmentation Methods. I. H. Jermyn and C. Shaffrey and N. Kingsbury. Research Report 4761, INRIA, France, March 2003. Keywords : Image database, Segmentation, Semantic.
@TECHREPORT{4761,
|
author |
= |
{Jermyn, I. H. and Shaffrey, C. and Kingsbury, N.}, |
title |
= |
{The Methodology and Practice of the Evaluation of Image Retrieval Systems and Segmentation Methods}, |
year |
= |
{2003}, |
month |
= |
{March}, |
institution |
= |
{INRIA}, |
type |
= |
{Research Report}, |
number |
= |
{4761}, |
address |
= |
{France}, |
url |
= |
{https://hal.inria.fr/inria-00071825}, |
pdf |
= |
{https://hal.inria.fr/file/index/docid/71825/filename/RR-4761.pdf}, |
ps |
= |
{https://hal.inria.fr/docs/00/07/18/25/PS/RR-4761.ps}, |
keyword |
= |
{Image database, Segmentation, Semantic} |
} |
Résumé :
La recherche d'images par le contenu est importante pour deux raisons. Premièrement, la croissance d'archives d'images fréquemment citée dans beaucoup d'applications, et l'expansion rapide du Web, signifient qu'il est nécessaire d'utiliser des systèmes de recherche efficaces pour les bases de données afin que la masse de données accumulée soit utile. Deuxièmement, la recherche dans les bases de données image pose des questions importantes liées à la vision par ordinateur : une recherche efficace demande une véritable compréhension des images. Pour ces raisons, l'évaluation des systèmes de recherche dans les bases de données image devient une priorité. Il existe déjà une littérature importante évaluant des systèmes spécifiques, mais peu de discussions sont publiées sur les méthodes d'évaluation en soi. Dans la première partie de ce rapport, nous proposons un cadre dans lequel ces sujets peuvent être abordés, nous analysons des méthodologies d'évaluation possibles, indiquant quand elles sont pertinentes et quand elles ne le sont pas, et nous critiquons la technique «query-by-example» et les méthodes d'évaluation qui s'y rapportent. Dans la deuxième partie du rapport, nous appliquons les résultats de cette analyse à une collection spécifique d'images. Cette collection est problématique mais typique: il n'existe pas de vérité terrain sémantique. Considérant la recherche fondée sur la segmentation d'image, nous présentons une nouvelle méthode pour son évaluation. Contrairement aux méthodes d'évaluation qui reposent sur l'existence ou la création d'une vérité terrain, la méthodologie proposée utilise des sujets humains pour un test psychovisuel qui compare les résultats des différentes méthodes de segmentation. Le test est con u pour répondre à deux questions : existe-t-il une segmentation «meilleure» que les autres et si oui qu'apprenons-nous des méthodes de segmentation pour la recherche dans des bases de données image? Les résultats confirment la cohérence des jugements humains, permettant ainsi une évaluation significative. |
Abstract :
Content-Based Image Retrieval is important for two reasons. First, the oft-cited growth of image archives in many fields, and the rapid expansion of the Web, mean that successful image retrieval systems are fast becoming a necessity if the mass of accumulated data is to be useful. Second, database retrieval provides a framework within which the important questions of machine vision are brought into focus: successful retrieval is likely to require genuine image understanding. In view of these points, the evaluatio- n of retrieval systems becomes a matter of priority. There is already a substantial literature evaluating specific systems, but little high-level discussion of the evaluation methodologies themselves seems to have taken place. In the first part of the report, we propose a framework within which such issues can be addressed, analyse possible evaluation methodologies, indicate where they are appropriate and where they are not, and critique query-by-example and evaluation methodologies related to it. In the second part of the report, we apply the results of this analysis to a particular dataset. The dataset is problematic but typical: no ground truth is available for its semantics. Considering retrieval based on image segmentation- s, we present a novel method for its evaluation. Unlike methods of evaluation that rely on the existence or creation of ground truth, the proposed evaluatio- n procedure subjects human subjects to a psychovisual test comparing the results of different segmentation schemes. The test is designed to answer two questions: does consensus about a `best' segmentation exist, and if it does, what do we learn about segmentation schemes for retrieval? The results confirm that human subjects are consistent in their judgements, thus allowing meaningful evaluation. |
|
59 - Image Decomposition : Application to Textured Images and SAR Images. J.F. Aujol and G. Aubert and L. Blanc-Féraud and A. Chambolle. Research Report 4704, INRIA, France, January 2003. Keywords : Total variation, Bounded Variation Space, Texture, Classification, Restoration, Synthetic Aperture Radar (SAR).
@TECHREPORT{4704,
|
author |
= |
{Aujol, J.F. and Aubert, G. and Blanc-Féraud, L. and Chambolle, A.}, |
title |
= |
{Image Decomposition : Application to Textured Images and SAR Images}, |
year |
= |
{2003}, |
month |
= |
{January}, |
institution |
= |
{INRIA}, |
type |
= |
{Research Report}, |
number |
= |
{4704}, |
address |
= |
{France}, |
url |
= |
{https://hal.inria.fr/inria-00071882}, |
pdf |
= |
{https://hal.inria.fr/file/index/docid/71882/filename/RR-4704.pdf}, |
ps |
= |
{https://hal.inria.fr/docs/00/07/18/82/PS/RR-4704.ps}, |
keyword |
= |
{Total variation, Bounded Variation Space, Texture, Classification, Restoration, Synthetic Aperture Radar (SAR)} |
} |
Résumé :
Dans ce rapport, nous présentons un nouvel algorithme pour décomposer une imagef en u+v, u étant à variation bornée, et v contenant les textures et le bruit de l'image originale. Nous introduisons une fonctionnelle adaptée à ce problème. Le minimum de cette fonctionnelle correspond à la décomposition cherchée de l'image. Le calcul de ce minimum se fait par minimisation successive par rapport à chacune des variables, chaque minimisati- on étant réalisée à l'aide d'un algorithme de projection. Nous faisons l'étude théorique de notre modèle, et nous présentons des résultats numériques. D'une part, nous montrons comment la composante v peut être utilisée pour faire de la classification d'images texturées, et d'autre part nous montrons comment la composante u peut être utilisée en restauration d'images SAR. |
Abstract :
In this report, we present a new algorithm to split an image f into a component u belonging to BV and a component v made of textures and noise of the initial image. We introduce a functional adapted to this problem. The minimum of this functional corresponds to the image decomposition we want to get. We compute this minimum by minimizing successively our functional with respect to u and v. We carry out the mathematical study of our algorithm. We present some numerical results. On the one hand, we show how the v component can be used to classify textured images, and on the other hand, we show how the u component can be used in SAR image restoration. |
|
60 - Supervised Classification for Textured Images. J.F. Aujol and G. Aubert and L. Blanc-Féraud. Research Report 4640, Inria, France, November 2002. Keywords : Texture, Classification, Wavelets, Partial differential equation, Level sets.
@TECHREPORT{4640,
|
author |
= |
{Aujol, J.F. and Aubert, G. and Blanc-Féraud, L.}, |
title |
= |
{Supervised Classification for Textured Images}, |
year |
= |
{2002}, |
month |
= |
{November}, |
institution |
= |
{Inria}, |
type |
= |
{Research Report}, |
number |
= |
{4640}, |
address |
= |
{France}, |
url |
= |
{https://hal.inria.fr/inria-00071945}, |
pdf |
= |
{https://hal.inria.fr/file/index/docid/71945/filename/RR-4640.pdf}, |
ps |
= |
{https://hal.inria.fr/docs/00/07/19/45/PS/RR-4640.ps}, |
keyword |
= |
{Texture, Classification, Wavelets, Partial differential equation, Level sets} |
} |
Résumé :
Dans ce rapport, nous présentons un modèle de classification supervisée basé sur une approche variationnelle. Ce modèle s'applique spécifiquement aux images texturées. Nous souhaitons obtenir une partition optimale de l'image constituée de textures séparées par des interfaces régulières. Pour cela, nous représentons les régions définies par les classes ainsi que leurs interfaces par des fonctions d'ensemble de niveaux. Nous définissons une fonctionnelle sur ces ensembles de niveaux dont le minimum est une partition optimale. Cette fonctionnelle comporte en particulier un terme d'attache aux données spécifique aux textures. Nous utilisons une transformée en paquets d'ondelettes pour analyser les textures, ces dernières étant caractérisées par la distribution de leur énergie dans chaque sous-bande de la décompositon. Les équations aux dérivées partielles (EDP) relatives à la minimisation de la fonctionnelle sont couplées et plongées dans un schéma dynamique. En fixant un ensemble de niveaux initial, les différents termes des EDP guident l'évolution des interfaces (ensemble de niveau zéro) vers les frontières de la partion optimale, par le biais de forces externes (régularité de l'interface) et internes (attache aux données et contraintes partition). Nous avons effectué des tests sur des images synthétiques et sur des images réelles. |
Abstract :
In this report, we present a supervised classification model based on a variational approach. This model is specifically devoted to textured images. We want to get an optimal partition of an image which is composed of textures separated by regular interfaces. To reach this goal, we represent the regions defined by the classes as well as their interfaces by level set functions. We define a functional on these level sets whose minimizers define an optimal partition. In particular, this functional owns a data term specific to textures. We use a packet wavelet transform to analyze the textures, these ones being characterized by their energy distribution in each sub-band of the decomposition. The partial differential equations (PDE) related to the minimization of the functional are embeded in a dynamical scheme. Given an initial interface set (zero level set), the different terms of the PDE's govern the motion of interfaces such that, at convergence, we get an optimal partition as defined above. Each interface is guided by external forces (regularity of the interface), and internal ones (data term and partition constraints). We have conducted several experiments on both synthetic and real images. |
|
top of the page
These pages were generated by
|