Séminaires de l'année 2004
Titre Intervenant Date/Lieu Résumé
Utilisation de l'imagerie radar en sciences de la terre : exemples en cartographie et suivi de l'environnement Jean-Paul Rudant
Université Marne la Vallée
26/01/2004
10h30
E003
Compression d'images de télédétection multi-spectrales par approche région Gianni Poggi
Université de Naples
09/02/2004
10h30
Coriolis
Classification d'images de télédétection partiellement supervisée utilisant les SVM Gabriele Moser
Université de Gênes
15/03/2004
10h30
E003
Minimisation de la variation totale, applications Antonin Chambolle
Cérémade - Paris Dauphine
19/04/2004
10h30
Coriolis
Reconnaissance de formes et fausses alarmes Yann Gousseau
ENST Paris
03/05/2004
10h30
Coriolis
Statistiques pour les processus ponctuels marqués MC Van Lieshout
CWI Amsterdam
11/06/2004
10h30
Coriolis
Modèles de Markov Triplets Wojciech Pieczynski INT Evry 14/06/2004
10h30
Fermat Jaune
Reconstruction 3D, super-résolution et calibration automatique de caméra: une approche bayésienne André Jalobeanu
NASA Ames RC, CA
16/06/2004
10h30
Coriolis
Dealing With Unorganized and Scattered Functional Data Bernard Chalmond
ENS Cachan
05/07/2004
10h30
Coriolis
Un modèle de réflectance non Lambertien pour le Shape from Shading Hossein Ragheb
Université de York
09/07/2004
14h30
Coriolis
Diffusion anisotropique en visualisation et imagerie : le "jour pour la nuit" et la profondeur de champ Marcello Bertlamio
Université Pompeu-Fabra Barcelone
13/09/2004
14h30
Coriolis
Debruitage d'images multiéchelle par des distributions alpha-stables bivariantes Alin Achim
Post-Doc ERCIM
27/09/2004
14h30
Coriolis
Algorithmes itératifs pour la restauration des images par ondelettes Mario Figueiredo
IST Lisbonne
11/10/2004
10h30
Coriolis
Mise a jour automatique de carte numérique à l'aide de connaissance a priori et d'imagerie optique très haute résolution : application au bâti des régions urbaines Timothée Bailloeul
LIAMA, Pékin
19/11/2004
14h30
Coriolis
Scale-Based Gaussian Coverings Fionn Murtagh
Dep. of Computer Science Royal Holloway, University of London
22/11/2004
14h30
Coriolis
Reconstruction 3D en imagerie radar haute résolution Florence Tupin
ENST Paris
06/12/2004
14h30
Coriolis


Jean-Paul Rudant - Université Marne la Vallée - 26/01/2004

Titre : Utilisation de l'imagerie radar en sciences de la terre: exemples en cartographie et suivi de l'environnement.

Résumé :

  • cartographie : continuité des programmes ERS et Envisat et potentiel des différents modes (IS2, IS4, IS7) et polarisation de Envisat pour la cartographie en zone littorale (trait de côte, Estran, formations végétales dont déforestation, réseau de communication...).
  • suivi de la végétation dans le Sahel: exploitation conjointe des images du diffusiomètre de ERS et du radar imageur.
  • interférométrie : suivi d'affaissements sur la ville de Paris.

Pour toutes ces applications, présentation des résultats thématiques et des problèmes de traitement des données.



Gianni Poggi - Université de Naples - 09/02/2004

Titre : Region-based compression of multispectral remote-sensing images.

Résumé :

State-of-the art sensors deliver images with high spatial, spectral and radiometric resolution, producing a huge amount of data which must be transmitted to the ground station on limited-capacity channels, archived for possibly long periods of time, and finally disseminated to the end users on common transmission facilities. Suitable compression algorithms can play a central role in all these phases of the data lifetime, and determine the success of remote-sensing applications.

General-purpose algorithms usually provide poor results since they do not take into account the peculiarities of multispectral images, which portray exactly the same objects in all the bands. To exploit this feature, one can resort to region-based compression techniques, where the image is first segmented in a number of disjoint regions/classes, then the segmentation map is encoded without loss of information, and finally the segmented regions are compressed with the help of the segmentation map. Region-based techniques provide several advantages with respect to flat techniques, the most important being :

  • better rate-distortion performance: each segment is statistically homogeneous and can be compressed accurately and at low rates with conventional techniques, while the cost of encoding the map is shared on all the bands and hence negligible.
  • preservation of the region boundaries: compression and/or filtering will not operate on these image components, that will be reproduced with high fidelity.
  • embedded segmentation: region-based compression provides the user with an embedded segmentation map, obtained on the uncompressed data and hence quite reliable.

In the talk, a class-based coding scheme will be presented, based on minimum-distance (VQ) tree-structured classification, predictive coding of the map, and transform coding (KLT+DCT) of the class textures. Performance on a test Landsat image compares favourably with that of more conventional coding schemes. Current developments will also be briefly outlined.



Gabriele Moser - Université de Naples - 15/03/2004

Titre : Partially supervised classification of remote sensing images using SVM-based probability density function estimation.

Résumé :

A general problem of supervised remotely sensed image classification assumes prior knowledge to be available for all thematic classes that are present in the considered data set. However, the ground truth map representing this prior knowledge usually does not really describe all the land cover typologies in the image and the generation of a complete training set represents a time-consuming, difficult and expensive task. This problem may play a relevant role in remote sensing data analysis, since it affects the classification performances of supervised classifiers, which erroneously assigns each sample drawn from an unknown class to one of the known classes. In the present talk, a classification strategy is proposed, which allows the identification of samples drawn from unknown classes, through the application of a suitable Bayesian decision rule. The proposed approach exploits a functional approximation architecture based on support vector machines (SVMs) to perform probability density function estimation, and adopts a recursive procedure to generate prior probability estimates for both known and unknown classes. For experimental purposes, both a synthetic data set and two real data sets are employed.



Antonin Chambolle - Cérémade - Paris Dauphine - 19/04/2004

Titre : Minimisation de la variation totale, applications.

Résumé :

Nous présenterons un algorithme pour résoudre le problème de Rudin-Osher-Fatemi, de minimisation de la variation totale sous contrainte quadratique. Nous décrirons ensuite plusieurs applications : au débruitage, au zooming (ou plus généralement à la régularisation de problèmes inverses), à la décomposition d'images en composantes ``indépendantes'' (bruit, texture, ...).



Yann Gousseau - ENST Paris - 03/05/2004

Titre : Reconnaissance de formes et fausses alarmes.

Résumé :

Une faiblesse récurrente des algorithmes de reconnaissance de formes et de mise en correspondance d'images est le contrôle du nombre de fausses alarmes. Nous présentons deux méthodes dans le cadre desquelles ces quantités sont estimées, d'une part pour la mise en correspondance de formes, d'autre part pour la comparaison de la composition entre images. Le principe commun de ces deux méthodes est que deux entités seront déclarées semblables si leur proximité ne peut être due "au hasard", dans le cadre d'un modèle à préciser.

Tout d'abord, nous présentons un algorithme, dû à J.-L. Lisani, permettant de coder les formes extraites d'images naturelles de manière invariante par transformations euclidiennes et robuste à l'occultation. Nous introduisons ensuite un modèle empirique de formes, et définissons la mise en correspondance de deux formes comme un événement improbable dans le cadre de ce modèle. La méthode sera illustrée sur divers exemples (Travaux en collaboration avec F. Cao, J.-M. Morel, P. Musé et F. Sur).

Ensuite, nous introduisons un algorithme permettant de quantifier la proximité de la "composition" de deux images. Les ensembles de niveau des images sont modélisés par des fermés aléatoires, et la proximité de composition est détectée comme écart à l'indépendance de ces ensembles. Pour calculer la probabilité que deux images se ressemblent "par hasard", nous introduisons un modèle d'images naturelles, le modèle feuilles mortes de la morphologie mathématique, recouvrement du plan obtenu par superposition d'objets aléatoires.



MC Van Lieshout - Centrum voor Wiskunde en Informatica - 11/06/2004

Titre : Summary statistics for marked point patterns.

Résumé :

We propose a new summary statistic for exploring the interaction structure in marked point patterns which generalises a J-function for multivariate point processes introduced in collaboration with Baddeley. The statistic captures simultaneously the range and strength of interaction. We discuss the relation to Stoyan's mark correlation function, derive an expression in terms of the Papangelou conditional intensity and a mixture formula, then turn to estimation and testing for independent random mark allocation, and finally illustrate the approach by means of a forestry data set.



Wojciech Pieczynski - INT Evry - 14/06/2004

Titre : Modèles de Markov Triplets.

Résumé :

Les modèles de Markov cachés, comme chaînes, champs ou arbres, admettent de multiples applications dans les domaines les plus variés. Dans de tels modèles la distribution a priori du processus caché est de Markov et la markovianité a posteriori, indispensable pour les traitements, est obtenue grâce à des hypothèses fortes, et souvent irréalistes, sur le bruit. Cet écueil a été récemment contourné par l'introduction des modèles de Markov couple, dans lesquels on admet directement la markovianité du couple (processus caché, processus observé). Bien que strictement plus général que le modèle caché, le modèle couple permet les mêmes traitements. Par ailleurs, les modèles triplets, obtenus à partir des modèles couple par l'introduction d?un processus latent, généralisent strictement des derniers et permettent encore les mêmes restaurations.

Nous introduisons dans l'exposé les chaînes, champs, et arbres de Markov couple et triplet, en mettant l'accent sur les traitements utilisés en signal ou image, comme segmentation bayésienne ou filtrage de Kalman. L'utilité de ces modèles dans la fusion de Dempster-Shafer dans le contexte markovien est également précisée.



André Jalobeanu - NASA - 16/06/2004

Titre : Reconstruction 3D, super-résolution et calibration automatique de caméra: une approche bayésienne.

Résumé :

L'abondance et la redondance des images acquises lors de diverses missions d'observation de la Terre et du système solaire posent un réel problème, en particulier lorsqu'il s'agit d'interpréter et de comprendre ces données. C'est pourquoi il est necessaire de les fusionner dans un seul modèle. Ceci n'est possible qu'en connaissant la géométrie 3D des surfaces observées et les paramètres d'observation.

Ainsi, nos deux principaux objectifs sont la reconstruction 3D à partir de plusieurs images, ainsi que la calibration de caméra pour chacune des images. L'approche bayésienne permet de formuler ces objectifs comme un seul problème d'estimation statistique, et d'introduire des connaissances a priori sous forme de modèles probabilistes, à la fois pour la surface et pour les caméras. Un maillage triangulaire est utilisé pour décrire la surface (géométrie et albédo). La formation des images, ou problème direct, est modélisée par un algorithme de rendu précis, fonctionnant dans l'espace objet. Grâce à l'approche bayésienne, le problème inverse peut être résolu en combinant rendu et modèle a priori, et en appliquant une technique d'optimisation.

L'estimation à partir de plusieurs images permet en principe de reconstruire une surface qui, lorsqu'elle est projetée dans le plan image, a une résolution supérieure à celle des images observées (super-résolution). Nous calculons également les incertitudes sur les différents paramètres, ce qui permet de développer une technique d'estimation récursive pour traiter de grandes quantités de données.

Les résultats préliminaires obtenus prouvent la faisabilité de notre approche, et sa superiorité sur les techniques concurrentes (stereo, shape from shading, etc.). Une nouvelle technique de reconstruction est en cours de développement, le but étant de s'affranchir des problèmes posés par les ombres, les occultations et les fonctions de réflectance. Cette méthode devrait, à terme, permettre la fusion de données multispectrales, et être suffisamment robuste pour être appliquée à des objets complexes et dynamiques comme la surface terrestre.



Bernard Chalmond - ENS Cachan - 05/07/2004

Titre : Dealing With Unorganized and Scattered Functional Data.

Résumé :

Nous introduisons dans l'exposé les chaînes, champs, et arbres de Markov couple et triplet, en mettant l'accent sur les traitements utilisés en signal ou image, comme segmentation bayésienne ou filtrage de Kalman. L'utilité de ces modèles dans la fusion de Dempster-Shafer dans le contexte markovien est également précisée.



Hossein Ragheb - Université de York - 09/07/2004

Titre : Improved Shape from Shading using Non-Lambertian Reflectance Models.

Résumé :

This work focuses on the use of non-Lambertian reflectance models for curved surface analysis. The contributions are :

  • a) to show how specular and diffuse reflectance models can be used to recover surface normal estimates using shape-from-shading (SFS).
  • b) to show how wave scattering theory can be used to estimate rough surface characteristics, and c) to present a method for surface normal smoothing that imposes consistency on principal curvature directions.

One of the problems that hinders standard methods for SFS is the presence of local specularities which may be misidentified as high curvature surface features. To address this problem we develop a maximum a posteriori probability estimation method for estimating the mixing proportions for Lambertian and specular reflectance, and also, for recovering local surface normals. The framework for our study is provided by the iterated conditional modes algorithm. Once improved estimates of surface normal directions are obtained, we can also remove the specular highlights from the raw image using the reconstructed specular intensity image.

It is also well known that the non-specular reflectance from both rough and shiny surfaces depart significantly from the predictions of Lambert's law. These effects are particularly marked at the occluding boundary where the surface is highly inclined to the viewer direction. Hence, Lambertian SFS methods can not be applied directly to the analysis of rough and shiny surfaces. In order to overcome this difficulty, we consider how to reconstruct the Lambertian component when the object is illuminated in the viewing direction. To do this we make use of the diffuse reflectance models described by Oren and Nayar, and by Wolff.

Next, we focus on how reflectance models based on wave scattering theory and reported in the physics literature can be used for rough surface analysis. For dielectrics, the models investigated are derived from the Beckmann-Kirchhoff scatter theory, while for metals the starting point is the Davies scattering model. We show how these models can be used to estimate surface roughness parameters using simple reflectance measurements. With estimates of these parameters to hand, we take our analysis one step further by demonstrating how the Vernold-Harvey modification of the Beckmann model may be used for curved surface analysis.

Finally, we describe a new surface normal smoothing process which can be used in conjunction with SFS. Rather than directly smoothing the surface normal vectors, we exert control over their directions by smoothing the field of principal curvature vectors. To do this we develop a topography sensitive smoothing process which overcomes the problems of singularities in the field of principal curvature directions at the locations of umbilics and saddles.



Marcello Bertlamio - Université Pompeu-Fabra Barcelone - 13/09/2004

Titre : Anisotropic diffusion in visualization and graphics: Day for Night and Depth of Field.

Résumé :

We will present the two very different problems of Day for Night and Depth of Field simulation. Then we will introduce two novel anisotropic diffusion equations that adequately model these phenomena, offering accurate results and allowing for real-time implementation with programmable graphics cards. The equations are well posed, with existence and uniqueness results.



Alin Achim - Post-Doc ERCIM - 27/09/2004

Titre : Multiscale Image Denoising Using Bivariate Alpha-Stable Distributions.

Résumé :

Within the framework of wavelet analysis we describe a novel technique for removing noise from digital images. We design a bivariate maximum a posteriori (MAP) estimator, which relies on the family of isotropic alpha-stable distributions. Using this relatively new statistical model we are able to better capture the heavy-tailed nature of the data as well as the interscale dependencies of wavelet coefficients. We test our algorithm for the Cauchy case, in comparison with several recently published methods. The simulation results show that our proposed technique achieves state-of-the-art performance in terms of root mean squared error. Finally, we also show results obtained by applying our method to astrophysical image data.



Mario Figueirido - IST Lisbonne - 11/10/2004

Titre : Iterative Algorithms for Wavelet-based Image Restoration.

Résumé :

Wavelet-based methods had a strong impact on the field of image processing, especially in coding and denoising. Wavelet-based image denoising methods yield state-of-the-art performance at very low computational cost. However, image restoration (deconvolution) is a more challenging problem than denoising, and applying wavelets to it has proved to be a non-trivial task. The crux of the difficulty lies in the fact that deconvolution is most easily dealt with in the Fourier domain, while image modelling is best handled in the wavelet domain.

In this talk, after briefly reviewing wavalet-based image modelling and denoising, I will describe recently proposed algorithms for wavelet-based image deconvolution. These algorithms provide maximum penalized likelihood (MPL) estimates, under wavelet-based penalties, for which there are no closed-form solutions. I will show how such iterative algorithms can be derived from two different approaches. In the first approach, the observation model is re-written by inserting auxiliary latent variables which open the door to the use of the expectation-maximization (EM) algorithm. In the second approach, the iterative algorithm is derived directly in a bound optimization framework. In both cases, the resulting algorithms, which are very simple, alternate between a Fourier-based step and a wavelet-based step. Experimental results show that these algorithms achieve state-of-the-art performance on benchmark image deconvolution problems.



Timothée Bailloeul - LIAMA, Pékin - 19/11/2004

Titre : Mise a jour automatique de carte numérique à l'aide de connaissance a priori et d'imagerie optique très haute résolution : application au bâti des régions urbaines.

Résumé :

La mise à jour de carte est traditionnellement un processus manuel de photo-interprétation d'images de tééedetection effectué par un cartographe. Cette technique lente et couteuse ne permet plus de répondre au flux grandissant des données de télédétection. De nombreux travaux ont été dédiés à l'automatisation de cette tâche en vision par ordinateur, donnant des résultats satisfaisants sur des images rurales ou péri-urbaines à faible ou moyenne résolution. Les milieux urbains sont plus complexes à analyser à haute résolution : la présence d'ombres, d'occlusions et la profusion de détails rendent l'interprétation automatique des images difficile. J'exposerai une methodologie de mise à jour de carte urbaine (échelle 1:10,000) grâce à une image satellite optique plus récente (Quickbird, 0.6m/pix).

Afin de remédier aux difficultés des environnements urbains, nous utiliserons la carte comme connaissance a priori ainsi qu'un Modèle Numérique de Surface (MNS) issu d'une reconstruction 3D de la scène. Je détaillerai mes travaux les plus récents axés sur la reconnaissance de bâtiment basée sur l'évolution de contours actifs. Ces derniers minimisant la fonctionnelle de Mumford-Shah (partition minimale) sont contraints par une forme à priori derivée de la carte (cf. travaux de D.Cremers, Chan&Zhu). Nous examinerons les limites de ce modèle et comment l'améliorer en fusionnant des données exogènes (MNS) dans la fonctionnelle. Ce travail de thèse est conjointement encadré par le LIAMA (INRIA, Academie des Sciences de Chine, Pekin), Alcatel Space et l'IRIT (Toulouse).



Fionn Murthag - Dep. of Computer Science Royal Holloway, University of London - 19/11/2004

Titre : Scale-Based Gaussian Coverings.

Résumé :

We seek to model signal and to take account of resolution scale. For model-based clustering, using a Gaussian mixture model and a Markov spatial model, we briefly discuss practical limitations in the multiband image and 3D image volume cases. We seek to avoid such limitations through use of spatial modeling in wavelet transform space.

However the BIC (Bayes information criterion) approximation to a Bayes factor is of limited use in this general context. We show that a suitable criterion of goodness of fit is given by Renyi quadratic entropy. We will illustrate this work using 3D image volumes from medicine and astronomy.



Florence Tupin - ENST, Paris - 06/12/2004

Titre : Reconstruction 3D en imagerie radar haute résolution.

Résumé :

La reconstruction 3D en milieu urbain par imagerie radar haute résolution se heurte à de nombreuses difficultés. Le signal enregistré par le radar est perturbé par de fortes déformations géométriques (repliements et ombres), les phénomènes électro-magnétiques et les rebonds multiples sont mal maîtrisés, et le bruit de châtoiement (speckle) n'est pas supprimé par la haute résolution mais est rendu plus difficilement modélisable.

Dans cet exposé, nous commencerons par présenter les caractéristiques du signal radar haute résolution et des outils (analyse statistique, découpage en sous-bandes) adaptés aux spécificités de ce milieu. Nous nous intérêsserons ensuite à deux méthodes classiques de reconstruction 3D, l'interferométrie et la radargramétrie. Les chaines de traitement 3D développées afin d'obtenir un MNE à partir des données brutes s'appuient sur des modèles markoviens définis sur le graphe des régions. Dans le contexte radargrammétrique, une image optique est utilisée pour arriver à la reconstruction du MNE. Des résultats préliminaires de ces approches en imagerie haute résolution aeroportée seront présentés.