|
|
|
|
|
|
|
University College London, UK |
3 mars | 14h00 | Salle 006 |
|
University of Nice/Sophia-Antipolis |
March 17 | 10:30 | 003 |
|
York university, UK |
March 24 | 14:00 | 003 |
|
Applied Mathematics Center (CMAP), Ecole Polytechnique. |
April 14 | 14:00 | 003 |
|
Signal and Image processing dept. ENST |
May 5 | 14:00 | 003 |
|
New Mexico State University Las Cruces, New Mexico, USA |
May 11 | 14:00 | 003 |
|
Biomedical Imaging Group Swiss Federal Institute of Technology EPFL, Lausanne - Switzerland |
June 16 | 14:00 |
|
|
Electronics, Imaging and Computer Science Laboratory (LEII) |
June 30 | 14:00 | 003 |
|
E. Thierry Laboratoire I3S, Cnrs-Unsa, Sophia Antipolis |
July 15 | 14:00 | 003 |
|
Research scientist Computational Sciences Division NASA Ames Research Center Moffett Field, CA, USA |
Sept. 11 | 14:00 | 006 |
|
Lecturer Department of Statistics Trinity College Dublin Ireland |
Sept. 15 | 10:00 | Salle du conseil (L101) |
|
Professor UFR Mathematics and Computer Science Rene Descartes University Paris |
Sept. 21 | 14:00 | 003 |
|
Assistant Professor Courant Institute of Mathematical Science New York, USA |
Oct. 16 | 14:00 | 003 |
|
Electrical & Computer Engineering Dept. Ben-Gurion University Beer Sheva, Israel |
Oct. 23 | 14:00 | 003 |
|
Senior lecturer Computer Science Department Anglia Polytechnic University Cambridge, UK |
Nov. 3 | 14:00 | 003 |
|
PhD Student, Oslo University, Norvege Faculty of Mathematics and Natural Sciences |
Nov. 16 | 14:00 | 006 |
|
Maître de Conférences Dept. Signal and Image INT Evry |
Nov. 24 | 14:00 | 002 |
|
Research scientist Member of University of Cambridge Signal Processing Laboratory Cambridge, UK |
Dec. 1 | 14:00 | 003 |
|
Research scientist CWI Amsterdam |
Dec. 15 | 14:00 | 003 |
The detection of global change from satellites requires a broad range of
spatial and temporal scales and automated image understanding techniques.
Examples will be given of IU techniques developed for operational use on
the NASA EOS mission including (1) global cloud properties from
multi-angle imagery; (2) global BRDF and albedo properties of the land
surface; (3) global topography extraction for hydrological modelling.
Examples will also be given of 3D modelling of urban areas for studies
of aerosols' pollution inputs into the climate system using simulated 1m
spaceborne stereo imagery and deformation mapping of volcanoes using
differential SAR interferometry within the context of a GIS for a volcanic
hazard warning system. Finally, examples will be shown of the application
of IU techniques to global change visualisation using video and
interactive CD-ROM technology.
Lorsqu'on analyse des variables aléatoires non gaussiennes, l'étude des
statistiques d'ordre supérieur à deux permet d'accéder à des informations
utiles dans plusieurs problèmes : ces statistiques permettent par exemple
de séparer des composantes indépendantes dans un signal ou d'identifier les
caractéristiques d'un système non-linéaire. Une des utilisations
importantes est l'identification de systèmes linéaires, même dans le cas
où ces systèmes ne sont pas à minimum de phase. Dans l'exposé nous
passerons en revue ces différentes applications en étudiant plus
particulièrement l'identification de systèmes linéaires en liaison avec
les applications en traitement du signal (égalisation en communication
numérique) et en traitement d'images (amélioration d'images dégradées,
reconstitution d'images astronomiques à partir de données
interférométriques).
In this talk I will review some recent work on feature extraction
and matching in aerial imagery performed in my group at York.
The work focesses on the analysis of both infra-red line scan and radar
datasets. The talk will cover three topics:
1:The extraction of narrow curvlinear featuresusing fine-spline coverings
and the EM algorithm.
2:The use of the EM algorithm to register digital maps against extracted
linear features.
3:The use of graph-matching techniques to perform linear feature
grouping and matching.
I will conclude by describing new methodological work which we hope
to exploit in matching digital terrain models to radar elevation data under
a recently funded EPSRC project
La déconvolution de signaux bruités est un problème instable : appliquer
le filtre inverse provoque une explosion numérique du bruit. Nous
proposons un algorithme de déconvolution dans lequel le bruit amplifié est
supprimé par une procédure de seuillage des coefficients du signal dans
une base de paquets d'ondelettes adaptée. L'algorithme est rapide, et
fournit des résultats numériques et perceptuels supérieurs aux autres
techniques de déconvolution. Il a été sélectionné par le Centre National
d'Etudes Spatiales (CNES) pour améliorer la résolution d'images
satellitaires floues et bruitées.
Le séminaire comprendra une présentation des estimateurs par seuillage
dans une base orthogonale. Nous étudierons les performances asymptotiques
des algorithmes de filtrage linéaire d'une part et de seuillage dans une
base optimale de paquets d'ondelette d'autre part. Nous donnerons
également un résultat d'optimalité de notre
procédure dans l'espace des signaux à variations bornées. Enfin, nous
étudierons les résultats numériques sur des images satellitaires.
Les images obtenues par Radar à Synthèse d'Ouverture (RSO) présentent un
aspect granuleux : le chatoiement (speckle), qui rend leur interprétation
difficile. Ce phénomène, essentiellement dû à l'aspect cohérent de l'onde
radar émise, se traduit par l'apparition d'un bruit spécifique sur les
images ainsi produites, dont la nature est essentiellement multiplicative
et qui masque donc la texture initiale des images.
Une approche peu usitée est d'utiliser, pour analyser ce chatoiement, un
formalisme fondé sur la transformée de Mellin et la convolution de
Mellin. De manière similaire à la transformée de Fourier, la convolution
de Mellin de deux fonctions se traduit, dans l'espace de Mellin, par un
simple produit. Si on suppose alors des hypothèses de texture sur la scène
analysée (comme le modele de Pearson) et si on connaît les lois
statistiques du chatoiement, on sait alors aisément calculer
analytiquement la loi statistique de l'image radar obtenue : l'utilisation
de tables de transformées de Mellin permet alors de retrouver facilement
les lois classiques (loi K, loi W, ...) bien connues des radaristes.
L'utilisation de techniques de transformées de Mellin numériques permet
de déconvoluer en loi une image RSO, moyennant des hypothèses réalistes
sur le chatoiement (soit théoriques, soit expérimentales). On obtient
ainsi la loi de la texture sous jacente à l'image en effectuant une
transformée de Mellin numérique sur l'histogramme de l'image initiale, en
divisant ce résultat par la loi théorique (ou expérimentale) du
chatoiement, enfin en effectuant une transformée de Mellin inverse.
Appliquée aux images radar, cette méthode semble très prometteuse.
Spécifique au bruit multiplicatif, elle peut tout à fait s'appliquer à
d'autres types d'images où existe du chatoiement, comme les images
échographiques.
In 1964, I called the unsolved problem of determining fully the structure
of a graph G given only the multiset (called the `deck') of unlabeled
node-deleted subgraphs THE RECONSTRUCTION CONJECTURE [RC] for graphs. The
analogue to image processing is clear in that partial information about an
image is given and the reconstruction of the entire image is desired, so
that graph theory serves as an appropriate mathematical model. I also
proposed several variations on the RC including being given [a] the set of
such subgraphs rather than the multiset, [b] the multiset of edge deleted
subgraphs (and also the
set). [c] other subgraphs of G. At that time, the RC had only been proven
for a tree T. Since then, other families of subgraphs have been shown to
be sufficient for reconstructing T, including those in [a,b,c]. More
recently, I discovered the reconstruction number of a graph G, written
r(G), defined as the smallest number of subgraphs in the deck of G which
do not appear as part of the deck of another
graph. In that paper I annoumced as a `true comjecture' the statement that
almost all graphs have reconstruction number 3; this was quickly proved by
my friend B.Bolloba's. Much research has been done on the RC and many
partial results have been discovered. However, like vision processing, it
seems most improbable that the RC will ever be fully proved!
We investigate the problem of the reconstruction of a continuous-time
function f(x) in H from the responses of m linear shift-invariant
systems sampled at 1/m the reconstruction
rate, extending Papoulis' generalized sampling theory in two important
respects.
First, we allow for arbitrary (non-bandlimited) input
signals (typ. H=L2).
Second, we use a more general
specification of the reconstruction subspace V(phi), so that the
output of the system can take the form of a bandlimited function, a
spline, or a wavelet expansion. The system that we describe yields an approximation f in V(phi) that is consistent with the
input f(x) in the sense that it produces exactly the same measurements. We
show that this solution can be computed by multivariate filtering. We
also characterize the stability of the system (condition number).
Finally, we
prove that the generalized sampling solution is essentially equivalent
to the optimal minimum error approximation (orthogonal projection)
which is generally not accessible. We also present some illustrative examples
using splines.
Cet exposé porte sur la mesure du mouvement apparent par l'approche
markovienne dans les séquences d'images numériques.
Dans un premier temps, nous decrirons un schéma d'estimation du mouvement
avec prise en compte des discontinuités. Cette procédure utilise un modèle
markovien dérivé du potentiel de Geman McClure au sein duquel est intégréé
l'amplitude locale du mouvement obtenue par l'analyse de Fourier.
L'expression du modèle obtenu permet de simplifier le processus de
minimisation.
Dans un deuxième temps, nous présenterons une méthode de détermination de
l'hyperparamètre de régularisation bétâ en fonction de la séquence d'images
étudiée. Elle repose sur une mesure de l'entropie des champs de vitesse
estimés. L'analyse expérimentale de son comportement permet de déduire une
plage de valeurs de béta centrée autour de la valeur correspondant à
l'entropie moyenne.
Dans un troisième temps, nous discuterons des améliorations à développer
dans la recherche de la solution notamment par l'utilisation des
algorithmes génétiques. Ces algorithmes stochastiques sont appliqués avec
succès sur de nombreux problemes d'optimisation non-linéaires mais
nécessitent une adaptation en analyse analyse d'images en particulier dans
le cadre de l'estimation du mouvement.
Et finalement, nous montrerons quelques résultats de flux optiques obtenus
sur des images synthétiques et réelles.
L'objectif de cet séminaire est de présenter les bases de la
modélisation
semi-paramétrique (ou Kriging).
L'idée de base de cette méthode est de supposer que la fonction
d'interpolation ou de prédiction est une trajectoire
d'une fonction aléatoire possédant une covariance stationnaire et
passant par les
points de la séquence d'apprentissage.
Le problème principal réside dans le choix de la forme de la fonction
de covariance et dans la détermination
des paramètres associés.
On présentera les bases de cette méthode ainsi que les liens avec les
fonctions splines et les réseaux de neurones.
On présentera une application de cette méthode au problème de la
soustraction de bruit non-linéaire.
Enfin on abordera le sujet du choix de la séquence d'apprentissage.
Markov Random Fields are widely used in many image processing
applications. Recently the shortcomings of some of the simpler forms of
these models have become apparent, and models based on larger
neighbourhoods have been developed. When single-site updating methods are
used with these models, a large number of iterations are required for
convergence. The Swendsen-Wang algorithm and Partial Decoupling have been
shown to give potentially enormous speed-up to computation with the simple
Ising and Potts models. In this report we show how the same ideas can be
used with binary Markov Random Fields with essentially any support to
construct auxilliary variable algorithms. However, because of the
complexity and certain characteristics of the models, the computational
gains are limited.
I will introduce a probability model for images composed of regions of
different texture, which I call the double Markov random field and use
it to produce an image segmentation algorithm. The segmentation is done by
fitting the model to an image and computing the most likely segmentation
given the observed intensities (the so-called MAP estimate), or
alternatively by computing the most likely classification of each pixel
(the so-called MPM estimate). I call the algorithm 'fully Bayesian'
because it segments by simultaneously computing the posterior distribution of
the segmentation and model parameters. Both MCMC and simulated annealing, as
well as approximations to full conditional distributions, are required.
The algorithm is called partially unsupervised because no data on the
nature of the textures in the image is needed. However, the user must
still specify the number of different textures present. I will conclude by
discussing ways in which one might segment with an unknown number of
textures by a reversible jump technique.
Les algorithmes de segmentation sont habituellement qualifies
de "supervises" ou "non supervises" suivant la quantite d'information
externe necessaire lors de leur utilisation. Cet expose va presenter
plusieurs exemples d'algorithmes markoviens supervises ou non supervises
de segmentation afin en particulier de proposer differentes modelisation
et des possibilites d'amelioration des modeles initiaux.
Suivant une approche bayesienne habituelle, les energies seront divisees
en deux termes : le terme d'interaction et le terme de regularisation.
Apres avoir introduit les deux modeles de base, nous comparerons les
energies, nous discuterons plus precisement des deux termes et plus
particulierement du terme d'interaction. Ensuite, les systemes de
voisinages seront eux aussi consideres ainsi que leur possible dependance
par rapport aux donnees. Nous presenterons plusieurs voies d'amelioration
possibles : utilisation de contours, d'un label "non classe".
Finalement, de nombreuses approches hierarchiques peuvent etre
utilisees. Nous ne nous interesserons pas ici aux possibilites
d'amelioration de la procedure d'optimisation mais plutot à la definition
de nouveaux modeles combinant des primitives differentes et les energies
de segmentation habituelles.
Markov random fields (MRFs) capture important properties of image
processing. They model local interactions that yield global behavior.
Computers today can run in a few minutes various polinomial time
graph algorithms to obtain global optimum of these "vision MRFs
models" (and approximate algorithms can run in real time).
We examine applications of the Shortest Path Single Source and the
Maximum Flow Algorithms applied to Symmetry Axis, Stereo and
Segmentation. The results suggests that the power of MRFs can now be
appreciated by all researchers.
We present a parametric solution to the problem of estimating the
orientation in space of a planar textured surface, from a single observed
image of it. The coordinate transformation from surface to image
coordinates, due to the perspective projection, transforms each
homogeneous sinusoidal component of the surface texture into a sinusoid
whose frequency is a function of location.
Using the phase differencing algorithm we fit a polynomial phase model to
a sinusoidal component of the observed texture.
Based on the estimated phase, four different algorithms for estimating
the tilt and slant are derived. In this presentation we also derive the
Cramer-Rao lower bound on the accuracy of estimating the tilt and slant of
the observed surface. The performance of the proposed algorithms is
evaluated by applying them to images of different planar surfaces, as well
as by comparing their performance with the Cramer-Rao bound. Two of the
proposed algorithms are found to produce estimates that are very close to
the bound, at computational complexity which is considerably lower than
that of any existing algorithm.
In this talk, I will demonstrate that Regularisation by
Convolution, a smoothing technique based on the convolution of
mixture models with single smooth kernels, is equivalent to the
addition of noise to the input data of a finite mixture model in the
case of probability density estimation.
Regularisation by Convolution is not constrained to the
convolution of Gaussian kernels and can be used on any mixture model
whose kernels are closed under convolution. I will present the
Symmetric-alpha-Stable family of kernels to illustrate the
case. I'll also demonstrate that Regularisation by Convolution
can be applied to sigmoidal-like mixture models obtained by
integration of alpha kernels and to multivariate mixture models
when combined to the Simplex method for the search of the optimal
regularising kernel.
The performance of Regularisation by Convolution is illustrated
on Wahba's toy problem and the probability density estimation of
ink in ancient manuscript letters (British library Beowulf
manuscript). The results are compared to those obtained by other
regularisers like Adding Noise, Early Stopping and it
Weight Decay.
The task of tracking particles is one of the fundamental data analysis
problems in modern particle physics experiments. One is typically
interested in estimating the parameters of high-energetic tracks in an
environment of substantial background from low-energetic particles and
noise.
We will in this talk give a description of the above mentioned data
analysis problem from an experiment at the European Laboratory of Particle
Physics (CERN) situated outside Geneva. The principles of an
energy-minimization algorithm (successfully applied to these kind of
problems) called the Elastic Arms algorithm will then be described.
Finally, we will give an introduction to the basic properties of the
Probabilistic Multi-Hypothesis Tracking (PMHT) algorithm and its possible
applications to tracking elementary particles.
Fondés sur la théorie des flots géométriques et les méthodes d'évolution d'interfaces par ensembles de niveau, les contours actifs
géodésiques apportent une réponse cohérente aux problèmes d'initialisation, d'optimisation et d'adaptativité topologique des contours
actifs classiques. Dans ces modèles, la segmentation est formulée comme un calcul de surfaces minimales relativement à une métrique
(riemannienne) isotrope intégrant une contrainte de gradient sur l'attribut image considéré : luminance, flot optique, indice de texture.
Classiquement, seule l'information d'amplitude du gradient est utilisée, induisant une contrainte locale sur la position des structures
d'intérêt. Nous nous proposons de mettre en place un cadre plus général permettant l'intégration simultanée d'informations
d'orientation sur les structures à segmenter. Dans cet exposé, nous développerons ce programme dans le contexte de la segmentation
orientée contours.
Nous présentons ainsi une généralisation anisotrope des contours actifs géodésiques sous forme de flots réactifs-diffusifs
intrinsèques, dans lesquels la géométrie de la variété déformable est contrôlée par un tenseur d'interaction dépendant du tenseur de
structure de l'image. En exploitant une information géométrique tant positionnelle que directionnelle issue de l'image, ce nouveau
modèle permet la détection de structures texturées ou faiblement contrastées. Nous énonçons un théorème établissant son caractère
bien-posé, présentons une caractérisation spectrale des tenseurs d'interaction admissibles, et dérivons un schéma numérique
préservant les propriétés théoriques du modèle continu dans un cadre discret. Son implantation algorithmique efficace par des
techniques de bande étroite alliées à l'utilisation de files d'attente est envisagée. Finalement, sa mise en uvre hiérarchique dans un
contexte multi-échelle cohérent est évoquée. La pertinence de ce modèle est illustrée sur des images médicales.
Mots clés :
Modèles déformables dynamiques, géométrie différentielle, EDP, flots géodésiques diffusifs, représentations multi-échelles, ensembles de
niveaux, segmentation.
In any form of communications, information extraction or modeling task,
information bearing signals of interest are corrupted by undesired
disturbances
which we call noise. Until recently, it has been assumed almost blindly that
the noise
is always distributed with the Gaussian distribution motivated by the
central limit theorem and by the analytical convenience of the Gaussian
probability density function. However, it is common knowledge that many
types
of noise encountered in real life applications such as atmospheric noise,
noise on old audio recordings, man made noise such as neon lights,
measurements errors, salt and pepper noise on images all exhibit
characteristics too impulsive to be successfully represented
by the Gaussian distribution. Detection and estimation
algorithms designed under the Gaussian assumption show
very poor performance in the presence of impulsive noise.
Recently, in 1993, another probability distribution namely the alpha-stable
distribution has been suggested to model impulsive noise. This distribution
family
is very attractive since it is also motivated by a generalized form of the
central
limit theorem and since empirical results demonstrate the clear success of
the model. However, the potentials of noise modeling with alpha-stable
distributions could not be exploited in its full potential due to the
analytical
difficulties associated with the alpha-stable probability density function.
In this work, we introduce ways of circumventing these analytical
difficulties
and present new simple techniques for the design of optimal estimation and
detection algorithms for signal processing problems involving impulsive
noise
modeled with an alpha-stable distribution. In particular, we will present
powerful techniques for the cancellation of impulsive noise after the
application of which modeling tasks can be carried out on the clean data safely.
The direct applications of these techniques are in image processing, audio
restoration,
radar and sonar signal processing.
Many problems in spatial statistics can be cast in a missing
data framework. For instance, a spatial pattern is usually
observed in a bounded region while the pattern of interest
extends outside, individual occurrences may be aggregated
into counts over administrative regions and pollution levels
measured at a few locations are used for prediction at other
places.
All the above examples require spatial interpolation or
extrapolation. In this talk we will consider in detail the
problem of partitioning a spatial point pattern into clusters.
The missing information then consists of the cluster centres
and the assignment of points to a centre. Models from
stochastic geometry are used both for the prior cluster
centre distribution and for the data generation process.
Finally, Markov chain Monte Carlo techiques for statistical
inference will be discussed.