L.MOISAN PhD
Modèles continus, numériques et statistiques pour l'analyse d'images


Lionel Moisan


Mémoire d'Habilitation à Diriger des Recherches, Université Paris 11, janvier 2003.


Téléchargement : gzip-compressed Postscript ou PDF
Pour un exemplaire papier, me contacter


Résumé

    D'un point de vue physique, une image est une distribution de lumière focalisée sur un plan. D'un point de vue numérique, c'est un tableau de nombres. Ce fossé entre le modèle physique intuitif et la réalité numérique peut être transcendé par les modèles mathématiques, qui représentent les images par des objets précis et idéalisés afin d'en mieux percer les propriétés. Dans ce mémoire, je présente plusieurs modèles mathématiques qui ont fait leurs preuves en analyse d'images, afin de replacer dans leur contexte mes propres contributions. Partant du théorème de l'échantillonnage de Shannon, peu adapté aux discontinuités naturelles des images, j'aborde ensuite le modèle variationnel et l'utilisation fructueuse de la variation totale comme terme de régularisation dans les problèmes mal posés comme la déconvolution. Un glissement progressif nous amène alors aux représentations multiéchelles des images (scale-space) décrites par des équations aux dérivées partielles. Associées à l'invariance par changement de contraste, proposée il y a vingt ans par la morphologie mathématique, ces représentations multiéchelles aboutissent aux mouvements par courbure, où des courbes (les lignes de niveau d'une image) évoluent selon leur normale à une vitesse dépendant de leur courbure locale. Un cas particulier, invariant affine, se révèle précieux dans l'application à la comparaison d'images. Dans une deuxième partie, je confronte ces modèles et les objets mathématiques auxquels ils se réfèrent au monde numérique, en détaillant tout particulièrement le cas des mouvements par courbure (et notamment le cas affine) pour lesquels il existe des algorithmes géométriques particulièrement intéressants. Enfin, soulignant la limite de ces modèles trop locaux en vision artificielle, j'aborde mes recherches les plus récentes en détection statistique de primitives géométriques dans les images. Après une discussion sur la modélisation statistique et le lien étroit entre Maximum A Posteriori (loi de Bayes) et modèles variationnels, j'évoque le travail des gestaltistes sur l'identification des mécanismes fondamentaux de la vision humaine (groupements perceptifs selon des lois géométriques appelées gestalts), avant de décrire un modèle a contrario permettant de formaliser ces mécanismes avec une modélisation minimale et une réduction systématique des paramètres libres ou mesurés à un seuil absolu appelé nombre de fausses alarmes. J'illustre ce modèle par la détection d'alignements, de modes d'histogrammes et de bords contrastés, avant d'aborder la question de la maximalité (détections optimales représentatives) et de présenter deux conjectures récentes liées à la loi Binomiale. Mon mémoire s'achève avec quelques considérations sur la vision humaine comme modèle de vision artificielle, sur le rôle primordial de l'expérimentation, et par une description rapide de mes axes de recherches actuels, notamment la détection systématique de structures surdéterminées dans les images et les textes.