François Chung, Ph.D.
Modèle multimodal

Modèle multimodal

Projet INRIA @Sophia-Antipolis, France (2009). La segmentation d'images basée modèle requiert une information préalable sur l'apparence d'une structure dans l'image. Au lieu de s'appuyer sur l'analyse en composantes principales (ACP), comme c'est le cas avec les modèles d'apparence statistiques (SAM), nous proposons un nouveau modèle d'apparence basé sur un clustering régional de profils d'intensité qui ne repose pas sur un recalage point à point précis.

Ce modèle multimodal d'apparence, dénommé Multimodal Prior Appearance Model (MPAM), repose sur l'algorithme d'espérance-maximisation (EM) combiné avec des matrices de covariance régularisées et inclut une régularisation spatiale. Le nombre de régions d'apparence est déterminé par un nouveau critère de sélection. Le modèle est décrit sur un maillage de référence où chaque sommet a une probabilité d'appartenir à plusieurs classes de profils d'intensité.

Nous avons testé notre méthode avec 7 maillages du foie segmenté à partir d'images tomographiques (CT) et 4 maillages du tibia segmenté à partir d'images par résonance magnétique (IRM). Pour les deux structures, des profils d'intensité composés de 10 échantillons extraits chaque mm ont été générés à partir de maillages composés d'environ 4000 points.

Le principal avantage de notre approche est que les régions d'apparence sont extraites sans nécessiter un recalage point à point précis. Un autre avantage est qu'un modèle peut être construit avec un nombre restreint d'ensembles de données (en fait, un seul ensemble suffit). En outre, le modèle est multimodal, et donc en mesure de faire face à une grande variation au niveau de l'apparence.

Références

Articles associés

MICCAI 2009 (acte de conférence)
Ph.D. Thesis 2011 (thèse de doctorat)