Modelo multimodal
Proyecto INRIA @Sophia-Antipolis, Francia (2009). La segmentación de imágenes basada en modelos requiere información previa acerca de la apariencia de una estructura en la imagen. En lugar de basarse en el análisis de componentes principales (ACP), como se hace con los Statistical Appearance Models (SAM), proponemos un nuevo modelo de apariencia basado en una agrupación regional de perfiles de intensidad que no se basa en un registro punto a punto preciso.
Este modelo multimodal de apariencia, denominado Multimodal Prior Appearance Model (MPAM), se basa en el algoritmo de esperanza-maximización (EM) con matrices de covarianza regularizadas e incluye una regularización espacial. El número de regiones de apariencia esta determinado por un nuevo criterio de selección del orden del modelo. El modelo se describe en una malla de referencia en la cual cada vértice tiene una probabilidad de pertenecer a varias clases de perfil de intensidad.
Probamos nuestro método con 7 mallas del hígado segmentado a partir de imágenes tomográficas (TC) y 4 mallas del tibia segmentado a partir de imágenes de imágenes por resonancia magnética (IRM). Para ambas estructuras, perfiles de intensidad compuestos por 10 muestras extraídas cada mm fueron generados a partir de mallas con alrededor de 4000 vértices.
La principal ventaja de nuestro método es que las regiones de apariencia son extraídas sin necesidad de un registro punto a punto preciso. Otra ventaja es que un modelo puede estar construido con pocos conjuntos de datos (de hecho un conjunto es suficiente). Además, el modelo es multimodal, y por lo tanto capaz de hacer frente a grandes variaciones de apariencia.
Referencias
Artículos relacionados
MICCAI 2009 (acta de conferencia)
Ph.D. Thesis 2011 (tesis doctoral)