Model multimodal
Projecte INRIA @Sophia-Antipolis, França (2009). La segmentació d'imatges basada en models requereix informació prèvia sobre l'aparença d'una estructura en la imatge. En lloc de basar-se en l'anàlisi de components principals (ACP), com els Statistical Appearance Models (SAM), proposem un model basat en una agrupació regional de perfils d'intensitat que no es basa en un registre precís.
Aquest model multimodal d'aparença, denominat Multimodal Prior Appearance Model (MPAM), es basa en l'algoritme d'expectació-maximització (EM) amb matrius de covariància regularitzats i inclou una regularització espacial. El nombre de regions d'aparença está determinat per un nou criteri de selecció de l'ordre del model. El model es descriu en una malla de referència en la qual cada vèrtex té una probabilitat de pertànyer a diverses classes de perfil d'intensitat.
Vam provar el nostre mètode amb 7 malles del fetge segmentat a partir d'imatges tomogràfiques (TC) i 4 malles del tèbia segmentat a partir d'imatges per ressonància magnètica (IRM). Per ambdues estructures, perfils d'intensitat compostos per 10 mostres extretes cada mm es van generar a partir de malles amb al voltant de 4000 vèrtexs.
El principal avantatge del nostre mètode és que les regions d'aparença són extretes sense necessitat d'un registre punt a punt precís. Un altre avantatge és que un model pot ser construït amb pocs conjunts de dades (de fet un conjunt és suficient). A més, el model és multimodal, i per tant capaç de fer front a grans variacions d'aparença.
Referències
Articles relacionats
MICCAI 2009 (acta de conferència)
Ph.D. Thesis 2011 (tesi doctoral)