Descargar

El proceso de segmentación automática de lesiones patológicas en imágenes de mamografías (página 2)

Enviado por Arnaldo Faustino


Partes: 1, 2, 3

edu.red

La forma más común para convertir una imagen en niveles de grises a una imagen monocroma es seleccionando un umbral, donde todos los píxeles cuyos niveles de intensidad estén por debajo de este umbral, se clasifican con valor 0 (píxeles negros) y los que estén por encima, con valor 1 (píxeles blancos). Encontrar el valor correcto del umbral resulta lo más difícil.

En aplicaciones reales raras veces se puede emplear un umbral fijo para todos los píxeles de la imagen. Las variaciones locales en el nivel de gris de los píxeles son frecuentemente, motivadas por problemas de iluminación no uniforme de la escena o por irregularidades de los dispositivos de captura. En estos casos resulta mucho más frecuente recurrir a un proceso de umbralización, conocido como umbralización adaptativa, dependiente de la posición del píxel en la imagen. De esta forma, cada zona de la imagen, o incluso cada píxel, se procesa respecto a un umbral calculado en un entorno local de la propia zona, o píxel.

Si se conoce a priori alguna propiedad sobre la imagen se simplifica mucho la búsqueda del valor del umbral: escogiendo aquel que permite cumplir la propiedad conocida.

edu.red

Si se conoce aproximadamente el área de la imagen que deben cubrir los objetos de interés, se selecciona en el histograma el valor que permite asegurar que los objetos segmentados en la imagen tienen aproximadamente, esa área.

El método de umbralización reportado en la literatura más empleado es la selección del histograma, el cual se implementa buscando mínimos locales entre máximos locales significativos y utilizando el nivel de gris de esos mínimos como umbral de segmentación. O sea, en primer lugar se localiza el mayor máximo local (máximo global) del histograma (que se corresponderá a un máximo de probabilidad asociado a un objeto). A continuación se localiza el segundo mayor máximo local del histograma (máximo de probabilidad asociado a otro objeto o al fondo de la imagen). Por último, se localiza el mínimo local entre ambos máximos y se utiliza su valor como valor para el umbral. En el caso de existir más de un objeto de interés se reitera el proceso. Quizás se necesite aplicar un suavizado previo al histograma o un criterio de distancia mínima entre picos, para evitar la detección de dobles picos producto al ruido.

Se han reportado varias técnicas que intentan mejorar los resultados de una simple umbralización por mínimos locales, mejorando la decisión sobre el punto de umbral. Una de las más utilizadas es la umbralización óptima, o método de Otsu, en el cual se aproxima el histograma de la imagen mediante la suma ponderada de varias distribuciones de probabilidad pertenecientes a cada uno de los objetos presentes en la imagen. Los valores de umbral se fijan en los puntos de mínima probabilidad.

1.2.3 Modelos y contornos deformables.

El desarrollo de los Modelos (Superficies) Deformables [33, 34], conocidos popularmente como snakes han captado la atención de los investigadores de diversas áreas de la ciencia, ya que estos han sido utilizados ampliamente en la segmentación de objetos en imágenes 2D y 3D respectivamente. Su principal ventaja radica en la posibilidad de segmentar y seguir objetos cuya morfología puede variar en un intervalo de tiempo dado.

Desde la introducción de los snakes en el análisis de imágenes por Kass y otros [33] son diversas las variantes, extensiones y alternativas que se han desarrollado del snake original; entre las cuales se pueden citar los trabajos de Terzopoulos, McInerney, Singh, Goldgof, Blake e Isard, respectivamente [26, 35, 36].

  • Conocimiento estadístico previo de la forma.

La formulación original de los snakes es demasiado general para obtener resultados aceptables al procesar imágenes donde existan anormalidades en su forma y apariencia debido a oclusiones, estructuras irrelevantes cercanas a los bordes o ruido. Esto ha provocado el origen de varias técnicas que utilizan el conocimiento previo de la forma del objeto para la segmentación del mismo como los Modelos de Formas Activas (MFA) propuesto por Cootes [37]. Cootes (1993) [5, 38] plantea que los MFA constituyen una técnica de modelación de formas activas de gran aplicación para la segmentación de estructuras anatómicas en imágenes médicas.

Los MFA mejoraron considerablemente los resultados de la segmentación, no obstante, el modelo requería de un entrenamiento previo, tornándose menos general.

En los MFA la variación estadística de las formas que pertenecen a una clase específica de objetos se modela de antemano con un juego de imágenes de entrenamiento. Para esto se supone un modelo inicial y se aplica de forma tal que pueda deformarse de acuerdo a los datos de la imagen. Las deformaciones propuestas se escogen para minimizar una cierta función de energía y a su vez son restringidas para ser consistentes con el conocimiento previo sobre el objeto. La función de energía es seleccionada a medida que el modelo sea atraído hacia ciertas características extraídas de los valores de intensidades (escala de grises) de la imagen.

Se han desarrollado varias mejoras al método de los MFA básicos; por ejemplo, Hill [39, 40, 41] propuso un algoritmo de generación de acotamiento automático basado en la multi-resolución de los MFA presentados por Cootes [42]; además sugirió abordar la introducción de los MFA como un problema de optimización utilizando técnicas de algoritmos genéticos [43].

Como se pudo apreciar en la sección anterior, los Modelos Deformables son de gran importancia para la ciencia y la técnica debido a las posibilidades que brinda su aplicación en la segmentación de imágenes.

El modelo matemático del snake paramétrico lo propusieron con efectividad por primera vez Kass y Terzopoulos [33,44] como una herramienta para resolver el problema de la segmentación. Este método consiste en lograr una minimización de energía guiada por un spline mediante fuerzas de restricciones externas y la influencia de fuerzas de campos potenciales que lo mueven hacia las características de interés en la imagen.

edu.red

  • Contornos activos: técnica live wire.

El live wire (o cortes inteligentes) es una técnica interactiva de seguimiento de bordes [6, 45, 46, 47, 48, 49]. Esta comparte algunas similaridades con los snakes y fue originalmente desarrollada como una extensión 2D interactiva con etapas previas.

Esta técnica se considera como un competidor de los snakes, pues al igual que los snakes, la idea del live wire es permitir la segmentación de la imagen con una mínima interacción por parte del usuario, mientras le permite al usuario ejercer el control sobre el proceso de segmentación.

La génesis del live wire está en la colaboración entre Adupa (Universidad de Pennsylvania) y Barrett (Universidad Joven de Brigham).

La técnica live wire comparte dos componentes esenciales: una función de costo total que asigna un costo más bajo a los rasgos de interés de la imagen como los bordes y un proceso de expansión que forma bordes óptimos para los objetos de interés, basado en la función de costo. El borde encontrado con el live wire puede ser formulado como una búsqueda en un grafo dirigido por un camino óptimo (costo mínimo) usando el algoritmo de Dijkstra.

Función de costo.

edu.red

El cerebro es un elemento de procesamiento de la información extremadamente complejo, cuyo modo de funcionamiento es eminentemente paralelo y cuyo comportamiento no puede describirse por medio de modelos sencillos como son los lineales. Fue el científico español Ramón y Cajal (premio Nobel en 1911) quien a finales del siglo XIX desarrolló y presentó la noción de neurona como elemento estructural constitutivo del cerebro.

Entre los elementos de su estructura histológica (ver anexo # 2) están:

  • Las dendritas, que son la vía de entrada de las señales que se combinan en el cuerpo de la neurona. De alguna manera la neurona elabora una señal de salida a partir de ellas.

  • El axón, que es el camino de salida de la señal generada por la neurona.

  • Las sinapsis, que son las unidades funcionales y estructurales elementales que median entre las interacciones de las neuronas. En las terminaciones de las sinapsis se encuentran unas vesículas que contienen unas sustancias químicas llamadas neurotransmisores, que ayudan a la propagación de las señales electroquímicas de una neurona a otra.

El concepto de plasticidad está relacionado con la capacidad del cerebro frente a la adaptación de acuerdo a los estímulos exteriores. En un cerebro adulto la plasticidad se puede llevar a cabo por dos procedimientos: creación de nuevas conexiones sinápticas entre las neuronas y la modificación de las ya existentes.

Como en otras tantas ocasiones, el ser humano ha intentado imitar la plasticidad que parece ser la clave esencial en el funcionamiento de las neuronas biológicas, modelándola en las RNA. Varias han sido las definiciones reportadas en la literatura sobre el concepto de RNA, por ejemplo: algunos autores [51] plantean que una RNA es un procesador masivamente paralelo distribuido que es propenso por naturaleza a almacenar conocimiento experimental y hacerlo disponible para su uso; otros plantean que una RNA es un modelo computacional con un conjunto de propiedades específicas, como son la habilidad de adaptarse o aprender, generalizar u organizar la información, todo ello basado en un procesamiento eminentemente paralelo [52].

Modelo de Neurona.

La neurona es un elemento de procesamiento de la información que juega un papel fundamental en una red neuronal.

edu.red

Hay una infinidad de funciones para ser utilizadas como función de activación, pero se pueden distinguir tres grandes clases: tipo escalón, lineales a trozos y sigmoide. La elección de la función de activación depende fuertemente del algoritmo de aprendizaje que se vaya a utilizar.

Muchas veces se habla de arquitectura de una RNA. Este concepto se refiere básicamente a la manera en que se interconectan los distintos elementos de proceso que forman la red.

En una RNA los elementos de proceso se organizan como una secuencia de capas con un determinado patrón de interconexión entre los diferentes elementos de proceso que la forman, y con un patrón de conexión entre los elementos de proceso de las distintas capas. Uno de los rasgos que puede ayudar a definir una capa es el hecho de que todos los elementos de proceso que la forman usan la misma función de transferencia.

En muchas de las arquitecturas de RNA se puede hacer la siguiente distinción entre las capas:

  • Capa de entrada: Es la capa que recibe los estímulos del entorno. No suele tener asociado un mecanismo de aprendizaje, es decir, sus pesos se mantienen constantes, y su misión simplemente es la de distribuir dicha entrada al resto de los elementos de proceso que constituyen la red.

  • Capa de salida: Es la capa sobre la que se forman las salidas de la red.

  • Capas ocultas: Son las demás capas que no son ni de entrada ni de salida.

En la actualidad existen muchos modelos de RNA, y cada año los investigadores crean nuevas arquitecturas, paradigmas y algoritmos de aprendizaje. A fin de tener una visión del panorama actual de las RNA, en el anexo # 3 se presenta una síntesis de las clasificaciones que proporcionan algunos autores [52, 53, 54, 55]. En este anexo se han incluido algunos tipos de redes que por su relevancia histórica o por su uso muy extendido se han convertido en punto de referencia para el mundo científico y técnico. Se han quedado fuera de este resumen varios tipos de RNA que por su ámbito de aplicación o novedad no resultan representativas del estado del arte.

1.3.1 Redes Neuronales Artificiales de Kohonen.

Este tipo de redes, generalmente tienen más de dos capas, algunas de cuyas unidades compiten entre sí por el "privilegio" de clasificar la entrada. En las llamadas RNA de Kohonen (un subconjunto de las de filtro competitivo), esto se plasma como conexiones inhibitorias intracapa ("inhibición lateral"), de modo que la activación de una unidad tiende a producir un descenso en la actividad de sus "competidoras" de capa.

La arquitectura de las RNA de Kohonen se caracteriza por:

  • tres o más capas.

  • patrón de conexión total entre la capa de entrada y la capa oculta.

  • conexiones inhibitorias laterales en la capa oculta.

Es indispensable que al construir una RNA de este tipo se garantice que el vector de pesos de cada unidad de la capa oculta sea diferente a los demás.

Considerando el caso de una RNA de tres capas, de flujo directo, con la capa intermedia (competitiva) interconectada con pesos fijos, de modo que cada unidad envía señales de excitación a sus "vecinas" e inhibición lateral a las demás unidades ("competidoras") de la capa. La capa de entrada envía una copia completa del vector de entrada a cada unidad de la capa competitiva. Al presentar una entrada a la red, ésta es transmitida a todas las unidades de la capa oculta. Algunas unidades de esta capa se activarán, y enviarán esa activación/inhibición a sus vecinas/competidoras. Eventualmente, tras una serie de fluctuaciones, una unidad será la más activada de todas, y todas las demás (salvo sus vecinas) quedarán inhibidas. Sólo las unidades activadas enviarán señales a la capa de salida. En este momento es donde se aplica la regla de aprendizaje.

Sólo las unidades ganadoras ajustan sus pesos, es decir, la regla de aprendizaje actúa sólo sobre las unidades que hayan llegado a rebasar un cierto nivel de activación. La regla de aprendizaje aproxima un poco más el vector de pesos de la unidad al vector de entrada para el cual la unidad ha resultado ganadora. Es decir, hace que esa unidad, que ya ha resultado ser compatible a ese tipo de entrada, lo sea todavía un poco más. De este modo, si aparece posteriormente alguna entrada semejante a esta, es más probable que la unidad ganadora vuelva a ser la misma. Así, cada unidad se va paulatinamente "especializando" en un tipo de vector de entrada.

Cuando se introduce una nueva entrada, y hay otra unidad ganadora, el proceso se repite para otra posición vectorial. Finalmente, los vectores de pesos de cada unidad de la capa oculta, que inicialmente seguían orientaciones aleatorias, se concentran en un cierto número de orientaciones concretas que representan patrones que aparecen frecuentemente en la entrada. Por lo tanto, la distribución de los vectores de pesos modela las regularidades de la entrada. Es decir, las unidades de la capa oculta se van especializando progresivamente en ciertas entradas, respondiendo selectivamente a patrones invariantes que estaban implícitos en el conjunto de entrada, los cuales no eran conocidos. La red en ningún momento es informada sobre las regularidades que tiene que detectar, sino que se dirige espontáneamente hacia ellas (no se tiene por qué saber que regularidades se están buscando).

Una de las redes clasificadas dentro de este epígrafe es la RNA basada en el algoritmo de aprendizaje Learning Vector Quantization (LVQ) que ha sido utilizada con éxito en muchas aplicaciones, fundamentalmente en análisis de imágenes, reconocimiento de patrones y problemas de clasificación.

El algoritmo LVQ está especialmente diseñado para resolver problemas de clasificación de patrones. Se trata de clasificar un conjunto de patrones de entrada en un número finito de clases de manera que cada clase sea representada o caracterizada por un vector prototipo. Para ello, el modelo LVQ utiliza un aprendizaje supervisado que permite organizar las unidades de entrenamiento en el espacio de salida mediante regiones que actuarán como clasificadores de los datos de entrada. Se trata de un aprendizaje competitivo que permite reforzar positivamente ("premiando") o negativamente ("castigando") los pesos de las conexiones dependiendo de que la clasificación haya sido realizada correcta o incorrectamente.

edu.red

Otra de las RNA dentro de este epígrafe son las conocidas como Mapas auto-organizados (Self-Organizing Map), las cuales tratan de establecer una correspondencia entre los datos de entrada y un espacio bidimensional de salida, de modo que ante datos con características comunes se activen neuronas situadas en zonas próximas de la capa de salida. Cada neurona de la capa de entrada está conectada con cada una de las neuronas de la capa de salida mediante pesos. Las interacciones laterales siguen existiendo en relación con la distancia que se toma como una zona bidimensional alrededor de la neurona (ver anexo # 4).

edu.red

Se supone que la inhibición lateral produce una distribución gaussiana centrada en la neurona ganadora, así, en lugar de calcular recursivamente la actividad de cada neurona, simplemente se encuentra la ganadora suponiendo que las demás tienen una actividad proporcional a la función gaussiana evaluada en la distancia entre dicha neurona y la ganadora:

edu.red

La gaussiana comienza por cubrir casi todo el espacio y se reduce de manera progresiva hasta ser casi exclusivamente la ganadora. Para las cercanas a la ganadora, las actualizaciones se reducen exponencialmente según la distancia a la gaussiana.

Los Mapas Auto-organizados son diferentes a los demás modelos de RNA descritos en este epígrafe debido a su capacidad para trasladar la estructura del espacio de entrada al espacio de salida, porque crea un espacio de salida discreto donde se conservan las relaciones topológicas entre los elementos del espacio de entrada, lo que quiere decir que la distribución de los datos de entrada se conserva aproximadamente. La conservación de los entornos es importante para aplicaciones que requieren la conservación de una métrica en el espacio de entrada y este modelo lo hace de una manera no supervisada. La regla de competencia lleva los vectores de pesos hacia la entrada actual; como la ganadora y sus vecinas se actualizan en cada paso, todas ellas se mueven hacia la misma posición, aunque las vecinas lo hacen más lentamente a medida que la distancia aumenta. Esto organiza las neuronas de modo que las que están en un entorno comparten la representación de la misma área del espacio de entrada, independientemente de su localización inicial.

1.3.2 Red Neuronal Artificial: Feedforward Backpropagation.

Las RNA Feedforward son aquellas en las que el ajuste de los pesos durante la fase de entrenamiento se realiza invirtiendo la dirección del flujo de activación en la red mediante una regla llamada "retropropagación" (backpropagation), que ajusta cada peso para hacer mínimo el error de las unidades de salida.

Las redes en las que se puede aplicar esta regla se caracterizan por lo siguiente:

  • Tienen dos o más capas.

  • Son de "flujo directo", es decir, el patrón de conectividad de las unidades no presenta recurrencia o retroalimentación.

  • Utilizan una función de activación contínuas y creciente. La más habitual es la función sigmoide calculada a partir de la habitual función aditiva ponderada.

De este modo, lo que realiza una RNA Feedforward es siempre una proyección ("mapping") del vector de entrada en el de salida. Las redes con estas características han demostrado ser capaces de realizar diversos tipos de proyecciones (función entrada-salida) con gran fiabilidad.

La regla backpropagation es la principal regla de aprendizaje de las RNA actuales, permite que ante cada ejemplo la red compare su salida con la salida "correcta", y reajuste los pesos de sus conexiones en función del resultado de dicha comparación.

El algoritmo de aprendizaje de retropropagación del error (backpropagation) (conocido como la regla delta generalizada) es una aplicación del conocido método del gradiente decreciente. Esta regla de aprendizaje se debe a Werbos (1974), Rumelhart (1985) y Parker (1989), entre otros autores.

Debido a ciertas consideraciones probabilísticas y, ante todo, a su facilidad de cálculo, establece como función objetivo minimizar el error cuadrático:

edu.red

Una variación muy interesante del algoritmo backpropagation es la que incluye un término de regularización que introduce la condición adicional de minimizar los valores absolutos de los pesos. El añadido de este término conduce a la variante conocida como "Weight Decay", que logra minimizar el efecto del sobreentrenamiento.

En este caso, la expresión para la función de error sería:

edu.red

Ventajas del algoritmo Backpropagation.

  • Posee la capacidad de auto-adaptar los pesos de las neuronas de las capas intermedias para aprender la relación que existe entre un conjunto de patrones de entrada y sus salidas correspondientes.

  • Una vez en funcionamiento tiene la capacidad de generalización, y así, proveer salidas satisfactorias a entradas que el sistema nunca había procesado en la fase de entrenamiento.

Desventajas del algoritmo Backpropagation.

  • Busca minimizar el error del sistema. Para ello se moverá por la superficie de la función de error dando pasos descendentes. Debido a este modo de aprendizaje, el sistema podría eventualmente quedar atrapado en un mínimo local y alcanzar una solución que no fuese óptima, es decir, con un error elevado.

  • Lentitud del aprendizaje.

  • Si la pendiente es escasa, el entrenamiento es muy lento.

  • Si la pendiente es nula, el algoritmo se detiene.

  • Red Neuronal Artificial: Probabilística.

El modelo LVQ es un precursor de los mapas autoorganizados, y al igual que ellos puede verse como un tipo especial de RNA. Este modelo tiene una primera capa competitiva y una segunda lineal, donde el número de neuronas de la primera es siempre mayor o igual que el número de neuronas de la segunda. La capa competitiva aprende a clasificar los vectores de entrada, mientras que la capa lineal transforma la clasificación hecha por la primera capa en correspondencia con las salidas definidas por el usuario. El algoritmo LVQ está especialmente diseñado para resolver problemas de clasificación de patrones y trata de clasificar un conjunto de patrones de entrada en un número finito de clases, de manera que cada clase sea representada o caracterizada por un vector prototipo. Para ello, el modelo LVQ utiliza un aprendizaje supervisado que permite organizar las unidades de entrenamiento en el espacio de salida mediante regiones que actuarán como clasificadores de los datos de entrada. Se trata de un aprendizaje competitivo que permite reforzar positivamente ("premiando") o negativamente ("castigando") los pesos de las conexiones, dependiendo de que la clasificación haya sido realizada correcta o incorrectamente.

1.3.4 Red Neuronal Artificial: Regresión Generalizada.

El modelo neuronal de Regresión Generalizada fue propuesto y desarrollado inicialmente por Specht (1991) y posee la propiedad de no requerir ningún entrenamiento iterativo, es decir, puede aproximar cualquier función arbitraria entre vectores de entrada (inputs) y salida (outputs), realizando la estimación de la función directamente a partir de los datos de entrenamiento. Este modelo descansa en la teoría de regresión no lineal, siendo, en esencia, un método para estimar la función de probabilidad conjunta de los datos sólo a través del conjunto de entrenamiento, mediante el estimador de Parzen (1962).

Su topología original posee cuatro capas: la primera de ellas, representa el vector de entradas (inputs); la segunda, denominada pattern layer, es igual al número de observaciones del vector de entrada y el valor de la neurona en esta capa no visible se obtiene al aplicar la función de transferencia o activación,

edu.red

Capítulo 2:

Segmentación automática de lesiones patológicas en imágenes de mamografías

El cáncer de mamas está considerado una de las principales causas de muerte en mujeres a escala mundial. Según la Organización Mundial de la Salud (OMS) [1], se estima que más de 385 000 mujeres en todo el mundo mueren producto a esta enfermedad cada año. El diagnóstico y tratamiento en estadíos primarios de esta enfermedad puede incrementar significativamente la posibilidad de supervivencia de estas pacientes, ciertos estudios han probado que la realización de mamografías periódicas a mujeres de más de 45 años puede reducir la tasa de mortalidad por esta causa entre el 30 y el 50% [56].

La mamografía de rayos X es la principal técnica usada por especialistas médicos en la detección y diagnóstico del cáncer de mamas. Esta técnica ha resultado satisfactoria en la detección temprana de esta patología reduciendo la mortalidad de las pacientes en un 25% [2]. La interpretación de Imágenes de Mamografías (IM) es un proceso que requiere destreza y experiencia por parte de los especialistas médicos.

En la actualidad para dar solución a esta problemática se trabaja por desarrollar herramientas informáticas cada vez más sofisticadas que permitan brindar una "segunda opinión" en el diagnóstico médico de esta enfermedad, apoyadas en la combinación eficiente de técnicas de PDI, Reconocimiento de Patrones (RP) e IA. La aplicación de estas técnicas facilita la automatización y la obtención de resultados más exactos, así como el aumento de la eficiencia del personal médico y garantiza la reproducibilidad en el análisis de las imágenes.

En nuestro país se ha reportado hasta el momento tres prototipos de software que se describen a continuación:

  • 1. Yosvany López y Andra Novoa en el 2007 realizaron un prototipo que posibilita la clasificación semiautomática (el proceso de segmentación se hace de forma manual), basado en la combinación de técnicas de PDI, RP e IA, permitiendo de esta forma diagnosticar diferentes tipos de anormalidades, ya fueren malignas o benignas, sin incluir los tejidos normales. El resultado de este trabajo se validó mediante la red neuronal Feedforward Backpropagation, con la cual obtuvieron una clasificación del 97.5% con un vector de características conformado por 5 rasgos morfométricos basados en la forma de la imagen.

  • 2. En el propio 2007 Yosvany López realiza una corroboración del trabajo anteriormente mencionado con dos tipos de redes: la Feedforward Backpropagation y la Learning Vector Quantization utilizando validación cruzada e incorporando los tejidos normales, para cuyas redes obtuvo un 97% y 92.5% de clasificación respectivamente.

  • 3. En el 2009 Andra Novoa propone una mejora al método incorporando la segmentación automática, basada en los niveles de intensidad de la imagen y partiendo de una región de interés definida por el especialista. Este método tiene el inconveniente de que en imágenes cuya intensidad sea relativamente homogénea, es decir, que el fondo de la imagen y el objeto no sean fácilmente identificable el método no funciona de manera eficiente.

  • 4. Por otro lado en el año 2010, Alejandro Díaz [57] propone un método para clasificar de manera semiautomática lesiones patológicas en imágenes de mamografías utilizando para ello un vector características conformado por rasgos de tipo textura.

Independientemente de los logros obtenidos en el área quedan aún retos por resolver.

2.1 Segmentación automática de lesiones patológicas en imágenes de mamografías. Validación mediante el empleo de redes neuronales artificiales.

La clasificación de las diferentes anormalidades presentes en las IM constituye un paso de suma importancia porque ofrece una "segunda opinión" al personal médico especializado y el proceso de segmentación es el paso intermedio que hace posible una buena clasificación de las mismas. En el caso de este trabajo se propone un nuevo método de diagnóstico constituido por cuatro pasos que concluye con la clasificación del objeto analizado mediante el empleo de RNA, en el caso de nuestro trabajo la Feedfordward Backpropagation, la Learning Vector Quantization y la Red Probabilística. Estos pasos son:

  • Selección de la imagen a analizar (ROI).

  • Preprocesamiento.

  • Segmentación.

  • Extracción del vector de características.

  • Clasificación de la imagen.

La figura 2.0 muestra el diagrama del método propuesto para la segmentación automática de las diferentes clases de anormalidades presentes en las IM.

edu.red

Fig.2.0 Diagrama del método propuesto

Es válido aclarar que aunque el principal objetivo de este trabajo no es hacer una clasificación de las diferentes clases de anormalidades, esto si ayudaría a corroborar el resultado de la segmentación, es decir, si el mismo es o no correcto. En [58] se propuso un método similar donde se demostró que la clasificación era buena para un vector de características conformado por cinco rasgos morfométricos, dichos rasgos son los que se utilizan para el caso de este trabajo.

2.1.2 Preprocesamiento.

El mejoramiento de las imágenes consiste en la ampliación de los detalles de interés de los objetos presentes en las mismas. Para lograr el mejoramiento de las IM en el caso de este trabajo se han aplicado diversas técnicas y métodos matemáticos, tales como: filtros digitales, mejoramiento, umbralización / segmentación, entre otras que serán explicadas a continuación.

2.1.2.1 Filtros digitales.

Los filtros digitales son utilizados debido a su efecto de alisamiento, su poder para la detección de bordes y la agudización del contraste. En este trabajo se han incluido diferentes tipos de filtros, entre los cuales se encuentran: la Mediana, el Gaussiano, el Promedio, el Unsharp masking; los operadores de Sobel, Prewitt, Laplaciano y Canny; entre otros que ya fueron explicados con anterioridad en el Capítulo 1. Los filtros utilizados han permitido resaltar con mayor o menor claridad una u otra anormalidad presente en las IM.

El filtro de la Mediana se ha empleado para reducir el ruido y preservar los bordes de las anormalidades en las IM (ver epígrafe 1.1.2.1).

El filtro Promedio calcula la media de los píxeles en el entorno de un punto central (ventana) y su efecto depende del valor de edu.reddonde edu.redes el valor del tamaño de la ventana (ver epígrafe 1.1.2.1). Su aplicación a una ROI puede ser observado en la figura 2.1.

edu.red

El filtro Gaussiano utiliza la función de Gauss bidimensional para calcular los coeficientes de una ventana como una aproximación discreta; y su ecuación está dada en el epígrafe 1.1.2.1. Aunque este tipo de filtro en cuanto al alisamiento tiene el problema del difuminado de los bordes, no es tan pronunciado como en el caso de otros algoritmos. La figura 2.2 muestra el resultado de la aplicación de este filtro a una ROI donde se encuentran varias calcificaciones.

edu.red

Los filtros anteriores son en cierta medida extremos, ya que enfatizan los componentes de baja frecuencia o alta frecuencia. Un filtro mezcla de ambos comportamientos es el conocido en la literatura como Unsharp masking, debido a que opera tanto sobre los componentes de bajas frecuencias como sobre los componentes de altas frecuencias.

edu.red

En la siguiente figura 2.3 se observa la ROI resultante luego de aplicar un filtrado Unsharp masking.

edu.red

Existen varios tipos de filtros enfocados a la detección de bordes en una imagen. Un concepto de detección de bordes puede encontrarse en el epígrafe 1.1.2.2. En el caso de este trabajo se utiliza el filtro de la mediana local descrito en [59].

La aplicación de filtros que enfaticen el borde del objeto muestra sus mejores resultados en aquellas anormalidades donde se encuentre presente algún tipo de masa, debido a que las mismas son aglomeraciones de mayor tamaño que las calcificaciones, y su forma que en ocasiones puede llegar a ser un polígono muy irregular será mejor delimitable que en el caso de las calcificaciones. El filtro de la Mediana local tiende a preservar los bordes de una imagen, mejorando en cierta medida la imagen original. Su formulación matemática es la siguiente:

edu.red

La figura 2.4 muestra el procesamiento de una ROI que contiene una masa circunscrita bien definida aplicando este tipo de filtro.

edu.red

2.1.2.2 Mejoramiento.

El mejoramiento de las IM en este trabajo constituye un paso de vital importancia, pues contribuye a eliminar en gran medida el ruido de las imágenes producto a la captura o formación de las mismas, facilitando al personal médico especializado brindar un criterio final con un mayor grado de certeza.

El método propuesto incluye tres técnicas de mejoramiento: ecualización del histograma, ajuste de la imagen y ecualización del histograma de contraste adaptativo (CLAHE).

Kristin y otros [2] demostraron que la ecualización de las imágenes representa un importante paso en la detección automática de microcalcificaciones, proponiendo un esquema para la supresión del ruido en IM, con resultados superiores a los obtenidos por otros autores.

En este caso la ecualización del histograma ha mostrado resultados satisfactorios, minimizando el ruido de las IM (ver epígrafe 1.1.1); pues esta técnica hace un ajuste de los niveles de intensidad de la imagen bajo estudio como muestra la figura 2.5.

edu.red

2.1.2.3 Técnicas de Umbralización.

En este trabajo, se emplea el concepto de umbralización para hacer referencia a la conversión de una imagen con varios niveles de grises en una imagen binaria (blanco y negro), que contenga información esencial relativa al número, posición, tamaño y forma de los objetos pertenecientes a la imagen. Aquí, se proponen tres métodos de umbralización (ver epígrafe 1.2.2): umbralización adaptativa, umbralización manual a partir del histograma de frecuencia de intensidades y umbralización basada en técnicas fuzzy. La figura 2.6 muestra la segmentación de una masa circunscrita bien definida de forma manual basado en la información del histograma de frecuencias de intensidades donde se puede corroborar que la misma muestra un resultado favorable.

edu.red

2.1.2.4 Segmentación.

Luego de seleccionar la ROI se realiza la segmentación de la anormalidad bajo estudio. El proceso de segmentación está basado en el uso de modelos deformables (snake y live wire) (ver figura 2.7) y puede realizarse de forma automática.

El snake necesita para su funcionamiento una inicialización que consiste en marcar varios puntos que pertenezcan o se encuentren cercanos al borde de los objetos, de forma tal que lo circunscriba y posteriormente se produce un proceso de deformación que permite una mejor aproximación al borde real de los objetos (segmentación final).

El live wire (o cortes inteligentes) es una técnica interactiva de seguimiento de bordes que comparte algunas similaridades con los snakes. El mismo realiza una aproximación al borde real del objeto mediante una mínima interacción del usuario. El algoritmo a seguir para segmentar una imagen con live wire consiste en hacer un seguimiento del borde del objeto bajo estudio, sembrando varios puntos semillas cada vez que ocurre un cambio morfológico y de manera automática se va generando una curva que circunscribe al objeto hasta que finaliza el proceso y ocurre la segmentación final.

Una mayor profundización en la definición de la técnica live wire, con ejemplos de aplicación en imágenes médicas se presenta en [51 ,59, 60, 61].

Segmentación Automática.

La segmentación automática ha sido motivo de interés para varios autores debido al impacto que tiene la segmentación dentro del proceso de clasificación. Por la importancia que representa la segmentación del objeto de interés para el proceso de clasificación, existen varios autores que han incursionado en el tema, llegando a resultados favorables.A continuación se describen algunas de las vertientes que existen hasta el momento.

La densidad en la imagen de mamografía ha sido calificada como un fuerte factor de riesgo para el cáncer de mamas [62]. En la mayoría de los métodos se concluye con una segmentación que parte de la selección de un umbral por parte del usuario, acción que lleva tiempo y es subjetiva.

El análisis de textura utilizando una matriz de co-ocurrencia parece ser útil en la diferenciación de los tres componentes citológico de fibroadenoma [63] (grupos monocapa de células, fragmentos de estroma y de fondo con núcleos desnudos). Estos resultados podrían ser utilizados en el desarrollo de algoritmos para segmentación de la imagen y diagnóstico automatizado, pero necesitan ser confirmados en estudios contundentes.

Existen numerosos trabajos de investigación en el área de la segmentación, de los cuales unos pocos han llegado a un estado en el que puede ser aplicado con la intervención manual interactivo (por lo general en aplicación de imágenes médicas) o totalmente automática. La estructura de anidación que Witkin describe es, sin embargo, específica para las señales de una sola dimensión y no es trivial la aplicación a las imágenes de dimensiones superiores. Esta idea ha inspirado a otros autores a investigar el paso de esquemas de grande escala a pequeña escala para la segmentación de imágenes. Koenderink propone el estudio de cómo la intensidad de iso-contornos evolucionan en escalas y este enfoque se investigó en mayor detalle por Lifshitz y Pizer.

Lamentablemente, sin embargo, la intensidad de las características de la imagen cambia con las escalas, lo que implica que es difícil de rastrear las características de la imagen de gran escala a pequeña escala utilizando la información de iso-intensidad.

Lindeberg estudió el problema de vincular los extremos locales y los puntos semillas con las escalas, y propuso una representación de la imagen primitiva llamada el boceto a escala original que hace explícitas las relaciones entre las estructuras a escalas diferentes.

Gauch y Pizer estudiaron el problema complementario de las crestas y los valles en múltiples escalas y desarrollaron una herramienta para la segmentación interactiva de imágenes basadas en escalas múltiples (watershed).

Shuk-Me1 Lai et al en [68] proponen un método para la detección automática de masas circunscritas bien definidas, D. Brzakovic et al en [64] proponen un método para la segmentación automática de lesiones patológicas conformado por tres pasos:

  • 1. Separación del objeto del fondo.

  • 2. Identificación de las regiones homogéneas.

  • 3. Segmentación para separar las regiones identificadas del fondo.

Es válido aclarar que aunque el método es muy efectivo va dirigido fundamentalmente a la segmentación de masas.

Joachim Dengler et al en [13] propone un método para la segmentación automática de microcalcificaciones empleando el filtro de Sobel.

Luis Manuel Rey Junquera et al de la Escuela Universitaria Politécnica de Mataró, propone un método basado en la plantación de semillas para la segmentación de masas.

Novoa en el 2009 propone un método de segmentación automática para diferentes lesiones patológicas, pero tiene el inconveniente de que en imágenes cuya intensidad sea relativamente homogénea, es decir, que el fondo de la imagen y el objeto no sean fácilmente identificable el método no funciona de manera eficiente.

Como se puede apreciar no existe un método que sea capaz de segmentar de forma automática cualquier tipo de anormalidad. En el caso de este trabajo se propone un nuevo método de segmentación que es capaz de resolver la problemática anterior. El algoritmo se describe a continuación.

  • a. Selección del píxel de mayor intensidad en la ROI.

Para seleccionar cual es la mayor intensidad presente en la ROI se hace un recorrido píxel a píxel, comenzando en la parte inferior y de izquierda a derecha. El siguiente pseudocódigo indica como se debe proceder.

Inicializar Mayor en -1.

Desde 1 hasta mayorX

Desde 1 hasta mayorY

Si imagen(x,y) > Mayor

Hacer Mayor = imagen(x,y)

Donde mayorX y mayorY contiene el valor con la cantidad de abscisas y de ordenadas.

Imagen corresponde a la imagen que contiene la anormalidad analizada.

  • b. Selección de los posibles puntos que conforman la anormalidad.

La selección de los posibles puntos que conforman la anormalidad se hace mediante un recorrido de la misma píxel a píxel y se incluye en el conjunto resultante todos aquellos píxeles cuyo valor de intensidad cumpla con la siguiente condición:

edu.red

donde CP es el conjunto de puntos que cumplan con la condición anteriormente planteada, además guarda las coordenadas del píxel y no el valor de intensidad de ese píxel en la imagen, y el umbral es la diferencia que existe entre el píxel de mayor intensidad calculado en el paso "a" y la moda (valor que más se repite) en la porción de la imagen analizada. Si el valor de la moda y el valor del píxel de mayor intensidad coinciden, entonces al umbral se le concede un valor constante de 5. Y si difieren en más de 70 se le concede un valor de 32.

intensidad (x,y) es el valor de la intensidad del píxel que ocupa la posición (x,y).

Para determinar cuales puntos pertenecen al objeto y además son de interés, se considerarán como puntos válidos todos aquellos cuya distancia al borde del objeto sea menor que el radio que conforma la anormalidad. Dicho matemáticamente sería la siguiente expresión:

edu.red

es el conjunto de puntos determinado en b, O es el borde del objeto que coincide con el borde de la circunferencia que circunscribe a la anormalidad cuyo radio se expresa como la media del agrupamiento de los píxeles seleccionados en CP, y el radio es la mediana del conjunto de diferencias entre cada uno de los puntos seleccionados en el inciso b.

  • d. Selección de los puntos que pertenecen al contorno.

A partir del conjunto de puntos que se seleccionan en el paso c, se procede al cálculo de los puntos que pertenecen al contorno. La selección se hace de la siguiente forma:

Se recorre el conjunto de puntos y se escoge para cada valor de la abscisa el que tenga menor y mayor valor de la ordenada, en caso de que exista uno solo se agrega al conjunto. Una vez que se hayan seleccionado los puntos que pertenecen al contorno se organizan de forma tal que quede una curva que sea capaz de circunscribirlos, esta organización se describe a continuación.

  • Se divide el conjunto en dos partes iguales.

  • Se organiza en dos subconjuntos que comenzando a partir del último elemento van incrementándose de forma alterna (uno comienza a partir del último elemento y se denomina subconjunto1 y el otro a partir del penúltimo y se denomina subconjunto 2).

  • El conjunto final resultante es la unión de los 2 subconjuntos anteriores; si la cantidad de elementos (N) es impar entonces el conjunto final sería la unión del subconjunto 1 con el 2 organizado de atrás hacia adelante, si N es par se unen de forma viceversa.

N se refiere a la cantidad de elementos del conjunto calculado en el paso c.

  • e. Multiplicar la imagen por la máscara correspondiente para obtener la imagen modificada y realizar la interpolación de los puntos del contorno.

A partir de los puntos obtenidos en el paso d, se realiza la interpolación correspondiente utilizando la misma metodología planteada en [65].

Una vez que se hayan aplicado cualquiera de las tres variantes de segmentación a una determinada ROI; del contorno final de la anormalidad se calculan un conjunto de rasgos morfométricos o características (vector de características), que pueden ser adicionadas o no al conjunto de entrenamiento del clasificador.

edu.red

2.2 Extracción del vector de características.

Las calcificaciones y las masas tienen características específicas que las diferencian, así como también existen varias categorías de masas. Las calcificaciones son pequeños puntos brillantes que resaltan dentro de la imagen, mientras que las masas son aglomeraciones de mayor tamaño que pueden formar desde un círculo hasta cualquier otro tipo de figura geométrica, llegando a tener una forma irregular. En este caso, Michael y otros [8] realizaron un estudio enfocado a identificar un conjunto de rasgos clínicos robustos para la evaluación de tumores en las mamas; además, los autores definen la forma morfológica de los tumores y demuestran que los tumores con mayor número de ramificaciones tienen mayores probabilidades de estar asociados a anormalidades malignas. Karsten [66] propuso un conjunto de posibles características a extraer con el objetivo de clasificar las diferentes anormalidades presentes en el cáncer de mamas.

Los rasgos utilizados para la clasificación de las diferentes anormalidades bajo estudio son: área, promedio de la intensidad de los píxeles, aspereza, forma y estiramiento de la anormalidad, planteados en [58].

La formulación matemática empleada para el cálculo del vector de características formado por los rasgos anteriormente mencionados es la siguiente:

edu.red

2.2.1 Clasificadores basados en Redes Neuronales Artificiales.

En la literatura se han reportado varios métodos que emplean los clasificadores de RNA para resolver problemas en la clasificación de las diferentes anormalidades presentes en las IM, se puede mencionar: métodos para la detección de masas usando modelos de RNA [9]; métodos que combinan RNA y transformadas Wavelets para la detección de microcalcificaciones [60], algoritmos para identificar la malignidad en nódulos combinando rasgos sonográficos y RNA [15], técnicas de aprendizaje contextual basadas en RNA [10], algoritmos genéticos combinados con RNA para la selección de rasgos empleados en la clasificación de microcalcificaciones [67] y métodos para la discriminación y clasificación de mamogramas en benignos, malignos y normales, usando análisis de componentes independientes y RNA [68].

Las RNA atendiendo al tipo de estrategia de aprendizaje pueden ser clasificadas en dos grandes grupos: redes supervisadas y no supervisadas. Las redes supervisadas son aquellas donde a cada elemento del conjunto de entrada le corresponde un elemento en el conjunto de salida, mientras que en las de aprendizaje no supervisado no se conocen los elementos del conjunto de salida. La tabla 2.8 muestra la clasificación de los diferentes modelos de RNA utilizados en este trabajo.

edu.red

Tabla 2.8 Clasificación de las RNA utilizadas según modo de aprendizaje.

2.2.1.1 Feedforward Backpropagation.

El modelo FFBP diseñado en nuestro trabajo está constituido por tres capas: dos capas ocultas con 14 y 8 neuronas respectivamente y una capa de salida con 13 neuronas. Cada neurona de la capa de salida representa una clase de anormalidad (calcificaciones, masas circunscritas bien definidas, masas espiculadas, masas enfermas definidas, distorsiones arquitecturales y asimetrías) benigna o maligna; incluyendo las imágenes normales. La función de transferencia empleada en todas las capas fue el logaritmo del signo y el gradiente descendente como función de entrenamiento. Los parámetros de entrenamiento fueron: 250 000 iteraciones y 0.015 como meta. Un diseño en MATLAB de esta RNA puede ser observado en la figura 2.9.

edu.red

2.2.1.2 Learning Vector Quantization.

La red LVQ diseñada en nuestro trabajo está constituida por una capa competitiva de 26 neuronas y 13 neuronas en la capa de salida. Cada neurona de la capa de salida representa una clase de anormalidad (calcificaciones, masas circunscritas bien definidas, masas espiculadas, masas enfermas definidas, distorsiones arquitecturales y asimetrías) benigna o maligna, incluyendo las imágenes normales. Los porcientos de las clases de salida fueron: 0.05 para calcificaciones y distorsiones arquitecturales (malignas y benignas), masas circunscritas bien definidas benignas e imágenes normales; el porciento del resto de las clases fue 0.10. Los parámetros de entrenamiento empleados en esta RNA fueron 250 000 iteraciones y 0.015 como meta. Un diseño en MATLAB de esta red puede ser observado en la figura 2.10.

edu.red

2.2.1.3 Red Probabilística.

Las Redes Neuronales Probabilísticas proporcionan una representación gráfica para un conjunto de variables aleatorias y para las relaciones existentes entre ellas. La estructura de este tipo de red permite especificar la función de probabilidad conjunta de estas variables como el producto de funciones de probabilidad condicionadas, por lo general, más sencillas.

edu.red

Este modelo de RNA puede emplearse para calcular una probabilidad de interés usando métodos para el proceso de inferencia exacta y aproximada [67, 68, 69].

El proceso de inferencia exacta en redes bayesianas es edu.rednon-polinomial-hard) [7, 70]; este problema se debe a la presencia de ciclos no dirigidos en la red. Los algoritmos se consideran manejables cuando el tiempo necesario para ejecutar el algoritmo es polinomial en el número de parámetros, es decir, el número de nodos en la red [71].

La figura 2.11 muestra el diseño de la red probabilística utilizada en nuestro trabajo.

edu.red

2.3 Resultados.

El método propuesto fue evaluado en la base de datos MiniMIAS. Esta base de datos contiene 322 mamogramas con una resolución de 1024 x 1024 píxeles y el tamaño de cada píxel es igual a 200 micras. Se seleccionaron de manera aleatoria un conjunto de 100 imágenes representativas de diversas clases de anormalidades: calcificaciones, masas circunscritas bien definidas, masas espiculadas, masas enfermas definidas, distorsiones arquitecturales y asimetrías.

La siguiente figura 2.12 ilustra la concordancia de la segmentación mediante el método propuesto y la segmentación manual usando el livewire, en imágenes cuya ROI está bien definida.

edu.red

Como se puede observar los resultados obtenidos mediante la segmentación automática se corresponden a los logrados de forma semiautomática, aunque es bueno señalar que el especialista tiene la opción de rectificar la segmentación en caso de que no lo convenza el resultado final mediante las técnicas de snakes y livewire.

En [58] se demostró la validez de un método similar, donde los clasificadores neuronales FFBP y LVQ mostraron un rango de clasificación de 97.5% y 72.5% respectivamente.

En este trabajo se utilizan tres tipos de redes para medir cuan exacto es el nuevo método de segmentación propuesto (FFBP, LVQ y la red Probabilística), donde para cada modelo de red y empleando los mismos vectores de simulación las redes mostraron resultados muy similares.

Los modelos de RNA validados: FFBP y LVQ fueron entrenados 10 veces, en cada ocasión a partir de una matriz formada por 90 vectores de características que representan los rasgos morfométricos seleccionados (área, promedio de las intensidades de los píxeles, aspereza, forma y estiramiento de la anormalidad); en el caso de la red Probabilística no se realizó el entrenamiento pues la misma calcula el vector de salida a partir de la función de probabilidad definida en el Teorema de Bayes. El conjunto de simulación estuvo conformado por 100 vectores de características que representan los rasgos morfométricos anteriormente expuestos y que se corresponden con el mismo vector característica utilizado en [58].

Los resultados de la clasificación son expresados en términos de tres parámetros: Verdaderos-Positivos (VP), Falsos-Positivos (FP) y Falsos-Negativos (FN). Un VP es obtenido cuando una anormalidad es clasificada en la clase correcta. Si una anormalidad de clase benigna es clasificada como una clase maligna se considera que se está en presencia de un FP y si una anormalidad de clase maligna es clasificada en una clase benigna se considera que se está en presencia de un FN.

La tabla 2.13 resume los resultados obtenidos en la aplicación de los tres modelos de RNA (FFBP, LVQ y Probabilística) para las 100 imágenes que conforman el conjunto de datos. En el modelo FFBP, para los 100 vectores del conjunto de simulación se obtuvo una clasificación del 94%; en el caso del modelo LVQ un 80.0%, mientras que en el modelo probabilístico se obtuvo un 68.0 % de clasificación.

edu.red

Las anormalidades que mostraron mayor igualdad en los tres modelos de redes neuronales fueron las masas circunscritas bien definidas y los tejidos normales, obteniéndose los mejores resultados con la evaluación del primer clasificador.

Además se puede decir que en el caso de esta investigación se obtienen buenos resultados en la clasificación, pues investigaciones anteriores sin incluir tejidos normales el porciento de clasificación es del 97.5% y una vez incluidos estos del 92.0%.

Corroboración de los resultados mediante algunas funciones de comparación.

En el proceso de evaluación de resultados, la selección de la función de evaluación también es muy importante. Algunos investigadores emplean determinadas funciones, mientras que otros emplean otras, debido a que no existe una determinación de cuál función es la mejor o la peor para los diversos casos. No obstante, García [72] propuso un ranking de las principales funciones de evaluación supervisada. En este trabajo se utilizarán algunas funciones determinadas por las del ranking de [73] para medir los resultados obtenidos, las mismas se detallan a continuación.

En nuestro trabajo se utilizan dos funciones que a consideración del usuario reflejan el comportamiento del algoritmo propuesto, además se realiza la comparación con otros algoritmos reflejados en [74] para la segmentación del objeto a analizar.

RDE

RDE (Relative Distance Error) es una función de validación propuesta en [57] para evaluar el error entre el resultado de algún algoritmo de segmentación (E) y el valor deseado obtenido por un especialista (T). Se consideran e1, e2,…, ene como los píxeles de E y t1, t2,…, tnt como los píxeles de T, siendo ne y nt la cantidad de píxeles de E y T respectivamente. Para determinar qué píxeles de E están cerca de T, por cada píxel ei el método RDE calcula las distancias dei y dti donde distance (ei, tj) representa la distancia euclidiana entre ei y tj.

edu.red

C-Factor

C-Factor (Coverage Factor) es otra función de validación propuesta en [75]. Se define como una medida de discrepancia entre la región segmentada por algún algoritmo de segmentación y la segmentada por algún especialista. Se calcula mediante la ecuación:

edu.red

Siendo TP, TN, FP y FN los elementos correspondientes a la matriz de confusión que se muestra a continuación:

edu.red

Figura 2.14 Matriz de confusión.

Formada por los procesos Sm y Sa, a los cuales es sometida una imagen f (x, y), de forma tal que Sm clasifique de alguna forma, de manera manual por uno o varios especialistas, y Sa por algún método automatizado o semiautomatizado los píxeles de f (x, y) según pertenezcan o no al objeto de interés, entonces Sm ( f (x, y)) = z y Sa( f (x, y)) = {0,1} donde cada píxel se puede clasificar para formar dicha matriz de confusión. La diagonal principal de esta matriz contiene la cantidad de píxeles clasificados correctamente, mientras que la otra diagonal contiene la cantidad de píxeles mal clasificados.

Dentro de las ventajas del método propuesto se puede mencionar que encuentra un contorno cerrado y necesitan pocos recursos computacionales.

A continuación se muestra la distribución de los valores obtenidos con la función RDE. Para esta función, los valores ideales son los mínimos, pues indican que la distancia o diferencia entre el resultado del algoritmo a evaluar y lo que se desea obtener es mínima (función de dissimilaridad).

edu.red

Figura 2.15. Distribución de los valores de la función RDE para alg (algoritmo propuesto), alg_NV (algoritmo propuesto por Novoa), fcm (Fuzzy C-Means), kmeans (C-Means) y ws (watershed).

A continuación se muestra un gráfico similar, pero con la función C-Factor. Recuérdese que los valores óptimos de esta función son los más cercanos a cero. Dando como mejor resultado el algoritmo propuesto, debido a que la distribución de los valores de su resultado está más cercano a cero que la del resto de los algoritmos.

edu.red

Figura 2.16. Distribución de los valores de la función C-Factor para alg (algoritmo propuesto), alg_NV (algoritmo propuesto por Novoa), fcm (Fuzzy C-Means), kmeans (C-Means) y ws (watershed).

A los resultados obtenidos por estas funciones de comparación se le aplicó el test estadístico de Wilcoxon, para un par de muestras relacionadas con el objetivo de garantizar realmente la existencia de diferencias significativas entre los algoritmos antes mencionados. La prueba estadística demostró que los algoritmos de agrupamiento FCM y C-Means, para las funciones de comparación utilizadas, no presentan diferencias significativas, el test estadístico arrojó también que para el algoritmo RDE, Watershed obtuvo mejores resultados que FCM y C-Means, mientras que para los resultados alcanzados con la función C-Factor, Watershed obtuvo resultados peores.

Por otra parte, el test de Wilcoxon demostró que los resultados del algoritmo propuesto para todas las funciones de comparación utilizadas, presenta diferencias significativas con todos los algoritmos de segmentación comparados, arrojando la superioridad de este con el resto. Como se observa en los experimentos realizados, en comparación con los algoritmos estudiados el nuevo algoritmo de segmentación propuesto mejora los resultados a la hora de segmentar lesiones patológicas en imágenes de mamografías.

Conclusiones

Al finalizar este trabajo se arribó a las siguientes conclusiones:

  • Se integraron un conjunto de métodos que contribuyeron a la segmentación automática de lesiones patológicas en IM, basado en la combinación de técnicas de procesamiento digital de imágenes y mediante la información que contiene los niveles de intensidad de la imagen, que contribuye al análisis y/o diagnóstico de imágenes de mamografías, en centros hospitalarios y de investigación.

  • Un prototipo del método propuesto fue implementado en MATLAB (versión 7.0) para evaluar el desempeño del algoritmo, el cual fue validado exitosamente con el modelo de red neuronal FFBP (94.0 %), LVQ (80.0 %) y la red Probabilística (68.0 %).

  • En la comparación de los algoritmos, en cuanto a su exactitud, se comprobó que el algoritmo desarrollado obtuvo mejores resultados que el resto. Este resultado se corroboró con la realización de la prueba estadística de Wilcoxon, donde se garantizó la existencia de diferencias significativas entre los algoritmos comparados.

Recomendaciones

Para el trabajo futuro se recomienda:

  • Probar el algoritmo con imágenes reales.

Referencias Bibliográficas

1. On line: http://www.slideshare.net/naturaleza12eiris/epilepsia-ccmc. Consultado : 10 de junio de 2011.

2. Kristin J. McLoughlin, P.J.B., Nico Karssemeijer, Noise Equalization for Detection of Microcalcification Clusters in Direct Digital Mammogram Images, in IEEE TRANSACTIONS ON MEDICAL IMAGING. 2004. p. 313 – 320.

3. On Line: http://www.cancerdemamas.net/ Consultado 12 de mayo de 2011.

4. Ayuda en línea. http://ayudacancer.wordpress.com/tipos-de-cancer/mama-general/. Consultado: 20 de diciembre de 2011.

5. T. Cootes, A.H., C. Taylor. Medical Image Interpretation Using Active Shape Models: Recent Advances. in Information Processing in Medical Imaging. Kluwer Academic Publishers, Editor: Y. Bizais. 1995.

6. Mortensen, E.N., Barret W.A. Intelligent scissors for image composition. in Proceedings of Computer Graphics (SIG-GRAPH'95). 1995. Los Angeles, CA.

7. Cooper, G., Computational complexity of probabilistic inference using Bayesian belief networks, in Artificial Intelligence. 1990. p. 393 – 405.

8. Michael Mavroforakis, H.G., Nikos Dimitropoulos, Dionisis Cavouras, Sergios Theodoridis, Significance analysis of qualitative mammographic features, using linear classifiers, neural networks and support vector machines. European Journal of Radiology, 2005: p. 1-10.

9. Shih-Chung B. Lo*, H.L., Yue Wang, Lisa Kinnard, Matthew T. Freedman, A Multiple Circular Path Convolution Neural Network System for Detection of Mammographic Masses, in IEEE TRANSACTIONS ON MEDICAL IMAGING. 2002. p. 150 – 158.

10. Paul Sajda, C.S., John Pearson, Learning Contextual Relationships in Mammograms Using a Hierarchical Pyramid Neural Network, in IEEE TRANSACTIONS ON MEDICAL IMAGING. 2002. p. 239 – 250.

11. Rueckert D, Burger P, Forbat S. M, Mohiaddin R. D, Yang G. Z, Automatic tracking of the aorta in cardiovascular MR images using deformable models. IEEE Transactions on Medical Imaging: 1997, vol. 16, num. 5, p. 581-590.

12. SHUK-ME1 LAI, XIAOBO LI, AND WALTER F. BISCHOF, Techniques for Detecting Circumscribed Masses in Mammograms. IEEE Transactions on Medical Imaging, 1989, vol. 8, no. 4.

13. Joachim Dengler, Sabine Behrens, and Johann Friedrich Desaga, Segmentation of Microcalcifications in Mammograms. IEEE Transactions on Medical Imaging, 1993, p. 634-642.

14. On Line: http://cienciapc.idict.cu/index.php/cienciapc/article/view/124/323 Consultado 16 de abril de 2011.

15. Segyeong Joo, Y.S.Y., Woo Kyung Moon, Hee Chan Kim, Computer-Aided Diagnosis of Solid Breast Nodules: Use of an Artificial Neural Network Based on Multiple Sonographic Features, in IEEE TRANSACTIONS ON MEDICAL IMAGING. 2004. p. 1292 – 1300.

16. D. Brzakovic, X.M. Luo, P.Brzakovic, An Approach to Automated Detection of Tumors in Mammograms, IEEE Transactions on Medical Imaging, 1990, vol. 9, no. 3.

17. Enciclopedia libre On Line: http://es.wikipedia.org/wiki/C%C3%A1ncer_de_mama. Consultado 15 de abril de 2011.

18. http://www.secyt.frba.utn.edu.ar/gia/inteligencia_artificial.htm : Consultado 11-marzo-2010

19. http://es.wikipedia.org/wiki/Inteligencia_Artificial : Consultado 5-febrero-2010.

20. González, R.W.R., Tratamiento digital de imágenes. 1996: Addison-Wesley/Díaz de Santos.

21. Castleman, K., Digital Image Processing. 1996, New Jersey: Prentice Hall.

22. Trucco, A.V.E., "Introductory Techniques for 3-D Computer Vision". 1998: Prentice Hall.

23. Even, S., Graph algorithms, in Computer Science Press. 1979.

24. http://catarina.udlap.mx/u_dl_a/tales/documentos/lis/reyes_l_g/capitulo2.pdf: Consultado: 21 de enero de 2011.

25. http://www.varpa.org/~mgpenedo/cursos/Ip/Tema7/nodo7_2.html:Consultado: 20 de enero de 2011.

26. A. Singh, D.G., D. Terzopoulos, Deformable Models, in Medical Image Analysis. 1998.

27. Daubechies, I., Ten Lectures on Wavelets. 1992.

28. Matheron, G., Random Sets and Integral Geometry. 1975: New York City, New York: John Wisley.

29. A. P. Zijdenbos, B. M. Dawant, R. a., and A. C. Palmer. Morphometric Analysis of White Matter Lesions in MR Images: Method and Validation. IEEE Transactions on Medical Imaging, 13(4):716–724, December 1994.

30. Serra, J., Image Analysis and Mathematical Morphology. 1982: Academic Press, London.

31. González, R.E.W.R.C., Digital Image Processing. 1992: Addison Wesley.

32. J.F. Rivest, P.S., S. Beucher, Morphological gradients. Journal of Electronic Imaging, 1993. 2: p. 326-336.

33. J.S.J. Lee, R.M.H., L.G. Shapiro, Morphologic edge detection. IEEE Journal of Robotic and Automation, 1987. 3: p. 142 – 156.

34. M. Kass, A.W., D. Terzopoulos, Snakes: Active contour models, in Proceedings of the 1st International Conference on Computer Vision. 1987: London, England, IEEE Computer Society Press. p. 259 – 268.

35. M. Kass, A.W., D. Terzopoulos, Snakes: Active Contour Models. International Journal of Computer Vision, 1987. 1(4): p. 321 – 331.

36. D. Terzopoulos, K.F., Deformable Models, in The Visual Computer. 1988. p. 306-331.

37. A. Blake, I.M., Active Contours. 1998: Springer-Verlag.

38. T. Cootes, C.T., D. Cooper, J. Graham, Active Shape Models – Their Training and Application, in Computer Vision and Image Understanding. 1995. p. 38 – 59.

39. A. Parker, A.H., C. Taylor, T. Cootes, X. Jin , D. Gibson. "Application of point distribution models to the automated analysis of echocardiograms". in IEEE Proceedings on Computers in Cardiology. 1994.

40. A. Hill, A.B., C. Taylor. "Automatic landmark identification using a new method of non-rigid correspondence". in Proceedings of the 15th International Conference on Information Processing in Medical Imaging. 1997. IPMI 1997.

Partes: 1, 2, 3
 Página anterior Volver al principio del trabajoPágina siguiente