Reconocimiento de patrones en imágenes médicas basado en Sistemas Inteligentes (página 2)
Enviado por Enrique P. Calot
Figura 4.5. Especificación del subflujo de datos para procesar la adquisición de imágenes obtenidas de la base DDSM.
Cabe destacar que el mapa de bits y el contorno vectorial salen en un solo bloque como entrada para el siguiente proceso.
- Procesamiento previo
Luego de escaneada la imagen, es importante someterla a un proceso de ecualización, limpieza y normalización de la imagen para que ésta sea lo más homogénea posible eliminando así factores externos que puedan influir en clasificación de las mismas o, peor aún, en el entrenamiento de las redes o la ejecución de las mismas.
Existe un proceso de limpieza que retira de la imagen otros objetos externos a la mama, por ejemplo etiquetas de nombres u otros tipos de ruido proveniente del método de escaneo. En la figura 4.7 de la página 36 se puede observar un ejemplo de imagen cruda recién leída de la base DDSM con estos objetos.
Como bien se cuenta con el contorno definido y se trabajará sobre esa región, es de suponer que estos objetos no afectarán a la imagen. Esto no es así, ya que pueden intervenir en la homogeneización de la misma. Esto se debe a que la homogeneización tiende a aumentar el contraste de los colores de la imagen.
Llamaremos ruido al hecho de que una figura externa nos genere un pmax o pmin que haga que toda la imagen sea modificada de manera incorrecta.
Por ejemplo, si se trabaja en 16 bits, se está en presencia de una escala de grises que va desde el 0 (negro) al 65535 (blanco). Si la imagen contiene colores que van desde el 40 al 60000, sería bueno aplicar un ajuste lineal que mapeara cada color nuevamente a la escala que comprende todo el espacio de grises llevando el 40 al 0 y el 60000 al 65536. Este ajuste se llama ecualización uniforme.
En este caso, si el color mínimo o máximo se encontrara fuera de la mama (podría decirse que en una zona de ruido), el ajuste no sería bien hecho y la imagen no quedaría bien homogeneizada. En nuestro ejemplo, podríamos tener un píxel blanco (65535) dentro de la etiqueta y un máximo blanco dentro de la mama es de 60000; en ese caso el dominio del mapeo iría de 40 a 65536 pero en realidad dentro de la mama no habría colores superiores al 60000.
El mapeo para ecualizar uniformemente se realiza mediante la ecuación
Esto sale de invertir la función de acumulación de la distribución de probabilidad uniforme entre pmin y pmax. Es posible utilizar otras funciones de probabilidad llegando a distintos (y tal vez mejores) resultados.
Cabe destacar que si la imagen se encontraba en una resolución de 12 bits, la escala de grises iría de 0 a 4096, pero al ser ecualizada, se conseguiría una imagen homogeneizada de las mismas características.
En la figura 4.6 puede observarse el efecto de un elemento externo (circulo) sobre uno a ser contrastado. En el caso superior -a) y b)-, el circulo oscuro hace que el color del gradiente a ser contrastado no cambie. En cambio en el caso de abajo -c) y d)-, al no haber circulo el mapeo se hace sobre la figura deseada dejándola dentro del rango deseado.
Figura 4.6. Contrastes por mapeo de grises con y sin un elemento externo.
Cabe destacar que el gradiente en la escala de grises en los ejemplos a), b) y c) son iguales, si bien el c) puede parecer más claro es solo una ilusión óptica por estar al lado del d), el cual sí es más oscuro.
Para aislar a los elementos externos primero hay que detectarlos. Esto no puede hacerse mediante ajuste de brillos y contrastes sino mediante una comparación recursiva.
El algoritmo utilizado es trivial, simplemente se definen dos umbrales. El primero de ellos T1 es un valor porcentual que al multiplicarlo por pmax se obtiene un color dentro de la escala de grises para el cual, se busca en la imagen un píxel con mayor brillo, de ser encontrado se busca en su vecindad todos los píxeles cuya luminosidad sea mayor al umbral pmaxT2. Así se formará una figura que tiene al menos un píxel de mayor valor a pmaxT1 y el resto de sus píxeles es mayor a pmaxT2. Luego se repite el procedimiento hasta detectar así todas las figuras. Una vez detectadas, se define a la de mayor superficie como la mama y se elimina el resto.
Además, a modo de mejora del algoritmo, se suele eliminar parte de los bordes porque es común en mamografías escaneadas que existan contornos blancos en ellos y puedan llevar a unir figuras externas como etiquetas con la misma mama.
En las siguientes ilustraciones (4.7 a 4.10) se muestra el proceso de eliminación de figuras mediante este algoritmo con el umbral T1=0,6 y distintos umbrales T2.
Como se ve en las ilustraciones, según el umbral es posible resaltar las partes más importantes de la mama o bien ver el contorno de la misma. En el caso de la figura 4.10 casi todo lo resaltado es un tumor maligno, sin embargo es muy difícil ver la forma de la mama.
Haciendo una comparación, podemos decir que umbrales altos proporcionan mejor definición del interior de la mama a expensas de perder información sobre el contorno de ella -y, por lo tanto de su forma-. Umbrales bajos contienen esa información, aunque es muy raro que se utilice, su desventaja radica en que es menos fácil para el ojo humano ver el contenido de la mama.
La detección y eliminación de las figuras se muestra en la figura 4.11. Puede observarse como la etiqueta es una figura mucho más chica que la mama y fue detectada como una figura aparte. El área negra pertenece a una zona por debajo del umbral que no fue detectada como ninguna figura y por lo tanto su valor final, luego de ecualizar, será 0 (negro).
Es sabido que la mama ocupa la región más grande en la imagen y por lo tanto es seguro que tomando la figura de mayor tamaño obtendremos la mama.
Figura 4.11. Figuras detectadas utilizando un umbral de T2=0,1.
Finalmente, una vez procesada la imagen mediante este método, el resultado obtenido será mucho más independiente del medio de escaneo de la imagen permitiendo así una mejor respuesta del clasificador a imágenes provenientes de distintos lugares con parámetros diferentes.
Existen varios algoritmos y métodos para preprocesar la imagen, estas sólo son sugerencias para la implementación de esta etapa. En el caso de los experimentos de esta tesis, lo ideal fue utilizar este algoritmo. [Jankowski & Kuska, 2004; Ferrero, et al. 2006]
- Definición de los contornos
A diferencia de trabajos anteriores, el presente trabajo plantea la idea de conocer la ubicación del tumor y no analizar la mama por separado. Para poder ubicar el o los potenciales tumores será necesario conocer sus respectivos contornos.
Se propone abstraerse de la forma en que es obtenido el contorno alrededor de un tumor; asumiendo que este es dato y la forma en que vendrá dado puede ser tanto por selección manual como por detección automática [Lee, 2006].
Una vez obtenido el contorno, se aplican técnicas especiales que dependen de la distancia a la zona contorneada y de la imagen superpuesta obteniendo información que va a servir para alimentar las redes neuronales. Existen dos formas de almacenar el contorno de un tumor para aplicar estos procesos, la primera es de manera vectorial y la segunda es como un mapa de bits o bitmap.
Si se aproxima el contorno por una elipse o circunferencia, el almacenamiento será mucho menor, solo deben ser guardados el centro de la circunferencia o los focos de la elipse.
La utilización del mapa de bits, en cambio, es mucho más precisa pero consume más recursos. En nuestros resultados experimentales, trabajando con imágenes de alta definición (16 bits), en mamografías de más de 2200 por 4000 píxeles, obtenidas de la base DDSM [Heath, 1998], pueden ocupar aproximadamente 20Mb cada una.
En el caso de la elipse, una forma de almacenarla en formato vectorial es mediante sus focos. Si se parte de allí, una forma de obtener una buena imagen para ser superpuesta sobre un tumor, es la resultante de la ecuación
Esto se debe a que por definición de elipse, d(x,f1)+d(x,f2)+d(f1,f2)=cte para todo x perteneciente a la elipse; y como la distancia focal d(f1,f2) es constante en si misma, se obtiene que d(x,f1)+d(x,f2) debe ser constante. Aplicando la desigualdad triangular es fácil de probar que el valor mínimo de esa expresión será d(f1,f2) y esto ocurrirá cuando x pertenezca al segmento recto que une ambos focos. Es por esta razón que (d(x,f1)+d(x,f2))/d(f1,f2) será un número representativo de varias elipses concéntricas que irán desde el segmento recto que une ambos focos (obteniendo el valor 1) hasta elipses de tamaño infinito. Estos valores pertenecientes al rango [1;?) pueden ser fácilmente transformados en valores del rango [0;1] mediante distribuciones acumulativas de probabilidad que tengan como media un valor cercano al del contorno del tumor y una varianza relacionada con la resolución de imagen. La F(x) representada en la ecuación 1 se refiere a esta transformación. Las distribuciones recomendadas deben ser aquellas con una baja curtosis para garantizar que la mayor pendiente se haga cerca de la media (esto viene dado gracias a que en la función de densidad los números más grandes estarían cercanos a la media y ésta, al ser la derivada de la función acumulativa, indicaría una pendiente muy pronunciada). La distribución también debe estar definida en el rango de [0;1]. Una buena elección es la distribución gamma, de la cual la exponencial negativa y la c cuadrado son casos particulares. Esta distribución posee dos parámetros, los cuales son ajustables.
Estos valores pueden ser discretizados con el objetivo de obtener una región, el tamaño de la región puede estar dado por la forma en que se realice la discretización.
El mayor problema de esta formula es que las regiones varían su ancho según la posición en que se encuentren. Como se puede observar en la figura 4.16, existen dos tipos de radio y en el caso a), el cual utiliza estas ecuaciones nos varia el radio. Las ecuaciones de la figura b) son más complejas y requieren mayor nivel de cálculos. Cabe recordar que en estos enfoques, los cálculos deben hacerse por cada píxel de la imagen original en el momento de superponerse.
Figura 4.16. Comparación de las elipses generadas con los distintos enfoques.
A comparación de este enfoque, es posible utilizar mapas de bits. Las figuras 4.17 a 4.20 hacen una comparación de dos tumores y las respectivas imágenes generadoras de regiones. La figura 4.17 presenta un contorno de tipo de mapa de bits, mientras que la 4.18 muestra sus contornos. La figura 4.19 muestra un contorno con forma elíptica, como ejemplo de un tumor que puede ser almacenado –con un mayor error- con solo dos coordenadas, sus focos. La figura 4.20 representa el conjunto de regiones, al ser un gradiente continuo de escala de grises, es posible -al igual que como se mencionará al sugerirse la utilización de un filtro gaussiano- discretizar las regiones aplicando intervalos de colores comunes. Cabe destacar que en esta figura puede observarse que los focos son más oscuros que el resto de la elipse, esto es sólo una ilusión óptica y, por lo explicado líneas arriba, matemáticamente puede demostrarse que los focos son los valores máximos y son igual de oscuros que el resto del segmento recto que los une. Este modelo tiene un problema y es que las elipses concéntricas generadas por esta expresión no están distanciadas uniformemente. Otros modelos pueden resolver este problema pero son más complicados y costosos a la hora de calcular.
La utilización de contornos por mapas de bits permite una mejor aproximación a los bordes del tumor, pero para obtener gradientes alrededor de ellos, las regiones circundantes deben ser procesadas y calculadas mediante algoritmos recursivos que midan la distancia al contorno.
Esto puede ser realizado aplicando el algoritmo de Bellman-Ford [Bellman, 1958], si se considera al mapa de bits como un grafo donde cada píxel está unido con los cuatro inmediatamente adyacentes. Mediante este algoritmo el ancho de cada región vendrá dado por norma Manhattan. Si se desea una distancia pitagórica, es recomendable aplicar un filtro gaussiano y seleccionar las regiones de acuerdo a un intervalo de tolerancia.
- Capas concéntricas
Una vez obtenidas las capas concéntricas se las toma como regiones que van a alimentar a las redes neuronales. Éstas pueden ser interiores o exteriores a la figura, la cantidad y tamaño depende de la resolución de la imagen y puede ser variada hasta observar mejores resultados. A estas regiones se les agrega una región más que comprende el centro (o núcleo) del tumor. Cada una posee un tamaño que depende del contorno específico y por esto su tamaño es un valor posible como entrada a la red neuronal. El valor debe ser normalizado en el rango [0;1].
Buscaremos una función de transformación que posea varias características deseables para realizar esta tarea. Las características son:
Dominio entre [0;8). Para garantizar que todo tamaño posible pueda ser mapeado.
Imagen entre [0;1]. Para aprovechar al máximo los valores de entrada de la red.
Monótonamente creciente (o decreciente). Para asegurar la biyectividad de la función.
El operador esperanza esté en un valor que podamos elegir arbitrariamente (la media de la de todas las imágenes del conjunto de datos). Para distribuir los puntos de la mejor manera posible.
Figura 4.21. Variación de las funciones acumulativas exponenciales para distintas medias en el entorno de las correspondientes a las imágenes de DDSM.
Al utilizar esta función podremos obtener valores normalizados dentro del rango deseado contemplando la media de las imágenes de DDSM para así evitar una distribución de valores concentrados en su mayoría sobre regiones cercanas a los topes 0 ó 1.
- Generación de entradas para la red
Una vez obtenidas las capas concéntricas comienza la interrogante de que hacer con ellas.
Una solución trivial sería tomar la media de la luminiscencia y utilizarla de entrada en la red que -sumada a su tamaño ya normalizado- dispondría de información suficiente como para terminar la tarea de clasificación.
Pese a que esta solución es, intuitivamente la mejor de todas, no es la única y por ende, esta tesis se ve obligada a abordar al menos algunas soluciones alternativas.
Estas soluciones pueden ser:
1) Utilización de un filtro Sobel
2) Utilización de magnitudes inherentes a la forma de la figura
a. Momento de inercia
b. Radio mínimo al centro de la imagen
c. Radio máximo al centro de la imagen
3) Aplicación del operador varianza sobre las capas (es combinable con Sobel).
- Aplicación del filtro Sobel
Debido a que los datos utilizados normalmente no aportan información relacionada con el principio de localidad de los focos de luminiscencia (es decir si hay saltos bruscos en la región, como contornos o ramificaciones) es necesario aplicar una estrategia que pueda aportar esta información a la red que hará la clasificación. La varianza es una buena medida de la diferencia de luminosidad, pero no depende de la posición en la que se encuentran los píxeles. A modo de ejemplo, si se tienen tres imágenes: a) una con gris al 50%, b) la otra con 50% blanco y 50% de negro distribuidos uniformemente en dos bloques, c) una imagen 50% blanco y 50% negro pero con valores distribuidos de manera alternada como se muestra en la figura 4.22 y por último, d) una imagen con un gradiente de grises, podríamos decir que los cuatro casos tienen un color medio de 0.5, sin embargo el caso a) no tiene varianza, y los casos b), c) y d) tienen la misma varianza. No obstante estamos ignorando el hecho de que la distribución en un caso, el b) es en bloques, en el otro, el c) es alternada y en el tercero, el d), es una escala de grises. Esta información debe ser provista a la red de alguna manera.
Figura 4.22. Ejemplos de distribuciones de luminosidad en una región.
Los tumores malignos tienden a producir ramificaciones, que son lugares por los que las células malignas pertenecientes al tumor escapan del contorno definido que los contiene e intentan avanzar sobre el tejido sano. En los tumores benignos, en cambio, este fenómeno no ocurre, permitiendo observar contornos bien definidos. Para detectar estas ramificaciones, es necesario utilizar una medida de la localidad de la luminosidad de las regiones aledañas al tumor. En nuestro ejemplo, un tumor maligno se asemejaría más al caso c) ó d) mientras que uno benigno se asemejaría a un b).
Por esta razón se decidió aplicar un filtro Sobel a la imagen antes de ser ingresada a la red neuronal, ya que este filtro es una medida del gradiente de diferencia de luminosidad y permite distinguir muy fácilmente ambos ejemplos que con la varianza no eran posibles de ser detectados. [Berhrend, 2006] En nuestras experiencias se aplicaron las tres imágenes por igual: la original (figura 4.23), y las dos imágenes obtenidas por el filtro Sobel en coordenadas polares (figuras 4.24 y 4.25).
Una vez obtenidas las imágenes, se deben generar las entradas para alimentar la red neuronal. Estas entradas serán las resultantes de superponer las regiones seleccionadas para cada imagen tomando la luminosidad media y varianza de cada región en cada imagen y agregándole el tamaño de la muestra. También es posible generar valores utilizando el momento de inercia y los radios mínimos y máximos relativos a un centro de masa producto de la ponderación por el brillo mediante cada una de las imágenes.
Cabe destacar que la información proporcionada por el filtro Sobel no es del todo redundante ya que al tomar la media y la varianza sobre una región se pierde mucha información. Con estos pasos se intenta utilizar el conocimiento proporcionado por los expertos en diagnóstico por imágenes a la red neuronal, es decir, la utilización del filtro dará información más procesada a al red proporcionando así información muy relevante. Esto se debe especialmente a que las ramificaciones en tumores malignos pueden ser detectadas muy fácilmente mediante este filtro.
Un gran problema con el que se enfrenta este tipo de soluciones es la sobrecarga de información de entrada, es posible que al haber mucha información para clasificar, la red no llegue a entrenarse del todo o necesite una muestra de mayor tamaño, por eso, para obtener los resultados experimentales se corrieron varias pruebas con distintas configuraciones detectando así qué entradas son las más importantes y cuales no tanto o tienen información potencialmente redundante.
- Interfaz de datos con las redes neuronales
Esta etapa es la que es capaz de aprender y realizar la clasificación. Hay varias formas de implementarla; esta tesis propondrá dos de ellas haciendo hincapié en la más simple. La primera es la utilización de una red neuronal de tipo back propagation para obtener la clasificación y la segunda, la más compleja es la utilización de redes SOM para hacer una clasificación previa y mediante un algoritmo de clustering obtener así una clasificación, luego para cada una de las clasificaciones aplicarle una red back propagation específica.
La figura 4.26 muestra el subflujo perteneciente a esta etapa, donde podemos observar el proceso de entrenamiento y el de ejecución de las redes. Internamente esos procesos y sus almacenamientos variarán según si se desea utilizar una back propagation sola o si se desea hacer un clustering previo.
Como se puede observar las entradas de este proceso dependen completamente del modo de utilización. Si se encuentra en modo de entrenamiento y se ingresa un resultado deseado, el proceso tenderá a entrenarse con esa información (ya que para el conjunto de valores dados conoce la salida deseada) y almacenarla, sin producir resultado alguno.
El proceso de ejecución es muy sencillo, simplemente ejecuta la clasificación con la información obtenida para almacenamiento. Para este proceso no es necesario conocer el resultado deseado.
Figura 4.26. Subflujo del proceso de clasificación.
Este modelo permite varios esquemas de entrenamiento/ejecución distintos, a continuación presentaremos los antes mencionados y como deberían ser modelizados.
4.3.9.1 Clasificación con redes back propagation
Detallaremos aquí los dos procesos antes mencionados, de entrenamiento y de ejecución. Si bien la ejecución puede ser un proceso bastante trivial, está sujeta a un entrenamiento previo, el cual es imposible de entender sin antes conocer el funcionamiento de este tipo de redes.
La red neuronal back propagation tiene una configuración de una capa de neuronas de entrada, una o varias capas ocultas en el medio y una capa de neuronas de salida. Cada unión entre una neurona y otra está asociada a un peso. Se define a wij como el peso que alimenta a la neurona j desde la neurona i y se dice que el valor de la neurona j, xj, será la sumatoria de wij xi para todo i.
Para entrenar la red mediante el algoritmo de retropropagación (back propagation), se realiza este procedimiento calculando el valor de todas las neuronas. Sus pesos son inicializados de manera aleatoria. Una vez que se llega a la capa de salida se compara los resultados obtenidos con los deseados obteniendo una medida del error de la red para el dato evaluado. Se realiza esta propagación hacia atrás de este error ajustando así todos los pesos. Este procedimiento se realiza una vez por cada dato de un conjunto de entrenamiento y al finalizar se itera una cierta cantidad de veces para asegurarse de que los resultados tiendan al del conjunto de datos y los errores sean cada vez más chicos.
La figura 4.27 muestra el proceso de entrenamiento.
Al finalizar este procedimiento la red queda entrenada y puede ser corrida con entradas obteniendo así una salida relacionada, en nuestro caso, la clasificación del tumor.
Figura 4.27. Proceso de entrenamiento de nuestra red back propagation.
En los resultados experimentales siempre hemos utilizado dos tercios de la muestra como datos de entrenamiento y el tercio restante (el cual es completamente independiente de los datos de entrenamiento) como datos de prueba. Conociendo los resultados médicos de ambos casos es posible calcular los errores reales ocurridos con el conjunto de prueba y así obtener una medida de la calidad del experimento. La figura 4.28 muestra el proceso de ejecución de la red.
Figura 4.28. Proceso de ejecución de la red por propagación hacia atrás.
Este es el proceso inteligente, el que clasifica mediante entrenamiento y el que reemplaza en definitiva al experto. Si bien está sujeto a cometer errores, es posible que el ser humano también los cometa, y esto viene dado por las mismas razones: el espacio de entrenamiento no es completo, absoluto, completamente correcto y no existe capacidad infinita ni tanto en el cerebro del experto como en la red neuronal. Sin embargo ambas clasificaciones tienden a ser muy precisas.
4.3.9.2 Clasificación con clustering previo El proceso de clustering se realiza utilizando otro tipo de redes neuronales, las Self Organizing Maps (SOM), cuyo objetivo es encontrar patrones parecidos sobre la entrada y tender a agrupar los elementos similares de acuerdo a esos patrones en las salidas. Si pudiéramos graficar el espacio n-dimensional que sería representado por la salida, en ésta encontraríamos cúmulos de puntos (que pueden ser remapeados a los elementos originales) fáciles de identificar. Un algoritmo que permite identificarlos es el bisecting k means, que, dados k puntos inicialiados al azar tiende a posicionarlos en el centro de los cúmulos. Estos puntos se llaman centroides y podemos decir que un punto pertenece al un cluster i si el centroide i es el más cercano considerando una distancia euclideana. De esta forma, una vez fijados los centroides, todos los puntos (y por lo tanto los elementos que los generan) son clasificables y es posible asignarles un cluster específico.
Cuando realizamos el entrenamiento formamos el aprendizaje de nuestra red SOM, encontramos los centroides del bisecting k means y luego entrenamos la red back propagation específica para cada cluster. Ahora tendremos k redes back propagation, una por cada cluster y cada una será entrenada solamente con los elementos pertenecientes a éste. El parámetro k es configurable y puede ser variado para encontrar mejores resultados. La figura 4.29 muestra el subflujo de entrenamiento cuando se decide utilizar clustering.
Figura 4.29. Subflujo de entrenamiento si se decide utilizar clustering.
Finalmente, habiendo encontrado las redes y los clusters adecuados la Figura 4.30 presenta el subflujo de ejecución. Este proceso tras recibir un conjunto de valores genera un punto adecuado mediante la red SOM, luego las distancias entre este punto y todos los centroides es medida para así obtener el cluster correspondiente. Esto puede verse en la figura 4.30.
Figura 4.30. Ejecución de la clasificación con clustering.
Para ese cluster se ejecuta la red back propagation correspondiente recibiendo como parámetros la entrada del problema. Finalmente se obtiene una clasificación.
Capítulo 5.
En el actual capítulo se expondrán los resultados obtenidos para los experimentos realizados. La sección 5.1 describe el subconjunto de la base de datos utilizado en los experimentos y la 5.2 define los parámetros que quedaron abiertos y que en los resultados experimentales se pretende optar por el mejor de ellos. La sección 5.3 hace la validación estadística que muestra que la probabilidad de que los resultados sean favorables debido simplemente al azar sea casi nula. Finalmente la sección 5.4 hará una breve interpretación de los resultados obtenidos.
Información del set de datos
Los datos utilizados para la prueba fueron obtenidos de la mencionada base DDSM y consiste en una muestra elegida de manera aleatoria. Debido a que el tamaño de esta base ronda los 230Gb, solo fue utilizada una parte de la misma, la cual ronda los 16Gb repartidos en 9.9Gb de estudios cancerosos y 5.4Gb de estudios con tumores benignos. Cada estudio dispone de cuatro imágenes: dos para cada mama, una tomada en sentido arriba-abajo y la otra en sentido izquierda-derecha. Las imágenes que mostraban múltiples tumores fueron descartadas.
La distribución de los estudios según el resultado real y el tipo de utilización se muestran en las tablas 5.1 y 5.2 de manera cuantitativa y porcentual respectivamente. La misma fue diseñada para obtener un tercio de los estudios para verificación de resultados (test) y dos tercios para el entrenamiento de la red (train).
Benignos | Malignos | Total | |
Train | 44 | 87 | 131 |
Test | 23 | 44 | 67 |
Total | 67 | 131 | 198 |
Tabla 5.1. Distribución de estudios según su utilización.
Benignos | Malignos | Total | |
Train | 22.22% | 43.94% | 66.16% |
Test | 11.62% | 22.22% | 33.84% |
Total | 33.84% | 66.16% | 100.00% |
Tabla 5.2. Distribución porcentual de estudios según su utilización.
Sobre estos estudios se obtuvo un total de 271 estudios de entrenamiento y 149 estudios de verificación.
Parámetros variables
En las pruebas realizadas se han variado distintos parámetros obteniendo distintos resultados para cada uno de ellos. A continuación se exponen estos parámetros y una descripción de los mismos.
- Parámetros principales
Como fue explicado en la definición del problema, la utilización de capas concéntricas puede llevar a la interrogante de que datos utilizar como entradas en las redes neuronales que clasifiquen la imagen. Esta sección presenta la lista de los posibles parámetros de los cuales se ha tomado un pequeño conjunto para realizar las pruebas y de éste, se tomó el de mejores resultados para luego ser comparado con los resultados de [Ferrero et al, 2006].
Los parámetros principales son los que nos darán como resultado las entradas a las redes neuronales, esto resultará en un vector de n valores normalizados entre 0 y 1; siendo n el total de regiones en que se ha dividido el tumor multiplicado por la cantidad de información extraída de cada región. Existe una cantidad muy grande de valores posibles. Solo una pequeña parte será utilizada, elegida de tal manera para mostrar comparativamente que parámetros afectan más.
Cada uno de los parámetros expresados en el tabla 5.3 son potenciales entradas a la red neuronal, pero además, esos parámetros pueden ser aplicados a cada una de las regiones por separado, con lo cual, si se dispone de, por ejemplo 22 regiones y 9 parámetros distintos, el total de posibles entradas para una sola imagen sería de 22*9=198.
Además, cada una de estas imágenes sobre las cuales tomamos regiones no necesariamente tienen que ser las originales, pueden tener un procesamiento previo.
Combinando las tablas tenemos 3 tipos de imagen con la posibilidad de incluir 22 regiones, las cuales dan 2*2*11*11 posibilidades. Y multiplicando todas las posibilidades, obtendríamos (2*2*11*11)3*9, lo cual da 576839744425996936150704256324 valores posibles. Calcularlos todos es computacionalmente imposible ya que, con la velocidad de las computadoras actuales, tomaría aproximadamente 1.6 trillones de años.
De este set de datos, solo fueron utilizados un conjunto pequeño pero representativo de cada característica en particular. Dado que al aumentar la cantidad de entradas de la red aumenta el ruido producido y las redundancias, no vale la pena combinar muchos factores, por eso se probaron las combinaciones existentes de hasta tres tipos distintos de entradas y los mejores valores fueron elegidos. El resultado obtenido fue el que se describe en la tabla 5.6. Cabe destacar que en estos experimentos se observó que algunas entradas producían resultados similares, como por ejemplo el tamaño del contorno y su radio máximo, por lo que se puede observar una redundancia en los datos debido a que suelen ser proporcionales.
Tabla 5.6. Resultados obtenidos para distintos parámetros.
De todos estos experimentos se presenta un análisis comparativo del que mejor dio, en este caso 22 fracasos (en las mejores corridas llegó a solamente 19 fracasos) y se lo compara con los resultados obtenidos por el método de Ferrero et al. (63 fracasos). El resto de los resultados se encuentra en el anexo de pruebas.
- Parámetros secundarios
Además de las entradas de la red existen otros parámetros a variar, estos son:
La Topología de la red neuronal, es decir las capas existentes y cantidad de neuronas
El nivel de entrenamiento, o sea la cantidad de epochs (iteraciones)
Luego de varias corridas se determinó que la utilización de 3 capas era lo más conveniente para realizar las demás pruebas y observar los mejores resultados. Se diseñó una capa intermedia de 12 neuronas. Se optó por un nivel de entrenamiento medio de 450 000 iteraciones.
Validación estadística
Se desea analizar si los resultados experimentales son concluyentes o no. Es posible que, si bien los resultados dieron favorables, esto sea simplemente producto del azar en una muestra que no es lo suficientemente grande.
Para realizar este análisis se utiliza un test de hipótesis. Debido a que el tamaño de la muestra es muy grande (con 10 elementos ya se obtiene precisión suficiente como para sacar conclusiones), el resultado no dejará dudas.
El test de hipótesis nos permite comparar ambas muestras, en este caso queremos saber si nuestra hipótesis H0 es correcta (las capas son mejores que el método de Ferrero et al.) contra la hipótesis contraria HC. Definiremos un nivel de significación, a de 0.0005, ya que con el tamaño de nuestra muestra podremos obtener niveles muy precisos.
Una vez definidos los datos, se presenta la tabla con los resultados de ambos experimentos; el resultado real y la validación de la hipótesis.
El método de prueba de hipótesis para diferencia de dos muestras con desvío desconocido utiliza la distribución t de student y sus parámetros se obtienen mediante las siguientes formulas [Walpole & Myers, 1999]
Donde las variables independientes son representadas en la tabla 5.8 y las dependientes en la tabla 5.9. Estas tablas serán llenadas por la información de la Tabla 5.7.
Imagen N° Ferrero Capas Real Error Ferrero | Error Capas | Diferencia | |||||||||
Ef | Ec | Ec-Ef | |||||||||
57 | 0 | 0 | 0 | 0 | 0 | 0 | |||||
114 | 1 | 1 | 1 | 0 | 0 | 0 | |||||
61 | 0.75195873 | 0.7513 | 1 | 0.24804127 | 0.24871957 | -0.0006783 | |||||
141 | 0.43345478 | 0.4343 | 0 | 0.43345478 | 0.43434587 | -0.00089109 | |||||
99 | 0.76514775 | 0.7622 | 0 | 0.76514775 | 0.76220638 | 0.00294137 | |||||
66 | 0.62464285 | 0.6324 | 1 | 0.37535715 | 0.36756277 | 0.00779438 | |||||
19 | 0.01422427 | 0 | 1 | 0.98577573 | 1 | -0.01422427 | |||||
2 | 0.74418133 | 0.7145 | 1 | 0.25581867 | 0.28553349 | -0.02971482 | |||||
63 | 0.79043245 | 0.8272 | 1 | 0.20956755 | 0.17282999 | 0.03673756 | |||||
85 | 0.71889776 | 0.6787 | 1 | 0.28110224 | 0.32130665 | -0.04020441 | |||||
131 | 0.74446279 | 0.7899 | 0 | 0.74446279 | 0.78986084 | -0.04539805 | |||||
146 | 0.75772852 | 0.8062 | 1 | 0.24227148 | 0.19375604 | 0.04851544 | |||||
20 | 0.04912899 | 0 | 1 | 0.95087101 | 1 | -0.04912899 | |||||
34 | 0.86818719 | 0.8184 | 1 | 0.13181281 | 0.18155986 | -0.04974705 | |||||
129 | 0.84859949 | 0.7884 | 1 | 0.15140051 | 0.21159422 | -0.06019371 | |||||
5 | 0.39603713 | 0.4602 | 0 | 0.39603713 | 0.46020421 | -0.06416708 | |||||
108 | 0.81564581 | 0.7513 | 1 | 0.18435419 | 0.24871957 | -0.06436538 | |||||
77 | 0.71137428 | 0.7808 | 1 | 0.28862572 | 0.21915382 | 0.0694719 | |||||
60 | 0.73935401 | 0.6688 | 1 | 0.26064599 | 0.33119559 | -0.0705496 | |||||
68 | 0.7218408 | 0.7997 | 1 | 0.2781592 | 0.20032084 | 0.07783836 | |||||
106 | 0.82936078 | 0.7513 | 1 | 0.17063922 | 0.24871957 | -0.07808035 | |||||
17 | 0.72286034 | 0.8042 | 1 | 0.27713966 | 0.19576895 | 0.08137071 | |||||
71 | 0.75370592 | 0.6654 | 1 | 0.24629408 | 0.33460087 | -0.08830679 | |||||
74 | 0.67769212 | 0.7684 | 1 | 0.32230788 | 0.23157322 | 0.09073466 |
Tabla 5.7.a. Comparación de los resultados de ambos métodos.
Imagen N° Ferrero Capas Real Error Ferrero | Error Capas | Diferencia | |||||||||
Ef | Ec | Ec-Ef | |||||||||
28 | 0.47556975 | 0.5685 | 1 | 0.52443025 | 0.43150717 | 0.09292308 | |||||
73 | 0.71587157 | 0.812 | 1 | 0.28412843 | 0.18803042 | 0.09609801 | |||||
115 | 0.72567689 | 0.8233 | 1 | 0.27432311 | 0.17673755 | 0.09758556 | |||||
130 | 0.64548618 | 0.7513 | 0 | 0.64548618 | 0.75128043 | -0.10579425 | |||||
53 | 0.86970466 | 0.7638 | 1 | 0.13029534 | 0.23623693 | -0.10594159 | |||||
94 | 0.15848073 | 0.0498 | 0 | 0.15848073 | 0.04975453 | 0.1087262 | |||||
1 | 0.86099982 | 0.7513 | 1 | 0.13900018 | 0.24871957 | -0.10971939 | |||||
37 | 0 | 0.113 | 0 | 0 | 0.11299466 | -0.11299466 | |||||
36 | 0 | 0.113 | 0 | 0 | 0.11299466 | -0.11299466 | |||||
38 | 0 | 0.113 | 0 | 0 | 0.11299466 | -0.11299466 | |||||
35 | 0 | 0.113 | 0 | 0 | 0.11299466 | -0.11299466 | |||||
16 | 0 | 0.113 | 0 | 0 | 0.11299466 | -0.11299466 | |||||
139 | 0.92333406 | 0.8101 | 1 | 0.07666594 | 0.18990988 | -0.11324394 | |||||
45 | 0.72459817 | 0.8411 | 1 | 0.27540183 | 0.15893167 | 0.11647016 | |||||
75 | 0.70160192 | 0.8206 | 1 | 0.29839808 | 0.17942387 | 0.11897421 | |||||
93 | 0.15392828 | 0.0233 | 0 | 0.15392828 | 0.02325229 | 0.13067599 | |||||
148 | 0.47556975 | 0.6078 | 1 | 0.52443025 | 0.39220721 | 0.13222304 | |||||
65 | 0.78651744 | 0.925 | 1 | 0.21348256 | 0.07503825 | 0.13844431 | |||||
138 | 0.89255041 | 0.7513 | 1 | 0.10744959 | 0.24871957 | -0.14126998 | |||||
70 | 0.69855702 | 0.8412 | 1 | 0.30144298 | 0.15878719 | 0.14265579 | |||||
117 | 0.47556975 | 0.6202 | 0 | 0.47556975 | 0.62017441 | -0.14460466 | |||||
11 | 0.47838238 | 0.6237 | 0 | 0.47838238 | 0.62365657 | -0.14527419 | |||||
7 | 0.42433733 | 0.57 | 1 | 0.57566267 | 0.42998052 | 0.14568215 | |||||
91 | 0.71754134 | 0.5646 | 1 | 0.28245866 | 0.43544763 | -0.15298897 | |||||
100 | 0.9046489 | 0.7513 | 0 | 0.9046489 | 0.75128043 | 0.15336847 | |||||
32 | 0.90530366 | 0.7513 | 1 | 0.09469634 | 0.24871957 | -0.15402323 | |||||
54 | 0.91269445 | 0.7513 | 1 | 0.08730555 | 0.24871957 | -0.16141402 | |||||
140 | 0.47556975 | 0.3083 | 0 | 0.47556975 | 0.30832002 | 0.16724973 | |||||
81 | 0.9186179 | 0.7513 | 1 | 0.0813821 | 0.24871957 | -0.16733747 | |||||
87 | 0.74422193 | 0.9137 | 1 | 0.25577807 | 0.08631033 | 0.16946774 | |||||
62 | 0.93129289 | 0.7513 | 1 | 0.06870711 | 0.24871957 | -0.18001246 | |||||
25 | 0.46598083 | 0.281 | 0 | 0.46598083 | 0.28096375 | 0.18501708 | |||||
105 | 0.56152809 | 0.7513 | 0 | 0.56152809 | 0.75128043 | -0.18975234 | |||||
107 | 0.55989432 | 0.7513 | 0 | 0.55989432 | 0.75128043 | -0.19138611 | |||||
137 | 0.66330016 | 0.8597 | 1 | 0.33669984 | 0.14026189 | 0.19643795 | |||||
43 | 0.72871703 | 0.9286 | 1 | 0.27128297 | 0.071419 | 0.19986397 | |||||
59 | 0.49038544 | 0.6907 | 1 | 0.50961456 | 0.30930966 | 0.2003049 | |||||
72 | 0.95160913 | 0.7513 | 1 | 0.04839087 | 0.24871957 | -0.2003287 | |||||
83 | 0.51775789 | 0.7232 | 1 | 0.48224211 | 0.27682668 | 0.20541543 | |||||
14 | 0.47556975 | 0.6819 | 1 | 0.52443025 | 0.31810582 | 0.20632443 | |||||
33 | 0.47556975 | 0.2623 | 1 | 0.52443025 | 0.73772225 | -0.213292 | |||||
92 | 0.72262412 | 0.5047 | 1 | 0.27737588 | 0.49534404 | -0.21796816 | |||||
128 | 0.75976789 | 0.9819 | 1 | 0.24023211 | 0.01814944 | 0.22208267 | |||||
136 | 0.66299003 | 0.8891 | 1 | 0.33700997 | 0.11085969 | 0.22615028 |
Tabla 5.7.b. Comparación de los resultados de ambos métodos.
Imagen N° Ferrero Capas Real Error Ferrero | Error Capas | Diferencia | |||||||||
Ef | Ec | Ec-Ef | |||||||||
67 | 0.72537112 | 0.9516 | 1 | 0.27462888 | 0.04842162 | 0.22620726 | |||||
111 | 0.73055905 | 0.9636 | 1 | 0.26944095 | 0.03643245 | 0.2330085 | |||||
41 | 0.71829432 | 0.9585 | 1 | 0.28170568 | 0.04148942 | 0.24021626 | |||||
23 | 0.42833304 | 0.1697 | 1 | 0.57166696 | 0.83028805 | -0.25862109 | |||||
48 | 0.47556975 | 0.2127 | 0 | 0.47556975 | 0.21269341 | 0.26287634 | |||||
69 | 0.48311493 | 0.7513 | 1 | 0.51688507 | 0.24871957 | 0.2681655 | |||||
49 | 0.47556975 | 0.2045 | 0 | 0.47556975 | 0.20452133 | 0.27104842 | |||||
78 | 0.47556975 | 0.2015 | 0 | 0.47556975 | 0.20149589 | 0.27407386 | |||||
47 | 0.47556975 | 0.1997 | 0 | 0.47556975 | 0.1997451 | 0.27582465 | |||||
26 | 0.45687306 | 0.1754 | 0 | 0.45687306 | 0.17538469 | 0.28148837 | |||||
21 | 0.69890499 | 0.9815 | 1 | 0.30109501 | 0.01847225 | 0.28262276 | |||||
88 | 0.46826521 | 0.7513 | 1 | 0.53173479 | 0.24871957 | 0.28301522 | |||||
118 | 0.47556975 | 0.1885 | 0 | 0.47556975 | 0.18845749 | 0.28711226 | |||||
103 | 0.47556975 | 0.1861 | 0 | 0.47556975 | 0.18611513 | 0.28945462 | |||||
126 | 0.47556975 | 0.7669 | 1 | 0.52443025 | 0.23314601 | 0.29128424 | |||||
6 | 0.38795245 | 0.6844 | 0 | 0.38795245 | 0.68438268 | -0.29643023 | |||||
79 | 0.47556975 | 0.7744 | 1 | 0.52443025 | 0.22561723 | 0.29881302 | |||||
46 | 0.41334692 | 0.713 | 1 | 0.58665308 | 0.28699738 | 0.2996557 | |||||
104 | 0.41541544 | 0.1149 | 0 | 0.41541544 | 0.11488991 | 0.30052553 | |||||
15 | 0.3559196 | 0.0477 | 0 | 0.3559196 | 0.04769824 | 0.30822136 | |||||
76 | 0.47556975 | 0.1554 | 0 | 0.47556975 | 0.15542442 | 0.32014533 | |||||
29 | 0.47556975 | 0.8025 | 1 | 0.52443025 | 0.19752324 | 0.32690701 | |||||
101 | 0.47556975 | 0.8041 | 1 | 0.52443025 | 0.19593441 | 0.32849584 | |||||
58 | 0.47556975 | 0.147 | 0 | 0.47556975 | 0.14695545 | 0.3286143 | |||||
40 | 0.46389881 | 0.8105 | 1 | 0.53610119 | 0.18945181 | 0.34664938 | |||||
80 | 0.47556975 | 0.8249 | 1 | 0.52443025 | 0.17505711 | 0.34937314 | |||||
86 | 0.40048194 | 0.7513 | 1 | 0.59951806 | 0.24871957 | 0.35079849 | |||||
97 | 0.45826727 | 0.8246 | 1 | 0.54173273 | 0.17537063 | 0.3663621 | |||||
112 | 0.58536297 | 0.9527 | 1 | 0.41463703 | 0.04726094 | 0.36737609 | |||||
30 | 0.46299711 | 0.8516 | 1 | 0.53700289 | 0.14835715 | 0.38864574 | |||||
124 | 0.47556975 | 0.8654 | 1 | 0.52443025 | 0.1346392 | 0.38979105 | |||||
135 | 0.46281195 | 0.0646 | 0 | 0.46281195 | 0.06464855 | 0.3981634 | |||||
116 | 0.47556975 | 0.8767 | 1 | 0.52443025 | 0.1232723 | 0.40115795 | |||||
10 | 0.7317791 | 0.3166 | 0 | 0.7317791 | 0.31655562 | 0.41522348 | |||||
134 | 0.46076983 | 0.0453 | 0 | 0.46076983 | 0.04531365 | 0.41545618 | |||||
96 | 0.41978264 | 0 | 0 | 0.41978264 | 0 | 0.41978264 | |||||
12 | 0.46926683 | 0.0458 | 0 | 0.46926683 | 0.04581384 | 0.42345299 | |||||
18 | 0.47556975 | 0.9025 | 1 | 0.52443025 | 0.09752685 | 0.4269034 | |||||
13 | 0.47333017 | 0.0421 | 1 | 0.52666983 | 0.95787293 | -0.4312031 | |||||
52 | 0.47556975 | 0.0402 | 0 | 0.47556975 | 0.04017888 | 0.43539087 | |||||
3 | 0.53004861 | 0.9725 | 1 | 0.46995139 | 0.02754736 | 0.44240403 | |||||
89 | 0.45307025 | 0.9083 | 1 | 0.54692975 | 0.09170461 | 0.45522514 | |||||
51 | 0.47556975 | 0.0138 | 0 | 0.47556975 | 0.01384378 | 0.46172597 | |||||
119 | 0.20522331 | 0.6688 | 1 | 0.79477669 | 0.33123583 | 0.46354086 |
Tabla 5.7.c. Comparación de los resultados de ambos métodos.
Página anterior | Volver al principio del trabajo | Página siguiente |