Descargar

Detección automática de paroxismos


Partes: 1, 2

  1. Introducción
  2. Antecedentes
  3. Definición del problema
  4. Procesamiento y análisis de los canales
  5. Herramienta desarrollada
  6. Conclusiones y Trabajos Futuros
  7. Referencias Bibliográficas
  8. Anexo

CAPÍTULO I

Introducción

El objetivo de este trabajo de tesis es el de extender el trabajo realizado sobre la detección automática de paroxismos en EEG utilizando técnicas de Data Mining [CAZ/03], analizando todos los canales, y aportando información sobre el canal principal sobre el cual se propaga la señal paroxística. La metodología original consistía en el análisis de un solo canal (mono-canal) para la detección de los paroxismos. Éste canal era seleccionado a priori por los expertos, ya que tenían el conocimiento y la experiencia previa.

Hoy en día, la metodología utilizada en el campo de la detección de actividad paroxística se basa en el conocimiento del experto. Este trabajo requiere de gran experiencia y de un estudio cuidadoso de las distintas fuentes de información (historia clínica del paciente, EEG, videos, etc.) y de la capacidad de dichos expertos de interpretarlas. Estos métodos tienen como ventaja la posibilidad de recurrir a estas fuentes externas de información para su análisis. La gran desventaja de esta metodología es la cantidad de tiempo que necesitan los expertos para analizar la información del paciente, sobre todo considerando que estos estudios, en especial cuando se trata de registrar la crisis del enfermo, generalmente tienen una duración prolongada de 12 a 72 horas.

A través de este trabajo se pretende explicar y realizar la detección sobre todos los canales del EEG (multi-canal) sin tener de antemano la información de los expertos. También se intentará determinar el canal principal donde se inicia la actividad, para luego analizar la propagación de la actividad paroxística sobre los otros canales involucrados. Esto aportará información a los expertos para ayudar a detectar la zona epileptógena.

La automatización de la detección de paroxismos en múltiples canales aplicando un modelo computacional disminuye considerablemente el tiempo utilizado por los expertos en el análisis de la señal. Para lograr esto, se utilizarán las técnicas desarrolladas en el trabajo de detección automática de paroxismos en EEG utilizando técnicas de Data Mining, extendiéndolo a todos los canales. Una vez detectados los paroxismos, se determinará el canal principal, identificando aquel que tenga la mayor cantidad de actividad paroxística. Por último se analizará la propagación de la señal epiléptica desde el canal principal a los canales involucrados.

La implementación de esta metodología ayudará a los expertos en epilepsia a la detección de la topografía de la crisis epiléptica en pacientes candidatos a cirugía, automatizando la detección, disminuyendo el tiempo y esfuerzo dedicado y aumentando el porcentaje de eficacia.

El siguiente trabajo de tesis está organizado en seis capítulos, detallados a continuación:

En el Capítulo I se realizará una breve introducción al trabajo de tesis.

En el Capítulo II se expondrá una introducción a los conceptos de EEG, Epilepsia, Data Mining, etc., tratados en este trabajo (Marco Conceptual), y por último una breve investigación de los trabajos realizados sobre detección de paroxismos en EEG y la utilización de Data Mining (Marco Teórico). También se explicará la metodología utilizada en el trabajo de detección automática de paroxismos en EEG utilizando técnicas de Data Mining, sobre el cual se basó esta tesis.

En el Capítulo III se definirá el problema, y se planteará la metodología a utilizar.

En el Capítulo IV se describirá paso a paso la metodología a implementar.

En el Capítulo V se realizará una breve descripción de la herramienta utilizada para soportar la metodología y se analizarán los resultados

En el Capítulo VI se expondrán las conclusiones y se detallaran los posibles trabajos futuros.

Por último, en el Capítulo VII se encontrará la bibliografía utilizada para el desarrollo del trabajo de tesis.

Para poder llevar a cabo el trabajo de tesis, se realizaron entrevistas con médicos e investigadores del Centro de Epilepsia de la División de Neurología del Hospital de Ramos Mejía, y becarios de la Facultad de Medicina de la Universidad de Buenos Aires.

CAPÍTULO II

Antecedentes

Marco Conceptual

Epilepsia

La Epilepsia es un síndrome neurológico, crónico, que cursa con crisis epilépticas recurrentes. Según la organización Mundial de la Salud (OMS) y la Liga Internacional contra la Epilepsia (ILAE) se define a la epilepsia como una afección neurológica crónica, recurrente y repetitiva, de fenómenos paroxísticos ocasionados por descargas de neuronas cerebrales de forma desordenada y excesiva.

Sus causas pueden ser muy diversas y sus manifestaciones sumamente variadas. La epilepsia está caracterizada por:

Los ataques tienen un inicio súbito y brusco, con una duración breve, y luego tienden a restablecer las señales cerebrales. Son manifestaciones paroxísticas.

Su principal característica es la repetición de los ataques o crisis.

Es una enfermedad que puede durar muchos años, o inclusive toda la vida de la persona enferma.

Una crisis epiléptica es producida por descargas descontroladas de las neuronas. Esta actividad se transmite de una neurona a otras vecinas, abarcando una gran cantidad de secciones del cerebro, desencadenando las manifestaciones propias de la epilepsia. Las causas que producen este desordenado funcionamiento de las neuronas abarca un amplio listado: enfermedades metabólicas, tumores, trastornos del embarazo y parto, encefalitis, traumatismos de cráneo, meningitis, etc. En muchos casos existe solamente una predisposición de origen genético a padecer las crisis.

Los síntomas que experimenta una persona durante una crisis epiléptica dependen del lugar en el cerebro en el cual ocurre la alteración de la actividad eléctrica. Una persona que tiene una crisis tónico clónica (también llamada de gran mal) puede gritar, perder el sentido y desplomarse, ponerse rígido y con espasmos musculares. Otro tipo de crisis epiléptica es la denominada crisis parcial compleja, en la que el paciente puede parecer confundido o aturdido y no podrá responder a preguntas ni instrucciones. Otras personas tienen ataques muy leves que ni siquiera son notados por otros. Algunas veces, la única manifestación de la crisis epiléptica es un parpadeo rápido o algunos segundos de mirada perdida con desconexión del medio; a este tipo de crisis epiléptica se lo denomina ausencia y es relativamente frecuente en la infancia. La crisis puede durar desde unos segundos hasta varios minutos.

EEG (Electroencefalograma)

EI EEG refleja la actividad post-sináptica y el flujo extracelular de grandes poblaciones neuronales. Esas neuronas así como otras células nerviosas, tienen un potencial de descanso el cual es una diferencia de potencial eléctrica entre el interior de la célula y el espacio extracelular. Es pertinente comentar que las señales de EEG varían según la edad del sujeto bajo estudio. La amplitud de estas señales usualmente se encuentra de 10 a 100 microvoltios. En la figura 1 se puede ver un ejemplo de señal captada en un EEG con 17 canales.

Figura 1 – Ejemplo de EEG.

edu.red

Captación del EEG

La actividad bioeléctrica cerebral puede captarse por diversos procedimientos:

Sobre el cuero cabelludo.

En cerebro expuesto.

En localizaciones cerebrales profundas.

?

Para captar la señal se utilizan diferentes tipos de electrodos:

Electrodos superficiales: Se aplican sobre el cuero cabelludo.

Electrodos quirúrgicos o profundos: para su aplicación es precisa la cirugía y pueden ser corticales o intracerebrales. Se utiliza en aquellos casos en los cuales el foco epileptógeno no ha sido localizado con los registros electroencefalográficos utilizando electrodos superficiales. Una ventaja de estos electrodos es que permiten una mayor precisión para delimitar la zona epileptogena. Solo se utilizan cuando se plantea la posibilidad de tratamiento quirúrgico. Al obtenerse un registro de campo cercano, la señal no presenta artificios.

Montajes de un EEG

Para proceder a registrar el EEG se parte de una serie de electrodos situados sobre la superficie del cuero cabelludo dispersos según el sistema internacional diez-veinte (actualmente es el más utilizado). Cada electrodo es un punto de registro. Dependiendo del propósito específico del registro a realizar y del número de canales disponibles, se pueden encontrar dos tipos de registros:

Registros Monopolares o Referenciales, donde se toma la señal de cada uno de los electrodos independientemente de la de los demás. En esta situación el electrodo de registro se llama electrodo activo y el segundo cable de entrada al equipo se toma de un electrodo llamado de referencia. Generalmente el electrodo referencial se sitúa en el lóbulo de la oreja o en el mentón.

Registros Bipolares, donde se toman parejas de electrodos, dos a dos y se registran las diferencias de tensión entre cada par de puntos. Los dos electrodos de cada pareja son activos. De entre todas las combinaciones posibles de parejas diferentes de electrodo, tomadas en grupos de 8, de 12, de 16, etc. (según el número de canales disponibles para registro simultáneo), se seleccionan las más interesantes. Cada una de las combinaciones seleccionadas es denominada montaje. La figura 2 muestra un montaje monopolar.

Figura 2 – Esquema que representa el montaje para un registro monopolar.

edu.red

En la siguiente figura se puede apreciar un montaje bipolar.

Figura 3 – Esquema de un montaje para un registro bipolar.

El electrodo A está a un potencial de +5, el electrodo B a un potencial de +2, registrándose así un potencial de (+5)-(+2) = (+3).

edu.red

Los montajes también han sido clasificados por la Federación Internacional de EEG y Neurofisiología en Longitudinales y Transversales. En los Montajes Longitudinales se registra la actividad de pares de electrodos dispuestos en sentido antero posterior de cada mitad del cráneo. En los Montajes Transversales se realizan registros de pares de electrodos dispuestos transversalmente según los planos sagitales anterior, medio o posterior. La figura 4 muestra los dos tipos de esquemas (montaje longitudinal bipolar y montaje transversal bipolar).

Figura 4 – Montaje longitudinal bipolar (A), transversal bipolar (B). Cada segmento situado entre dos puntos representa un canal de registro.

edu.red

En este trabajo de tesis se utilizó el registro vídeo-EEG, que consiste en la filmación continua en vídeo de la persona afecta para poder captar las crisis y simultáneamente registrar la actividad eléctrica cerebral mediante el electroencefalograma (EEG) continuo. Así mismo, se utilizó un esquema de montaje referencial de 32 y 17 canales, tomando un electrodo de referencia común a todos los canales, utilizando electrodos profundos.

El vídeo-EEG es imprescindible en todos los pacientes candidatos a cirugía, incluso en aquellos en los que el origen de las crisis parece evidente. Siempre es necesario confirmar que el foco está cercano a la lesión, dado que a veces las crisis provienen de otras regiones lejos de la misma.

El registro vídeo-EEG no solo está indicado en la investigación pre-quirúrgica sino que también es útil en aquellas personas en los que el médico encuentra una importante dificultad diagnóstica. Por ejemplo, el registro de las crisis permite definir si el paciente tiene crisis epilépticas u otro tipo de trastornos no epilépticos como son las crisis psicológicas, ciertas formas de movimientos anormales, pérdidas de conciencia por hipotensiones o fallos en el ritmo cardíaco.

En la figura 5 se puede apreciar los puntos sobre los cuales se colocan los electrodos para tomar un EEG.

Figura 5 – Colocación de los sensores.

edu.red

La función del EEG aplicado a la Epilepsia

Como es obvio suponer, el EEG desempeña un papel fundamental como apoyo a los datos clínicos en el diagnóstico de las epilepsias. Estas patologías se presentan en todas las edades aunque la incidencia es mayor en la infancia y adolescencia así como en la tercera edad.

En líneas generales la función del EEG en la Epileptología actual es la confirmación del diagnóstico clínico de epilepsia, predicción de posibles recurrencias tras la disminución / supresión del tratamiento antiepiléptico y quizás el intento de predicción de una posible epileptogenicidad de lesiones cerebrales agudas focales (áreas de contusión, zonas corticales próximas a neoplasias cerebrales o lesiones vasculares corticales). El grueso de pacientes con epilepsias y síndromes epilépticos correctamente diagnosticado y tratados no precisan de estudios EEG de control. Los pacientes afectos de epilepsias no controladas satisfactoriamente precisarán de estudios especiales para poder discernir con mayor certeza si los eventos paroxísticos que padecen son crisis epilépticas, qué tipo de crisis son y cual es la etiología.

En este tipo de pacientes probablemente haya una serie de fenómenos clínicos de naturaleza epileptiforme que estén infradiagnosticados, para los que el EEG es de suma utilidad. Esto se refiere a pacientes que sufren déficit neurológico focal de origen cortical, sin datos aparentes de comicialidad, aunque realmente de naturaleza epileptiforme. Un porcentaje elevado de pacientes han sufrido previamente un evento vascular cerebral por lo que estos episodios posteriores son interpretados erróneamente del mismo modo con el consiguiente fallo terapéutico (sustitución de fármacos antiagregantes por anticoagulantes orales o parenterales que no son necesarios y la no-instauración del tratamiento antiepiléptico oportuno). Es fundamental un alto índice de sospecha clínica para poder identificar correctamente a estos pacientes.

Analizando los EEGs de pacientes epilépticos, se descubrieron ciertos grafoelementos los cuales se presentaban en un muy alto porcentaje y a los cuales se les denominó grafoelementos epileptiformes. Existen básicamente tres tipos de grafoelementos epileptiformes:

Los primeros, son las puntas, que son aquellas ondas con terminación en punta que tienen una duración menor a 70 mseg y cuya amplitud sobrepasa a la del ritmo de base donde aparecen por lo menos en un 50%.

Las segundas, son las ondas agudas, las cuales presentan las mismas características que las puntas, pero con una duración que va de los 70 a los 200 mseg.

Los terceros, son los denominados complejos ya que se integran por la combinación de por lo menos dos grafoelementos siendo el mas frecuente, el llamado complejo punta-onda lenta en donde se asocia una punta con las características antes mencionadas con una onda lenta típicamente con duración mayor a los 200 ms. Existen otros tipos de complejos, como lo son los complejos de polipuntas o los complejos onda aguda-onda lenta. La figura 6 muestra los tres tipos distintos de grafoelementos que se pueden encontrar.

Figura 6 – Punta onda, ondas agudas y polipuntas.

edu.red

Todos ellos tienen un significado determinado al momento de realizar la interpretación de un EEG, pero como punto básico, hay que recordar que todos ellos son los que con mayor frecuencia se encontrarán en un paciente con epilepsia.

Análisis digital de EEGs

Desde los primeros registros de la actividad eléctrica cerebral en humanos, efectuado por Berger, se ha intentado obtener más información de la que a simple vista se puede conseguir con la observación del trazado. Las diferentes ondas que constituyen el registro EEG, son una manifestación de la actividad cerebral, de sus características y de sus cambios. Sin embargo, la valoración exclusivamente visual del registro limita gran parte de las posibilidades de información que aporta el EEG acerca del estado funcional del sistema nervioso central.

Con el apoyo de diferentes instrumentos matemáticos que permiten un análisis más fino de las señales eléctricas, diversos autores intentaron profundizar en el significado biofísico de las ondas registrables en la superficie craneal. Así, en 1932, Dietsch fue uno de los primeros en aplicar el análisis de Fourier al EEG, lo cual representó un paso importante en el estudio de la actividad bioeléctrica cerebral. [DIE/32]

En la actualidad, los sistemas digitales de adquisición de las señales EEG, poseen conversores analógicos-digitales adecuados que realizan muestreos óptimos, los cuales aseguran una buena adquisición y evitan la contaminación por ruido del espectro final. Por otra parte, la posibilidad de almacenar la actividad bioeléctrica cerebral en sistemas ópticos permite una mayor fiabilidad y estabilidad de las señales obtenidas.

Sin embargo, la parte más importante es el procesamiento y manejo de la información adquirida. Es decir, poder determinar las características de la actividad recogida en cada electrodo y verificar si se encuentra dentro de los límites normales para cada paciente y situación. Así, una vez digitalizada, la señal bioeléctrica debe procesarse matemáticamente para evaluar distintos parámetros de interés. Uno de los parámetros básicos que deben estudiarse, y que de hecho se utilizó en este trabajo de tesis, es la potencia absoluta. La misma es un índice de la cantidad de energía existente en una banda de frecuencia determinada y en un punto concreto de la superficie craneal. [CAB/99]

Algunas definiciones

Paroxismo: Se define como paroxismo o actividad paroxística a la descarga epiléptica. Esta refleja la actividad de despolarización post sináptica y el flujo de las poblaciones neuronales, implicadas en la zona epileptógena, o en áreas vecinas.

Periodo Ictal: El comienzo de la crisis o periodo ictal se define por el primer cambio eléctrico en el ritmo de base del EEG o alguna manifestación clínica que indica el inicio de la misma. El final de la crisis se identifica cuando la actividad ictal es reemplazada por el retorno al ritmo de base interictal del paciente, por atenuación o enlentecimiento difuso.

Período Interictal: Los periodos interictales son aquellos entre ataques de epilepsia (crisis), que pueden contener actividad de base o actividad paroxística.

Actividad de Base: Es el registro de la actividad eléctrica cerebral en condiciones de reposo o durante el sueño espontáneo. También llamada señal de base.

Artefacto: Señal captada en un EEG producida por un movimiento del paciente o por un falso contacto de los electrodos, que puede confundirse con señal paroxística.

Fourier

Introducción

La Transformada de Fourier se encarga de convertir una señal del dominio del tiempo, al dominio de las frecuencias, de donde se puede realizar su anti-transformada y volver al dominio temporal. El trabajo con la señal en frecuencia, no solo sirve como información, sino que se puede modificar, de forma que es ampliamente utilizada en filtros, procesamiento de imágenes y sonidos, comunicaciones (modulaciones, líneas de transmisión, etc.) y otro tipo de aplicaciones más curiosas, como ser, estadística, detección de fluctuaciones en los precios, análisis sismográfico, etc.

El análisis de Fourier surgió a partir del intento de su autor por hallar la solución a un problema práctico de conducción del calor en un anillo de hierro. Desde el punto de vista matemático, se obtiene una función discontinua a partir de la combinación de funciones continuas. Esta fue la atrevida tesis defendida por Fourier ante la Academia Francesa, que motivó severas objeciones de los matemáticos más importantes de su época como Lagrange y Laplace entre otros.

En este capítulo se ilustrarán los aspectos fundamentales, es decir, la aproximación sucesiva mediante la suma de armónicos, senos y cosenos, a una función dada, por ejemplo, un pulso cuadrado, o en forma de diente de sierra, etc. También se ampliarán los conceptos matemáticos necesarios para el entendimiento de esta teoría.

Transformada Rápida de Fourier (FFT)

La Transformada Rápida de Fourier es simplemente un algoritmo rápido para la evaluación numérica de la Transformada Discreta de Fourier desarrollado en los laboratorios de IBM, y su importancia radica en la rapidez de cálculo conseguida, fundamentalmente en aplicaciones del tipo ecualización y filtrado en equipos de audio/video en tiempo real, comunicaciones, etc.

La diferencia de velocidad de cálculo entre la tradicional Transformada Discreta y la FFT aumenta según aumenta el número de muestras a analizar, según se puede apreciar en la siguiente figura, ya que mientras una aumenta el número de operaciones necesarias para la resolución de forma exponencial, la otra lo hace de forma prácticamente lineal.

Data Mining

Introducción a los conceptos de Data Mining

En las ultimas dos décadas se ha visto un incremento considerado en la cantidad de información y de datos almacenados en formato electrónico. Se ha estimado que la cantidad de información a escala mundial se duplica cada 20 meses, y el incremento del número de bases de datos crece en proporciones aún mayores. Una de las causas de este incremento se debe a la generalización de dispositivos de captura electrónica de datos en los puntos de venta, así como también al decreciente costo del almacenamiento y procesamiento computacional.

Después de haberse enfocado tanto tiempo en la acumulación de datos, el problema pasó a ser, qué hacer con esta gran cantidad de información, cómo poder reconocer la información vital subyacente, y de qué manera ésta puede ser utilizada para la toma de decisiones en los negocios y empresas.

Las herramientas tradicionales de procesamiento de información, como ser, sistemas de manejo de bases de datos (DBMS), o sistemas de procesamiento de transacciones en línea (OLTP), son buenos en el sentido que brindan almacenamiento rápido, seguro y eficiente de los datos; pero no lo son tanto desde el punto de vista del análisis de la información. Justamente en este punto es donde las técnicas de Data Mining o Knowledge Discovery in Databases (KDD) tienen beneficios obvios para las empresas.

Data Mining o KDD es la extracción no trivial de información implícita, previamente desconocida y potencialmente útil de los datos. Se puede ver también como la búsqueda de relaciones y patrones globales existentes en una gran base de datos, pero que están ocultos a simple vista, debido a la gran cantidad de información almacenada. Por ejemplo, la detección de la actividad epiléptica en el EEG, discriminándola de la actividad de base.

Fases del proceso de Data Mining

El proceso de análisis de Data Mining comienza trabajando sobre un conjunto de datos acotado, y utiliza una metodología para desarrollar una representación óptima de la estructura de los datos, durante el cual se va adquiriendo conocimiento. Una vez completada la fase de adquisición de conocimiento, el mismo puede ser extendido a grandes volúmenes de datos bajo el concepto de que éstos serán similares en estructura a los conjuntos utilizados durante el aprendizaje.

Este proceso se divide en fases, el cual comienza con información en bruto y termina con el conocimiento extraído que fue adquirido como resultado de las siguientes fases:

Selección: selección o segmentación de los datos de acuerdo a un criterio dado, por ejemplo, para este trabajo de tesis se seleccionaron en primera instancia los archivos de datos, luego los canales, y por último los segmentos de señal sobre los cuales se trabajará.

Preprocesamiento: esta es la fase que involucra la limpieza inicial de los datos (Data Cleaning) donde cierta información es removida, la cual es por si innecesaria y puede disminuir el desempeño de las consultas, por ejemplo, es innecesario tener el sexo de un paciente cuando se realizan estudios por embarazo. Además involucra la reconfiguración de los datos para asegurar un formato consistente (Enrichment), ya que existe la posibilidad de que haya inconsistencias debido a que los datos pueden provenir de diferentes fuentes, también reconstrucción de datos faltantes, combinación y / o conversión de campos existentes para generar nuevos datos (Coding). Estos pasos requieren un esfuerzo considerable, generalmente más del 70% del esfuerzo total del proceso de Data Mining. Más adelante se verá como se preprocesaron los datos de entrada utilizando funciones de transformación, FFT, técnicas de windowing, etc.

Data Mining: esta fase involucra la selección de los algoritmos o métodos, y el uso de las herramientas para construir, testear y seleccionar modelos.

Validación del modelo: testear el modelo sobre un conjunto de datos independiente (que no fue utilizado para generar el modelo) para probar su exactitud o su precisión. Realizar una prueba piloto para determinar la usabilidad del mismo, por ejemplo, si se está generando un modelo sobre un EEG de un paciente, reservar una porción del mismo para realizar las pruebas.

Algoritmos de Clasificación de Data Mining

Naive Bayes

Naive-Bayes es una técnica de clasificación que es a la vez descriptiva y predictiva. Analiza la relación entre cada variable independiente y su variable dependiente para extraer la probabilidad relacional de cada relación. Cuando un nuevo caso es analizado, se realiza una predicción combinando los efectos de las variables independientes sobre la variable dependiente (resultado a predecir).

Naive-Bayes requiere solamente una pasada a través del conjunto de datos de entrenamiento para generar un modelo de clasificación, esto la convierte en la técnica más eficiente. Por otro lado ésta técnica no maneja datos continuos, de modo que cada variable independiente o dependiente que contenga valores continuos deberá ser agrupada o combinada en valores discretos. Por ejemplo, las variables utilizadas en este trabajo son los coeficientes de Fourier transformados de los valores de la señal EEG. Las mismas son números reales, continuos, por lo cual deberán ser transformados en rangos tales como: , , , y así sucesivamente. Los rangos que el método de clasificación aplicará a cada variable dependerán de la extensión de los valores que la misma tome.

Árboles de decisión

Un árbol de decisión (definido en forma general) es un árbol cuyos nodos internos son decisiones (pruebas) sobre instancias de entrada, y cuyos nodos hojas son clases de instancias. Se muestra un ejemplo en la figura 7.

Figura 7 – Ejemplo de Árbol de Decisión.

edu.red

Un árbol de decisión asigna una clase (ó salida) a un conjunto de atributos de entrada (instancia), filtrando estos atributos a través de las decisiones (pruebas) del árbol, desde la raíz hasta llegar a los nodos hojas. Cada decisión posee resultados mutuamente excluyentes y exhaustivos. Por ejemplo, la decisión T2 en el árbol de la Figura 3.2 posee tres posibles resultados: el de más a la izquierda le asigna la clase 3 a la instancia de entrada, el del medio envía la instancia hacia abajo a la decisión T4, y el de la derecha le asigna a la instancia la clase 1.

Nótese que los árboles de decisión no están limitados a implementar funciones booleanas solamente. De hecho el árbol de la Figura 3.2 posee decisiones con más de dos salidas (por ej. T2).

Metodología sobre la que se basa el trabajo

La metodología utilizada para el proceso de detección de paroxismos necesitó de una secuencia de pasos para poder preparar los datos, analizarlos y luego obtener los resultados: (i) preparación, selección y conversión de los datos para su posterior análisis con la herramienta de Data Mining, (ii) generación de un modelo utilizando un algoritmo de clasificación de Data Mining, (iii) prueba del modelo contra un conjunto de datos de testeo [CAZ/03]. Esta metodología se basó en la detección de señales paroxísticas (punta onda, ondas agudas y polipuntas) sobre un mono-canal de un EEG. El gráfico 8 muestra el proceso que se siguió para generar y validar el modelo de detección.

La Selección y el Preprocesamiento de la señal corresponden a la etapa (i); el proceso de Data Mining corresponde a la etapa (ii); y por último la Validación del modelo a la etapa (iii).

Figura 8 – Etapas de la metodología propuesta.

edu.red

Preparación de los datos

Se utilizaron señales EEGs de pacientes con problemas de epilepsia del Centro de Epilepsia de la División de Neurología del Hospital Ramos Mejía. Cada archivo había sido previamente señalizado por los expertos (asistentes del Centro de Epilepsia con un amplio conocimiento del tema). Esto sirvió de base para poder entrenar el modelo con señales ya clasificadas. Sobre cuatro archivos de señales EEG de pacientes, se utilizó el 66.4% de los datos para entrenar y generar el modelo, y el 33.6% restante se reservó para verificación.

Una vez seleccionados los archivos se determinó una ventana de tiempo para poder trabajar sobre la señal y poder procesarla. La figura 9 muestra la ventana de tiempo seleccionada para el análisis de la señal.

Figura 9 – Selección de una ventana de tiempo de 64 muestras, equivalente a 320 milisegundos.

edu.red

Esto permitió:

Eliminar señales incorrectas o fuera de rango (normalización de la señal).

Separar los paroxismos seleccionados de la señal base.

Atenuar los valores de los bordes de la señal, para poder aplicar la FFT, ya que requiere que la señal sea periódica. Para lograr esto se utilizaron dos técnicas de windowing (Hanning y Hamming). La técnica consiste en multiplicar cada uno de los valores de la ventana de señal original por una ventana generada con una función cosenoidal. Los tres tipos de funciones aplicadas fueron

Hamming

edu.red

Hanning

edu.red

Cuadrada o Pura

edu.red

donde f(n) es el valor de la señal en la posición n de la ventana, T es el tamaño de la ventana, y n va de 0 a T-1.

Aplicar la FFT para poder detectar las características inherentes de la morfología de los paroxismos (transformación de los datos). Ya que una señal EEG es una serie de tiempo en la cual se ve reflejada la actividad cerebral (descargas de las neuronas), se utilizó la representación en el espacio de las frecuencias.

Aplicar funciones de transformación de datos. Algunas de ellas resaltan las frecuencias fundamentales que componen las señales EEG, y otras simplemente convierten los datos tratando de buscar una representación alternativa. Las funciones aplicadas fueron las siguientes:

edu.red

En la figura 10 se puede ver el proceso de preparación de los datos.

Figura 10 – Proceso de preparación de datos.

edu.red

A los datos seleccionados se les aplicó una ventana de atenuación, luego la transformada rápida de Fourier, y por último una función de transformación. Como resultado de este proceso, se obtuvieron los datos prepocesados.

Generación de un modelo

Para la generación de los modelos de detección se utilizó una herramienta de Data Mining llamada WEKA. Este software fue desarrollado por Ian H. Witten y Eibe Frank, investigadores del departamento de Computer Science de la Universidad de Waikato de Nueva Zelanda.

Se seleccionaron dos algoritmos de Data Mining (Naive Bayes y Árboles de decisión). Cada ventana de tiempo tomada de los archivos de datos procesados es catalogada con un atributo de clasificación que indica si se trata de una señal paroxística o no (Si indica que se trata de un paroxismo, Nada indica señal de base). Esta información es suministrada por los expertos, para poder generar los modelos de clasificación. Una vez catalogados los datos, son pasados a cada uno de los algoritmos para generar un modelo.

Prueba del modelo

Una vez generado el modelo de clasificación, se utilizó el 33.6% de los datos apartados para tal fin, y se probó el modelo. Este último conjunto tiene el atributo de clasificación sin asignar, ya que es el modelo el encargado de colocarlo, para determinar de qué tipo de señal se trata.

Para poder determinar la eficacia del modelo, se utilizaron varias técnicas (matrices de confusión, cobertura sobre marcas de expertos y curvas ROC).

Cobertura sobre las marcas de expertos

Una forma de medir la eficacia del modelo es la cobertura de las detecciones positivas sobre las marcas de expertos. Básicamente este coeficiente se calcula tomando la cantidad de marcas de expertos detectadas positivamente sobre la cantidad total de marcas de expertos:

% Cobertura = edu.red

Esta medida no es completa a la hora de medir la eficacia del modelo, pues si bien cuenta el porcentaje de marcas de expertos detectadas positivamente, no muestra la sobre-detección, es decir, las detecciones positivas donde originalmente no existe una marca de experto, o de otra forma, los falsos-positivos.

Matriz de Confusión

Una matriz de confusión muestra los cuatro posibles y diferentes resultados que una predicción puede tener, y da una idea más completa de la eficacia de un modelo. Estos cuatro posibles resultados son: verdadero positivo y verdadero negativo, que son clasificaciones correctas, falso positivo cuando el resultado es incorrectamente clasificado como SI, y falso negativo cuando una instancia es clasificada como NADA pero en verdad contiene una marca de experto.

En la siguiente tabla se puede apreciar la matriz de confusión.

Tabla 1 – Matriz de confusión.

edu.red

Curvas ROC

El acrónimo ROC simboliza el término en inglés Receiver Operating Characteristic, y es utilizado en detección de señales para caracterizar el compromiso entre la tasa de aciertos y la tasa de falsa alarma sobre un canal ruidoso [WIT/00]. Este tipo de gráfico es una herramienta visual para examinar el desempeño de los clasificadores [SWE/88].

Las curcas ROC se utilizaron para ilustrar la relación entre las tazas de los verdaderos-positivos (VP) y los falsos-positivos (FP).

edu.red

En el gráfico de curvas, la información de Porcentaje VP se dibuja sobre el eje horizontal (eje X), y el Porcentaje FP sobre el eje vertical (eje Y).

Figura 11 – Gráfico de Curva ROC ejemplo.

edu.red

En el gráfico se pueden apreciar cuatro cuadrantes (A, B, C, y D). En el cuadrante D se encuentran todos aquellos puntos con mejor relación de VP y FP. El punto que se acerque al 100% de VP y 0% de FP es el más óptimo, ya que tiene la mejor relación VP – FP. Aquí se introduce el concepto de Distancia como

D = edu.red

Comparación contra expertos

Para poder verificar la efectividad de los modelos generados, se utilizó un EEG de un paciente distinto a los utilizados en la generación, simulando un caso real de trabajo. Para ello se seleccionó un canal del EEG (canal 24) y se solicitó a dos expertos (E1 y E2) que analizaran la señal y detectaran los paroxismos, utilizando las técnicas visuales que utilizan diariamente en sus trabajos. Los resultados demostraron que los modelos generados automáticamente son comparables, y en algunos casos tienen mayor eficacia que los expertos (E1 y E2). La figura 12 muestra la comparación entre los expertos E1 y E2, y los modelos generados.

Figura 12 – Comparación de Curvas ROC para los Expertos E1, E2 y los modelos generados.

Marco Teórico

Tal como se analizó en el capítulo anterior, es posible la utilización de técnicas de Data Mining para detectar automáticamente paroxismos en señales EEGs. Existen otros proyectos y estudios en los cuales se analizan otras técnicas y metodologías para el análisis de señales en EEGs, así también como para la detección y clasificación de las señales.

Un enfoque diferente de las técnicas de Data Mining

Un estudio sobre clasificación de series de tiempo aplicada a epilepsia [CHA/06] utilizó una aproximación distinta a la metodología anterior. Se aplicó optimización basada en técnicas de Data Mining para clasificar la actividad cerebral normal y epiléptica de EEGs. Implementaron una validación cruzada estática y SVM (support vector machines) para clasificar esta actividad. El objetivo es intentar diferenciar la señal normal del cerebro (actividad de base) de la señal epiléptica. Para ello se utilizaron medidas cuantitativas del dinamismo del cerebro (máximo exponente de Lyapunov – STLmax, frecuencia angular y entropías).

Estudios demostraron que un ataque epiléptico es esencialmente una transición reflejada de progresivos cambios de patrones dinámicos ocultos en el EEG. Primero fue necesario probar que existe una diferencia entre los tres estados cerebrales mencionados anteriormente. Para ello se dividió la señal de cada canal en segmentos de 10.24 segundos (período) y se calcularon continuamente las medidas del caos (STLmax, frecuencia angular y entropía).

La señal se procesó calculando los tres atributos antes mencionados para tres tipos de señales del EEG: señal normal, interictal o de base; señal pre-ictal; y señal post-Ictal. En la figura 13 se puede ver la representación de los distintos tipos de señales.

Figura 13 – Representación en tres dimensiones de la entropía, STLmax y frecuencia angular para un EEG.

edu.red

Se utilizaron datos de tres pacientes (EEG que recolectaron información de 28 a 32 electrodos intracraneales) candidatos a cirugía. Los datos fueron analizados por dos expertos. Se dividieron los EEG de cada paciente en tres grupos: estado normal (1), estado pre-ictal (2) y post-ictal (3). Luego se utilizó la técnica de validación cruzada estática para medir la diferencia de los datos del EEG entre los distintos grupos de estados cerebrales, como se ve en la figura 14.

Figura 14 – Validación cruzada.

edu.red

Validación cruzada para clasificar un período "A" de EEG de un paciente calculando la distancia entre "A" y el estado Normal, "A" y el estado pre-ictal, y "A" y post-ictal.

Luego se aplicó el método de clasificación (SVM): todos los elementos fueron representados como vectores de n dimensiones, y luego separados geométricamente construyendo superficies que hacen a la vez de "bordes" entre los diferentes grupos de puntos. En la figura 15 se puede apreciar la división geométrica.

Figura 15 – Hiperplano separando diferentes estados del cerebro.

edu.red

Los resultados indicaron que fue posible diferenciar los distintos estados, clasificándose con un alto porcentaje de efectividad cada grupo, tal como se puede apreciar en la tabla 2.

Tabla 2 – Efectividad del clasificador SVM.

Otro estudio realizado utilizó una aproximación similar, en cuanto que intentó graficar un espacio de n-dimensiones (representación de los atributos de señal de un EEG), agrupando los distintos tipos de señales (interictal, preictal, ictal y postictal) [DIR/SF].

El objetivo fue el de representar gráficamente la información obtenida, utilizando datos multidimensionales, para asistir a los usuarios en la detección de patrones y anomalías. La señal original del EEG fue procesada, de la cual se extrajeron 14 atributos, o medidas. Éstas se obtuvieron aplicando los conceptos de energía, wavelet y teoría de sistemas no lineales. El espacio de 14 dimensiones fue reducido por medio de escalamiento multidimensional al espacio 3D, donde pudo ser observado gráficamente.

Se obtuvieron datos de pacientes de la Clínica de Epilepsia, del Hospital de la Universidad de Coimbra, Portugal. Fueron utilizados EEGs de pacientes muestreados a 256 hz, sobre 64 canales, pero solamente se analizó un canal, el correspondiente al foco epiléptico. El intervalo entre dos computaciones seguidas de los 14 atributos fue de 5 segundos.

El método consistió en analizar la variación de energía, utilizando dos ventanas deslizantes. El objetivo fue confirmar el incremento de energía que precede a un ataque. Se utilizó la técnica de wavelet para descomponer la señal y analizar las distintas frecuencias que la componen. También se utilizaron dos atributos dinámicos no lineales (exponente Lyapunov y dimensión correlacional).

Los 14 atributos se crearon a partir de las características de la señal (energía, frecuencia y dinámica de sistemas). Se investigó la eventual ocurrencia de características ocultas en los datos que puedan separar los datos de un EEG en 4 grupos:

Señal Inter-ictal (señal normal)

Pre-ictal (señal previa a un ataque)

Ictal (señal durante el ataque)

Post-ictal (señal luego de un ataque)

Partes: 1, 2
Página siguiente