Descargar

Estudio del tráfico del nodo central de REDUNIV usando los métodos Whittle local y gráfico R/S (página 2)


Partes: 1, 2, 3, 4

Debido a estos avances y al incremento cualitativo y cuantitativo, en materia de servicios y nivel de conectividad que han tenido las redes en los últimos años, se deduce la necesidad de conocer el comportamiento del tráfico de una red. Dentro de los elementos, más importantes que se plantean a la hora de la evaluación de las prestaciones de estas, está la modelación del tráfico. De hecho, este según la bibliografía del tema, es el más crítico de los problemas ya que el éxito del análisis depende en gran medida de lo representativo de la realidad, que sean los modelos de tráfico utilizados [24, 38].

Entiéndase por la modelación del tráfico, aquella abstracción matemática, más o menos compleja que trata de imitar alguna o varias características de un tipo de tráfico real o de un flujo de datos en particular [38].

Históricamente la modelación de tráfico tiene sus orígenes en la telefonía convencional y este se ha basado en suponer independencia en los tiempos entre llegadas, fundamentalmente modelos poissonianos [2, 20]. Sin embargo el tráfico de multimedia se ha caracterizado por una elevada variabilidad (burstiness) y una fuerte correlación positiva, Mucho más acentuada que en el tráfico vocal [24]. Estos hechos, provocan, que hoy se cuestiona la validez de los modelos tradicionales y sobre todo la hipótesis de independencia.

Cabe señalar, que aunque el tema de la dependencia temporal está en estudio desde mediado de la década de los sesenta según la bibliografía analizada [38]. Es en el año 1993 que un equipo compuesto por Leland, Taqqu, Willinger y Wilson realiza un trabajo que mostraba tras la observación de exhaustivas mediciones realizadas sobre una red ethernet en Bellcore USA, que el tráfico era de naturaleza autosimilar o fractal [25].

Necesidad de caracterizar el tráfico de Reduniv

La necesidad de conocer el comportamiento del tráfico telemático subyace a toda discusión relacionada con el dimensionamiento, diseño y gestión de las redes de telecomunicaciones.

Tener un modelo que ajuste al comportamiento real de la red es de suma importancia y la Red Universitaria del MES (Reduniv) no se escapa a la regla. A través de este, se pueden analizar fallas, descubrir ataques tanto externos como internos, además de tener una noción sobre la utilización de los enlaces. Empleando el modelo, a través de un proceso de simulación y análisis de este, se puede conocer si la red está operando de forma normal o existe alguna anomalía en su desempeño. De este modo se pueden detectar irregularidades como, dispositivos de interconexión fuera de servicio o segmentos de red que puedan estar inoperantes, etc.

Para modelar el tráfico de una red de datos, se necesita diseñar un modelo matemático que ajuste a los parámetros de esta. Dicho proceso exige dos etapas [6]:

  • Selección de cierto proceso estadístico, (este proceso suele denominarse caracterización).

  • Ajuste del proceso estadístico en cuestión.

De ahí la importancia que tiene el proceso de caracterización del tráfico.

Por otra parte demostrar la presencia de autosimilaridad, en la caracterización del tráfico, estriba en la posibilidad de utilizar un conjunto de modelos existentes para implementar generadores de tráfico sintéticos o usar algunos ya desarrollados, con los cuales estudiar comportamientos en el tráfico mediante un proceso de modelación.

Caracterización, Modelación y Simulación

Se entiende por la caracterización del tráfico, el proceso mediante el cual este es analizado, con el objetivo de describirlo a través de un conjunto reducido de variables, definido como descriptor matemático, que resumen y abstraen sus aspectos más importantes. La función de este modelo, es explicar la relación existente entre la capacidad de la red, la demanda de servicios de los usuarios y el desempeño de la misma en responder a esas demandas [10, 25, 29].

En el proceso de caracterización juega un papel fundamental la verificación del carácter autosimilar del tráfico. Es por eso que en este trabajo se centra una atención especial en los métodos que se utilizan para estimar este aspecto. Sin embargo para caracterizar el tráfico, se miden otros parámetros como: la variabilidad del tráfico (brutiness), la media, el pico y la varianza.

Reduniv

En el año 2004 se comienza a crear la Red Nacional Universitaria del Ministerio de Educación Superior (Reduniv). La misma interconecta los centros adscritos al MES y las Unidades de Ciencia y Técnica (UCT). Ya para el año 2005 la red contaba con más de 10000 computadoras interconectadas a través de una topología de estrella, sobre enlaces Frame Relay, en la red de transporte de datos de ETECSA. Su diseño obedecía a una estructura, que poseía el Nodo Central en el Ministerio de Educación Superior (a partir de ahora MES) y 24 nodos secundarios diseminados por todo el territorio nacional, repartidos en 17 Universidades, 4 centros de Investigación y 3 Facultades de Montañas [21, 22, 23].

Reduniv es una red de Area Amplia (WAN, de sus siglas en inglés). Desde un inicio se concibió para ser básicamente una red de transporte, de administración e inteligencia distribuida. Donde cada Centro de Educación Superior (CES) gestiona y supervisa sus servicios fundamentales (correo electrónico, Internet, ftp, etc.). En la misma los recursos se distribuyen por toda su infraestructura y en el nodo central solo se implementan servicios muy específicos de carácter nacional. Esta cuenta hoy con más de 15000 PC [21, 22, 23].

Por otro lado, Reduniv crece a un ritmo acelerado de más de 2000 PC cada año. Para asimilar un crecimiento de esa magnitud, la red tiene que estar respaldada por una sólida estructura de interconexión, para que no se produzcan cuellos de botellas interminables y enlaces infuncionales. Este tipo de estructura, requiere una ampliación constante de sus capacidades, por lo que se hace necesario un estudio como este, con el fin de poder predecir las mismas. De ahí la importancia de investigar el tráfico de datos que transita por Reduniv, con el fin de estudiar elementos claves como: la seguridad de la información, el diseño e implementación de los servicios, su dimensionamiento y gestión.

Enfoque de la Investigación

Situación problémica

En la actualidad Reduniv ha crecido en servicios y cantidad de equipamiento conectado, incluso ha crecido en interconexión con otras redes académicas como Rimed, Tinored, Infomed, etc. Pero el futuro es ambicioso en términos de comunicaciones, por lo que se hace necesario un estudio serio y profundo del estado de la red y del tráfico de la misma, con vista a predecir entre otras cosas, las demandas futuras.

Los principales problemas afrontados, a parte del crecimiento acelerado de la red son:

  • Se planea incrementar servicios asociados a aplicaciones con video en tiempo real.

  • Por otra parte el número de PCs en las SUM (Sedes Universitarias Municipales) aumenta vertiginosamente.

  • Existe un incremento notable de aplicaciones de mucha carga, como bibliotecas digitales, multimedias, repositorios de Software libre, etc. Lo que pude provocar efectos poco deseados sobre el servicio de la red, como disminución de la calidad o tiempos de respuesta muy elevados, dependiendo de la capacidad de los enlaces y el equipamiento en general.

No obstante, aunque los enlaces aun no están saturados con excepción del ISPJAE, se prevé, que pronto puedan estarlo, esto hace necesario la predicción de las demandas futuras.

Problema a resolver

Como problema a resolver, se pretende caracterizar el tráfico del Nodo Central de la Red Universitaria del Ministerio de Educación Superior, dando continuidad a trabajos realizados con anterioridad [21] con el objetivo de estudiar el tráfico y diseñar dimensionamientos de la red y los enlaces.

Actualidad y necesidad del trabajo

  • En el estudio del arte realizado, no se encontró evidencias de trabajos de este corte en otras redes del país.

  • Este trabajo forma parte de un conjunto de acciones, realizadas para poder implementar la simulación del comportamiento de Reduniv, con vistas a futuros estudios.

  • Los métodos empleados son recientes internacionalmente y aun están en desarrollo. Esto se refleja en las referencias presentadas.

Aportes prácticos esperados

Dentro de los aportes prácticos de este trabajo, está la implementación de los métodos que permitan caracterizar el comportamiento del tráfico. Por otra parte el proceso de caracterización del tráfico del Nodo Central de Reduniv, brinda una idea del comportamiento del mismo a grandes rasgos.

Objeto de estudio

Son los procesos estocásticos estacionarios, la autosimilaridad de estos, además el análisis en series temporales.

Campo de Acción

Análisis de las series temporales que responden a las capturas de tráfico del Nodo Central de Reduniv.

Hipótesis

Es posible que el tráfico perteneciente al Nodo Central de Reduniv, tenga características autosimilares o fractales, aunque no conocemos en que magnitudes y tampoco se tiene idea de cual es el comportamiento con respecto a otros parámetros de caracterización como son: la variabilidad, la varianza y la media.

Objetivos

Objetivos generales:

  • Hacer un análisis de los métodos de caracterización del tráfico, que se consideren de interés.

  • Caracterizar el comportamiento del tráfico del Nodo Central de Reduniv.

Objetivos específicos:

  • Implementar un mecanismo mediante el cual se pueda capturar tanto el tráfico de entrada como de salida del nodo central de Reduniv.

  • Seleccionar y aplicar varios métodos de estimación del parámetro de autosimilaridad (H).

  • Poner a punto una herramienta matemática para el procesamiento estadístico de los datos capturados.

Estructura del Contenido

Marco Teórico

En el capítulo 1 se analizan los conceptos básicos a tener en cuenta para este trabajo, como son los procesos estocásticos: la estacionariedad dentro de los mismos y los procesos ergódicos, como particularidad de los procesos estocásticos estacionarios.

Sobre la base de estos conceptos se introduce el término de autosimilaridad y sus definiciones. También los términos de Dependencia a Largo Plazo (LRD, de sus siglas en inglés) y análogamente Dependencia a Corto Plazo (SRD de su siglas en inglés) y sus efectos sobre series temporales. Se define otra serie de tópicos importantes para la estimación de autosimilaridad como: la densidad espectral de potencia y los procesos de colas pesadas.

Sobre esta cimentación teórica se hace una síntesis de los principales algoritmos o métodos para estimar el parámetro de autosimilaridad.

Metodología Propuesta

El capítulo 2 se dedica a la descripción detallada de los métodos escogidos para determinar la autosimilaridad en las series temporales.

En él se explican paso a paso los algoritmos escogidos para este trabajo y el porque de esta selección, además se presentan los seudo códigos de estos métodos.

Mediciones de Tráfico en el Nodo Central

El capítulo 3 ofrece una descripción del Nodo Central de la Red Universitaria, con un nivel de detalle asequible para este trabajo con el objetivo de ubicarnos en una locación exacta y describir el marco donde se desarrolla esta investigación.

Luego de esto se define el diseño del esquema de mediciones y se describe la implementación de este. Donde se muestran, elementos esenciales para este trabajo, como la escala de medición, el tiempo que se va a medir y los datos a tomar en cuenta. Otros factores de peso son, el esquema de captura y los elementos a utilizar.

También se mostrarán los resultados obtenidos para cada una de las mediciones y por último el tratamiento al que estas van a ser sometidas con el fin de obtener series temporales que se puedan emplear en este trabajo.

Caracterización del Tráfico del Nodo Central de Reduniv

Dentro del capítulo 4 se va a caracterizar el tráfico capturado con respecto a ciertos parámetros, como son: la variabilidad de este, la varianza, la media y los picos. La autosimilaridad, por ser un renglón de más peso se mostrará en un epígrafe aparte, para cada una de las capturas en general y para los protocolos de mayor interés en esta investigación, diversificando estos resultados por los métodos de estimación del parámetro de autosimilaridad.

Marco teórico.

Introducción.

En la actualidad se ha demostrado que el tráfico en las redes de datos por lo general presenta un comportamiento "autosimilar" o "fractal" sobre todo en los servicios vinculados al conjunto de protocolos TCP-IP [3, 8, 18, 25, 40, 42, 45].

La autosimilaridad de un proceso, se halla a través del estadígrafo o parámetro H, que se denomina habitualmente como parámetro Hurst en reconocimiento a la labor del científico H.E. Hurst [41]. También se le conoce como parámetro de autosimilaridad o autosemejanza. El mismo es una medida de la persistencia de las propiedades estadísticas y de la longitud de la dependencia a largo plazo de un proceso estocástico.

Es común ver el término de autosimilaridad ligado a los fractales, si bien es cierto que no son iguales, sí se puede decir que guardan estrecha relación, ya que la geometría fractal se describe a grosso modo como figuras de patrones autosimilares.

Procesos estocásticos, estacionarios y ergódicos.

Por definición el tráfico de datos es un proceso estocástico y solo se puede hablar de autosimilitud en términos estadísticos. Los mismos se caracterizan porque el comportamiento medio de estos a corto plazo, es igual que a largo plazo. Partiendo de esto, se definen otros procesos como los estacionarios y los ergódicos, útiles en esta investigación.

Proceso estocástico.

En la vida encontramos muchos fenómenos aleatorios, cuyos cambios en el tiempo se necesita conocer. Es decir se comportan como variables aleatorias que evolucionan en el tiempo. De este modo, si un proceso en cada instante se comporta como un fenómeno aleatorio, entonces se dice que es un proceso estocástico. Otra forma de enfocar el asunto es, viéndolo como un modelo matemático para un fenómeno que evoluciona de manera impredecible (aleatoria) desde el punto de vista del observador.

Se define un proceso estocástico {X(t), edu.redcomo una colección de variables aleatorias que describen la evolución de algún proceso a través de t. De forma tal, que para cada t, X(t) es una variable aleatoria, que puede tomar un valor Xi dentro del espacio de estados del proceso. De forma análoga también se puede definir como aquel conjunto indexado de funciones reales de algún parámetro (en nuestro caso el tiempo) que tiene ciertas propiedades estadísticas y que puede ser descrito por un conjunto indexado de variables aleatorias [31, 37, 43].

A continuación se muestra un ejemplo, para el cual se define el comportamiento de un proceso estocástico Y medido con respeto a un instante t=24 un instante t y un instante t+T, para los cuales la variable aleatoria Y, se comporta con distribución normal. También se observa, la correlación que puede existir entre la variable Yt y la variable Yt+T.

edu.red

Figura 1. Evolución de un proceso Estocástico.

Los procesos estocásticos, se definen matemáticamente a través de las siguientes expresiones [31, 37, 43].

Donde el valor esperado, también promedio estadístico, se conoce como, el promedio de las realizaciones en el ensamble o sea en el conjunto de realizaciones de X donde:

edu.red(Ec.01)

La varianza del proceso: edu.red(Ec.02)

una forma más fácil de calcular la varianza es:

edu.red(Ec.03)

La función de correlación del proceso se define para dos variables temporales cualesquiera X1, X2 como:

edu.red(Ec.04)

en el caso en que tk = ti se tiene que el valor cuadrático medio del proceso estocástico es una función de una variable temporal.

edu.red(Ec.05)

Proceso estacionario.

Al utilizar un modelo estocástico, por lo general se está interesado en predecir el comportamiento del proceso en el futuro y para ello es necesario basarse en la historia del mismo. Estas predicciones no serán correctas a menos que las condiciones futuras sean análogas a las pasadas.

Se define un proceso estocástico como estacionario sí: sus propiedades estadísticas son invariantes ante una traslación del tiempo. Es decir, el mecanismo físico que genera el experimento no cambia con el tiempo.

Un proceso X(t) es estacionario en sentido estricto si la función de densidad de probabilidad conjunta de cualesquiera de sus n variables aleatorias, medidas en instantes t1,…,tn, permanecen constantes cuando transcurre cualquier intervalo de tiempo e, de la forma que se ve a continuación [37, 43, 11].

edu.red

Sin embargo esta es una condición muy fuerte ya que implicaría estudiar infinitas funciones.

Por otra parte se entiende que un proceso X(t) es débilmente estacionario si cumple con las siguientes restricciones:

E[X(t)] = &µ (independiente del tiempo) (Ec.06)

Donde µ es la media del proceso

edu.rededu.red(Ec.07)

(Dependiendo solo de la distancia entre los tiempos considerados)

Proceso ergódico.

De esta forma se llega al concepto de proceso ergódico, que no es más que un proceso estocástico estacionario en el que la media y la varianza se pueden estimar con un número finito de datos, donde los parámetros estadísticos calculados sobre un conjunto de registros posibles son iguales a los correspondientes obtenidos a lo largo del tiempo sobre cualquier registro representativo del proceso.

Se dice que un proceso es ergódico, sí sus promedios estadísticos coinciden con los temporales, entonces sólo se necesita una realización del proceso para conocer los promedios estadísticos. No obstante, la ergodicidad de un proceso es una condición bastante fuerte. En otras palabras, esta condición nos expresa que cualquier medida estadística sobre el proceso se puede realizar sobre el promedio temporal de cualquiera de las funciones muestra del mismo [5, 11, 31, 43]. Probar el carácter ergódico de un proceso aleatorio no es fácil, pero de forma menos restrictiva se puede decir que un proceso es ergódico en la media si cumple con la restricción:

edu.red(Ec.08)

Es decir, si el valor esperado del proceso y el promedio temporal de sus funciones muestra son iguales con probabilidad 1. Dicho de forma clara, el promedio en el ensamble coincide con los promedios temporales.

Dado que la media temporal µT no depende del tiempo, para que un proceso sea ergódico en media, es necesario que la media del proceso µx sea constante. Esto es posible, si el proceso, es estacionario cumpliendo con la restricción (Ec.06). &µx= E[X(t)]

De igual forma se puede enunciar, que un proceso es ergódico en la autocorrelación, si se puede definir la autocorrelación temporal del proceso como:

edu.red(Ec.09)

Luego, sí se verifica, que RX(t) = E[X(t) X(t + t)].

Entonces se puede construir el proceso Zt(t) = X(t) X(t + t ), donde E[Zt(t)] = RX(t )

Entonces X(t) es ergódico en autocorrelación Zt(t), es ergódico en media.

Autosimilaridad

El término autosimilaridad desciende de la geometría fractal y se define como ciertas figuras que mantienen su apariencia vistas desde diferentes escalas. Se dice que una estructura es autosimilar, si la misma, puede ser cortada arbitrariamente en trozos pequeños, cada uno de los cuales es una réplica de la estructura en sí mismo [41]. Estas figuras geométricas, se describen también como elementos simétricos a cambio de escalas, invariantes a cambios en su escala de análisis o lo que es lo mismo, mantienen su apariencia bajo distintos grados de magnificación. Es decir mantienen una estructura similar frente un amplio rango de escalas. Más rigurosamente pueden definirse como figuras o estructuras donde la parte es semejante al todo, como se muestra a continuación [41].

edu.red

Figura 2. Ejemplo de autosimilaridad. A la izquierda una superficie rugosa, creada por la curva de Koch. A la derecha, la evolución de un proceso estocástico.

Parar series temporales, que es el caso que ocupa este trabajo, se dice un proceso Xt continuo en el tiempo, es autosimilar, con parámetro de autosimilaridad (H) si satisface la condición:

edu.red

Donde a es la escala temporal.

A la propiedad definida por la ecuación (Ec. 1.1) se le denomina propiedad de escalado y la misma implica que un proceso es autosimilar si un escalado en el tiempo preserva su distribución estadística [13].

Los valores extremos que caracterizan el parámetro de autosimilaridad H son [38, 41, 48].

  • 1. H>1 Para el caso en que se pierde la estacionariedad del proceso [3].

  • 2. H=1 Para procesos completamente autosimilares. A este nivel la aleatoriedad desaparece por tanto carece de interés objetivo (Indicaría un comportamiento determinístico).

  • 3. H=0.5 Para procesos completamente aleatorios, ejemplo de ellos el ruido blanco gaussiano donde la autosemejanza es nula (Comportamientos puramente aleatorios).

  • 4. H

    Partes: 1, 2, 3, 4

 Página anterior Volver al principio del trabajoPágina siguiente