Descargar

Simulación de sistemas de comunicaciones personales de tercera generación basados en CDMA

Enviado por Pablo Turmero


  1. Introducción
  2. Generalidades sobre sistemas celulares basados en CDMA
  3. Descripción general de UTRA
  4. Modelado del Sistema
  5. Algoritmo Óptimo de Asignación y Control de Potencia con Degradación leve de Calidad
  6. Resultados Obtenidos
  7. Conclusiones
  8. Referencias

Introducción

En este proyecto se estudia la capacidad del sistema de comunicaciones móviles de tercera generación UMTS. Para comenzar con su análisis es necesario un conocimiento previo de los sistemas basados en CDMA, del estándar UMTS desarrollado por ETSI/3GPP y de algunas partes más concretas del estándar, tales como modulación, transmisión, recepción, codificación de canal etc. En el presente documento se resume todo esto haciendo especión hincapié en las simulaciones y los resultados obtenidos. En [1] hay una descripción detallada de todo lo anterior.

Para realizar los estudios de capacidad se ha desarrollado un programa de simulación. Se han estudiado dos algoritmos de asignación y control de potencia, con objeto de estudiar la posible mejora de capacidad de uno frente al otro. Finalmente se han obtenido resultados comparativos para los dos algoritmos con distintas combinaciones de tráfico (sólo voz, sólo datos y servicios combinados) y en distintos tipos de situaciones, tales como entornos urbanos con antenas en esquinas y en fachadas, hotspots, hotspots con macrocélula y antenas sectorizadas.

Generalidades sobre sistemas celulares basados en CDMA

CDMA (Code Division Multiple Access) tiene su fundamento teórico en las técnicas de espectro ensanchado (spread spectrum). Con esta técnica, la señal ocupa una anchura de banda muy superior a la que sería estrictamente necesaria para su transmisión. Además como consecuencia de su gran ancho de banda, y del método que se utiliza para expandir la señal, la señal ensanchada que se obtiene es similar al ruido blanco.

Con CDMA se resuelven los problemas fundamentales de las técnicas anteriores: los desvanecimientos por multitrayecto y la interferencia procedente de otros usuarios del sistema. Además, como al utilizar esta técnica se tiene una forma de onda similar al ruido blanco, la privacidad es inherente. El problema del multitrayecto se soluciona gracias a que, al utilizar señales de gran ancho de banda, se tiene mucha resolución en el dominio temporal, de manera que se pueden separar ecos de la señal muy próximos en el tiempo y combinarlos de forma coherente si se utiliza el receptor Rake. De esta forma se introduce diversidad. En cuanto a la interferencia, al tener las señales ensanchadas un espectro simular al ruido blanco, las señales interferentes provenientes de otros usuarios serán vistas como dicho ruido, mucho más fácil de eliminar.

Además de resolver los problemas anteriores, CDMA tiene las siguientes ventajas: mayor capacidad, mejor calidad de voz al eliminar los efectos audibles de los desvanecimientos, disminución del número de llamadas interrumpidas en traspasos y la posibilidad de compartir la banda con otros sistemas.

El proceso para obtener una señal de espectro ensanchado consiste en multiplicar la señal de información x(t) por la secuencia de expansión, llamada signatura o código de dirección, del usuario c(t), transmitir el producto y en recepción multiplicarlo de nuevo por c(t), y realizar el procesado (correlación), recuperando la señal original. Al proceso de multiplicación en transmisión se le denomina expansión (spreading) ya que origina la expansión de la señal de banda estrecha a toda la banda de frecuencias. De la misma manera al proceso de multiplicación en recepción se le denomina compresión (de-spread) ya que con él se recupera la señal original. La compartición del espectro se consigue porque el proceso de compresión sólo afecta a la señal deseada, mientras que las señales de otros usuarios permanecen ensanchadas, y a efectos del receptor se perciben como ruido blanco.

Algunas características de la aplicación de técnicas CDMA en comunicaciones móviles son las siguientes:

  • Factor de reutilización unidad: pueden utilizarse las mismas frecuencias en una célula y en la adyacente.

  • Multitrayecto: se puede aprovechar de forma positiva gracias a la utilización del receptor Rake

  • Control de Potencia: Es necesario realizarlo debido al efecto cerca-lejos por el cual, si todos los usuarios utilizaran la misma potencia, las señales de los emisores más cercanos llegarían a la estación base con más potencia que las de los lejanos, quedando estas últimas enmascaradas.

  • Interferencia: se reduce respecto a los sistemas anteriores, al utilizar señales de banda ancha y que además tienen un espectro similar al del ruido blanco

  • Traspaso con continuidad: permite realizar un traspaso de una célula a otra de tal manera que no existen microcortes.

  • Capacidad: CDMA tiene mayor capacidad que los sistemas basados en FDMA o TDMA, en un sistema multicelular.

  • Respiración celular: el radio celular no está limitado por geometría o propagación sino fundamentalmente por capacidad. A mayor carga menor radio y viceversa.

Descripción general de UTRA

El sistema UMTS (Universal Mobile Telecommunications System) tiene por objeto ofrecer servicios móviles interactivos de voz, datos y multimedia, así como de información, comercio electrónico, entretenimiento y cualquier nuevo servicio imaginable. La interfaz radio UTRA (UMTS Terrestrial Radio Access) es la propuesta europea para el sistema UMTS.

UTRA está basado en CDMA con dos técnicas de acceso distintas. La primera basada en el sistema FDD (Frequency Division Duplex) que utiliza dos subbandas de frecuencias de 5 MH, y la segunda basada en TDD (Time Division Duplex) para cuando se disponga de sólo una. Esto da lugar a UTRA-FDD y UTRA-TDD. Ambos sistemas tienen una velocidad de chip de 3,84 Mchip/s, y un período de trama de 10 ms con 15 intervalos, cada uno de duración 2/3 ms. Existe una gran flexibilidad en la velocidad binaria: 12.2, 16, 64, 144, 384 y 2048 kbps. Además es posible multiplexar servicios y tener tráfico asimétrico.

Algunos de los principios básicos acordados para la definición de la arquitectura son:

  • Separación lógica de las redes de señalización y datos.

  • La red UTRA (UTRA Network, UTRAN) y la red central (Core Network, CN) tienen sus funciones completamente separadas.

En la Figura 3.1 se muestra la arquitectura de la red UTRA. La UTRAN llega sólo hasta los RNS (Radio Network Subsystem), la red central no forma parte de ella y los Puntos de Acceso al Servicio Iu son las interfaces entre la red UTRA y la red central.

edu.red

  • Arquitectura UTRAN y Red Central

En la Figura 3.2 se muestra la estructura del canal descendente en transmisión de forma simplificada. En ella se observan cómo se realizan los procesos de multiplexación, codificación de canal, entrelazado, expansión y modulación.

edu.red

  • Estructura simplificada del canal descendente en transmisión (FDD)

Una vez visto el esquema para el canal descendente se pueden analizar las diferencias con el canal ascendente. En éste las partes de datos y señalización de los canales de transporte se asocian respectivamente a las ramas I y Q de la modulación QPSK. Se transmite el canal de acceso aleatorio en lugar de los canales de difusión y radiobúsqueda. Las partes de expansión, canalización y aleatorización son iguales a las del canal descendente.

Simulaciones de capacidad de UTRA

Introducción

Para analizar el comportamiento de los sistemas W-CDMA se realizan simulaciones. En estos sistemas el radio celular está limitado fundamentalmente por la interferencia, siendo ésta la suma del ruido térmico y de las señales de todos los usuarios, que tienen un espectro similar al del ruido blanco. Para contrarrestar esta interferencia, cada usuario emite con un determinado nivel de potencia que no es fijo sino que depende de la carga del sistema y viene determinado por los mecanismos de control de potencia. Esto hace que haya una fuerte interdependencia entre los usuarios, y que por tanto, sea necesario realizar simulaciones a nivel de sistema, para poder analizar el comportamiento del mismo.

Modelado del Sistema

En primer lugar es necesario modelar el nivel radio, para lo cual hay que elegir un estándar. En este caso se ha utilizado la propuesta europea para IMT-2000: UTRA (UMTS Terrestrial Radio Access). De las dos posibles técnicas de acceso que propone el sistema, FDD (Frequency Division Duplex) y TDD (Time Division Duplex), se utiliza FDD puesto que la definición del estándar es más concreta en estos momentos.

En FDD se utilizan, para un mismo operador, un par o más de portadoras de 5 MHz, empleándose la inferior para el enlace ascendente, y la superior para el descendente. En este caso se ha supuesto un único bloque de frecuencia y por tanto se utiliza la misma portadora en todas las estaciones base. Esto es posible gracias a las características generales de los sistemas CDMA, que permiten un factor de reutilización unidad, esto es, se puede utilizar la misma frecuencia en una célula y en sus adyacentes. En este trabajo se ha modelado únicamente el enlace ascendente, del móvil a la estación base, caracterizado porque su limitación es la potencia máxima de emisión del móvil. Para los cálculos de atenuación en que es necesario conocer la frecuencia, se utiliza el valor central de la banda del enlace ascendente (f = 1950 MHz).

Por otro lado, hay una serie de parámetros que se vieron afectados por las modificaciones que sufrieron las especificaciones del 3GPP en octubre y diciembre de 1999 durante la realización del presente Proyecto Fin de Carrera. Éstos fueron: la velocidad de chip, las potencias máxima y mínima de emisión de los terminales móviles y las posibles velocidades binarias en la transmisión de datos. La velocidad de chip empleada es de 4,096 Mchip/s, siendo actualmente de 3,84 Mchip/s. Las potencias de transmisión del móvil máxima y mínima utilizadas son de 30 dBm y de -50 dBm respectivamente. Actualmente en la norma la potencia máxima puede ser de 33, 27, 24 ó 21 dBm dependiendo de la clase de terminal, y la mínima es de -44 dBm. No obstante, estos cambios, aunque modifican ligeramente el número de usuarios que se pueden admitir por célula, no afectan al comportamiento en sí del sistema, siendo totalmente válidos los resultados obtenidos a nivel cualitativo y de forma aproximada a nivel cuantitativo. Se decidieron mantener los parámetros antiguos para poder mantener la uniformidad en todas las simulaciones puesto que se trataba de analizar una comparativa de distintos casos. En cuanto a los servicios que se modelan no se produjeron modificaciones, sino más bien ampliaciones. En la simulación se considera, por un lado, la voz a 8 kbps y por otro, los datos a 144 y 384 kbps. Además de las simulaciones individuales de cada uno de estos servicios, todos ellos se simulan conjuntamente de forma combinada de manera que se tiene una proporción de usuarios con estos servicios de 80 %, 15 % y 5 % respectivamente. La máxima velocidad de transmisión utilizable, de 2048 kbps, se descartó porque agota la capacidad de una portadora, sin dejar posibilidad de acceso a otros usuarios. Actualmente se pueden utilizar además, otras, velocidades de transmisión como 12.2, 16 y 64 kbps.

Los parámetros descritos hasta ahora vienen definidos directamente en el estándar, pero además es necesario establecer otros para completar el modelado del sistema. Son los que se detallan a continuación.

Las simulaciones se desarrollan en un medio urbano de tipo Manhattan, para lo cual se tienen que definir las anchuras de calles y edificios. Los valores utilizados son de 40 y 100 m respectivamente.

Los usuarios se reparten por las calles, es decir, en el exterior de edificios, de forma uniforme. Se simulan varios casos. En el primero, se sitúan antenas omnidireccionales en las esquinas de los edificios. Este es el caso básico que se utilizará como comparación con el resto de los casos. En el segundo caso, las antenas se sitúan en las fachadas de los edificios, en el centro los mismos, no en la esquina, es decir, sólo se tiene visión directa de la calle dónde se encuentra la antena. En el tercero, se simulan casos en los que hay una mayor densidad de usuarios en el centro de la ciudad (hotspots). Los usuarios se reparten de forma uniforme en cada una de las dos zonas con distinta concentración de usuarios. En el centro de la ciudad, y ocupando un área de 1/25 del total se sitúa la zona con mayor densidad de usuarios (hotspots), con una relación de concentración, en cuanto a número de usuarios por unidad de superficie, entre ambas zonas de 10. De esta manera el 30 % del total de los usuarios están en la zona de tráfico alto y el 70 % fuera. Se supone que es en la zona central donde se produce el tráfico de datos. Así todos los usuarios exteriores son de voz, y los de la zona cargada son de voz o datos a 144 ó 384 kbps. En el cuarto caso, además se sitúa una macrocélula superpuesta (paraguas) en el centro para tráfico de desbordamiento. Así se comparan las situaciones de hotspots con y sin macrocélula. En el quinto se simula un caso análogo al de referencia pero utilizando antenas sectorizadas. Con todo esto, el entorno creado para el tercer caso es el que se muestra en la Figura 4.1.

edu.red

  • Entorno de simulación para el caso de hotspots

En cada simulación se considera a todos los usuarios estáticos. Por tanto, se están realizando simulaciones de Montecarlo. Esto implica que para obtener una aproximación al comportamiento real del sistema, es necesario realizar un número suficiente de simulaciones para que sea posible aplicar el teorema del límite central, y en consecuencia se pueda hacer un modelado estadístico. Se realizan 1000 ensayos de cada tipo de simulación, con un determinado número de usuarios y unas determinadas condiciones (número de bases, sectorización o no, situación en esquinas o en fachadas, etc.).

Los modelos de propagación que se utilizan son el COST 231 u otros derivados del mismo, en función del caso que se simule, como se describe en la siguiente tabla:

Caso

Modelo de Propagación

General

COST 231 – Walfish Ikegami

Antenas en fachadas

COST 231 – Berg

Hotspot

COST 231 – Walfish Ikegami

Hotspot con macrocélula

COST 231 – Walfish Ikegami

COST 231 para la macrocélula

Antenas sectorizadas

COST 231 – Hata

Tabla 4.1 Modelos de propagación en función del caso

Todos ellos se describen en detalle en [1]. A la pérdida de propagación calculada con estos métodos se le suma un desvanecimiento log-normal por multitrayecto o zonas de sombra, de media cero y desviación típica 4 dB. En el caso de antenas sectorizadas esta desviación típica es de 8 dB.

La relación señal a interferencia antes de la expansión es de 6 dB y es única para todos los servicios, aunque cada uno debería tener su propia relación señal a interferencia. Esto se hizo así para simplificar la simulación. Además se ha fijado este valor para el caso más pesimista para así tener margen de degradación con el algoritmo óptimo desarrollado.

Se simulan dos algoritmos de asignación y control de potencia: a la base de menor pérdida y óptimo. El primero se utiliza sólo como referencia para analizar la mejora que introduce el segundo que es el que se describe brevemente a continuación.

Algoritmo Óptimo de Asignación y Control de Potencia con Degradación leve de Calidad

Uno de los objetivos de este Proyecto Fin de Carrera era desarrollar un algoritmo que realizase una asignación óptima de usuarios a estaciones base. Además se han realizado simulaciones asignando a los usuarios a la base de menor pérdida, que no la más cercana, para analizar la mejora que introducía el hecho de utilizar el algoritmo óptimo.

El algoritmo óptimo está basado en el descrito por Hanly en [2], pero admitiendo una leve degradación de la calidad durante cortos periodos de tiempo en situaciones de alto tráfico para, de esta forma, incrementar la capacidad del sistema e impedir que se pierdan llamadas a causa de un incremento leve y temporal de la interferencia en el sistema.

Su objetivo es maximizar la capacidad a través de una minimización de la interferencia. Para ello adapta las potencias de los usuarios y los cede a otras células. Así la asignación no se realiza a la base de menor atenuación sino a la que hay que transmitir con menor potencia.

La evaluación de los mecanismos de control de potencia es compleja. La variación en la potencia emitida por un móvil influye de forma directa en el nivel de interferencia global del sistema. Así, al producirse esta variación, los demás usuarios se verán obligados a modificar a su vez la potencia que transmiten, mediante los mecanismos de control de potencia, y esto hará variar el nivel de interferencia percibido por el primer móvil, de forma que se volverá a modificar su potencia de transmisión. Por lo tanto se observa que el análisis conjunto de los mecanismos de control de potencia no puede ser resuelto más que a través de simulaciones, puesto que cualquier otra forma sólo daría una idea aproximada de la capacidad de las células.

La idea del algoritmo consiste en llegar a un reparto más uniforme de la carga en las células de forma que la capacidad global del sistema se maximice, debido a dos efectos. Por un lado, se consigue que las potencias emitidas por los usuarios se minimicen y por tanto la interferencia. Por otro lado, si se asignan usuarios a células por el criterio de mínima atenuación, cuando una se encuentre muy congestionada el sistema se bloqueará. Sin embargo si esta célula cede usuarios a otras células más descargadas, que puedan atender a dichos usuarios con una calidad adecuada, globalmente el sistema podrá atender a más usuarios. De esta forma, y puesto que los sistemas CDMA están limitados por interferencia, no se asignarán los usuarios a las bases con las que tengan menor atenuación, sino a aquéllas a las que haya que transmitir con menor potencia, que en la mayoría de los casos coincidirán con las de mínima atenuación. De forma que la asignación de usuarios a células está íntimamente ligada al control de potencia.

Este hecho se basa en la característica de los sistemas CDMA de la respiración celular, es decir, del compromiso capacidad/cobertura. El radio celular no está limitado por geometría o propagación sino fundamentalmente por capacidad, de forma que en función de la carga del sistema, el radio celular es mayor o menor. Es decir, en sistemas con pocos usuarios la célula tiene un radio de cobertura mayor y en situaciones de alta intensidad de tráfico, dicho radio de cobertura se reduce. Por lo tanto, al ser sistemas limitados por interferencia, la cobertura de la célula se reduce al aumentar su carga.

El algoritmo propuesto trata de ahondar aún más en este hecho de forma que una célula muy cargada no sólo reduzca su radio celular quedando al borde de la saturación, sino que también, una vez llegada a este punto, siga cediendo usuarios a otras células de forma que se haga aún más homogénea la carga de las células. El algoritmo contrae directamente las células si éstas comienzan a estar sobrecargadas. Es decir, la respiración celular se produce de forma automática. Así se llega a un algoritmo que conjuga el control de potencia con la cesión de usuarios a otras células a otras células en caso de congestión.

Existe una configuración que minimiza simultáneamente todas las potencias P que tienen que emitir los móviles, y dicha configuración es la que proporciona el algoritmo óptimo. Como consecuencia, la configuración que minimiza la potencia que tiene que emitir un móvil concreto Pk es aquélla que minimiza también la potencia para el resto de usuarios. Cuando se llega a una asignación de usuarios a bases y ningún usuario puede disminuir su potencia siendo cedido a otra célula, ésta asignación debe ser la óptima puesto que es la que minimiza la potencia. Por lo tanto, se observa que un mínimo local de cada usuario (conectándose a la base que le exige menor potencia) implica un mínimo global en el sistema completo.

De esta forma se llega a un algoritmo que permite que cada usuario transmita a su base óptima, entendiendo por óptima aquélla que le solicita menor potencia de transmisión. Para usuarios inmóviles, el algoritmo permite a éstos conectarse a otras bases cuando sea procedente. Extrapolando el caso para usuarios móviles, el algoritmo proporciona un mecanismo de traspaso (handover).

Tomando como base la ecuación de balance del sistema se puede llegar a un algoritmo iterativo de forma que se calcule la potencia que cada usuario tiene que emitir en el instante n + 1, basándose en las potencias emitidas en el instante n para el cálculo de la interferencia percibida por cada usuario. Si existe al menos una asignación que permite cumplir el nivel de calidad establecido este algoritmo iterativo converge a la asignación óptima. El algoritmo tiene como punto de partida la asignación de mínima atenuación.

Al aplicar de forma conjunta la degradación, el control de potencia y las cesiones a otras células, en cada iteración se tiene un vector de potencias. Si alguna de esas potencias supera la máxima que puede emitir un móvil se degrada la calidad del sistema y se pasa a la siguiente iteración. Además, si alguno de los móviles podía emitir por debajo de la potencia mínima que permite el estándar (-50 dBm), , se eleva su potencia para que lo cumpla. Una vez que se ha iniciado el mecanismo de degradación, si todos los móviles emiten por debajo de la potencia máxima, se mejora la calidad, de forma que en el punto de convergencia habrá algún móvil que emita exactamente con la potencia máxima. Así se obtendrá la máxima calidad posible en el sistema.

De esta forma se consigue un coeficiente de tanto por uno de degradación (sigma) oscilante en torno al valor óptimo con una amplitud menor al avanzar el número de iteraciones, como se muestra en la Figura 4.2. La potencia media de los usuarios es igualmente oscilante.

edu.red

  • Forma oscilante de sigma y de la potencia media al aumentar el número de iteraciones

Resultados Obtenidos

En esta parte se analizan los resultados obtenidos para los distintos casos. En primer lugar se hacen unas consideraciones generales observadas en el sistema con independencia del algoritmo de asignación utilizado. A continuación se describen las mejoras que introduce el óptimo en general respecto al de mínima atenuación, y las características que se observan. Finalmente se explican los resultados para los casos particulares del algoritmo óptimo. Estos son: antenas en fachadas, antenas sectorizadas y hotspots.

Consideraciones generales válidas para ambos algoritmos

Con independencia de que se utilice el algoritmo de asignación y control de potencia de mínima atenuación o el óptimo, se observa que las curvas de potencia en función del número de usuarios tienen un polo, al que no se llega en el caso del algoritmo óptimo por la limitación de potencia máxima de emisión de los terminales impuesta. Este polo hace que la potencia transmitida aumente rápidamente cuando se sobrepasa un cierto número de usuarios, que se ha considerado como el máximo que podría admitir el sistema sin llegar a bloquearse. Esto se muestra en la Figura 4.3.

edu.red

  • Polo que se produce en las potencias para sistemas muy cargados

La curva de probabilidad de bloqueo para ambos algoritmos es una curva en forma de s con una pendiente muy pronunciada, de forma que prácticamente hay sólo dos estados: sistema no bloqueado o bloqueado siempre. En realidad hay zonas intermedias pero hay que señalar que una vez que el sistema comienza a estar bloqueado, la probabilidad de bloqueo crece rápidamente al incrementar el número de usuarios. Esto se observa en la Figura 4.4.

edu.red

  • Probabilidad de bloqueo en función del número de usuarios para diferente degradación

Observaciones válidas para todos los casos del algoritmo óptimo

Con el algoritmo óptimo, la potencia que tiene que emitir cada móvil es menor que la que tendría que emitir en el caso de mínima atenuación, como debe ser por la propia definición de algoritmo óptimo. Esto es algo que se cumple para todos los móviles.

Por otro lado, en las gráficas de probabilidad de bloqueo se observa que el algoritmo óptimo siempre proporciona mayor capacidad, es decir, puede admitir a más usuarios para una misma probabilidad de bloqueo, que el de mínima atenuación. En estas mismas gráficas se observa que una degradación pequeña en la calidad (medio dB equivale a una sigma del 90% y un dB a una sigma del 80%), implica un aumento de relativa importancia en la capacidad. Por tanto no es descabellado, en situaciones de alto tráfico durante cortos períodos de tiempo, el proponer la posibilidad de degradar la calidad. Esto puede verse en la siguiente tabla:

edu.red

Tabla 4.2 Comparación de resultados de los algoritmos para distintos servicios

En la Figura 4.5 se muestra, para el algoritmo óptimo, un histograma de la potencia en función del número de usuarios. Este número aumenta hacia el interior del papel. De éste y otros histogramas se deducen los siguientes resultados:

  • La potencia aumenta y la calidad desciende al incrementarse el número de usuarios.

  • La potencia se distribuye en curvas aproximadamente gaussianas solapadas en función de que los trayectos sean LOS o NLOS. El hecho de cuántas curvas se solapen y de cómo lo hagan depende del método de propagación utilizado.

  • La potencia aumenta cuando lo hace la velocidad binaria. Este hecho es coherente con el funcionamiento del sistema, puesto que al aumentar la velocidad binaria, la ganancia de proceso se reduce y por tanto, para mantener la relación señal/interferencia objetivo, hay que aumentar la potencia emitida por los móviles.

En cuanto a las curvas aproximadamente gaussianas, los usuarios en zona NLOS emiten con mayor potencia que los LOS. Además en la Figura 4.5 se observa cómo la curva LOS se ve limitada por la potencia mínima de emisión de los móviles. Es decir, para ajustarse al estándar, todos los usuarios que podrían emitir por debajo de la potencia mínima, lo hacen con la mínima, y por tanto se producen un gran número de casos de usuarios emitiendo a la potencia mínima.

edu.red

  • Histograma de Potencia (dBm) %, en función del número de usuarios

En algunos casos también se ha almacenado la información de las bases a las que se asignan los usuarios. En estos casos, los histogramas muestran cómo el algoritmo produce una distribución de usuarios en las bases bastante homogénea, haciendo que aproximadamente todas las células estén igual de cargadas.

Estos resultados son los obtenidos para el caso general o básico. Además se han obtenido resultados para otros casos: antenas en fachadas, antenas sectorizadas y hotspots.

Resultados para los casos particulares (antenas en fachadas, sectorizadas y hotspots)

En el caso de antenas en fachadas se observa que la capacidad se reduce respecto al caso de antenas en las esquinas de los edificios. Esto se debe a que al tener las antenas situadas en las fachadas hay menos usuarios proporcionalmente situados en la zona LOS y además, la pérdida de los NLOS es mayor.

Con la sectorización se obtiene una mejora en la capacidad del sistema del orden del 250%. Teóricamente debería ser del 300 %, pero se ve reducida por solapamiento de lóbulos. El tráfico se reparte de una forma aproximadamente homogénea entre los diferentes sectores de las bases.

El caso de hotspots, se analiza en más detalle. En sistemas tradicionales se utilizan células de distinto tamaño. Así, en zonas de alta concentración de tráfico el radio de las células es pequeño. Sin embargo, en sistemas CDMA esto es más flexible. Los radios celulares varían debido a la "respiración celular" y al final, en zonas cargadas, se llega a este tipo de configuración de células mayores o menores, pero a través del algoritmo óptimo. Así se observa cómo varía la cobertura de las células al aumentar la carga en una zona. Esto se muestra en la Figura 4.6.

edu.red

  • Cesión de usuarios a otras células en el área cargada y respiración celular.

En este caso de hotspot se observan dos hechos característicos:

  • parte de los usuarios de la zona cargada se tienen que asignar a células más lejanas

  • la calidad global del sistema se degrada más que en el caso de usuarios uniformemente distribuidos en toda la ciudad para el mismo número de usuarios, y, por lo tanto, la capacidad se reduce.

Estos dos hechos están íntimamente relacionados entre sí y se derivan de tener una zona de alto tráfico. Las células instaladas en ese área no pueden atender todo el tráfico y, por tanto, para poder dar servicio a todos los usuarios, tienen que desviar tráfico a otras células más alejadas. Este hecho hace que, aunque se les preste el servicio, los usuarios conectados a células lejanas tengan más pérdida y se vean obligados a emitir con mayor potencia. Este incremento en la potencia de emisión de los móviles redunda en una mayor interferencia y en definitiva en una reducción de la capacidad global del sistema.

En el caso de situar una macrocélula (paraguas) en el centro de la ciudad, para absorber tráfico cuando las microcélulas estén muy cargadas, y aplicar el algoritmo óptimo considerándola como una célula más, se observa lo siguiente:

  • la macrocélula absorbe tráfico, pero no es una de las células más cargadas.

  • mejora la capacidad del sistema, aunque esta mejora es prácticamente la equivalente a haber introducido una célula más en el sistema, que está situada en el área cargada.

  • las células más cargadas son las situadas en la zona de alto tráfico o bordeándola.

Al considerar a la macrocélula como una célula más y aplicar el algoritmo óptimo, se llega a una configuración óptima en la que la macrocélula absorbe los usuarios necesarios para minimizar la interferencia global del sistema. El algoritmo óptimo lleva a cabo de manera natural el control de la zona de cobertura de cada célula y la gestión de la carga entre las capas micro y macrocelular. Además, al contrario que en sistemas TDMA y FDMA, no hace falta tomar ninguna medida específica al introducir la macrocélula. Es importante resaltar que la macrocélula utiliza la misma frecuencia que el resto de microcélulas. Aunque esto no es necesario, es posible y es como se ha hecho en las simulaciones. Si se utilizan frecuencias distintas, el nivel de interferencia global se reduce y aumenta la capacidad del sistema.

Para analizar en qué proporción absorbe tráfico la macrocélula se presenta el histograma de la Figura 4.8, con el número de usuarios que atiende cada célula. En el eje de abscisas se muestran las bases. En total son 33. Las 32 primeras son las microcélulas y la número 33 representa la macrocélula. En el eje de ordenadas se presenta el número de usuarios (50, 75, 100, 125, 150, 175, 200). Al conocer el número de usuarios y con la información del histograma, se puede deducir el porcentaje de usuarios que absorbe cada célula. La numeración de las bases se muestra en la siguiente figura:

edu.red

  • Numeración de las bases.

edu.red

  • Distribución de usuarios en las diferentes bases

En la Figura 4.8 se comprueba que la macrocélula absorbe tráfico, pero que no es una de las células más cargadas. Por el contrario, se puede ver que las células más cargadas son aquellas situadas en la zona cargada o bordeándola. Una vez que las células de la zona cargada se han visto desbordadas para absorber más tráfico, el algoritmo óptimo ha provocado una cesión de usuarios a células próximas, de forma que se minimice la interferencia global del sistema y se maximice la capacidad del mismo.

En la Figura 4.9 y Figura 4.10 se presenta la distribución de usuarios en las bases en función de que éstos pertenezcan al área cargada o no, y en función de que sean de voz o datos.

edu.red

  • Distribución de usuarios de voz fuera del área cargada en las diferentes bases

edu.red

  • Distribución de usuarios en las diferentes bases en función de que sean de voz, datos para el área cargada

Al desglosar la asignación, distinguiendo entre las células del interior y las del exterior se observan más detalles:

  • Las células exteriores manejan el tráfico entre ellas, cediendo poco o ningún tráfico, a las células pertenecientes o que bordean la zona cargada.

  • La macrocélula sí que absorbe parte del tráfico de la zona exterior como si de una célula más se tratara, a pesar de estar situada en la zona cargada. Esto se debe a que, al estar situada en la azotea, el mecanismo de propagación es distinto que si se encuentra a nivel de calle, con pérdidas de propagación más bajas, y esto hace que al aplicar el algoritmo óptimo se puedan atender a usuarios más lejanos sin deteriorar la calidad del sistema.

  • El tráfico de voz de la zona cargada se distribuye fundamentalmente entre las células que bordean el hotspot. El tráfico de datos se desvía, curiosamente a células más lejanas. Otra parte importante de este tráfico es absorbido por la macrocélula.

Conclusiones

Los sistemas CDMA mejoran la capacidad respecto a los sistemas tradicionales.

Además, si se utiliza el algoritmo óptimo en lugar del de mínima atenuación se puede aumentar más esta capacidad, e incluso en mayor medida si se admite degradación. Si se admite que se degrade la calidad se pueden obtener mejoras, respecto a no realizar degradación, del orden del 8 % para una degradación mínima del 90 % y del 20 % para una degradación mínima del 80 %

Las situaciones de alto tráfico en una zona de un entorno urbano provocan, en general, una pérdida en la capacidad global del sistema, respecto al caso en el que hay un reparto uniforme de la carga.

En situaciones de alto tráfico en una zona, dicho tráfico se intenta repartir entre las células más cercanas y cuando no es posible se cede a células más lejanas. Una macrocélula incorporada en la zona cargada absorbe tráfico proveniente de toda la ciudad, no sólo del área cargada.

Todas las mejoras introducidas por el algoritmo óptimo son posibles gracias a una mayor flexibilidad y a que se homogeneiza la carga de las estaciones base.

Referencias

[1] Preciado, Laura. Simulación de Sistemas de Comunicaciones Personales de Tercera Generación basados en CDMA, PROYECTO FIN DE CARRERA, ETSIT UPM, 2000.

[2] Stephen V. Hanly. An Algorithm for Combined Cell-Site Selection and Power Control to Maximize Cellular Spread Spectrum Capacity, IEEE Journal on Selected Areas in Communications, Vol. 13, No 7, Sep. 1995, pp. 1332-1340

Publicaciones:

L. Preciado, L. Mendo, J.M. Hernando. Simulación de la Capacidad de un Sistema W-CDMA, XV Simposium Nacional de la Unión Científica Internacional de Radio. Zaragoza, 13-15 de Septiembre de 2000, pág. 353-354.

Otros méritos:

El Proyecto Fin de Carrera ha tenido continuidad en dos proyectos posteriores que han versado sobre la simulación de canales físicos UMTS en los modos FDD y TDD, realizados, respectivamente por Lorena García y Belén Castán, en el Grupo de Radiocomunicaciones del Departamento de Señales, Sistemas y Radiocomunicaciones de la Universidad Politécnica de Madrid.

Así mismo está sirviendo de base para el desarrollo de una herramienta de planificación UMTS para la Empresa Avanzit del grupo Radiotronica. El módulo de planficación se integrará en el programa SIRENET y lo está desarrollando un equipo mixto Universidad-Empresa, participando por la Universidad el Grupo de Radiocomunicaciones del Departamento de Señales, Sistemas y Radiocomunicaciones con Luis Mendo.

 

Enviado por:

Pablo Turmero