- Ventajas de la transmisión digital
- Breve historia de las comunicaciones
- Clasificación y estructura de los sistemas de comunicación
- Señales
Ventajas de la transmisión digital
Los sistemas de comunicaciones se han orientado desde los años 60´s hacia sistemas digitales. La primer ventaja de estos sistemas respecto a los sistemas analógicos es la facilidad para regenerar señales digitales, por ejemplo sea el pulso digital.
A estos circuitos regenerativos se les llama repetidores.
En una señal analógica no es posible realizar este proceso.
Observe que la forma de onda de una señal continua contiene la información de ésta, la cual se distorsiona paulatinamente en el canal de transmisión. Las señales digitales tienen un número finito de estados, que en general es pequeño, por ejemplo dos amplitudes en el caso binario. Las señales analógicas tienen teóricamente un número infinito de estados, en realidad tienen un número finito muy alto de acuerdo a la sensibilidad de los sistemas.
La segunda ventaja es el costo menor de los circuitos digitales, como procesadores y multiplexores.
Una tercera razón es el fácil manejo de la información, los bits siempre estarán codificados y permiten fácilmente aplicarles técnicas contra interferencia, ruido, o bien proveer de técnicas de seguridad (encriptamiento).
Los sistemas digitales también tienen desventajas. La primera es que en algunos casos requieren mayor ancho de banda que sistemas analógicos que transmitan la misma información. Una segunda desventaja es que requieren de circuitos adicionales de codificación y de sincronización.
Breve historia de las comunicaciones
En 1605 Bacon desarrolló un alfabeto de dos palabras para representar 24 letras usando 5 dígitos, a estas letras a y b se les llama palabras codificadas y al conjunto se le llama código (code).
En 1641 se extendió estas ideas a sistemas M-arios
En 1703 Leibniz describió el código binario usando solo 0 y 1 para representar enteros en longitud variable.
El primer sistema de comunicaciones digitales es el telégrafo, inventado por Morse en 1837 el cual usaba pulsos cortos y largos. En 1875 Banfot desarrolló el sistema de telégrafo actual con 5 dígitos por palabra. En 1879 Marconi desarrollo el radioteléfono.
En 1924 Nyquist propuso el teorema del muestreo. En 1928 estableció la máxima tasa de bits (bps) en un canal de cierto ancho de banda.
En 1937 Reeves desarrolló uno de los sistemas más importantes el PCM, modulación por pulsos codificados.
En 1948 Shannon estableció las bases de la teoría de información utilizando el concepto de entropía.
En 1959 desarrollo la teoría de tasa de distorsión que establece límites de la capacidad de un canal.
En ese año se empieza a utilizar FM y Hamming estableció la teoría de códigos correctores de errores, es el año en que Bell anunció el transistor.
Clasificación y estructura de los sistemas de comunicación
Un sistema de comunicaciones electrónicas esta constituido por las siguientes partes.
Para comunicaciones analógicas (de onda continua) el transmisor y receptor están constituidos por:
Para comunicaciones digitales, el transmisor y el receptor son de la forma:
En el receptor, al recibir la señal pueden existir circuitos amplificadores como primer bloque.
Codificador de fuente
Consiste en el convertidor analógico digital y en ocasiones también comprime los datos de entrada. En el caso de las señales digitales modifica a los niveles deseados y comprime los datos.
Codificador de canal.
Modifica la señal para que sean menos susceptible al ruido en su transmisión o bien introduce bits de redundancia para corregir errores durante la transmisión, existen los tipos:
( Codificación de línea
( Códigos duobinarios
( De forma de onda: ortogonales, biortogonales y transortogonales.
( De secuencias estructuradas: de bloque, convolucionales y de Trelis.
Modulador Digital
Existen varias clasificaciones como coherentes y no coherentes. De acuerdo al tipo de modulador se clasifican en:
Digitales binarios | Digitales M-arios |
ASK | QAM |
FSK | MFSK |
PSK | MPSK |
Señales
Clasificación.
Las señales pueden ser:
Determinísticas.- Sus valores en un instante están predeterminados.
Aleatorias.- Existe incertidumbre en sus valores en un instante, se les llama en matemáticas procesos aleatorios o estocásticos.
O bien,
Energía y Potencia.
Su potencia instantánea es:
Se puede concluir que:
1. Una señal de energía tiene potencia promedio nula. Una señal de potencia tiene energía promedio infinita.
2. Las señales periódicas y las señales aleatorias son de potencia.
3. Las señales determinísticas aperiódicas son de energía.
Densidad espectral.
La energía total de una señal real esta relacionada con su transformada de Fourier (teorema de Parseval) por:
Una señal periódica x(t) se puede desarrollar en una serie de Fourier con coeficientes Cn
si cumple las condiciones de Dirichlet o bien, si es absolutamente sumable.
Solución.
Autocorrelación.
La autocorrelación establece una medida de la relación de la señal consigo misma pera atrasada. Se define para una señal de energía como:
Señales Aleatorias
Sea X una variable aleatoria se define su función distribución de probabilidad como
La función densidad de probabilidad se define por:
Se define la media o valor esperado de X como:
Ejemplo. Dada la función
Solución.
Las distribuciones y densidades de las variables aleatorias más conocidads son, entre otras, la gaussiana o normal, la uniforme, la binomial, la de Laplace y la de Rayleigh.
Ejemplo. La v.a. X tiene una distribución gaussiana con media 1000 y desviación estándar 5. Obtener la probabilidad de que la v.a. esté entre 950 y 1100.
Solución:
Ejemplo. En el canal binario mostrado, 0 y 1 se transmiten con la misma probabilidad
se transmiten 10 dígitos, ¿Cuál es la probabilidad de recibir cuatro dígitos erróneos ?
Solución:
Un proceso aleatorio es un conjunto finito o no finito de variables aleatorias. En muchas ocasiones proceden de un experimento repetido n veces.
Se dice que un proceso es estacionario en sentido estricto, si su estadística no cambia. Por lo tanto es suficiente que:
Un proceso se dice ergódico si sus promedios en el tiempo son iguales a sus promedios estadísticos.
Ejemplo.
Solución.
Ruido
El ruido térmico es blanco, aditivo y gaussiano, como este ruido esta presente en todos los sistemas de comunicaciones, se utilizan sus características para modelar ruido en comunicaciones.
Señales en sistemas lineales
Se observa que la magnitud es constante y la fase es lineal. Esta ecuación implica una ancho de banda infinito, y por lo tanto este sistema no es causal ni realizable.
Una aproximación es truncar la respuesta entre las frecuencias fl y f2, esta función es llamada filtro ideal.
Esta respuesta no es causal, por lo que el filtro no es realizable.
Los filtros realizables van desde un RC hasta los diseños de filtros digitales de orden n, y de distintos tipos de acuerdo a su respuesta.
Enviado por:
Pablo Turmero