Descargar

Comunicación digital

Enviado por Carlos Choéz


  1. Introducción
  2. Contenido
  3. Historia
  4. Índice de Shannon
  5. Teorema de Shannon: capacidad del canal
  6. Conclusion
  7. Referencias bibliográficas

"Shannon es una teoría con procesos digitales utilizada para que en el ancho de banda y el ruido se pueda transmitir información" (Choéz, 2017)

Introducción

La Comunicación Digital en la Sociedad del Conocimiento representa hoy en día una relación simbiótica. El final de la década de los años 90, esto a su vez nos fue mostrando un mundo, que aparecía como retador, pero que en el fondo significaba el apostamiento de nuevas prácticas culturales y nuevos medios tecnológicos; lo que evidenciaba la movilización de la comunicación al servicio de la cultura. Sí admitimos que la cultura forma parte de un conjunto de prácticas que tienen que ver con la apropiación del sentido en la vida cotidiana; la comunicación entendida como parte de la sociedad, extendida por los distintos medios e industrias culturales, formaría parte de esa cultura. (Pineda, 2009)

La Comunicación Digital en la Sociedad del Conocimiento, está generando nuevos cambios en las relaciones del hombre con la sociedad actual, que va de la modernidad a la postmodernidad, lo que según Manuel Castells, llama una "Sociedad en la Red"; nuevos planteamientos y formas de abordar esta realidad presente en el proceso globalizador. (Arruti, 2001)

El teorema de Shannon es una aplicación de codificación desarrollada para canales con ruido. Un caso muy frecuente es el de un canal de comunicación analógico continuo en el tiempo que presenta un ruido gaussiano. (Lechtaler & Fusario, 1999). El teorema establece la capacidad del canal de Shannon, una cota superior que establece la mayor cantidad de datos digitales que pueden ser transmitidos sin error sobre el enlace de comunicaciones con un ancho de banda específico y que está sometido a la presencia de la interferencia del ruido. En la hipótesis inicial, se asume una limitación en la potencia de la señal y, además, que el proceso del ruido gaussiano es caracterizado por una potencia conocida o una densidad espectral de potencia. (Guizzo, 2003)

Contenido

LIMITE DE SHANNON PARA LA CAPACIDAD DE INFORMACION

Es un análisis matemático complejo donde se establece la velocidad máxima en b/s que se puede alcanzar en cualquier sistema de comunicación. Shannon realizó dicho estudio sobre un sistema de comunicación, sin particularizar en ningún medio de transmisión en concreto, por lo que a lo largo de todo el artículo no aparece ninguna mención a componentes o circuitos eléctricos, electrónicos, ópticos o cualquier otro sistema susceptible de emplearse en comunicaciones digitales. Es, como su propio título indica, una teoría matemática de la comunicación. (Gutiérrez, 1999)

La capacidad de información de un sistema de comunicaciones representa la cantidad de símbolos independientes que pueden transportarse por el sistema en determinada unidad de tiempo. El símbolo binario más básico es el dígito binario o bit. En consecuencia, conviene con frecuencia expresar la capacidad de información de un sistema en bits por segundo, o bps. En 1928, R. Hartley, de Bell Telephone Laboratories, desarrolló una relación útil entre la amplitud de banda, el tiempo de transmisión y la capacidad de información. El planteamiento sencillo de la ley de Hartley es

edu.red

En donde:

I = capacidad de información (bits por segundo)

B= amplitud de banda (hertz)

T= tiempo de transmisión (segundos)

Se ve, en la ecuación 12-1a, que la capacidad de información es una función lineal de la amplitud de banda y del tiempo de transmisión, y es directamente proporcional a ambos. Si cambia el ancho de información o el tiempo de transmisión, se tendrá un cambio directamente proporcional de capacidad de información. (Tomasi, 2003)

C. E. Shannon (también de Bell Telephone Laboratories) publicó en 1948 un trabajo en el Bell System Technical Journal donde se relacionaba la capacidad de información de un canal de comunicaciones con el ancho de banda y la relación de señal a ruido. El enunciado matemático del límite de Shannon, de capacidad de información, es

edu.red

En donde:

I= capacidad de información (bits por segundo)

edu.redB= amplitud de banda (hertz)

= relación de potencias de señal a ruido (adimensional)

Para un canal normal de comunicaciones de voz, con relación de potencias de señal a ruido de 1000 (30 dB) y amplitud de banda de 2.7 kHz, el límite de Shannon de capacidad de información es

edu.red

Historia

A finales de los años 20, Nyquist y Hartley desarrollaron una serie de ideas relacionadas con la transmisión de la información, en el contexto del telégrafo como un sistema de comunicaciones. En esos años, estos conceptos eran avances de gran alcance de carácter individual, pero no eran parte del corpus de una teoría exhaustiva. En los años 40, Claude Shannon desarrolló el concepto de capacidad de un canal basándose en las ideas que ya habían propuesto Nyquist y Hartley y formulando después una teoría completa sobre la información y la transmisión de esta, a través de canales de transmisión. (Thomas & Rosa, 1998)

Las ramas de compresión de datos para control de errores tienen sus inicios en la Teoría de la Información, una ciencia a la que Shannon daría vida en 1948 con la publicación de su artículo titulado "A Mathematical Theory of Communication". En su artículo, Shannon presenta una forma precisa de cuantificar el concepto de "información" que en aquel entonces se tenía: el bit.

Entonces, la Teoría de la Información propone teoremas que no sólo marcan los límites en el desempeño de una comunicación entre dos entidades, sino también definen el papel que la codificación incluye para alcanzar dicho desempeño.

El trabajo de Shannon impugna rotundamente la noción que se tenía del ruido en un canal de comunicación, al verlo no como un limitante absoluto de una comunicación confiable, libre de errores, sino como una característica más del canal cuyos efectos indeseables bien pueden disminuirse si se emplean técnicas adecuadas para control de errores y no se rebasan los límites establecidos por su Teoría de la Información. (Shannon C. E.-A., 1981)

Índice de Shannon

Uno de los índices más utilizados para cuantificar la biodiversidad específica es el de Shannon, también conocido como Shannon-Weaver (Shannon & Weaver, 1949),derivado de la teoría de información como una medida de la entropía. El índice refleja la heterogeneidad de una comunidad sobre la base de dos factores: el número de especies presentes y su abundancia relativa. Conceptualmente es una medida del grado de incertidumbre asociada a la selección aleatoria de un individuo en la comunidad.

Shannon después de la investigación de Nyquist estudió como el ruido afecta a la transmisión de datos. Shannon tomo en cuenta la noción "señal a ruido" del canal de transmisión y derivó el teorema de Capacidad de Shannon. El cual se expresa en la siguiente formula:

C = B log2(1+S/N) bps

Un canal telefónico de voz tiene una razón de señal a ruido de 30 dB y un ancho de banda de 3,000 Hz. Si sustituimos esos valores en el teorema de Shannon nos quedará:

C = 3,000 log2(1+1000) = 30,000 bps

Debido a que edu.red1001) es igual al logaritmo natural de ln(1001)/ln(2) y es igual a 9.97, el teorema nos demuestra que la capacidad máxima de un canal telefónico es aproximadamente 30,000 bps.

Dado que los canales de comunicación no son perfectos, Los cuales están delimitados por el ruido y el ancho de banda. El teorema de Shannon-Hartley nos dice que es posible transmitir información libre de ruido siempre y cuando la tasa de información no exceda la Capacidad del Canal.

Así mismo, si el nivel de S/N es menor, la calidad de la señal es más cercana al ruido y la capacidad del canal disminuirá.

Esta capacidad máxima no es posible alcanzar, ya que la fórmula de Shannon supone unas condiciones que en la práctica no se ejecutan. No tiene en cuenta el ruido impulsivo, ni la atenuación ni la distorsión. Representa el límite teórico máximo alcanzable. (Shannon & Weaver, 1949)

De la fórmula de Shannon tenemos:

C = B log2(S/N + 1) = bps bps = B log2(10^(dB/10) + 1) despejando los DB obtenemosbps/B = log2(10^(dB/10) + 1);2^(bps/B) = 10^(dB/10) + 1 ;10^(dB/10) = 2^(bps/B) – 1 ;dB/10 = 1og10 (2^(bps/B) – 1); dB = 10*1og10 (2^(bps/B) – 1) ;Sustituyendo obtendremosB= 3,000 y bps = 56,000 ;dB = 10*1og10 (2^(56,000/3,000) – 1) ;dB = S/N= 56.2 dB ;Lo que significa que si queremos sobrepasar el límite de Shannon debemos de aumentar el nivel de S/N.

Teorema de Shannon: capacidad del canal

El teorema de Shannon establece la capacidad del canal para un canal con ancho de banda finito y una señal continua que sufre un ruido gaussiano. Este teorema conecta el resultado de Hartley con el teorema de Shannon de la capacidad del canal en una forma equivalente a especificar la M en la fórmula de Hartley de la tasa de información en términos de la relación señal-ruido, pero alcanzando fiabilidad a través de la codificación correctora de errores más fiable que los niveles de pulso distinguibles. (Shannon & Weaver, 1949).

Si existiera un canal analógico con ancho de banda infinito y sin ruido, uno podría transmitir cantidades ilimitadas de datos sin error, sobre el mismo por cada unidad de tiempo. Sin embargo, los canales de comunicación actuales están sujetos a las limitaciones impuestas por el ancho de banda limitado y el ruido.

edu.red

Ilustración 2 Diagrama a bloques de un sistema de comunicación digital inalámbrico

¿cómo el ancho de banda y el ruido afectan a la tasa en la cual la información puede ser transmitida sobre un canal analógico?… Aunque parezca Imposible, las limitaciones del ancho de banda, no imponen restricciones sobre la tasa máxima de información. Esto se debe a que sigue siendo posible para la señal tomar un número infinitamente grande de valores distintos de voltaje para cada pulso de símbolo, siendo cada nivel distinto del anterior que representa a un determinado significado o secuencia de bits (b). Sin embargo, si unimos ambos factores, es decir, el ruido como las limitaciones del ancho de banda, encontramos un límite a la cantidad de información que se puede transferir por una señal de potencia limitada, aun cuando se utilizan técnicas de codificación de niveles múltiples. (Lechtaler A. R., 1999)

Es decir, el receptor mide una señal que sea la misma a la suma de la señal que codifica la información deseada y una variable aleatoria que represente el ruido. Esta suma crea incertidumbre en cuanto al valor de la señal original.

Si el receptor tiene cierta información sobre el proceso que genera el ruido, se puede recuperar la información de la señal original considerando todos los estados del proceso del ruido.

En el caso del teorema de Shannon-Hartley, se asume que el ruido es generado por un proceso gaussiano con una varianza conocida. Puesto que la varianza del proceso gaussiano es equivalente a su potencia, normalmente se denomina a esta varianza la potencia de ruido. (Rábanos & Salís, 2015)

Conclusion

En la actualidad la era de la comunicación digital tiende a ser de gran importancia y aceptación dentro de la sociedad moderna ya que a diario grandes masas de individuos usas medios de comunicación digital, lo cual surge un gran efecto dentro de los medios ya que se envían y reciben grandes cantidades de datos frecuentemente haciendo que muchas veces estas conexiones generen interrupciones debido a la cantidad de datos y se pierda la comunicación.

Una solución a este problema es el teorema de Shannon, ya que este está realizado para ejecutar correcciones en la interrupción de los medios debido al ruido. esto a la vez establece la capacidad del canal de Shannon, junto con este canal establece la máxima cantidad de datos digitales o información que pueden ser transmitidos sin error sobre dicho enlace de comunicaciones con un ancho de banda específico y que está sometido a la presencia de la interferencia del ruido.

Referencias bibliográficas

  • 1. Arruti, M. F. (2001). Ciberperiodismo. Nuevos Enfoques,conceptos y profesiones emergentes en el mundo infodigital. Madrid, España. : Limusa.

  • 2. Choéz, C. (2017). El teorema de Shannon. Jipijapa.

  • 3. Guizzo, E. M. (2003). he essential message: Claude Shannon and the making of information theory . Doctoral dissertation.

  • 4. Gutiérrez, M. P. (1999). Teoría matemática de la comunicación y teoría semántica de la información. Revista Internacional de Filosofía, 77-100.

  • 5. Lechtaler, A. R. (1999). Teleinformática para ingenieros en sistemas de información (Vol. 2). Reverté.

  • 6. Lechtaler, A. R., & Fusario, R. J. (1999). Teleinformática para ingenieros en sistemas de información (Vol. 2). Reverté.

  • 7. Pineda, M. (2009). Desafíos actuales de la sociedad del conocimiento para la inclusión digital en América Latina. Disertaciones.

  • 8. Rábanos, J. M., & Salís, J. M. (2015). Comunicaciones móviles. Universitaria Ramón Areces.

  • 9. Shannon, & Weaver, W. (1949). The mathemati-cal theory of communication. EEUU: Urbana,IL.

  • 10. Shannon, C. E.-A. (1981). Teoría matemática de la comunicación. Mexico: Bell Labs Technical Journa.

  • 11. Thomas, R. E., & Rosa, A. J. (1998). Circuitos y señales: introducción a los circuitos lineales y de acoplamiento. Reverté.

  • 12. Tomasi, W. (2003). Sistemas de Comunicaciones Electrónicas Cuarta edición. Mexico: PEARSON EDUCACIÓN.

edu.red

 

 

 

Autor:

Choéz Parrales Carlos Alberto.

Jipijapa

Ingeniería en Computación y Redes

Seminarios: Google, Microsoft, Arcotel, Emprendimiento, Seguridad Informática

Toala Quimis Jordy René.

Jipijapa

Ingeniería en Computación y Redes

Seminarios: Unasis English School, Cope 1, Training Peru, SUPERTEL