Descargar

Video sobre red

Enviado por luib


    Indice1. Introducción 2. Transmisión de vídeo: vídeo digital. 3. Formato MPEG 4. Soluciones de vídeo 5. Conclusiones

    1. Introducción

    La transmisión de vídeo sobre redes de telecomunicaciones está llegando al punto de convertirse en un sistema habitual de comunicación debido al crecimiento masivo que ha supuesto Internet en estos últimos años. Lo estamos utilizando para ver películas o comunicarnos con conocidos, pero también se usa para dar clases remotas, para hacer diagnósticos en medicina, videoconferencia, distribución de TV, vídeo bajo demanda, para distribuir multimedia en Internet… Debido a la necesidad de su uso que se plantea en el presente y futuro, se han proporcionado distintas soluciones y sucesivos formatos para mejorar su transmisión. Pero hoy, ya hemos oído hablar negativamente de los sistemas actuales de distribución de vídeo debido a su dudosa calidad en redes como Internet. Estas aplicaciones normalmente demandan un elevado ancho de banda y a menudo crean cuellos de botella en las redes. Este es el gran problema al que esta sometida la transmisión de vídeo. ¿Por qué es el vídeo tan problemático?

    ¿Qué es el vídeo? El vídeo no es nada más que la reproducción en forma secuencial de imágenes, que al verse con una determinada velocidad y continuidad dan la sensación al ojo humano de apreciar el movimiento natural. Junto con la imagen, el otro componente es el sonido.

    2. Transmisión de vídeo: vídeo digital.

    La transmisión digital y la distribución de información audiovisual permite la comunicación multimedia sobre las redes que soportan la comunicación de datos, brindando la posibilidad de enviar imágenes en movimiento a lugares remotos. Pero no es todo tan bonito a la hora de transmitirlo por red, debido a que nos encontramos con sucesos como lentitud entre la reproducción de imágenes, errores de transmisión, o perdidas de datos… Existen dos formas de transmisión de datos, analógico y digital. Una de las características del vídeo es que está compuesto por señales analógicas, con lo que se pueden dar las dos formas de transmisión. En los últimos años la transmisión de datos se ha volcado hacia el mundo digital ya que supone una serie de ventajas frente a la transmisión analógica. Al verse la información reducida a un flujo de bits, se consigue una mayor protección contra posibles fallos ya que se pueden introducir mecanismos de detección de errores, se elimina el problema de las interferencias, podemos disminuir el efecto del ruido en los canales de comunicación, conseguir codificaciones más óptimas y encriptado, mezclar con otros tipos de información a través de un mismo canal, y poder manipular los datos con ordenadores para comprimirlos, por ejemplo. Además si queremos difundir el vídeo por vías digitales tendremos que digitalizarlo, con lo que debe ser capturado en su formato analógico y almacenado digitalmente logrando así que sea menos propenso a degradarse durante la transmisión. Existen dos tipos de redes de comunicación, de conmutación de circuitos y de conmutación de paquetes. En la conmutación de circuitos, donde la comunicación está permanentemente establecida durante toda la sesión, un determinado ancho de banda es asignado para la conexión, y el tiempo de descarga del vídeo puede predecirse, pero tienen la desventaja de que las sesiones son punto a punto y limitan la capacidad de usuarios. En la conmutación de paquetes pueden acomodarse más fácilmente las conferencias multipunto. Aquí el ancho de banda esta compartido pero es variable, lo que supone una importante mejora puesto que, si el bit rate (o número de bits por segundo) es fijo la calidad de la imagen variará dependiendo del contenido de los fotogramas. Debe de cumplirse que el ancho de banda, la resolución, y la compresión de audio sean idénticos para cada cliente que recibe el vídeo, lo que dificulta la configuración del sistema. El vídeo es muy sensible al retardo de la red, ya que puede provocar cortes en las secuencias. La pérdida de alguna información en el vídeo sin comprimir no es muy relevante, ya que al perderse un fotograma, el siguiente fotograma proporciona la suficiente información para poder interpretar la secuencia. En cambio el vídeo comprimido es mucho más sensible a errores de transmisión, ya que las técnicas de compresión que se valen de la redundancia espacial y temporal pueden perder la información de esta redundancia y los efectos de la falta de datos pueden propagarse en los próximos fotogramas. Es por eso que actualmente la comunicación con vídeo vía Internet no prometen una elevada fiabilidad de transmisión. Algunas técnicas de compresión compensan esta sensibilidad a la pérdida de datos enviando la información completa sobre un fotograma cada cierto tiempo, incluso si los datos del fotograma no han cambiado. Esta técnica también es útil para los sistemas de múltiples clientes, para que los usuarios que acaban de conectarse, reciban las imágenes completas. Nos podemos preguntar cuál es la tecnología de red adecuada para las aplicaciones de vídeo, pero siempre dependeremos del entorno en el que trabajemos. Por ejemplo si disponemos de una alto ancho de banda el tipo de red adecuada seria ATM; para un entorno de red de área local podríamos usar Fast Ethernet, y actualmente para que el usuario de Internet, ADSL. Pero la solución para resolver el cuello de botella del ancho de banda del vídeo no está en un solo tipo de red, sino en una infraestructura de red flexible que pueda manejar e integrar diferentes redes y que deje paso también a futuras redes sin cambiar el hardware. También debe ser capaz de negociar las variables de ancho de banda, resolución, número de fotogramas por segundo y algoritmo de compresión de audio. Así que se necesita un nodo que permita la interconectividad entre todas las redes. Es el MCU (unidad de control multipunto). Cada red- RDSI, IP, ASTM- usa protocolos específicos que definen la naturaleza de las ráfagas de vídeo. Las combinaciones de protocolos y estándares son muchas: para vídeo H.261 o H.263, CIF o QCIF, de 7.5 fps a 30 fps; y para audio G.711, G.728, G.722 o G.723. Por ejemplo en una conferencia múltiple el número de posibles combinaciones de estándares y protocolos es muy elevado y puede saturar el MCU. Muchos MCU no son capaces de negociar todas estas variables, forzando a los terminales de los clientes a reducir sus protocolos al más bajo común denominador de todos los participantes, bajando así la calidad del vídeo.

    Digitalización La información a digitalizar será la de las imágenes. Cada cuadro de la imagen es muestreado en unidades de pixeles, con lo que los datos a almacenar serán los correspondientes al color de cada pixel. Tres componentes son necesarias y suficientes para representar el color y para ser interpretado por el ojo humano. El sistema de codificación de color usado es el RGB (Red, Green, Blue). Para digitalizar una señal de vídeo analógico es necesario muestrear todas la líneas de vídeo activo. La información de brillo y color son tratadas de forma diferente por el sistema visual humano, ya que es más sensible al brillo que al color. Con lo que se usa un componente especial para representar la información del brillo, la luminancia, una para el color y la saturación, la crominancia. Cada muestra de color se codifica en señal Y-U-V (Y- luminancia, U y V crominancia) partiendo de los valores del sistema RGB. Con este sistema las diferencias de color pueden ser muestreadas sin resultados visibles, lo que permite que la misma información sea codificada con menos ancho de banda. Un ejemplo de conversión de señal analógica de televisión en color a una señal en vídeo digital sería: Sistema PAL : 576 líneas activas, 25 fotogramas por segundo, para obtener 720 pixels y 8 bit por muestra a 13,5Mhz:

    • Luminancia(Y): 720x576x25x8 = 82.944.000 bits por segundo
    • Crominancia(U): 360x576x25x8 = 41.472.000 bits por segundo
    • Crominancia(V): 360x576x25x8 = 41.472.000 bits por segundo

    Número total de bits: 165.888.000 bits por segundo (aprox. 166Mbits/sg). Ninguno de los sistemas comunes de transmisión de vídeo proporcionan transferencias suficientes para este caudal de información Las imágenes de vídeo están compuestas de información en el dominio del espacio y el tiempo. La información en el dominio del espacio es provista por los pixels, y la información en el dominio del tiempo es provista por imágenes que cambian en el tiempo. Puesto que los cambios entre cuadros colindantes son diminutos, los objetos aparentan moverse suavemente. El valor de luminancia de cada pixel es cuantificado con ocho bits para el caso de imágenes blanco y negro. En el caso de imágenes de color, cada pixel mantiene la información de color asociada; una imagen completa es una composición de tres fotogramas, uno para cada componente de color, así los tres elementos de la información de luminancia designados como rojo, verde y azul, son cuantificados a ocho bits. Pero la transmisión digital de vídeo tiene también alguna desventaja respecto a la analógica, por ejemplo, en una videoconferencia, cuando distintos usuarios envían sonido al mismo tiempo, si el proceso fuera analógico las distintas ondas se sumarían y podríamos escuchar el conjuntos de todas ellas. Al ser digital, los datos llegan en paquetes entremezclados, lo que dificulta la compresión.

    Tipos comprimido/descomprimido Como hemos dicho para cada punto de la imagen se le asigna un determinado número de bits que representarán el color de dicho punto. Si la imagen es en blanco y negro, bastará un bit para representarlo, mientras que para 256 colores serán necesarios 8 bits. De esta forma tendremos la imagen digitalizada, pero almacenar esta información dependerá del número de pixels que utilicemos por imagen. Por ejemplo una imagen de 640 x 480 puntos con 256 colores ocupan 300 Kb, y si tenemos una secuencia de vídeo a 25 fotogramas por segundo significaría que un solo segundo ocuparía 7.500 Kb. Y todo esto sin contar el audio. La información de vídeo compuesta de esta manera posee una cantidad tremenda de información; por lo que, para transmisión o almacenamiento, se requiere de la compresión de la imagen. La compresión del vídeo generalmente implica una pérdida de información y una consecuente disminución de calidad. Pero esto es aceptable porque los algoritmos de codificación están diseñados para descartar la información redundante o que no es perceptible por el ojo humano. Aunque sabemos que la calidad del vídeo es inversamente proporcional al factor de compresión. La compresión es un arma de doble filo, ya que el vídeo comprimido es más sensible a los errores. Un error en vídeo comprimido puede hacer ilegible la imagen, con lo que se añade redundancia para recuperar esa información. El vídeo comprimido en general debe transmitir información por un canal más pequeño del que necesitaría para ser transmitido y poder ser visualizado en tiempo real. Así la información de audio y vídeo deben ser procesadas por los codecs antes de ser transmitidos. Los codecs derivan de las palabras compresor y descompresor, y son los módulos de software que permiten la compresión y descompresión de los ficheros de audio y vídeo para que puedan ser transmitidos por redes de baja velocidad. La digitalización y la compresión pueden darse conjuntamente y en tiempo real para facilitar la comunicación y la interacción. Los codecs más utilizados son los siguientes: Microsoft Video1, Microsoft RLE, Intel Indeo R2, Intel Indeo R3, Intel YUV9, CinePak, Captain Crinch, Creative Compressor. Las señales recibidas deben ser decodificadas antes de poder ser visualizadas por el usuario. Durante este proceso se puede producir: – lo que se llama "vídeo fantasma" o suavización de imagen, que es la forma con la que los codecs compensan los elevados flujos de información. Cuando ocurre esto, el codec comprime la información reduciendo el "frame rate" (número de imágenes por segundo), el cual puede hacer que los movimientos rápidos parezcan borrosos. El codec también modifica la resolución para comprimir la información lo cual puede hacer que la imagen se vea desplazada. Entonces, para reducir estos efectos, se disminuye el flujo de información visual.

    También puede darse un retardo de audio. En la red de Internet por ejemplo la mayoría de los usuarios están conectados a velocidades de 56.6 kilobits por segundo (Kbps), 33.6 kbps o 28.8 kbps, y el vídeo descomprimido para ser enviado en calidad broadcast requiere un ancho de banda de red de 160 megabits por segundo (Mbps), en calidad CD requiere aproximadamente 2.8 Mbps, y con los modems actuales sería imposible conseguir las velocidades requeridas para su transmisión. Aquí es donde juegan un papel importante los codecs. Los codecs se optimizan para conseguir la mayor calidad posible en bajos índices de transferencia. Son usados para codificar el vídeo en tiempo real o pregrabado y ser mandado por la red para que el usuario final solamente con una aplicación que lo descomprima podrá al instante visionar en su terminal.

    Compresión La técnica de compresión de vídeo consiste de tres pasos fundamentalmente, primero el preprocesamiento de la fuente de vídeo de entrada, paso en el cual se realiza el filtrado de la señal de entrada para remover componentes no útiles y el ruido que pudiera haber en esta. El segundo paso es la conversión de la señal a un formato intermedio común (CIF), y por último el paso de la compresión. Las imágenes comprimidas son transmitidas a través de la línea de transmisión digital y se hacen llegar al receptor donde son reconvertidas al formato común CIF y son desplegadas después de haber pasado por la etapa de post-procesamiento. Mediante la compresión de la imagen se elimina información redundante. Se ayuda de la redundancia espacial y temporal. La redundancia temporal es reducida primero usando similitudes entre sucesivas imágenes, usando información de las imágenes ya enviadas. Cuando se usa esta técnica, sólo es necesario enviar la diferencia entre las imágenes, es decir las zonas de la imagen que han variado entre dos fotogramas consecutivos, lo que elimina la necesidad de transmitir la imagen completa. La compresión espacial se vale de las similitudes entre pixeles adyacentes en zonas de la imagen lisas, y de las frecuencias espaciales dominantes en zonas de color muy variado. El método para eliminar las redundancias en el dominio del tiempo pueden ser eliminadas mediante el método de codificación de intercuadros, que también incluye los métodos de compensación/estimación del movimiento, el cual compensa el movimiento a través de la estimación del mismo. En el otro extremo, las redundancias en el dominio espacio es llamado codificación intracuadros, la cual puede ser dividida en codificación por predicción y codificación de la transformada usando la transformada del coseno. La transformada del coseno o DCT es una implementación específica de la transformada de Fourier donde la imagen es transformada de su representación espacial a su frecuencial equivalente. Cada elemento de la imagen se representa por ciertos coeficientes de frecuencia. Las zonas con colores similares se representan con coeficientes de baja frecuencia y las imágenes con mucho detalle con coeficientes de alta frecuencia. La información resultante son 64 coeficientes DCT. El DCT reordena toda la información y la prepara para la cuantización. El proceso de cuantización es la parte del algoritmo que causa pérdidas. La cuantización asigna un número de bits específico a cada coeficiente de frecuencias y entonces comprime los datos asignando unos cuantos bits a los coeficientes de alta frecuencia. sin que lo note el observador. Los parámetros de la cuantización son optimizados, pero el proceso aún deteriora la calidad del vídeo. Generalmente se acepta que un factor de compresión de 2:1 (aproximadamente 10Mb/seg), se pueden apreciar visualmente algunas pérdidas en la integridad del vídeo.

    El proceso de decodificación es básicamente el inverso del proceso de codificación. La compresión del audio está descrita por tres parámetros: ratio de muestreo (numero de muestras por segundo), bits por muestra (numero de bits para representar cada valor), y número de canales (mono o estéreo). Los estándares de vídeo digital más conocidos son: MPEG, Quicktime, AVI, MOV, real vídeo, ASF… Y para vídeo analógico: NTSC, PAL, SECAM

    3. Formato MPEG

    MPEG (Grupo de Expertos en Imágenes en movimiento) es un estándar internacional, definido por un comité llamado MPEG formado por la ISO, para la representación codificada y comprimida de imágenes en movimiento y audio asociado, orientado a medios de almacenamiento digital El algoritmo que utiliza además de comprimir imágenes estáticas compara los fotogramas presentes con los anteriores y los futuros para almacenar sólo las partes que cambian. La señal incluye sonido en calidad digital. El inconveniente de este sistema es que debido a su alta complejidad necesita apoyarse en hardware específico. MPEG aplica la compresión temporal y la espacial. En primer lugar se aplica una transformada d coseno discreta, seguida de una cuantización para finalmente comprimir mediante un algoritmo RLE. Los bloques de imagen y los de predicción de errores tienen una gran redundancia espacial, que se reduce gracias a la transformación de los bloques desde el dominio del espacio al dominio de frecuencia. MPEG requiere una intensiva computación para su codificación, aunque se consiguen ratios desde 50:1 hasta 200:1 Existen diferentes opciones dependiendo del uso: MPEG-1 guarda una imagen, la compara con la siguiente y almacena sólo las diferencias. Se alcanzan así grados de compresión muy elevados. Define tres tipos de fotogramas:

    • Fotogramas I o Intra-fotogramas, son los fotogramas normales o de imagen fija, proporcionando una compresión moderada, en JPEG.
    • Fotogramas P o Predichos: son imágenes predichas a partir de la inmediatamente anterior. Se alcanza una tasa de compresión muy superior.
    • Fotogramas B o bidireccionales: se calculan en base a los fotogramas inmediatamente anterior y posterior. Consigue el mayor grado de compresión a costa de un mayor tiempo de cálculo. Estándar escogido por Vídeo-CD: calidad VHS con sonido digital.

    MPEG-2 Con una calidad superior al MPEG-1, MPEG-2 fue universalmente aceptado para transmitir vídeo digital comprimido con velocidades mayores de 1Mb/s aproximadamente. Con MPEG-2 pueden conseguirse elevados ratios de hasta 100:1, dependiendo de las características del propio vídeo. MPEG-2 normalmente define dos sistemas de capas, el flujo de programa y el flujo de transporte. Se usa uno u otro pero no los dos a la vez. El flujo de programa funcionalmente es similar al sistema MPEG-1. La técnica de encapsulamiento y multiplexación de la capa de compresión produce paquetes grandes y de varios tamaños. Los paquetes grandes producen errores aislados e incrementan los requerimientos de buffering en el receptor/decodificador para demultiplexar los flujos de bits. En contraposición el flujo de transporte consiste en paquetes fijos de 188 bytes lo que decrementa el nivel de errores ocultos y los requerimientos del buffering receptor. Los estándares MPEG fueron desarrollados para ser independientes de la red específica para proporcionar un punto de interoperabilidad en entornos de red heterogéneos.

    MPEG4 Es un estándar relativamente nuevo orientado inicialmente a las videoconferencias, y para Internet. El objetivo es crear un contexto audiovisual en el cual existen unas primitivas llamadas AVO (objetos audiovisuales). Se definen métodos para codificar estas primitivas que podrían clasificarse en texto y gráficos La comunicación con los datos de cada primitiva se realiza mediante uno o varios "elementary streams" o flujos de datos, cuya característica principal es la calidad de servicio requerida para la transmisión. Ha sido especialmente diseñado para distribuir videos con elevados ratios de compresión, sobre redes con bajo ancho de banda manteniendo una excelente calidad para usuarios con buen ancho de banda. Ofrece un ancho rango de velocidades desde usuarios con modems de 10kbps a usuarios con anchos de banda de 10Mbps. Es rápido codificando el vídeo de alta calidad, para contenidos en tiempo real y bajo demanda.

    Codificación de vídeo MPEG bajo demanda En soluciones como vídeo bajo demanda los datos codificados en el formato MPEG tienen que ser transmitidos sobre redes de comunicaciones. Puesto que el ancho de banda del medio de transmisión es limitado, para mantener una constante velocidad de salida, debe hacerse una negociación entre la velocidad y la calidad de la imagen. De esto se encargan los algoritmos de cuantización, los cuales seleccionan diferentes tablas de cuantización para diferentes tipos de imágenes durante la codificación de datos. Una solución simple es codificar los datos originales dinámicamente en el servidor, pero necesita grandes recursos. Una alternativa es almacenar los ficheros codificados en MPEG en el servidor y adaptativamente recodificarlo en base a las velocidades disponibles. El objetivo es recodificar y codificar los ficheros MPEG dinámica y eficientemente en un flujo de bits constante.

    MJPEGMotion-JPEG es una versión extendida del algoritmo JPEG que comprime imágenes. Básicamente consiste en tratar al vídeo como una secuencia de imágenes estáticas independientes a las que se aplica el proceso de compresión del algoritmo JPEG una y otra vez para cada imagen de la secuencia de vídeo. Existen cuatro modos de operación para el JPEG: secuencial, progresiva, sin perdida, y jerárquica. Normalmente se utiliza el modo secuencial. La ventaja es que se puede realizar en tiempo real e incluso con poca inversión en hardware. El inconveniente de este sistema es que no se puede considerar como un estándar de vídeo pues ni siquiera incluye la señal de audio. Otro problema es que el índice de compresión no es muy grande. JPEG utiliza una técnica de compresión espacial, la intracuadros o DCT. El sistema JPEG solamente utiliza la compresión espacial al estar diseñado para comprimir imágenes individuales. Motion-JPEG es el metodo elegido para las aplicaciones donde se envia la misma informacióin a todos los usuarios, las broadcast.

    Servir el vídeo Muchas aplicaciones actuales como el vídeo requieren que los mismos datos de un servidor sean distribuidos a múltiples clientes. Si varios clientes solicitan los mismos datos y esta información fuera enviado una vez por cada cliente, estaríamos malgastando el ancho de banda ya que estaríamos transmitiendo la misma información varias veces por el mismo tramo de red y el número de clientes estaría limitado por el ancho de banda disponible. La solución es IP multicast. Soporta eficientemente este tipo de transmisión permitiendo al servidor enviar una sola copia de la información a múltiples clientes quienes deseen recibir la información.

    4. Soluciones de vídeo

    El vídeo puede servirse como un fichero, o en tiempo real. A este última forma de enviar el vídeo se le conoce como streaming. Streaming video Streaming video, o vídeo en tiempo real, es la tecnología que permite la transmisión y recepción de imágenes y sonidos de manera continua a través de una red. A diferencia de otros formatos de audio y vídeo, en los que es necesario esperar que el archivo sea cargado en el equipo para su visualización, esta tecnología permite apreciar el contenido conforme se va teniendo acceso a la información del archivo. EL servidor de streaming permite visionar el vídeo de forma continua porque hace uso de un buffer, donde van cargándose algunos segundos de la secuencia antes de que sean mostrados. Entonces cuando se detecta un periodo de congestión de red, se visualizarán los datos que tenemos ya almacenados en el buffer. De esta forma el cliente obtiene los datos tan rápido como el servidor y la red lo permitan. Hay pocos formatos hoy en dia que soporten este tipo de visualización progresiva, probablemente en el futuro próximo, el estandar para el streaming vídeo será en Advanced streaming format (ASF). El streaming puede decirse que funciona de forma inteligente ya que asegura al usuario que recibirá la más alta calidad posible dependiendo de la velocidad de conexión o de los problemas de conexión de la red. Tradicionalmente la congestión de la red forzaba al usuario a detener la visualización del vídeo almacenando en un buffer la información para posteriormente continuar mostrando la secuencia. Con los nuevos formatos de streaming como el MPEG-4, el cliente y el servidor pueden degradar la calidad de forma inteligente para asegurar una reproducción continua del vídeo.

    ¿Cómo funciona? Si se dan problemas de congestión de red, primeramente el servidor de vídeo disminuye el número de fotogramas que está enviando para mantener la calidad del audio e ir llenando el búffer mínimamente. Si las condiciones empeoran, el servidor deja de mandar frames de vídeo, pero mantiene la calidad del audio. Finalmente, si la calidad del audio empieza a degradarse, el cliente reconstruye de manera inteligente las secuencias que tiene almacenadas para no perder calidad.

    Video en Internet Existen dos métodos para la distribución de contenido con audio y vídeo sobre la Web. El primer método usa un Servidor Web estándar para repartir los datos a un medio visualizador. El segundo método usa un servidor de streaming. ¿Cómo funciona un servidor web para distribución de vídeo? Una vez disponemos del vídeo digitalizado el archivo será codificado o comprimido a un fichero para ser distribuido sobre una red con un específico ancho de banda como un modem de 56.6 kbps. Entonces el fichero se almacena en un servidor web. Ahora sólo hemos de crear una página web en un servidor con un enlace al fichero, el cual cuando sea pulsado por un cliente permitirá la descarga automática. El protocolo usado es el HTTP (Hypertext Tansport Protocol), que opera en la parte alta del TCP el cual maneja la transferencia de datos. Este protocolo no esta optimizado para aplicaciones en tiempo real, con lo que el objetivo es maximizar el ratio de transferencia, para lograrlo usa un algoritmo llamado "comienzo lento", TCP manda primero datos con un bajo ratio, y gradualmente va incrementando el ratio hasta que el destinatario comunica una perdida de paquetes. Entonces el TCP asume que ha llegado al límite del ancho de banda y vuelve a enviar datos a baja velocidad, y a volverá a incrementar la velocidad repitiendo el proceso anterior. TCP se asegura una fiable transmisión de datos con la retransmisión de los paquetes perdidos. Sin embargo lo que no puede asegurar es que todos los paquetes recientes llegarán al cliente para ser visualizados a tiempo, con lo que podremos experimentar pérdida de imágenes en las secuencias de vídeo.

    Una solución sobre Internet Internet no puede considerarse un medio adecuado para la transmisión de vídeo en tiempo real. La calidad de los vídeos transmitidos en tiempo real es bastante pobre con lo que debes elegir poca velocidad y mucha calidad o ganar velocidad y perder calidad en imagen. Pese a todo esto existen soluciones desarrolladas que con las mejoras de las técnicas y de la velocidad de los modems han ido evolucionando. Veamos como podríamos montar un servidor de vídeo como podría ser el que hasta ahora ha sido el estándar de transmisión de vídeo sobre Internet, RealVídeo. Para poder distribuir vídeo sobre Internet, y especialmente un sistema de stream vídeo, los componentes que necesitamos son un codificador para digitalizar el vídeo y comprimirlo, un software de servidor web, que puede ser una máquina distinta o la misma que el codificador, y una conexión a la red con suficiente ancho de banda, dependiendo del número de usuarios a los que queremos dar servicio. El usuario final necesitará solamente el programa cliente para descargar y visualizar los flujos de vídeo.

    Videoconferencia Como dijimos, el problema básico del vídeo es el gran ancho de banda que requiere. En videoconferencia suele trabajarse con ventanas de 300×200 pixeles El vídeo estándar utiliza 30 imágenes (frames) por segundo, por tanto, 30 imágenes de 60 KB dan la friolera de 1,8 millones de bytes por segundo, la mayoría de los fabricantes se orienta hacia la adopción de la RDSI Otra solución al cuello de botella del ancho de banda en videoconferencia es la compresión de las imágenes. Complejos algoritmos basados en la transformada discreta del coseno (DTC) suelen ser los más utilizados. Lo más significativo de la compresión es la ratio que se puede alcanzar. El formato JPEG permite definir la calidad de la imágenes, es decir, cuanta pérdida queremos aceptar en la compresión. Los sistemas de videoconferencia establecen la compresión mediante un dispositivo de hardware y/o software llamado códec (codificador/decodificador), encargado además de muestrear las señales de audio y vídeo así como de transmitirlas.

    5. Conclusiones

    Hace algunos años podíamos pensar en la comunicación mediante video digital en tiempo real, pero sólo imaginarlo. Hoy en día puede decirse que es una realidad. Pero no está todo logrado. Tenemos la posibilidad de solicitar una película de cine desde casa, y que se nos sea servida inmediatamente via satélite. Pero no sólo queremos eso, queremos poder disfrutar de la comunicación multimedia y a bajo precio. Ahora mismo esto significa que a través de Internet ya que es la red que nos llega a todos hasta la puerta de nuestras casas. Pero no nos vale ver a nuestro amigo en blanco y negro, o estático, o borroso, queremos verlo como si lo tuviéramos delante. Y para esto, todavía tendremos que esperar un poco. Y es que no puede circular un camión por un carril de bicicleta; al menos hasta que no ensanchemos el carril.

     

     

     

     

    Autor:

    Luis