Descargar

Sistemas de VideoConferencia (página 2)

Enviado por puppet


Partes: 1, 2

El interés en la comunicación utilizando video ha crecido con la disponibilidad de la televisión comercial iniciada en 1.940. Los adultos de hoy han crecido utilizando al televisor como un medio de información y de entretenimiento, se han acostumbrado a tener un acceso visual a los eventos mundiales más relevantes en el momento en que estos ocurren. Nos hemos convertido rápidamente en comunicadores visuales. Es así, que desde la invención del teléfono, los usuarios han tenido la idea de que el video podría eventualmente ser incorporado a éste.

AT&T presentó en 1.964 en la feria del comercio mundial de Nueva York un prototipo de videoteléfono el cual requería de líneas de comunicación bastante costosas para transmitir video en movimiento, con costos de cerca de mil dólares por minuto. El dilema fue la cantidad y tipo de información requerida para desplegar las imágenes de video.

Las señales de video incluyen frecuencias mucho más altas que las que la red telefónica podía soportar (particularmente las de los años 60's). El único método posible para transmitir la señal de video a través de largas distancias fue a través de satélite. La industria del satélite estaba en su infancia entonces, y el costo del equipo terrestre combinado con la renta de tiempo de satélite excedía con mucho los beneficios que podrían obtenerse al tener pequeños grupos de personas comunicados utilizando este medio.

A través de los años 70's se realizaron progresos substanciales en muchas áreas claves, los diferentes proveedores de redes telefónicas empezaron una transición hacia métodos de transmisión digitales. La industria de las computadoras también avanzó enormemente en el poder y velocidad de procesamiento de datos y se descubrieron y mejoraron significativamente los métodos de muestreo y conversión de señales analógicas (como las de audio y video) en bits digitales.

El procesamiento de señales digitales también ofreció ciertas ventajas, primeramente en las áreas de calidad y análisis de la señal; el almacenamiento y transmisión todavía presenta obstáculos significativos. En efecto, una representación digital de una señal analógica requiere de mayor capacidad de almacenamiento y transmisión que la original. Por ejemplo, los métodos de video digital comunes de fines de los años 70 y principios de los 80 requirieron de relaciones de transferencia de 90 megabits por segundo. La señal estándar de video era digitalizada empleando el método común PCM (Modulación por codificación de pulsos) de 8 bits, con 780 pixeles por línea, 480 líneas activas por cuadro de las 525 para NTSC (Netware Transmisión System Codification) y con 30 cuadros por segundo.

La necesidad de una compresión confiable de datos digitales fue crítica. Los datos de video digital son un candidato natural para comprimir, debido a que existen muchas redundancias inherentes en la señal analógica original; redundancias que resultan de las especificaciones originales para la transmisión de video y las cuales fueron requeridas para que los primeros televisores pudieran recibir y desplegar apropiadamente la imagen.

Una buena porción de la señal de video analógica esta dedicada a la sincronización y temporización del monitor de televisión. Ciertos métodos de compresión de datos fueron descubiertos, los cuales eliminaron enteramente esta porción redundante de información en la señal, con lo cual se obtuvo una reducción de la cantidad de datos utilizados de un 50% aproximadamente, es decir, 45 mbps, una razón de compresión de 2:1. Las redes telefónicas en su transición a digitales, han utilizado diferentes relaciones de transferencia, la primera fue 56 Kbps necesaria para una llamada telefónica (utilizando métodos de muestreo actuales), enseguida grupos de canales de 56 Kbps fueron reunidos para formar un canal de información más grande el cual corría a 1.5 mbps (comúnmente llamado canal T1). Varios grupos de canales T1 fueron reunidos para conformar un canal que corría a 45 mbps (ó un "T3"). Así usando video comprimido a 45 mbps fue finalmente posible, pero todavía extremadamente caro, transmitir video en movimiento a través de la red telefónica pública. Estaba claro que era necesario el comprimir aún más el video digital para llegar a hacer uso de un canal T1 (con una razón de compresión de 60:1), el cual se requería para poder iniciar el mercado. Entonces a principios de los 80's algunos métodos de compresión hicieron su debut, estos métodos fueron más allá de la eliminación de la temporización y sincronización de la señal, realizando un análisis del contenido de la imagen para eliminar redundancias. Esta nueva generación de video codecs (COdificador/DECodificador ), no sólo tomó ventajas de la redundancias, si no también del sistema de la visión humana. La razón de imágenes presentadas en el video en Norte América es de 30 cuadros por segundo, sin embargo, esto excede los requerimientos del sistema visual humano para percibir movimiento. La mayoría de las películas cinematográficas muestran una secuencia de 24 cuadros por segundo. La percepción del movimiento continuo puede ser obtenida entre 15 y 20 cuadros por segundo, por tanto una reducción de 30 cuadros a 15 cuadros por segundo por sí misma logra un porcentaje de compresión del 50 %. Una relación de 4:1 se logra obtener de esta manera, pero todavía no se alcanza el objetivo de lograr una razón de compresión de 60:1.

Los codecs de principios de los 80's utilizaron una tecnología conocida como codificación de la Transformada Discreta del Coseno (abreviado DCT por su nombre en inglés). Usando esta tecnología DCT las imágenes de video pueden ser analizadas para encontrar redundancia espacial y temporal. La redundancia espacial es aquella que puede ser encontrada dentro de un cuadro sencillo de video, "áreas de la imagen que se parecen bastante que pueden ser representadas con una misma secuencia". La redundancia temporal es aquella que puede ser encontrada de un cuadro de la imagen a otro " áreas de la imagen que no cambian en cuadros sucesivos". Combinando todos los métodos mencionados anteriormente, se logró obtener una razón de compresión de 60:1.

El primer codec fue introducido al mercado por la compañía Compression Labs Inc. (CLI) y fue conocido como el VTS 1.5, el VTS significaba Video Teleconference System, y el 1.5 hacia referencia a 1.5 mbps ó T-1. En menos de un año CLI mejoró el VTS 1.5 para obtener una razón de compresión de 117:1 (768 Kbps), y renombró el producto a VTS 1.5E. La corporación británica GEC y la corporación japonesa NEC entraron al mercado lanzando codecs que operaban con un T-1 (y debajo de un T-1 si la imagen no tenia mucho movimiento). Ninguno de estos codecs fueron baratos, el VTS 1.5E era vendido en un promedio de $180.000 dólares, sin incluir el equipo de video y audio necesarios para completar el sistema de conferencia, el cual era adquirido por un costo aproximado de $70.000 dólares, tampoco incluía costos de acceso a redes de transmisión, el costo de utilización de un T-1 era de aproximadamente $1.000 dólares la hora.

A mediados de los 80's se observó un mejoramiento dramático en la tecnología empleada en los codecs de manera similar, se observó una baja substancial en los costos de las medios de transmisión. CLI (Compression Labs Inc) introdujo el sistema de video denominado Rembrandt los cuales utilizaron ya una razón de compresión de 235:1 (384 Kbps). Entonces una nueva compañía, Picture Tel (originalmente PicTel Communications), introdujo un nuevo codec que utilizaba una relación de compresión de 1600:1 (56 Kbps). PictureTel fue el pionero en la utilización de un nuevo método de codificación denominado Cuantificación jerárquica de vectores (abreviado HVQ por su nombre en inglés). CLI lanzó poco después el codec denominado Rembrandt 56 el cual también operó a 56 Kbps utilizando una nueva técnica denominada compensación del movimiento. Al mismo tiempo los proveedores de redes de comunicaciones empleaban nuevas tecnologías que abarataban el costo del acceso a las redes de comunicaciones. El precio de los codecs cayó casi tan rápido como aumentaron los porcentajes de compresión.

  • Sistemas de videoconferencia
  • Elementos básicos de un sistema de Videoconferencia.
  • Para fines de estudio y de diseño los sistemas de videoconferencia suelen subdividirse en tres elementos básicos que son:

    • La red de comunicaciones,
    • La sala de videoconferencia y
    • El CODEC.

    A su vez la sala de videoconferencia se subdivide en cuatro componentes esenciales: el ambiente físico, el sistema de video, el sistema de audio y el sistema de control.

    A continuación se describe brevemente cada uno de los elementos básicos de que consta un sistema de videoconferencia.

    La red de comunicaciones.

    Para poder realizar cualquier tipo de comunicación es necesario contar primero con un medio que transporte la información del transmisor al receptor y viceversa o paralelamente (en dos direcciones). En los sistemas de videoconferencia se requiere que este medio proporcione una conexión digital bidireccional y de alta velocidad entre los dos puntos a conectar. Las razones por las cuales se requiere que esta conexión sea digital, bidireccional y de alta velocidad se comprenderán más adelante al adentrarnos en el estudio del procesamiento de las señales de audio y video.

    El número de posibilidades que existen de redes de comunicación es grande, pero se debe señalar que la opción particular depende enteramente de los requerimientos del usuario.

    Es importante hacer notar que, como se observa en la figura 1 el círculo que representa al CODEC no toca al que representa a la red, de hecho existe una barrera que los separa la que podemos denominarle como una interface de comunicación, esto es para representar el hecho de que la mayoría de los proveedores de redes de comunicación solamente permiten conectar directamente equipo aprobado y hasta hace poco la mayoría de los fabricantes de CODECs no incluían interfaces aprobadas en sus equipos.

    Figura 1 Elementos básicos de un sistema de videoconferencia.

    La Sala de Videoconferencia.

    La sala de videoconferencia es el área especialmente acondicionada en la cual se alojará el personal de videoconferencia, así como también, el equipo de control, de audio y de video, que permitirá el capturar y controlar las imágenes y los sonidos que habrán de transmitirse hacia el(los) punto(s) remoto(s).

    El nivel de confort de la sala determina la calidad de la instalación. La sala de videoconferencia perfecta es la sala que más se asemeja a una sala normal para conferencias; aquellos que hagan uso de esta instalación no deben sentirse intimidados por la tecnología requerida, más bien deben sentirse a gusto en la instalación. La tecnología no debe notarse o debe de ser transparente para el usuario.

    Debemos aquí hacer un alto, ya que actualmente se distinguen varios tipos de videoconferencia, las cuales se diferencian entre si por el ámbito físico desde el que se transmiten, el equipamiento que utilizan (cámaras, micrófonos), etc. De acuerdo con estos aspectos existen 3 tipos de videoconferencia:

    • Las que se realizan desde y hacia sala especialmente preparadas. Generalmente este tipo de conferencias reúnen a un gran número de personas (seis o más), e implican el uso de equipamiento costoso que ofrece una gran calidad de imagen y sonido.
    • Las que se realizan utilizando un módulo rollabout
    • Las que se realizan desde el escritorio. Este tipo de videoconferencia generalmente seta intimamanete asociado con el concepto de videotelefonía. Si bien en la actualidad existen dispositivos para este fin, estos no se han popularizado debido en parte a que son muy costosos, tanto los dispositivos como las comunicaciones. Es por eso que actualmente la gran mayoría de las videoconferencias de escritorio se realizan mediante el uso de un P.C. un pequeña cámara, comercialmente conocida como Webcam, y un programa de comunicaciones (como el Netmeeting de Microsoft)

    Configuración de VTC

    Esquema físico

    Dispositivo de visualización típico

    Cámaras

    Cantidad de participantes

    Micrófonos/ Parlantes

    Habitación preparada

    Gran sala de conferencia

    Proyectores o grandes monitores de TV.

    Generalmente muchas cámaras

    Gran cantidad de personas

    Muchos micrófonos

    Rollabout

    Módulo autocontenido dentro de una sala de conferencias

    Uno o dos TVs incluidos en el módulo rollabout.

    Una o dos camaras

    Pequeño grupo de personas

    Generalmente sólo un micrófono

    Escritorio

    Cámara/monitor situados en un escritorio (generalmente controlados por un P.C.)

    Un perqueño TV o monitor de televisión

    Una cámara pequeña

    Una sola persona

    Pequeño micrófono

    1. Esquema básico de sala de videoconferencia

     

    El Codec

    Las señales de audio y video que se desean transmitir se encuentran por lo general en forma de señales analógicas, por lo que para poder transmitir esta información a través de una red digital, ésta debe de ser transformada mediante algún método a una señal digital, una vez realizado esto se debe de comprimir y multiplexar estas señales para su transmisión. El dispositivo que se encarga de este trabajo es el CODEC (Codificador/Decodificador) que en el otro extremo de la red realiza el trabajo inverso para poder desplegar y reproducir los datos provenientes desde el punto remoto. Existen en el mercado equipos modulares que junto con el CODEC, incluyen los equipos de video, de audio y de control, así como también equipos periféricos como pueden ser:

    • Tabla de anotaciones.
    • Convertidor de gráficos informáticos.
    • Cámara para documentos.
    • Proyector de video-diapositivas.
    • PC.
    • Videograbadora.
    • Pizarrón electrónico, etc.

     Forma de conexión.

    En cuanto a la conexión existen básicamente 2 modelos:

    • Videoconferencia Punto a Punto.

    Es cuando la videoconferencia se va a realizar entre 2 únicos terminales de videoconferencia. Previamente se establece la llamada telefónica mediante el numero RDSI. Es decir, un equipo de videoconferencia hace la llamada a través del número RDSI al otro equipo y se inicia la comunicación.

    • Videoconferencia Multipunto.

    En este modelo la videoconferencia va a ser entre más de 2 terminales. Se hace necesario pues, un equipo que sea capaz de hacer de unión entre todos los terminales que participaran en la Multivideoconferencia (equipo conmutador de Vídeo de puertos RDSI). Este equipo, a partir de ahora puente de videoconferencia, se encargará de recibir la señal de todos los equipos de videoconferencia y de distribuir todas estas señales a todos los equipos, con el fin de que todos puedan participar al mismo tiempo en dicho evento. Este puente de videoconferencia se suele contratar a empresas de telecomunicaciones, dado su alto coste.

    1. La Unión Internacional de Telecomunicaciones (ITU) forma parte de la Organización de Naciones Unidas, y se encarga de desarrollar "Recomendaciones" formales para asegurar que las comunicaciones a nivel mundial se cumplan de manera efectiva y eficiente. En 1984 se establecieron las primeras recomendaciones

      1. En primer lugar describiremos la digitalización del audio, que en principio es analógico. Para esto se muestrea (se toman muestras de la señal) y después se codifica (se asigna un valor binario a esa muestra). Se empezó con tomar la voz como el ancho de banda de un Canal Vocal Telefónico, de 300 a 3100 Hz, aunque hay bandas de separación, de manera que se ocupa de 0 a 4 Khz. Para recuperar la información con la calidad original, hay un teorema que dice que hay que tomar muestras de la señal al menos al doble de la frecuencia máxima, es decir, si la frecuencia máxima es 4 Khz., debemos tomar el valor de la señal a 8 KHz, es decir, 8000 veces por segundo.

        Una vez obtenida la muestra de la señal, a ese valor de la muestra se le asigna un código, es decir, se codifica. En este caso el código es de 8 bits, por lo que existen 256 posibles valores de la muestra. También implica que 8000 muestras/segundo x 8 bits/muestra son 64 Kbps. Por tanto, la voz analógica, de 0 a 4 Khz., la hemos pasado a un conjunto de bits digital, de velocidad 64 Kbps.

        Esto se conoce como modulación por impulsos codificados, MIC en español (Pulse Code Manipulation o PCM en ingles). Está establecido en la norma G.711 de ITU.

        Existe otra posibilidad que en lugar de codificar el valor de la muestra, codifica la diferencia con el valor anterior de la muestra. Como la voz es una señal analógica continua, entre un valor y el siguiente habrá muy poca diferencia y podrá ser codificada con menos bits, consiguiendo una mejora. Si en vez de muestrear a 8 KHz (en realidad 7.1 KHz, que es audio de alta calidad) se muestrea a 16 KHz, y se codifica con 4 bits, se obtienen 16 niveles de cuantificación (valores posibles de la muestra), manteniendo 64 Kbps, en este caso con mayor calidad. Esto se llama codificación adaptativa, y es la norma ITU G.722.

        El último método de codificación se basa en el espectro de la voz, que es la forma que tiene la señal entre esos límites de 0 a 4KHz. Ese espectro puede ser modelado, aproximado, o reproducido, mediante fórmulas matemáticas conocidas, sólo cambiando unos parámetros. Codificar estos parámetros es más sencillo que en casos anteriores, por lo que hacen falta menos bits que antes. La frecuencia de muestreo sigue siendo de 8 KHz, como en G.711, pero ahora los bits por muestra son 2 (4 de niveles de cuantificación). Esto da un régimen binario de 16 Kbps, que ya es mejora sobre los anteriores. Esto es ITU G.728.

      2. Codificación de audio.

        El video también es una señal analógica que habrá que muestrear y codificar, para pasarla a bits.

        Existen básicamente dos formatos de video, PAL y NTSC. Fundamentalmente las diferencias son que PAL son 25 cuadros (tramas o fotogramas) por segundo (fps) y 625 líneas, en NTSC son 30 fps y 525 líneas.

        Para poder introducir las señales de video en un sistema de videoconferencia, se normalizaron dos formatos intermedios: CIF y QCIF (Common Intermediate Format y Quarter CIF). CIF posee una resolución de 352×288 y QCIF 176×144.

        Pero la transmisión de imágenes planteaba el siguiente problema: si se pretende realizar una videoconferencia a 15 fps, y codificación RGB, con 8 bits por color utilizando el formato CIF, serán necesarios algo mas que 36 Mbps (352 x 288 x 15 x (8+8+8)= 36.495.360 bps.). Por lo que se debe reducir la cantidad de información a transmitir, mediante compresiones y codificaciones

        Se emplean técnicas de codificación estadística (de longitud variable) las cuales ejemplificaremos de la siguiente manera: si tomamos un texto cualquiera (por ejemplo este trabajo), encontraremos en él, letras (símbolos), de las cuales algunas se repiten más que otras; seguramente las vocales, la 's', la 'n', el ' ', la 'c' etc., y otras que aparecen mucho menos, como la 'x', la 'ñ', la 'w', etc. Si para transmitir este texto se asigna a cada letra la misma codificación, se pierde eficiencia (así es como es el ASCII, 8 bits por letra/símbolo). Sin embargo, si se codifican las letras más frecuentes con el menor número de bits posibles, por ejemplo al ' ' se le asigna el código binario '1', a la 'a' el código binario '011', a la 'e' el binario '010', a la 'r' el '00010', y a la 'w' el '0000000111101', se ahorra espacio al transmitir.

        Si de un fotograma estático, por ejemplo un paisaje de montaña, tomamos al azar un punto del cielo, este será azul. Casi seguro al 100% que los puntos de alrededor también son azules, lo que implica que si se transmite la información del punto central, se puede ahorrar la de los puntos de alrededor. Esto es redundancia espacial, y se hace tomando el fotograma, dividiéndolo en bloques de 8×8 puntos, hallando su transformada discreta del coseno (DCT en ingles) para pasarlo a frecuencias, aprovechando que el ojo humano es más sensible a las frecuencias bajas, estas se codifican con mayor precisión frente a las altas, y después se codifican utilizando un código de longitud variable.

        Si tomamos dos fotogramas seguidos de ese paisaje, seguramente los cambios entre ellos sean mínimos, cuando no sean la misma imagen. Con lo cual, transmitiendo la primera imagen y sólo las diferencias de la segunda con la primera, nuevamente se reduce la cantidad de información a transmitir. Esto es redundancia temporal y opera dividiendo la imagen en bloques de 8×8, generando "macrobloques" de 4×4 bloques. En la imagen siguiente, se busca a dónde está situado el macrobloque, en un área de 16 puntos alrededor de la situación original. Esa diferencia se llama vector de movimiento y se vuelve a codificar en un código de longitud variable.

        Todas estas técnicas conforman la recomendación H.261, que es codificación de video para velocidades entre 40 Kbps y 2 Mbps. Un equipo que cumpla H.261 ha de soportar QCIF de forma obligada, CIF de forma opcional y la estimación de movimiento también opcionalmente.

      3. Codificación de vídeo.

        Esta es una recomendación ITU sobre videoconferencia la cual se aplica a medios que ofrecen un caudal garantizado y un retardo constante (por ejemplo RDSI, líneas punto a punto, etc).

        Suele ser la que cumplen los equipos o la que deberían cumplir como mínimo. Se compone de lo siguiente:

        Empezando con el vídeo, la H.320 obliga a que la codificación de video se haga según la H.261. De esta manera, podremos ver al interlocutor.

        Sobre el audio, se obliga a que se cumpla la recomendación G.711. Las recomendaciones G.722 y G.728 son opcionales, pero si el equipo las cumple la calidad de audio será superior (G.722) ó será menor el requerimiento de ancho de banda (G.728).

        Como normalmente la codificación de audio es más sencilla que la de vídeo, hay un retardo de canal para sincronizar ambas señales.

        Poniendo un poco de orden está la H.242, que establece la coordinación ('handshaking') entre terminales, durante el establecimiento de la sesión de videoconferencia. Como las características y recomendaciones que soporta cada terminal son distintas, se encarga de negociar las mejores características que se deben mantener durante la videoconferencia.

        Si tenemos una multivideoconferencia, quien pone orden es H.230, que establece la manera de realizar el refresco de las imágenes, la conmutación entre audio y video, etc.

        Los datos de usuario, como compartición de aplicaciones, pizarra electronica, etc., van de acuerdo a la recomendación T.120.

        Todos estos flujos de información (audio, video, control, datos de usuario, etc.) entran en la H.221, que la encargada del interfaz con la red. Establece la multiplexación de los distintos flujos de información sobre la trama de salida, que pueden ser 1 o varios (hasta 30) canales de datos (usualmente de RDSI) de 64 Kbps.

      4. Recomendación H.320.

        Para videoconferencias sobre LAN o Internet, que son medios que no garantizan un ancho de banda ni un retardo fijo, la recomendación H.320 no es válida.

        Por eso surge la H.323, que se diferencia de la H.320 en que se implementan nuevas codificaciones de audio y video, y las correspondientes al control de llamada (pasan a ser H.245 y H.225) y medio de transporte (H.225 frente a la H.221).

        Como nuevas recomendaciones de vídeo, está la H.263, que es un superconjunto de la H.261. Contempla más formatos de imagen, a saber: 16CIF (1408×1152), 4CIF (704×506), CIF y QCIF, y Sub-QCIF que es de 128×64. Además, la reducción de la redundancia temporal tiene en cuenta no sólo los fotogramas pasados si no también los futuros (los llamados cuadros B, mediante el uso de un buffer). También aumenta el tamaño de la región a explorar para encontrar el macrobloque de un fotograma a otro, pasando a ser de 32 puntos frente a los 16 anteriores, contando entonces con mayor posibilidad de éxito.

        En audio, aparece la G.723, que es codificación adaptativa como la G.722, pero quedando en 4.3 o 5.3 Kbps, y la G.729, equivalente a la G.728 pero reduciendo el régimen binario de 16 a 8 Kbps.

        Ejemplo de una terminal que cumple con el estándar H.323.

      5. Recomendación H.323

        T.120 surge de la necesidad, en una videoconferencia, de trabajo colaborativo. Pasarse una hoja de cálculo, hacer un dibujo estilo pizarra, y que sea compartido entre ambos conferenciantes, etc. Mucho más todavía cuando en vez de una videoconferencia de dos, tenemos una multivideoconferecia. Y en realidad, no está asociada totalmente a 'Videoconferencia', aunque esta su entorno natural, si no que es un estándar de compartición de datos.

        Si se utiliza T.120 los datos pueden ser distribuidos en tiempo real a cada uno de los participantes, existiendo interoperabilidad entre equipos de distintos fabricantes, asegurandose la integridad de los datos. Además este estándar es independiente de la red (RTC, LAN, RDSI, etc.) y de la plataforma (Unix, PC, Macintosh, etc.).

        En este tipo de conferencias siempre hay uno que manda (es el 'proveedor principal'), que es el que ofrece los servicios de MCS (Multipoint Conference Services). La conexión de los terminales a este puede ser en estrella, en cadena, en cascada, etc. Si el proveedor se cae, la conferencia (de datos) se interrumpe.

        En las conferencias de datos hay un 'dominio', que basicamnte es la conferencia en sí, y 'canales' dentro del dominio, que pueden ser públicos (para difusión, broadcast) o privados entre usuarios.

        Estos canales son los siguientes:

        1. Canal de errores de control. Prioridad máxima.

        2. Canal de anotaciones. Prioridad alta.

        3. Canal de Imagenes de Mapa de bits. Prioridad media.

        4. Canal de transferencia de ficheros. Prioridad baja.

        Algunos de los componentes de la T.120 son:

        T.123: Protocolos de transporte de red. Presenta al nivel superior un interfaz común, e independiente del medio de transporte.

        T.122: Servicio de datos genérico orientado a conexión que junta varias comunicaciones punto a punto para formar un dominio multipunto. Entre otras cosas, proporciona difusión de datos con control de flujo, direccionamiento multipunto, busca el camino más corto entre estaciones, etc. Los problemas de reserva y resolución de recursos se solucionan mediante testigos.

        T.125: Protocolo de servicio de comunicación multipunto. Especifica los mensajes de protocolo necesarios según T.122

        T.124: Control Genéricode Conferencia (GCC). Establece y libera las conexiones, maneja la lista de participantes, listas de aplicaciones y funcionalidades de las mismas, etc..

        Aquí va, con caracter opcional, T.121: Plantilla General de Aplicaciones (GAT, General Aplication Template). Define una plantilla con la funcionalidad de una aplicación. Permite que quien se enfrente a programar algo de esto, se asegure de ajustarse a la recomendación.

        T.126: Protocolo de intercambio de imágenes fijas y anotaciones.

        T.127: Transferencia multipunto de ficheros binarios. Permite la difusión de varios ficheros de forma simultanea, transmisión privada de ficheros entre grupos de participantes, etc..

        T.128: Control audiovisual para sistemas multimedia multipunto. Esto controla el manejo de canales de audio y video en tiempo real dentro de una videoconferencia.

        Las aplicaciones de usuario podrían utilizar los servicios de T.126, 127 y 128, ir directamente sobre T.124 ó sobre T.122/125, utilizar T.121…

      6. Estándar T.120
      7. Multivideoconferencia.
    2. Recomendaciones de ITU. Codificación de audio y video.

    Para poder hacer una videoconferencia entre varios participantes a la vez, es necesario una Unidad de Control Multipunto o de Multiconferencia (MCU). A esta unidad se conectan (o llaman, si es vía RDSI) los participantes, y es la responsable de enviar a los participantes las señales de audio y video. Normalmente el audio es reenviado a todos los participantes, y para saber qué imagen es la que se envía a los participantes, hay dos maneras:

    Conmutación manual: Hay un control manual por parte de uno de los participantes de qué imagen se recibe en el resto de monitores. Esto está en la H.243.

    Conmutación automática. El que tenga un nivel de audio más alto es quien impone su imagen a los demás.

    De una unidad MCU interesa que:

    • El número de usuarios conectados sea el mayor posible. 4, 16, 48, hasta 256 son números de equipos comerciales. 255 es un número muy, muy alto, alcanzable con la conexión de MCU en cascada.
    • Ancho de banda por usuario. No es lo mismo una multivideoconferencia con 64 Kbps por usuario que con 384 Kbps. A mayor ancho de banda, mayor 'potencia' habrá de tener la MCU, (y mayor número de accesos si es vía RDSI)
    • Llamadas salientes. Puede ser interesante que sea la MCU quien llame al usuario, en vez de sólo recibir llamadas.
    • Facilidad de gestión. Programar videoconferencias futuras, reservando recursos para evitar su uso indeseado cuando de verdad necesite utilizarse.
    • Transcodificación. Normalmente en una multivideoconferencia habrá participantes a 64, a 128, a 384 Kbps, etc. Para evitar problemas se suele ir a la velocidad del menor, lo que suele perjudicar al que se ha gastado la pasta para ir a 384. Esta facilidad permite que cada usuario aproveche al máximo sus capacidades, aunque otros participantes no puedan soportarlas.

    Por supuesto, que soporte compartición de datos con T.120.

    1. Ejemplo del uso de la videoconferencia en el ámbito educativo. La Universidad ORT.

    Desde 1996 y durante algunos años,  la Universidad ORT dictó cursos regulares al interior del país por videoconferencia. Se trató de una experiencia pionera en el ámbito regional, cuyo  objetivo fue generar oportunidades de formación profesional superando las dificultades de acceso causadas por la distancia física.

    La red utilizada permitía la comunicación, con audio y video bidireccional, entre los estudiantes ubicados en los departamentos de Artigas, Colonia, Maldonado, Paysandú, Rivera y Salto, y el docente situado en la Universidad ORT en Montevideo. La red permitía también la participación de docentes ubicados en el extranjero, mediante conexiones internacionales.

    El certificado final que obtienen los participantes de un curso dictado por videoconferencia, es equivalente al que obtienen quienes realizan dicho curso en forma presencial en Montevideo. La Universidad ORT garantiza, para sus cursos por videoconferencia, el mismo nivel de calidad, exigencia y reconocimiento que tienen los cursos dictados en modalidad presencial.

    El dictado de cursos a través de la videoconferencia interactiva multipunto obligó a los docentes a una adaptación de su metodología. La Universidad ORT se ha preocupado por investigar este aspecto en forma sistemática, para optimizar el medio y favorecer el proceso de enseñanzaaprendizaje.

    En la actualidad este panorama se ha visto modificado. En los últimos años la Universidad ha cambiado la estructura de su equipamiento, y ha pasado de tener 2 equipos multipunto de cuatro salidas cada uno, ha tener sólo 2 equipos punto a punto. Esto se debe principalmente a que esa infraestructura era demasiado costosa, y actualmente existen empresas como ANTELData que brindan servicios de multivideconferencia.

    En cuanto a los cursos que se dictaban en el interior del país, estos se han interrumpido debido a razones:

    • Pedagógicas: ya que la experiencia demostró que el dictado de cursos regulares a distancia resultaba muy tedioso para los estudiantes.
    • Económicas y de mercado: pues la creciente concentración de población en Montevideo, y el consecuente despoblamiento en el interior del país, impedía la formación de grupos numerosos en los centros del interior que justificara el costo de una conexión para videoconferencia.

    Bibliografía

     

     

    Datos del autor:

    Guillermo Fragello.

     

    Partes: 1, 2
     Página anterior Volver al principio del trabajoPágina siguiente