Indice2. MPEG y entrega de la señal3. MPEG-4 y sus competidores4. Experimentos y modelos5. Metodología, resultados y comentarios6. Fuentes de información7. Glosario
Introducción al problema El concepto básico de la compresión de datos se remonta como mínimo a la época de los Romanos, quienes se dieron cuenta de que era posible ahorrar espacio en las piedras utilizadas para la escritura si por ejemplo al número cinco lo representaban por medio de una "V"en lugar de "IIIII" /BYTÑ94/. Hoy en día, la transmisión y almacenamiento de datos cuesta dinero. Cuanto más información se maneja, mayor es el costo /SMIÑ99/. La compresión de datos para que puedan ser transmitidos sobre diferentes redes de una manera económica y sin retrasos es un fenómeno establecido y al mismo tiempo algo que causa mucho interés en un mundo donde la información es un artículo muy valioso. La necesidad de comprimir surge de que cuanto más compleja es la información, mayor es la cantidad de espacio digital (en términos de ceros y unos) que se necesitan para representarla, ya sea con el fin de almacenarla, recuperarla o transmitirla. Por ejemplo, el texto requiere 8 bits por carácter (unos 20kbits por página); los discos compactos de audio requieren unos 1500 kbits por segundo (1500Kps); las señales de televisión sin comprimir más de 200 Mbits por cada segundo de transmisión.
A continuación se explica de qué forma se llega a los valores mencionados: Uno de los estándares para la digitalización de señales de video es conocido como "Muestreo 4:2:2" (CCIR-601). La señal de luminancia se muestrea en 13,5 MHz y cada una de las dos señales diferencia color a 6,75 MHz ( 2 * 3,375 MHz ). La suma da 27 MHz. Tomando muestras de 10 bits, el resultado es 270 Mbps. En el caso de muestras de 8 bits el resultado es 216 Mbps.
Para una calidad de disco compacto de música se deben tomar 44,100 muestras por segundo * 16 bits / muestra * 2 canales = 1411,2 Kps.
Mientras que la necesidad de comprimir resulta evidente tanto en el almacenamiento como en la recuperación de la información, es claro que en su transmisión sin retrasos es donde se encuentra la mayor parte de los problemas. Sin compresión, una señal digital abarca aproximadamente cinco veces el ancho de banda de la misma en formato analógico. En el caso particular de una señal de TV, esto significa que serían necesarios cinco canales de TV para transportar solamente un canal de televisión digital /PARÑ98/. La figura 1.1 ilustra el problema asociado con la transmisión de datos digitales sobre las redes existentes en la actualidad.
- Figura 1.1: Comprimir para poder transmitir información digital
Tanto el tiempo como el ancho de banda constituyen recursos limitados. Así por ejemplo, bajo condiciones ideales, las conexiones por medio de un MODEM a través de una línea telefónica convencional están limitadas a un máximo de 56Kps, velocidad que en la realidad no se alcanza.
Los MODEMS ADSL pueden alcanzar velocidades de bajada de 8Mps y hasta 1Mps de subida, mientras que las conexiones por medio de redes de televisión por cable tienen un potencial que puede llegar a 30Mps hasta el abonado (aunque normalmente dicho ancho de banda es compartido entre varios miles de usuarios). Por lo tanto, si una conexión de estas características fuese utilizada por una sola persona, siete segundos sería el tiempo que le tomaría para bajar un segundo de video digital con calidad de TV. Como en la práctica dicho ancho de banda es compartido entre una gran cantidad de usuarios, un segundo de video puede llegar a consumir varias horas.
La tabla 1.1 ilustra los diferentes potenciales de ancho de banda de los servicios y redes existentes en la actualidad /GIBÑ01a/ (Página 3).
Service/Network
Rate
POTS (plain old telephone system)
28.8-56Kps
ISDN (Integrated Services Digital Network)
64-128Kps
ADSL (Asymmetric Digital Subscriber Line)
1.544-8.448Mps (downstream)
16-640Kps (upstream)
VDSL (Very High Rate DSL)
12.96-55.2Mps
CATV (Cable Television)
20-40Mps
OC-N/STS-N (Optical Cable-Number of times the single link bandwidth/synchronous transport protocol-number of times the single link bandwidth
Nx51.84Mps
Ethernet
10Mps
Fast Ethernet
100Mps
Gigabit Ethernet
1000Mps
FDDI (Fiber Distributed Data Interface)
100Mps
802.11 (wireless)
1,2,5.5, and 11Mps in 2.4 GHz band
802.11a (wireless)
6-54Mps in 5 GHz band
- Tabla 1.1: Networks and Network Services
Según Chen /CHEÑ02/ "sin ningún tipo de dudas la compresión digital de video es el elemento más importante en el desarrollo de comunicaciones de video modernas" (Página 1). Algunas de las ventajas del video digital comprimido sobre el analógico son:
Reducción de costos en la distribución de video,
- Mejor calidad de video y mayor seguridad en la señal ,
- Potencial para interactuar.
En la vida de la informática han surgido y desaparecido una gran cantidad de estándares gráficos y sonoros. MPEG ha sido uno de los pocos que no ha sucumbido con el paso de los años. Al contrario, nuevos dispositivos como el DVD, la televisión de alta definición y la distribución de contenido audiovisual por la Internet le han dado mayor fuerza a uno de los sistemas de compresión que ofrece la mayor calidad en el mínimo espacio.
Los estándares para la compresión tanto de audio como de video han sido establecidos por el Grupo de Expertos en Imágenes en Movimiento bajo los auspicios de la Organización Internacional para la Estandarización. Los padres del invento son el italiano Leonardo Chiariglione y el japonés Hirashi Yasuda. En la actualidad el grupo esta formado por cientos de expertos de varias partes de mundo.
El primer conjunto de estándares publicados fueron los de MPEG-1 (ISO/IEC-11172), donde no se enfocaba hacia el transporte y comunicación, sino más bien se hacía hincapié en los aspectos relacionados con el almacenamiento y recuperación tanto de video como de audio. El estándar ha sido utilizado primordialmente para el almacenamiento en CD-ROMs y audio. Dentro de este último se ha usado principalmente en la forma de MP3. Al mismo tiempo ha sido usado para discos compactos de video de baja resolución (320×240 píxeles), suministrando aproximadamente una hora de video en un disco compacto del tipo R de 650MB o del tipo RW.
Las especificaciones técnicas oficiales de los esquemas MPEG están contenidas en documentos que pueden adquirirse en la Organización Internacional para la Estandarización.
MPEG-2(ISO/IEC-13818), que incluye al estándar MPEG-1 (tradicionalmente los estándares MPEG son compatibles con sus ancestros de forma de no hacer que tanto el soporte lógico informático como los equipamientos físicos queden obsoletos), tiene un componente el cual "define PSs (program streams) apropiados para aplicaciones sobre un medio confiable y TSs (transport streams) apropiadas para su distribución" /KALÑ01/. MPEG-2 se ha popularizado bastante y es utilizado para la transmisión digital por satélite y para el almacenamiento de video en medios como el DVD (dos horas de video en un disco de 4.7GB).
Es más, MPEG-2 ha funcionado tan bien que los trabajos sobre MPEG-3, creado para regular la televisión de alta definición, fueron abandonados en poco tiempo (ya no se utiliza) luego de que los expertos se dieron cuenta de que con unas pequeñas modificaciones, el formato MPEG-2 podía cumplir con todos los requisitos de la televisión de alta definición. MPEG es utilizado en una importante cantidad de aplicaciones comerciales, entre las que se incluyen la reproducción de contenido desde unidades de almacenamiento, difusión de programación audiovisual sobre variedad de canales, conexiones punto a punto conmutadas para entregar material audiovisual digital, televisión de alta definición y aplicaciones multimedia.
MPEG-4(ISO/IEC-14496) difiere en forma significativa con MPEG-1 y MPEG-2. MPEG-4 da un salto de la pasividad a la actividad ya que se definen objetos audiovisuales con los que se puede interactuar, mezclando sonido, imagen real, texto y gráficos en dos y tres dimensiones. La compresión y descompresión son diferentes dado que las imágenes están divididas en "componentes de vídeo-objetos (VOC) y componentes de audio-objetos (AOC)" que son tratados de forma independiente y donde deben definirse relaciones entre los mismos. En lugar de comprimir un marco (imagen) de forma completa, MPEG-4 utiliza un enfoque basado en capas, donde se separa el primer plano de la escena de su ambientación. A modo de ejemplo, si se tiene a una persona caminando en primer plano y en un entorno relativamente estático, MPEG-4 los trata como dos capas diferentes y utiliza distintas compresiones para cada una de ellas. Uno de los problemas del estándar MPEG-2 es la compresión de objetos que se mueven a gran velocidad. Bajo esas circunstancias es que se tiende a dividir o producir lo que en inglés se denomina artifacts definidos por /SYMÑ98/ como "elementos de la entrada que no son realmente parte de la información".
MPEG-7(ISO/IEC-15938) ya se encuentra en desarrollo y es denominado como una interfaz de descripción de contenido multimedia "preocupada con la interpretación de la información de tal forma que pueda ser usada o buscada por dispositivos o computadoras") /GBÑ01b/ (Página 127).
Dado que MPEG-4 puede comprimir el fondo de una forma diferente a la del primer plano, pueden conseguirse imágenes de alta calidad sin dichos artifacts. La pregunta que muchos se hacen es: ¿Qué tan alta puede ser la calidad de la imagen transmitida?. Gomez /GOMÑ02/ afirma que "según los que proponen el estándar, a una tasa de unos 300Kps, teóricamente sería posible visualizar en tiempo real imágenes con calidad VHS. Dicha velocidad es alcanzable hoy en día mediante tecnologías como xDSL o CABLE MODEM".
Existe un elemento que no ha sido tratado y es crucial sin importar que tipo de compresión sea utilizada. Dicho elemento es el equipamiento necesario para codificar la señal en un extremo y decodificarla en el otro. El mismo debe poder empaquetar la señal antes de ser enviada y desempaquetarla antes de ser vista. Las figuras 1.1 y 1.2 muestran de forma simplificada la estructura de los codificadores y decodificadores MPEG respectivamente.
- Figura 1.2: Codificador MPEG simplificado
Para que el sistema funcione, tanto el codificador como el decodificador deben ser compatibles. Quienes diseñaron originalmente el formato MPEG aseguraron dicha compatibilidad por medio de una definición de la señal entre los dispositivos en lugar de definir los dispositivos en sí. Watkinson /WATÑ02/ dice que "los ingenieros crean un simple decodificador que funciona bien, pero ocasionalmente encuentran un tipo particular de imagen que no puede ser comprimida. En ese momento, los ingenieros desarrollan una nueva herramienta que soluciona el problema. Como resultado, el codificador encuentra imágenes que no puede comprimir con menor frecuencia, pero siempre se encuentran con alguna imagen que no puede ser comprimida mediante la versión mejorada. Es así que los ingenieros constantemente tienen que adaptar sus herramientas a las dificultadas que encuentran en el camino" (Página 2).
MPEG-4 difiere mucho de MPEG-1 en términos de complejidad y tipos de objetos que puede manejar. MPEG-4 puede comprimir y transmitir objetos virtuales en tres dimensiones como entramados, los cuales pueden ser recreados del lado del usuario usando un mapa de la superficie o textura del objeto. Al mismo tiempo el objeto puede ser reproducido desde determinado punto de vista, el cual puede ser el punto de vista del usuario, creando un sistema interactivo. Finalmente, el diseño de MPEG-4 permite que el mismo sea distribuido utilizando UDP (user datagram protocol) sobre IP (internet protocol), PSTN (public switched telephone network), ATM (asynchronous transfer mode) y corrientes de MPEG-2. Todo esto tiene un precio, el cual radica en la complejidad del codificador y del decodificador.
"MPEG-4 probablemente represente el límite en la complejidad de la codificación. A pesar de poder reducir una imagen en movimiento a unos pocos vectores, requiere que el decodificador sea un potente dispositivo de "graphics-rendering". Incluso teniendo en cuenta que las herramientas para manipular objetos de MPEG-4 son muy eficientes, son fácilmente aplicables sólo a imágenes generadas por computadores. En principio, se podría construir un decodificador para esa tarea, pero sería algo muy complejo" /WATÑ02/ (Páginas 5 y 6).
Objetivo del estudio– El objetivo es buscar algún método alternativo para la transmisión de video digital en formato MPEG-4 utilizando una red analógica de TV por cable. No se busca una transmisión, almacenamiento y posterior visualización, sino una transmisión en tiempo real. Por lo tanto el tiempo para que la señal llegue al abonado no puede ser superior a la velocidad a la cual el video es enviado. Existen estándares que pueden ser utilizados sobre redes de televisión por cable, como DVB-C (digital video broadcasting for cable) y redes IP (internet protocol). El presente estudio examina estos métodos para poder determinar cual puede ser la mejor forma de transmitir contenido MPEG-4 utilizando el medio mencionado.
Básicamente, la entrega de material en formato MPEG-4 como una corriente, no difiere de la de la entrega de cualquier otra señal digital. Para que la señal sea entregada, debe pasar por un medio de comunicación. La tabla 1.2 indica los roles de las señales analógicas y digitales en cualquier sistema de televisión por cable /THOK99/ (Página 3).
Cable television system components
Signal characteristics
Satellite feed to head end
Digital or analog microwave signals over the air on a microwave carrier
Return path pay-per-view message from set-top box
Digital information modulated onto a return carrier dedicated to the purpose
Fiber feed for importing remote TV channels
Analog and digital signals light wave modulated onto an optical fiber
NTSC (National Television System Committee), PAL (phase alternate line) or SECAM (sequential width memory) televisión
Analog video modulated onto a carrier and transmitted over the air on a cable or fiber
Cable modem (also on phone line)
Digital base band modulated onto a burst carrier
Hybrid fiber coax (HFC) signal distribution
Analog and digital signals transmitted as analog signals.
- Figura 1.3: Decodificador MPEG simplificado
- Tabla 1.2: Digital and Analog Use Throughout Cable Television Systems
Dicho de una manera diferente, el propósito del estudio es determinar si el formato de compresión MPEG-4 es compatible y consistente con la entrega de corrientes de video sobre redes convencionales de CATV.
Enunciado del problema Para lograr una corriente de video MPEG-4, lo que se necesita hacer es implementar un sistema de codificación y emisión de la corriente del lado del proveedor y un decodificador del lado del cliente. Debe hacerse notar la naturaleza asimétrica en los algoritmos de compresión y descompresión en el formato MPEG. La compresión es mucho más compleja (tanto en términos de equipamientos físicos como de soporte lógico informático) que la descompresión y de esta manera debe ser al trasmitir señales al cliente.
"Para CATV esto significa que el trabajo pesado de la compresión debería ser llevado a cabo por donde se inicia la transmisión, como puede ser un satélite o una fibra óptica. Ni el head-end ni quien recibe la señal debe tener el software o hardware para manejar dichos paquetes. Los STBs de los subscriptores pueden ser de bajo costo, estandarizados y simples" /THOÑ99/ (Páginas 120-121).
Dada la complejidad de los algoritmos MPEG-4, el equipo del lado del cliente será también complejo, tal vez alcanzando los límites de este tipo de compresión en relación al costo. Kalva /KALÑ01/ describe el uso del formato MPEG-4 para aplicaciones multimedia. Este enfoque puede ser fácilmente aplicable para intentar el transporte de este tipo de contenido al usuario. "Con una representación audiovisual basada en objetos, las presentaciones pueden contener varios tipos diferentes de medios y no es práctico tener una terminal con decodificadores por hardware … Las terminales que soporten presentaciones basadas en objetos deben incluir decodificadores por software e incluso procesadores programables para una decodificación eficiente … debido al contenido multimedia basado en objetos y por la posibilidad de interactuar del usuario, sus terminales se están transformando en algo cada vez más complejo" (Página 9).
Se puede enunciar el argumento planteado en esta tesis de la siguiente forma: "Es posible entregar una corriente de video MPEG-4 a través de una red de CATV, de forma que el usuario pueda ver el video en tiempo real sin tener que bajarlo antes y almacenarlo en algún dispositivo. El usuario final no sólo debe poder ver la corriente de video, sino que además debe conseguir interactuar con los objetos definidos en el estándar MPEG-4 (de lo contrario MPEG-2 seguiría siendo suficiente). Para lograr eso, debe encontrarse una solución para la complejidad existente tanto del lado del abonado como del proveedor para codificar, decodificar y transmitir la información en forma de corriente. En el presente documento se examinan potenciales soluciones para dicho problema".
En cuanto al contexto, el espacio se limita a las redes de CATV con arquitecturas similares a la existente en Montevideo, Uruguay. Puede ser perfectamente tenido en cuenta en países con realidades tecnológicas semejantes. En lo que se refiere al tiempo, el trabajo está orientado a ser utilizado en la actualidad.
Con el fin de acotar el problema, se debe recalcar que el trabajo está hecho desde un punto meramente tecnológico. Se estudia el potencial de un estándar y se dejan de lado aspectos como pueden ser legales que innegablemente tienen gran peso a la hora de implementar una nueva solución.
Actualmente URSEC es el organismo encargado de la regulación y el control de las actividades referidas a las telecomunicaciones en el Uruguay.
Metodología La prueba del enunciado se realizará utilizando una combinación de métodos tanto cualitativos como cuantitativos. Entre ellos están:
- Examinar y analizar la literatura existente, tanto en lo práctico como en lo teórico, en los campos de compresión MPEG, configuración de redes de TV por cable, manipulación de señales analógicas y digitales y tecnologías de codificación y decodificación. Esto incluye material en informática, electrónica e ingeniería audio-visual como ser protocolos de transmisión de video-sobre-demanda /CARÑ01/ y futuro de las redes de telecomunicaciones /KAZÑ01/.
- Examinar previos estudios y experimentos en el área, con énfasis en la implementación de transmisión de señales MPEG-2 en redes de televisión por cable. Por ejemplo, operadores de TV por cable de Estados Unidos que han pasado a HFC para implementar el protocolo MPEG-2. Al mismo tiempo, se examinarán estudios específicos que utilizando MPEG-4 fueron llevados a cabo por el grupo MPEG, expertos designados y laboratorios no pertenecientes al grupo.
Se ha sugerido que uno de los problemas del formato MPEG-4 es que fue creado con mercados convergentes en mente y designado para trabajar dentro de esos mercados en constante expansión. Dichos mercados son los de la televisión/cine/entretenimiento, informática y comunicaciones. Esta abstracción y expansibilidad puede ser un problema para propósitos de prácticas específicas. Para el transporte por cable, es importante que el estándar sea alcanzado en términos de complejidad de objetos, por ejemplo: "Para el cable, un perfil estándar de corriente de video debe garantizar que el set-top sea capaz de detectar la entrada de objetos MPEG-4, para asegurar que pueda bajar el software y determinar que su CPU pueda decodificar su número de objetos. El set-top luego crearía dichos objetos por software y los manejaría como MPEG-2" /YOSÑ00/.
División de la tesis en capítulos Este trabajo se encuentra dividido en cinco capítulos. El primero da una introducción al tema, seguido de una sección sobre referencias y estudios sobre MPEG-4 y redes de televisión por cable, haciendo hincapié en el envío de señales digitales por medio de redes analógicas y el equipamiento físico y soporte lógico informático requeridos.
La siguiente sección va a consistir en una evaluación de dichos estudios relacionados a la transmisión de MPEG-4 sobre redes de TV por cable. Esto será seguido por un análisis sobre la viabilidad de experimentos con corrientes en formato MPEG-4 y la interacción desde el punto de vista del usuario final en la manipulación de objetos dentro del marco de video.
En el capítulo final se muestra un resumen de los resultados obtenidos siguiendo la metodología establecida, conclusiones y notas finales.
Introducción Esta sección contiene una revisión del material existente específicamente en asuntos relacionados con el tema estudiado. Estos son los estándares MPEG tanto para la codificación como decodificación de video, formas de distribuir dicho material y en el caso particular de este estudio, las redes de CATV. El propósito es examinar la compatibilidad de ambos para transmisiones de video tal cual se encuentran configurados en la actualidad, haciendo hincapié en el estándar MPEG-2 que es el usado mayoritariamente a la fecha de elaboración de este trabajo (Febrero, 2003).
El material fue obtenido de varias fuentes, entre las que se incluyen libros, revistas, artículos, sitios en la Internet, entrevistas telefónicas con personas vinculadas al área del CATV, charlas con ingenieros de SAETA TV Canal 10, material y experiencia adquirida en estudios previos como ser el curso en línea "The Brain And How It Works"; (Enero 2003) – BNU; y los cursos técnicos y prácticos de "Electrónica básica" (24 de Agosto 1992) y "Radio y televisión en colores" (19 de noviembre de 1992) – National Schools, Montevideo, Uruguay, consultas a psiquiatras para entender mejor la forma en que el ser humano procesa los estímulos, contactos por correo electrónico con expertos en el tema y la base de datos InfoTrac. Se tuvo especial cuidado en examinar la confiabilidad de las fuentes de información.
El capítulo se encuentra dividido en cuatro secciones:
- La presente introducción.
- Sistemas de Compresión MPEG-1 y MPEG-2.
- Redes de CATV.
- Resumen de hallazgos.
Sistemas de compresión MPEG-1 y MPEG-2 Como Solari /SOLÑ97/ señala, los sistemas de compresión como JPEG y la familia MPEG no funcionan basados en una técnica en particular sino en un grupo o familia de técnicas. Esto le da libertad a los desarrolladores para optar la técnica que mejor se adapte a sus aplicaciones particulares. El estándar MPEG-1 fue creado en el intento de encontrar alguna forma para codificar tanto audio como video en un disco compacto con una tasa constante de transferencia de 1.5 Mbps. Las especificaciones para MPEG-1 incluyen:
- Resolución horizontal de 360 píxeles;
- Resolución vertical de 240 píxeles para NTSC; 288 para PAL y SECAM;
- 30 Hz para NTSC; 25 tanto para PAL como SECAM; 24 para filmes.
Con MPEG-2 lo que se intentó fue definir un estándar aplicable para las resoluciones reales de la televisión, cuatro veces mayor que las que el estándar MPEG-1 podía proveer. El estándar MPEG-2 usa una estructura jerárquica de seis capas para dividir la información en segmentos que puedan ser fácilmente decodificados. La tabla 2.1 muestra las mencionadas capas y en que consiste cada una de ellas en particular /SOLÑ97/ (Página 221).
Syntax Layer | Functionality |
Sequence layer | Context unit |
Group-of-pictures layer | Random-access unit: video coding |
Picture layer | Primary coding unit |
Slice layer | Resynchronization unit |
Macro block layer | Motion compensation unit |
Block layer | DCT unit |
El primer paso en la producción de una señal de audio/video que ocupe la menor cantidad de ancho de banda manteniendo una calidad aceptable se encuentra en la codificación de la señal analógica original. Las razones por las cuales la codificación MPEG-2 es utilizada en DVB (digital video broadcasting) son:
- Soporte de diferentes calidades de video hasta televisión de alta definición,
- Su alta flexibilidad.
Según de Bruin & Smits, "El sistema de codificación reduce el ancho de banda quitando sucesivas partes de la señal digital de video. En caso que mencionadas porciones sean iguales (por ejemplo cuando la pantalla del televisor esté mostrando una imagen de un solo color), no hay codificación. En el decodificador la información que fue substraída es añadida a la siguiente parte de la señal para reconstruir la señal de video original. El estándar MPEG-2 hace que la substracción tenga lugar a una frecuencia igual a la que la imagen en la pantalla de la televisión es actualizada" (Página 147).
El sistema de decodificación MPEG-2 básicamente revierte el proceso utilizado en la codificación. Una de las cosas que MPEG-2 permite es lo que se denomina "escalabilidad espacial". Esto significa que la resolución de una imagen en la pantalla de un televisor no es fija, pero puede optimizarse mediante el uso de una señal digital de video que incluya tanto una resolución básica como una alta resolución.
Otra particularidad de MPEG-2 es el uso de niveles y perfiles dentro de su conjunto de estándares. Así, en lugar de un estándar, MPEG-2 permite cuatro formatos de datos o niveles y cinco diferentes perfiles, cada uno con su propio conjunto de herramientas de compresión. Los cuatro niveles varían desde televisión de baja resolución (calidad VCR), resolución estándar (PAL, SECAM y NTSC), definición mejorada y HDTV.
De las 20 posibles combinaciones de niveles y perfiles, 11 fueron seleccionadas para el estándar MPEG-2. La tabla 2.2 ilustra las once combinaciones, conocidas como "MPEG-2 conformance tools" /BRU99/.
Profiles | Low-Level | Main-Level | High-1440 Level | High-Level |
Simple | __ | 720×576 (15Mbps) | __ | __ |
Main | 352×288 (4Mbps) | 720×576 (15Mbps) | 1440×1152 (60Mbps) | 1920×1152 (80Mbps) |
SNR scalable | 352×288 (4 or 3Mbps) | 720×576 (15 or 10Mbps) | __ | __ |
Spatial scalable | __ | __ | 1440×1152 or 720×576 (60 or 40.15Mbps) | __ |
High | __ | 720×576 or 352×288 (20 or 15.40Mbps) | 1440×1152 or 720×576 (80 or 60.20Mbps) | 1920×1152 or 960×576 (100 or 80.25Mbps) |
Para que la señal codificada de video MPEG sea transmitida de forma exitosa, debe contener tres elementos:
- información sobre el audio.
- información sobre el video.
- información para brindar soporte a los dos primeros elementos.
MPEG-2 suministra lo que se denomina como "MPEG-2 systems" a fin de proveer todo lo necesario para la transmisión de las mencionadas señales. En la forma de "packetizers" producen una corriente de paquetes (packetized elementary stream of PES) para cada uno de los tres elementos. Estos PESs pasan luego por un MUX para generar una corriente de datos estandarizada conocida como la corriente de transporte (TS). La figura 2.1 ilustra una representación funcional de los sistemas MPEG-2 /BRUÑ99/ (Página 153).
Es importante recalcar que MPEG-2 es compatible con MPEG-1 por medio de PSs. Esto, junto con sus niveles y perfiles, hacen que MPEG-2 sea genérico. De Bruin & Smits /BRUÑ99/ concluyen: "El estándar MPEG-2 suministra un conjunto de herramientas de compresión y técnicas de transmisión. Para cualquier aplicación, los usuarios eligen que herramienta utilizar … Esto debe darle a los proveedores de servicios y / o fabricantes un incentivo para diferenciarse entre sí. El usuario puede beneficiarse de esto ya que se le da la posibilidad de elegir entre una gran gama de servicios con distintos tipos de calidad".
Dado su múltiple equipamiento de herramientas y su habilidad para codificar video interlaceado, MPEG-2 es muy útil en varias aplicaciones como ser televisión digital por cable, DVDs, televisión digital satelital, etc. Varias empresas (entre ellas ITV y la BBC en Inglaterra) y compañías satelitales transmiten actualmente parte de su programación codificada mediante el formato MPEG-2 /GHAÑ99/.
Wiseman aclara que obviamente se necesita contar con estándares para la compresión de video. El problema es que cuando estos estándares vayan a ser implementados, será el momento en que los costos van a entrar en juego. Por ejemplo, seria inútil para un usuario tener que adquirir varios aparatos decodificadores para poder tener acceso a señales provenientes de diversos e incompatibles codecs de compresión. Parte de la decisión de elegir MPEG como el estándar para la compresión y transmisión de video digital es porque el mismo es multiplataforma. Además, "El estándar MPEG … permite a los desarrolladores de aplicaciones crear sistemas que puedan sacrificar calidad por costo o tasa de transmisión, entre otros elementos" ("Professional Digital Video Networking" Página 4).
El origen de las redes de CATV se remonta a fines de la década de 1940. Las ciudades rodeadas por zonas montañosas en Pennsylvania (Estados Unidos de Norteamérica) no podían recibir las señales emitidas por la estación de TV más cercana, ubicada en Philadelphia debido a las condiciones topográficas adversas.
El dueño de un comercio de venta de equipos de televisión, John Walson, experimentaba dificultades para vender sus productos debido a dicho problema. Si bien la señal no podía atravesar las montañas, era posible su recepción en la cima de las mismas. Fue así que Walson instaló una antena en lo alto de una montaña cercana y transportando hacia su comercio la señal recibida por medio de un cable, exhibió sus equipos de televisión con imágenes. Sus ventas aumentaron en forma notoria y Walson se hizo responsable de distribuir la señal hasta los hogares de sus clientes con la máxima calidad posible. Para que la señal no perdiera potencia, tuvo que crear sus propios amplificadores. Así fue como surgió lo que en un principio se conoció como "Community Antenna Television" o CATV. Actualmente es más común referirse al término como "Cable Television".
Más tarde, Milton Shapp aplicó el mismo fundamento a nivel de edificios, evitando así la acumulación de antenas particulares en las azoteas. Shapp fue el primero en usar cables coaxiales para tal fin.
Las redes CATV se popularizaron y se extendieron por todos los Estados Unidos de Norteamérica. En el año 1972, Service Electric ofreció el primer servicio de televisión para abonados, denominado HBO (Home Box Office), a través de su sistema de cable. Aunque la primera noche de emisión de HBO sólo fue vista por un reducido número de personas, su crecimiento fue vertiginoso y se convirtió en el servicio de cable con mayor difusión. En parte, ello se debió a que sus propietarios decidieron distribuir la señal por satélite, en lo que también fueron pioneros.
CATV en la región Los primeros sistemas de TV por cable de la zona fueron implantados en la Argentina a fines de la década de 1980 /BRAK95/. En el Uruguay los mismos recién comenzaron a utilizarse a mediados de la década de 1990. La primer ciudad del Uruguay con servicio de CATV fue Minas. Luego comenzaron a surgir operadores por otras ciudades hasta que uno de los últimos lugares donde se empezó a ofrecer CATV fue la ciudad de Montevideo.
No han existido cambios en la arquitectura de las redes de CATV de Montevideo desde sus inicios hasta hoy en día. En cambio, en la ciudad de Buenos Aires por ejemplo, en 1996 varios operadores comenzaron a migrar hacia HFC.
- Historia
De forma resumida, un cable coaxial es un conductor de cobre o aluminio cubierto en cobre, rodeado por una capa dieléctrica de polietileno. La capa aislante es cubierta con una malla tubular compuesta por finas bandas de cobre trenzado, o un tubo de aluminio sin costura, finalmente todo protegido por una cubierta de PVC. El conductor y el blindaje interaccionan para crear un campo electromagnético entre ellos, de esta forma se reducen las pérdidas en frecuencia y le da al cable una gran capacidad de transmitir señales. La siguiente figura muestra su estructura /GIBÑ01c/ (Página 121).
- El cable coaxial
Existen varios tipos de fibras ópticas. Una fibra individual está compuesta por un núcleo de vidrio por el que se propaga la luz, el mismo está rodeado por un revestimiento de vidrio con un índice de refracción menor que el del núcleo para que la luz se mantenga en el núcleo /TANÑ97/. La figura 2.3 ilustra la estructura de una fibra óptica /GIBÑ01c/.
- La fibra óptica
Durante más de 50 años, los sistemas NTSC y PAL demostraron ser medios duraderos para la transmisión de información mediante un método analógico. Sin embargo, dichos métodos analógicos no se prestan a la compresión de banda ancha, así que no pueden manejar suficiente información. De acuerdo a la tecnología actual, se considera universalmente que la transmisión analógica representa un uso ineficaz de un espacio muy valioso en el espectro.
NTSC (national television standards committee) fue el grupo que estableció en los años cuarenta las especificaciones del actual sistema de transmisión analógica de televisión. La imagen televisiva NTSC tiene un ancho de banda de canal de 6MHz, 525 líneas con resolución horizontal de 427 píxeles y una proporción dimensional de cuatro unidades horizontales por tres unidades verticales.
PAL (phase alternating line) tiene un ancho de banda de canal de 8 MHz, 625 líneas con resolución horizontal de 427 píxeles y la misma proporción dimensional que NTSC.
Por otro lado, la televisión de alta definición tiene 1050 líneas por 600 píxeles, un ancho de banda de 18 MHz y una proporción dimensional de 16:9 /RCAÑ98/. Si se tiene una señal en NTSC, puede convertirse a PAL. El proceso inverso también es posible. Por lo tanto todos los conceptos incluidos en este estudio donde se hace referencia a la norma NTSC son aplicables a la norma PAL, que es la utilizada en Uruguay. Según la reglamentación vigente en la materia, las señales deben llegar al abonado cumpliendo con la norma PAL-N. Existe una excepción, la cual es DIRECT TV, puesto que la salida de su señal es NTSC.
La tabla 2.3 indica el formato adoptado por algunos países /TAY 02/.
PAL
NTSC
Afghanistan Argentina Australia Austria
Belgium
China
Denmark
many
Great Britain
Hong Kong
Iceland
India
Italy
Malaysia
Monaco
New Zealand
Norway
Paraguay
Portugal
Sweden
Switzerland
Uruguay
Bahamas
Bermuda
Bolivia
Canada
Chile
Colombia
Cuba
Ecuador
El Salvador
Uatemala
Honduras
Jamaica
Japan
Mexico
Panama
Peru
Puerto Rico
Taiwan
Trinidad
Tobago
U.S.A.
Venezuela
Virgin Islands
Estructura de las redes CATV En la actualidad las redes CATV suelen transportar la señal mediante fibra óptica para cubrir distancias relativamente largas y coaxial para la distribución en las proximidades. Se trata de una red híbrida de fibra y coaxial, habitualmente referida como HFC (hybrid fiber/coax). La misma se compone básicamente de cuatro partes: (1) El head-end o cabecera, (2) el troncal, (3) red de distribución y (4) red de acometida de abonados. La cabecera administra todo el sistema. Se encarga de tareas que van desde el monitoreo de la red hasta el control de los servicios prestados. El troncal normalmente es una red en forma de anillos redundantes de fibra óptica que une a un conjunto de nodos primarios. La red de distribución está formada por nodos secundarios donde las señales ópticas se convierten en eléctricas y se distribuyen a los clientes por medio de una estructura del tipo bus coaxial. La mayoría de los nuevos servicios que es posible ofrecer (telefonía, datos, acceso a la Internet y VOD) requieren comunicaciones bidireccionales.
El uso de amplificadores impide la comunicación bidireccional por medio del cable. Lo que se conoce como sistemas de cable duales son tendidos de dos cables coaxiales paralelos de forma que los datos son enviados por uno y recibidos por el otro.
Otro esquema es el conocido como subdividido, el cual utiliza determinado rango de frecuencias para recibir información y otro rango para enviarla. En este caso se reserva una parte del espectro para el canal de retorno. Esta solución requiere entre otras cosas, la eliminación de los amplificadores unidireccionales y la instalación de nuevos head-ends.
Es importante aclarar que en Uruguay los operadores de CATV tienen una licencia de "BROADCASTING". Es decir, pueden difundir la señal, pero no tienen una licencia para que el abonado haga uso del medio para comunicarse con el operador.
Al momento de la redacción del presente trabajo, el troncal de la red de CATV de Montevideo es irregular, pero la intención de los operadores es llegar a formar un anillo en el presente año (es necesario unir unos pocos tramos para lograrlo). Actualmente el cableado alcanza a un 80% de la ciudad y se espera llegar al 100% en este año.
Existe un nodo central ubicado en la calle Joaquín de Salterain donde se reciben las señales satelitales (MPEG-2 y DVB-S). En ese lugar las señales digitales en formato MPEG-2 se convierten en señales analógicas PAL-N y son distribuidas por medio de fibra óptica a diferentes zonas de Montevideo.
Por otro lado, para subir señales a un satélite se cuenta con un equipamiento que consiste en 6 placas codificadoras las cuales reciben las señales analógicas de los canales 4, 5, 10, 12 y otros dos canales y las codifica en formato MPEG-2, las mezcla y las sube utilizando el estándar DVB-S.
Originalmente, el medio utilizado era simplemente cable coaxial. Un cableado estándar de CATV consiste en un cable coaxial que transmite las señales desde el operador al abonado. El tipo de cable coaxial es de 75 OHMs.
El operador recibe las señales por satélite, microondas, etc. Mediante un equipo especial las debe procesar, ya que pueden venir de diferentes formas. Luego las señales son "multiplexadas" y la señal final es transmitida utilizando como medio cables coaxiales. Se hace uso de amplificadores cada cierta distancia para reforzar la señal, ya que los que están más cerca del origen de la misma tendrán la mejor calidad y los más lejanos la peor. El esquema básico puede observarse en la figura 2.4 /BRAÑ95/.
- Tabla 2.3: Normas de video adoptadas por algunos países.
En el interior del Uruguay se utiliza esa arquitectura. En una entrevista telefónica con Juan Gabriel Nicolleau Igoa, dueño de TV Cable Color de la ciudad de Cardona, comentó que el único medio para distribuir la señal es el cable coaxial. Dicho operador recibe de forma satelital todos los canales que distribuye, con excepción de Canal 8 de Rosario, el cual lo recibe por antena terrestre. Luego un equipo se encarga de "multiplexarlas" y transmitirlas por medio del cable coaxial en formato PAL-N.
Hace poco tiempo, el mencionado operador de CATV comenzó a ofrecer 2 tipos de servicios, uno básico y otro codificado. Esquemáticamente un sistema con codificación puede representarse de la siguiente manera /BRAÑ95/:
- Figura 2.4: Arquitectura básica de un sistema de CATV
- Figura 2.5: Cable básico codificado
- Normas
Los usuarios que contratan el servicio premium reciben un decodificador para poder acceder a una mayor cantidad de canales. Entre las técnicas de codificación para señales analógicas se encuentran: Trampas (traps), Inversión de video, Portadora interferida, Eliminación del sincronismo horizontal y "Embarullamiento" de líneas.
La razón por la que se usa la fibra óptica es porque la misma funciona mejor cuando las señales deben ser enviadas a través de largas distancias. Al mismo tiempo el uso de fibra óptica permite aumentar el ancho de banda sin tener que actualizar la planta física.
En esencia, el sistema CATV difunde el mismo tipo de frecuencias que la televisión por aire, con la excepción que las señales son enviadas por un medio guiado como lo es cable /SHEÑ01/. Sin embargo, el cable se diferencia de las señales por aire en forma significativa. Una de estas diferencias es el hecho de que puede soportar (al menos en teoría) una expansión casi infinita de ancho de banda. De ahí el nombre de "broadband" o banda ancha en castellano.
En la práctica, debido a la resistencia a la señal, ésta solo puede viajar un trecho limitado antes de perder su potencia, por lo que es necesario el uso de amplificadores de la señal luego de determinadas distancias. Originalmente, los STBs surgieron porque los equipos de televisión no tenían la capacidad de aceptar todas las señales suministradas por la televisión por cable. Hoy en día su uso principal es brindar servicios avanzados como por ejemplo pay-per-view /PARÑ98/. Hasta no hace mucho tiempo, eran muy pocos los equipos de televisión capaces de aceptar directamente una señal digital.
No todos los sistemas de CATV son capaces de distribuir todas las aplicaciones digitales comentadas. "Para los sistemas de CATV que no tienen la suficiente capacidad y carecen del capital para actualizarse, un sistema híbrido que combine el cable con distribución satelital puede ser utilizado. El tendido coaxial existente puede seguir transportando la señal analógica mientras que las señales digitales son entregadas por medio de uno de los servicios DBS y ambas señales son mezcladas en el STB del cliente" /PARÑ98/.
Como regla general, las señales digitales seriales no pueden ser transmitidas directamente sobre una red de cables coaxiales, es necesario utilizar adecuados MODEMS y / o TRANSCEIVERS. Así, el suministro de una señal digital (en formato MPEG-2 por ejemplo) se recibe en el head-end. Ahí, la señal pasa por un modulador el cual la convierte en una señal analógica que es conducida a un up-converter. El up-converter traduce la señal modulada a determinados canales de CATV y esta señal es enviada por la red coaxial de CATV. Según Maxwell: "Dado que esta señal digital no puede ser aceptada directamente por una televisión analógica, un STB debe ser suministrado al cliente. El mismo convierte la señal digital de video en analógica".
Uno de los elementos clave para el éxito en el envío de señales digitales de video utilizando los medios actuales es la confiabilidad del head-end. Actualmente el mismo debe poder manipular tanto señales digitales como analógicas. "Esto hace que los mismos sean más grandes, más complicados y requieran mayores mantenimientos y pruebas" /BARÑ00/.
Sin importar que técnica de compresión se utilice, uno de los mayores problemas con los que se deben enfrentar las redes de CATV es la falta de ancho de banda suficiente para conducir la creciente demanda de nuevos servicios que sus clientes desean. Chen /CHEÑ01/ sugiere el embebido del contenido adicional en las transmisiones de video como una forma de aumentar su capacidad. Algunas de las ventajas de esto son:
- La habilidad de entregar servicios digitales dentro del mismo espectro de frecuencias que el video.
- La posibilidad de seguir haciendo uso de la televisión analógica y los STBs que existen actualmente. "Aproximadamente 500 MHz del espectro están reservado para transmisiones de televisión analógica … embebiendo el contenido digital en los canales existentes, los operadores pueden migrar de la infraestructura analógica a la era digital" /CHEÑ01/;
- Esto trae como resultado obtener alrededor de 100MHz más del espectro para señales digitales.
Mediante el uso de un chip que se encargue de embeber la información, un operador de CATV puede entregar programación digital dentro de los canales NTSC analógicos.
La siguiente figura muestra esquemáticamente el funcionamiento descripto /CHEÑ01/.
- Figura 2.6: Servicios digitales embebidos sobre canales NTSC analógicos
La diferencia entre este modulador NTSC y el común, es que el primero acepta señales tanto NTSC como señales de video MPEG-2, las cuales son luego embebidas dentro de la señal analógica. "Cualquier equipo de televisión o set-box ya sea analógico o digital puede demodular la señal NTSC generada. Un set-box equipado con el apropiado chip de extracción puede demodular tanto la señal NTSC o el contenido embebido MPEG-2, dependiendo de lo que el usuario desee ver" /CHEÑ01/.
Es importante resaltar que no es necesario un nuevo equipamiento para lograr esto: cualquier sistema que sea capaz de convertir un canal en la banda RF a IF funcionará en los tres campos: analógico, puramente digital y embebido. Lo mismo es aplicable para el decodificador MPEG-2 el cual puede ser tanto para espectros totalmente digitales y embebidos.
Todo lo mencionado es posible aplicarlo para moduladores PAL. La mayoría de los productos existentes para los operadores de cable (head end) en la actualidad detectan y trabajan con señales tanto NTSC como PAL. En el caso particular de Uruguay, los operadores de CATV tienen una licencia para transmitir señales de ciertas características. La reglamentación al respecto es ambigua y una posible interpretación es que el producto de embeber señales analógicas con digitales es una señal que no cumple con la reglamentación de URSEC.
La figura 2.6 ilustra el rango de frecuencias utilizadas para la transmisión sobre redes CATV /TAYÑ02/.
- Figura 2.6: Frecuencias utilizadas por los cables coaxiales
Resumen de hallazgos Las técnicas de compresión MPEG, combinadas con el potente conjunto de herramientas disponibles para codificar y decodificar video, hace que MPEG-2 probablemente se convierta en el estándar de facto para la distribución de video digital a los abonados. Además, dado que es posible la transmisión de material codificado mediante MPEG-2 por medio de redes CATV con los codificadores y decodificadores apropiados, los operadores de CATV tienen la posibilidad hoy en día de ir actualizando su infraestructura sin forzar a sus clientes a gastar grandes cantidades de dinero en la transición. Igualmente los operadores no tienen la necesidad de realizar tendidos de fibra óptica hasta que estén preparados para hacerlo sin que esto les quite la posibilidad de ofrecer a sus clientes contenido digital en formato MPEG-2.
Sin embargo, debe aclararse que no existen garantías de que actualmente esta tecnología (como ser documentos embebidos) pueda ser utilizada para la transmisión de video digital MPEG-4 sobre redes CATV. El siguiente capítulo trata en concreto al formato MPEG-4, sus diferencias con MPEG-2 y como podría verse afectada la transmisión de MPEG-4 e incluso si es teóricamente posible trasmitir dicho tipo de contenido sobre redes CATV.
Página siguiente |