Microprocesadores
Como ya sabemos, el microprocesador es el corazón de la PC, con millones de transistores, funcionando con el sistema binario.
Cada 18 meses los microprocesadores doblan su velocidad. En tal sentido dentro de 25 años una computadora será más poderosa que todas las que estén instaladas actualmente en el Silicon Valley californiano. La performance de estos pequeños y grandes artefactos ha mejorado 25.000 veces en sus 25 años de vida y he aquí algunas prospectivas :
- Los microprocesadores del futuro brindarán aún mas recursos a la memoria cache para acercar la actual brecha de velocidad que existe entre ambos.
- Los modernos microprocesadores superescalables desempeñan desde tres a seis instrucciones por ciclo de reloj. Por tal motivo, a 250 MHz, un microprocesador superescalable de cuatro direcciones puede ejecutar un billón de instrucciones por segundo. Un procesador del siglo XXI podría lanzar docenas de instrucciones en cada paso.
- Algunos sostienen que la tecnología óptica reemplazará inevitablemente a la tecnología electrónica. Las computadoras podrían ser, por ejemplo, construidas completamente de materiales biológicos.
- Pipeling, organizaciones superescalares y cachés continuarán protagonizando los avances de la tecnología, estando presente también el multiprocesamiento paralelo.
- Probablemente, los microprocesadores existan en varias formas, desde llaves de luz páginas de papel. En el espectro de aplicaciones, estas extraordinarias unidades soportarán desde reconocimiento de voz hasta realidad virtual.
- En el futuro cercano, los procesadores y memorias convergirán en un chip, tal como en su momento el microprocesador unió componentes separados en un solo chip. Esto permitirá achicar la distancia entre el procesado y la memoria y sacar ventajas del procesamiento en paralelo, amortizar los costos y usar a pleno la cantidad de transistores de un chip.
- El microprocesador del siglo XXI será una computadora completa. Podría denominársela IRAM, para expresar Intelligent Random Access Memory : la mayoría de los transistores en este chip dependerán de la memoria. Mientras que los microprocesadores actuales están asentados sobre cientos de cables para conectar a los chips de memoria externa, los IRAMs no necesitarán más que una red y un cable de electricidad. Todas las unidades de entrada y salida estarán vinculadas a ellos vía red. Si precisan más memoria, tendrán mas poder de procesamiento y viceversa. Mantendrán la capacidad de memoria y velocidad de procesamiento en equilibrio.
- Los microprocesadores IRAMs son la arquitectura ideal para el procesamiento en paralelo. Debido a que requerirían tan pocas conexiones externas, estos chips podrían ser extraordinariamente pequeños. Podríamos estar ante microprocesadores más pequeños que el antiguo 4004 de Intel. Si el procesamiento en paralelo prospera, este mar de transistores podría ser, además frecuentado por múltiples procesadores en un solo chip, creándose el "micromultiprocesador".
- La performance de los microprocesadores se duplicará cada 18 meses cerca del giro del milenio. Una comparación no descabellada para el primer cuarto del siglo venidero señala que una computadora del 2020 será tan poderosa como todas las que están instaladas en este momento en Silicon Valley.
NUEVAS TECNOLOGIAS
Con décadas de innovaciones potenciales por delante, los diseños microelectronicos convencionales dominarán el siglo próximo. Esta tendencia impulsa a los laboratorios a explorar una variedad de nuevas tecnologías que podrían ser útiles en el diseño de nuevas computadoras y unidades de procesamiento. En algunos casos estos avances contribuirán a obtener chips más diminutos, niveles inalcanzables a través de las técnicas convencionales litográficas. Entre las tecnologías que se investigan en el presente, de cara al siglo XXI, se encuentran las siguientes :
- Cuántica de puntos y otras unidades de electrones simples la cuántica de puntos son "acuerdos moleculares "que habilitan a los investigadores a circunscribir los electrones individuales y monitorear sus movimientos. Estas unidades pueden, en teoría ser usadas como registro binarios en los cuales la presencia o ausencia de un solo electrón se utiliza para representar los ceros y unos de los bits. En una variante de este esquema, el rayo láser iluminado sobre los átomos podría producir el intercambio entre sus estados electrónicos mínimos de energía y los de excitación con el fin de activar el valor de bit. Una complicación de fabrica los transistores y cables extremadamente pequeños está dada cuando los efectos mecánicos comienzan a interrumpir su función. Los componentes lógicos mantienen sus valores I y O menos confiables porque la ubicación de los electrones Individuales se vuelve difícil de especificar. Pero aun esta propiedad puede ser mejorada : los investigadores del MIT (Instituto Tecnológico de Massachusetts) estudian en este momento, las posibilidades de desarrollar técnicas de computación cuántica, que ayudarían a los sistemas informáticos a cumplir comportamientos no convencionales.
- Computación molecular: en lugar de fabricar componentes de silicio, se investiga el desarrollo de almacenamiento utilizando moléculas biológicas. Por ejemplo, se analiza el potencial computacional de moléculas relacionadas con "bacteriorhodopsin", un pigmento que altera su configuración cuando reacciona a la luz. Una ventaja de este sistema molecular es que puede ser aplicado a una computadora óptica, en la que los flujos de fotones tomarían el lugar de los electrones. Otra posibilidad es que muchas de estas moléculas podrían ser sintetizadas por microorganismos, más que fabricados en plantas industriales. De acuerdo con algunas estimaciones, los biomoléculas activadas fotónicamente pueden vincularse en un sistema de memoria tridimensional que tendría una capacidad 300 veces mayor que los actuales CD-ROMs
- Puertas lógicas reversibles: como la densidad de los componentes de los chips crece, la disipación del calor generado por los sistemas de microprocesamiento se volverá más dificultosa. Investigadores de Xerox e IBM están testeando las posibilidades de retornar a los capacitores a sus estados originales al final de los cálculos. Debido a que las puertas de acceso lógico podrían recapturar algo de la energía expulsada, generarían menos pérdidas de calor.
- Aún no está claro de que manera se las ingeniará la industria informática para crear transistores más delgados y más rápidos en los años venideros. Por ejemplo, en la técnica fotolitográfica, la luz es empleada para transferir patrones de circuitos de una máscara o plantilla de cuarzo a un chip de silicio. Ahora la tecnología modela diseños de chips de alrededor de 0,35 micrones de ancho, pero achicar esta medida parece imposible mientras se utilice la luz; las ondas luminosas son muy anchas. Muchas compañías han invertido en la búsqueda de maneras de sustituir los más pequeños haces de luz por rayos X. De cualquier manera, los rayos X aún no han resultado como método para masificar la producción de los chips de última generación.
Pentium II
El procesador Pentium con tecnología MMX™, ahora disponible con 166 MHz y 200 MHz.
Con tecnología MMX de Intel, las PCs obtienen un nuevo nivel de funcionamiento en multimedia y otras nuevas capacidades que sobre pasan lo experimentado anteriormente.
- sonido intenso
- colores brillantes
- rendimiento 3D realístico
- animación y video fluido
Para beneficios de funcionamiento completo, se debe combinar un procesador Pentium con una PC basada en tecnología MMX con programas especialmente diseñados para tecnología MMX.
Características
Con el procesador Pentium II, se obtienen todos los últimos avances de la familia de microprocesadores de Intel: la potencia del procesador Pentium Pro más la riqueza en capacidad de la tecnología mejorada de medios MMX. El procesador Pentium II, entregando el más alto desempeño de Intel, tiene abundante capacidad de desempeño para medios, comunicaciones e Internet a nivel empresarial.
Operando a 233 MHz y 266 MHz para desktops y servidores y a 300 MHz para estaciones de trabajo, el procesador utiliza la tecnología de alto desempeño Dual Independent Bus (Bus Dual Independiente) para entregar un amplio ancho de banda adecuado para su elevado poder de procesamiento. El diseño del cartucho Single Edge Contact (S.E.C) [Contacto de un Solo Canto] incluye 512KB de cache dedicada de nivel dos (L2). El procesador Pentium II también incluye 32KB de cache L1 (16K para datos, 16K para instrucciones), el doble de la del procesador Pentium Pro.
Características Técnicas:
- Arquitectura Dual Independent Bus (Bus Dual Independiente): al igual que el procesador Pentium Pro, el procesador Pentium II también usa la arquitectura D.I.B. Ésta tecnología de alto desempeño combina ambos, un bus cache L2 dedicado de alta velocidad más un bus del sistema con anticipación que hace posible múltiples transacciones simultáneas.
- La tecnología MMX de Intel: la nueva tecnología mejorada de medios de Intel permite al procesador Pentium II ofrecer un alto rendimiento para aplicaciones de medios y comunicaciones.
- Ejecución dinámica: el procesador Pentium II usa esta combinación única de técnicas de procesamiento, utilizadas por primera vez en el procesador Pentium Pro, para acelerar el desempeño del software.
- Cartucho Single Edge Contact (S.E.C) [Contacto de un Solo Canto]: el nuevo e innovador diseño de empaquetamiento de Intel para éste y los procesadores futuros, el cartucho S.E.C. permite que todas las tecnologías de alto desempeño de los procesadores Pentium II sean entregadas en los sistemas dominantes de hoy en día.
Todas estas características serán luego explicadas con mayor profundidad.
El Procesador Pentium II Trabajando:
Diseñado para desktops, estaciones de trabajo y servidores de alto desempeño, la familia de procesadores Pentium II es completamente compatible con las generaciones precedentes de procesadores de Arquitectura Intel.
Las empresas pequeñas tanto como las grandes pueden beneficiarse del procesador Pentium II. Éste entrega el mejor desempeño disponible para las aplicaciones que se ejecutan en sistemas operacionales avanzados tales como Windows 95, Windows NT y UNIX.
Sobre su poder intrínseco como procesador Pentium Pro, el procesador Pentium II aprovecha el software diseñado para la tecnología MMX de Intel para desbordar la pantalla plena, video de movimiento total, colores más vivos, gráficas más rápidas y otras mejoras en los medios. Con el tiempo, muchas aplicaciones para empresas se beneficiarán del desempeño de la tecnología MMX. Éstas incluyen:
- suites para oficina
- lectura óptica de documentos
- manejo de imágenes
- video conferencia
- edición y ejecución de video
La tecnología MMX mejora la compresión/descompresión de video, manipulación de imágenes, criptografía y el procesamiento I/O – todas estas se usan hoy en día en una variedad de características de las suites de oficina y medios avanzados, comunicaciones e Internet.
Técnica de la Instrucción Simple, Datos Múltiples (SIMD)
Las aplicaciones de multimedia y comunicaciones de hoy en día con frecuencia usan ciclos repetitivos que, aunque ocupan 10 por ciento o menos del código total de la aplicación, pueden ser responsables hasta por el 90 por ciento del tiempo de ejecución. Un proceso denominado Instrucción Simple Múltiples Datos (SIMD, por sus siglas en inglés) hace posible que una instrucción realice la misma función sobre múltiples datos, en forma semejante a como un sargento de entrenamiento ordena a la totalidad de un pelotón "media vuelta", en lugar de hacerlo soldado a soldado. SIMD permite al chip reducir los ciclos intensos en computación comunes al video, gráfica y animación.
Nuevas Instrucciones
Los ingenieros de Intel también agregaron 57 poderosas instrucciones nuevas, diseñadas específicamente para manipular y procesar datos de video, audio y gráficas más eficientemente. Estas instrucciones están orientadas a las sucesiones supremamente paralelas y repetitivas que con frecuencia se encuentran en las operaciones de multimedia.
Aunque la tecnología MMX del procesador Pentium II es compatible binariamente con la usada en el procesador Pentium con tecnología MMX, también está sinérgicamente combinada con la avanzada tecnología central del procesador Pentium II. Las poderosas instrucciones de la tecnología MMX aprovechan completamente las eficientes técnicas de procesamiento de la Ejecución Dinámica, entregando las mejores capacidades para medios y comunicaciones.
Arquitectura Dual Independent Bus (Bus Dual Independiente)
Para satisfacer las demandas de las aplicaciones y anticipar las necesidades de las generaciones futuras de procesadores, Intel ha desarrollado la arquitectura Dual Independent Bus (Bus Dual Independiente) para resolver las limitaciones en el ancho de banda de la arquitectura de la plataforma actual de la PC.
La arquitectura Dual Independent Bus (Bus Dual Independiente) fue implementada por primera vez en el procesador Pentium Pro y tendrá disponibilidad más amplia con el procesador Pentium II. Intel creó la arquitectura del bus dual independiente para ayudar al ancho de banda del bus del procesador. Al tener dos buses independientes el procesador Pentium II está habilitado para acceder datos desde cualesquiera de sus buses simultáneamente y en paralelo, en lugar de hacerlo en forma sencilla y secuencial como ocurre en un sistema de bus simple.
Cómo Trabaja
- Dos buses conforman la arquitectura Dual Independent Bus (Bus Dual Independiente): el "bus del caché L2" y el "bus del sistema" entre el procesador y la memoria principal.
- El procesador Pentium II puede utilizar simultáneamente los dos buses.
- La arquitectura Dual Independent Bus (Bus Dual Independiente) permite al caché L2 del procesador Pentium II de 266MHz, por ejemplo, operar al doble de velocidad del caché L2 de los procesadores Pentium. Al aumentar la frecuencia de los procesadores Pentium II futuros, también lo hará la velocidad del caché L2.
- El bus del sistema de procesamiento por canalización permite transacciones múltiples simultáneas (en lugar de transacciones únicas secuenciales), acelerando el flujo de la información dentro del sistema y elevando el desempeño total.
Conjuntamente estas mejoras en la arquitectura Dual Independent Bus (Bus Dual Independiente) brindan hasta tres veces el desempeño del ancho de banda sobre un procesador de arquitectura de bus sencillo. Además, la arquitectura Dual Independent Bus (Bus Dual Independiente) soporta la evolución del bus de memoria del sistema actual de 66 MHz a velocidades más elevadas en el futuro. Esta tecnología de bus de alto ancho de banda está diseñada para trabajar concertadamente con el poder de procesamiento de alto desempeño del procesador Pentium II.
Ejecución Dinámica
¿Qué es Ejecución Dinámica?
Utilizada por primera vez en el procesador Pentium Pro, la Ejecución Dinámica es una innovadora combinación de tres técnicas de procesamiento diseñada para ayudar al procesador a manipular los datos más eficientemente. Éstas son la predicción de ramificaciones múltiples, el análisis del flujo de datos y la ejecución especulativa. La ejecución dinámica hace que el procesador sea más eficiente manipulando datos en lugar de sólo procesar una lista de instrucciones.
La forma cómo los programas de software están escritos puede afectar el desempeño de un procesador. Por ejemplo, el desempeño del software será afectado adversamente si con frecuencia se requiere suspender lo que se está haciendo y "saltar" o "ramificarse" a otra parte en el programa. Retardos también pueden ocurrir cuando el procesador no puede procesar una nueva instrucción hasta completar la instrucción. La ejecución dinámica permite al procesador alterar y predecir el orden de las instrucciones.
La Ejecución Dinámica Consiste de:
Predicción de Ramificaciones Múltiples
Predice el flujo del programa a través de varias ramificaciones: mediante un algoritmo de predicción de ramificaciones múltiples, el procesador puede anticipar los saltos en el flujo de las instrucciones. Éste predice dónde pueden encontrarse las siguientes instrucciones en la memoria con una increíble precisión del 90% o mayor. Esto es posible porque mientras el procesador está buscando y trayendo instrucciones, también busca las instrucciones que están más adelante en el programa. Esta técnica acelera el flujo de trabajo enviado al procesador.
Análisis del Flujo de Datos
Analiza y ordena las instrucciones a ejecutar en una sucesión óptima, independiente del orden original en el programa: mediante el análisis del flujo de datos, el procesador observa las instrucciones de software decodificadas y decide si están listas para ser procesadas o si dependen de otras instrucciones. Entonces el procesador determina la sucesión óptima para el procesamiento y ejecuta las instrucciones en la forma más eficiente.
Ejecución Especulativa
Aumenta la velocidad de ejecución observando adelante del contador del programa y ejecutando las instrucciones que posiblemente van a necesitarse. Cuando el procesador ejecuta las instrucciones (hasta cinco a la vez), lo hace mediante la "ejecución especulativa". Esto aprovecha la capacidad de procesamiento superescalar del procesador Pentium II tanto como es posible para aumentar el desempeño del software. Como las instrucciones del software que se procesan con base en predicción de ramificaciones, los resultados se guardan como "resultados especulativos". Una vez que su estado final puede determinarse, las instrucciones se regresan a su orden propio y formalmente se les asigna un estado de máquina.
Cartucho Single Edge Contact (S.E.C) (Contacto de un Solo Canto)
¿Qué es el cartucho de empaquetamiento S.E.C.?
El cartucho Single Edge Contact (S.E.C) [Contacto de un Solo Canto] es el diseño innovador de empaquetamiento de Intel que permite la entrega de niveles de desempeño aún más altos a los sistemas predominantes.
Utilizando esta tecnología, el núcleo y el caché L2 están totalmente encerrados en un cartucho de plástico y metal. Estos subcomponentes están montados superficialmente a un substrato en el interior del cartucho para permitir la operación a alta frecuencia. La tecnología del cartucho S.E.C. permite el uso de los BSRAMs de alto desempeño y gran disponibilidad para el caché L2 dedicado, haciendo posible el procesamiento de alto desempeño a los precios predominantes. Esta tecnología de cartucho también permite al procesador Pentium II usar la misma arquitectura Dual Independent Bus (Bus Dual Independiente) utilizada en el procesador Pentium Pro.
El procesador Pentium II se conecta a una tarjeta madre mediante un conector simple de borde en lugar de hacerlo mediante las patillas múltiples utilizadas en los empaquetamientos PGA existentes. Similarmente, el conector de la ranura 1 reemplaza al zócalo PGA utilizado en los sistemas anteriores. Las versiones futuras del procesador Pentium II también serán compatibles con el conector de la ranura 1.
Aplicaciones del cartucho S.E.C. de Intel
Intel se está moviendo hacia el diseño del cartucho S.E.C. como la solución para los procesadores de alto rendimiento de la siguiente década. El primer cartucho S.E.C. está diseñado para desktops, estaciones de trabajo y servidores de procesamiento sencillo y dual. Posteriormente, Intel optimizará los diseños del cartucho para estaciones de trabajo y servidores de desempeño aún mayor y diseñará soluciones similares, altamente integradas para los sistemas de computación móvil.
La llamada crisis del año 2000
Se trata del hecho de que en algunas computadoras, en particular en las de
modelos viejos, las fechas son almacenadas en tres campos de dos dígitos cada uno, lo cual impide distinguir entre las fechas del siglo XX y las del siglo XXI. Por si esto fuera poco, algunos programadores utilizaron en aquella época el 99 como un valor especial suponiendo que para 1999 ya existirían otras aplicaciones.
Los especialistas en informática consideran hoy en día que se trata del problema más grande al que se ha enfrentado la industria de la computación en sus 50 años de existencia. Por desgracia, muy pocas organizaciones están preparadas para encontrar una solución oportuna.
La dimensión real del problema
Cada cuatro años suele haber un pequeño ajuste en el calendario gregoriano utilizado hoy en día desde su implantación en 1582. Dicho ajuste es el que ha llevado a la existencia de un día adicional en febrero de cada cuatro años, o sea, al llamado año bisiesto. Muchos programadores de computadoras no tomaron en cuenta este hecho al definir sus fórmulas para el cálculo de fechas. No obstante, el ajuste de un día cada cuatro años no representa el mayor reto de los sistemas complejos: la llegada del año 2000 y los problemas que implica van mucho más allá.
Considere, por ejemplo, un sistema gubernamental de pagos que maneje cifras de 5 años hacia atrás. En el año 2001, al visualizar los pagos anteriores, los operadores esperarán obtener en su pantalla una lista de arriba hacia abajo con indicaciones acerca de los años 01, 00, 99, 98, 97, etc. Sin embargo, las listas clasificadas en forma descendente por fechas les mostrarán los datos correspondientes a los años 99, 98, 97… 01 y 00 en vez de lo originalmente deseado. El significado de los datos será totalmente alterado.
Entre las necesidades existentes debido a la llegada del año 2000 cabe mencionar los siguientes:
- El rediseño de formas y de reportes en los cuales el campo de fecha no aparece completo o de manera adecuada.
- La reindexación de aquellas bases de datos que utilizan la fecha como índice.
- La reprogramación de sistemas de los que no existe el código fuente.
- La elaboración de procedimientos especiales para el manejo de listas basadas en fechas, o para la recuperación de información existente en cintas de respaldo en las cuales el 99 aparece como separador o como indicador de terminación de una lista.
- El rediseño de los sistemas de código de barras dado que hasta ahora ninguno de los dispositivos existentes para tal fin utiliza 4 dígitos para el manejo del año.
- La reingeniería de casi todas las computadoras portátiles dado que no están preparadas para el cambio de fecha del 31 de diciembre de 1999 al 01 de enero de 2000 (porque el BIOS no soporta el año 2000).
Desgraciadamente, el problema causado por la crisis del 2000 abarca muchos más aspectos no necesariamente técnicos:
Por ejemplo, para calcular la edad de una persona nacida en 1960, la fórmula utilizada hasta ahora es 97-60=37, pero en el año 2000 dicha fórmula sería 00-60=?. En este caso la lógica implícita para calcular los años transcurridos puede fallar. El resultado puede ser un número negativo, o bien, un entero extremadamente grande. En ambos casos, el resultado puede dar lugar a la cancelación de tarjetas de crédito, a errores en el cálculo de pensiones, al pago indebido de intereses, a la obtención de saldos telefónicos erróneos, etc.
Han de ser verificados el 100% de los sistemas actuales
Las pruebas de cómputo en los mainframes y las bases de datos muy grandes implican
simular el año 2000, pero son muy pocas las organizaciones con la capacidad de cómputo requerida para duplicar todos los sistemas, los archivos, los respaldos, etc. Además, la prueba de todos los sistemas obliga probablemente a trabajar los fines de semana.
Ha de ser debidamente presupuestada la estrategia a seguir
La manera más efectiva de evitar esta crisis consiste en cambiar el 100% del software por versiones listas para operar con fechas del año 2000. Este procedimiento sería de un costo excesivamente alto, en especial para programas cuyo código fuente ya es inaccesible.
En este contexto cabe señalar que el costo de corrección de una línea de código en COBOL fue estimado por Gartner Group entre $1.10 y $1.50 dólares, lo cual implica que el costo total de la solución a la crisis del 2000, tan solo en los Estados Unidos, es superior a $1500 millones de dólares.
En términos de desarrollo de aplicaciones, existirán problemas sólo si los campos tipo fecha no son debidamente utilizados. Estos problemas son ajenos a la herramienta de desarrollo pero dependen de cada programador. Por ejemplo, Microsoft Visual Basic está preparado para calcular correctamente fechas del próximo siglo, pero si no se utilizan las funciones internas de cálculo de fechas, o sea, se convierten las fechas en números seriales, o se utilizan campos enteros como fechas, las aplicaciones pueden ser incompatibles a la larga.
Existen otros problemas de menor importancia, como por ejemplo el hecho de que MS-DOS no ha de aceptar la fecha 00 y de que ha de obligar a la captura completa del "2000", o bien de que ciertos programas tales como Microsoft Windows 3.1, despliegan incorrectamente las fechas de los archivos del año 2000 mostrándolos con caracteres no numéricos (basura). Este problema se solucionaría con el simple hecho de que ya todos los usuarios se actualicen a los nuevos sistemas operativos.
DVD (Digital Video Disc)
No es fácil encontrar, en el campo de la electrónica de consumo, un estándar capaz de poner de acuerdo a los principales fabricantes de CD-ROM, vídeos VHS, laserdiscs y equipos musicales. La tecnología DVD ha obrado el milagro, situándose en una posición de privilegio para convertirse en el estándar de almacenamiento digital del próximo milenio.
Introducción
Migrar de un sistema a otro, en cualquiera de los eslabones de la compleja cadena que da lugar al hardware de un ordenador, es uno de los procesos más complicados a los que un avance tecnológico debe enfrentarse.
En el caso de los compatibles PC, con cientos de millones de máquinas funcionando bajo miles de configuraciones distintas, en manos de millones de usuarios con distintos niveles económicos, es todavía más complejo.
A modo de ejemplo, tenemos el sistema de almacenamiento que todos conocemos con el nombre de CD-ROM y que, paradójicamente, si todas las previsiones se cumplen, será sustituido por las nuevas unidades DVD-ROM, que aquí vamos a tratar de analizar. Han sido necesarios más de 10 años, cinco desde que se produjo la espectacular bajada de precios de los lectores, para que el CD-ROM se haya convertido en un elemento imprescindible en todos los ordenadores. Ahora que casi todo el mundo se ha habituado a utilizar este derivado de los clásicos CD musicales, un nuevo formato amenaza con enterrarlo definitivamente. El proceso, por supuesto, será muy lento; tendrán que pasar unos cuantos años para que alcance el nivel de popularidad de los CD, pero pocos dudan que acabará convirtiéndose en el estándar digital del siglo XXI.
Al contrario que otros sistemas similares, como es el caso de los discos removibles, donde cada fabricante utiliza su propio estándar -con la dificultad que esto implica a la hora de implantarse en todos los ordenadores-, la tecnología DVD no sólo unifica aquellos criterios relacionados con el almacenamiento de datos informáticos, sino que va mucho más allá, abarcando todos los campos donde se utilice la imagen y el sonido.
Todavía es muy pronto para predecir el impacto que las siglas mágicas DVD provocarán en nuestras vidas. Pero, si las previsiones de sus creadores se cumplen, dentro de dos o tres años no existirán los televisores, altavoces, vídeos, laserdiscs, cadenas musicales, consolas, tarjetas gráficas, o lectores de CD-ROM, tal como hoy los conocemos.
Una primera aproximación
La especificación DVD -según algunos fabricantes, Digital Vídeo Disc, según otros, Digital Versatile Disc-, no es más que un nuevo intento por unificar todos los estándares óptico-digitales de almacenamiento, es decir, cualquier sistema de grabación que almacene imágenes o sonido. DVD abarca todos los campos actualmente existentes, por lo que, si llega a implantarse, un mismo disco DVD podrá utilizarse para almacenar películas, música, datos informáticos, e incluso los juegos de consolas.
La gran ventaja del DVD, en relación a los sistemas actuales, es su mayor velocidad de lectura -hasta 4 veces más que los reproductores CD tradicionales-, y su gran capacidad de almacenamiento, que varía entre los 4.7 y los 17 Gigas, es decir, el tamaño aproximado de 25 CD-ROM. Todo ello, en un disco DVD que, externamente, es exactamente igual que un CD tradicional. Esta elevada capacidad permite, no sólo almacenar gran cantidad de información, aplicable a todo tipo de enciclopedias, programas o bases de datos, sino también reproducir 133 minutos de vídeo con calidad de estudio, sonido Dolby Surround AC-3 5.1, y 8 pistas multilenguaje para reproducir el sonido en 8 idiomas, con subtítulos en 32 idiomas. Estos minutos pueden convertirse en varias horas, si se disminuye la calidad de la imagen hasta los límites actuales. Las más importantes compañías electrónicas, los más influyentes fabricantes de hardware y software, y las más sobresalientes compañías cinematográficas y musicales están apoyando fuertemente el proyecto.
No obstante, pese a todas estas características tan espectaculares, la gran baza de la tecnología DVD está todavía por desvelar: gracias a la compatibilidad con los sistemas actuales, los lectores DVD-ROM son capaces de leer los CD-ROM y CD musicales que actualmente existen, por lo que el cambio de sistema será mucho más llevadero, ya que podremos seguir utilizando los cientos de millones de discos digitales existentes en el mercado.
Distintas ramificaciones
Tal como hemos visto, las siglas DVD se implantarán en los más dispares medios de almacenamiento. Para satisfacer todas las necesidades y bolsillos, está previsto que se comercialicen tres reproductores DVD independientes: DVD-Audio, DVD-Vídeo, y DVD-ROM. En realidad, son el equivalente a las cadenas musicales, los vídeos VHS o laserdisc, y el CD-ROM. Los lectores DVD-Audio serán los más baratos, ya que sólo podrán reproducir discos sonoros DVD. Los DVD-Vídeo se conectarán al televisor, y se utilizarán para visionar películas, con imagen de alta calidad. Incluso es posible que la propia película venga acompañada de la banda sonora completa, todo en un mismo disco. Más de 50 películas han sido anunciadas para este mes, y se han planeado más de 500 para final de año, con una estimación de unos 8000 títulos en el año 2000.
Los lectores más apetecibles son los conocidos como DVD-ROM, ya que son capaces de reproducir CD-ROM, CD musicales, discos DVD-ROM, discos de audio DVD y, bajo ciertas condiciones que veremos a continuación, las mencionadas películas DVD. En definitiva, los tres aparatos señalados quedan condensados en uno sólo.
Las primeras unidades DVD-ROM, fabricadas por Pioneer y Hitachi, ya pueden encontrarse en Japón. Para finales de año, aparecerán las unidades grabables, que cerrarán el ciclo reproducción-grabación que todo estándar óptico-digital debe completar.
La especificacion DVD-ROM
Pese a que los lectores DVD-Vídeo y DVD-Audio son, a priori, muy interesantes, vamos a centrarnos en los lectores DVD-ROM, más acordes con la temática de nuestra revista. Pero, antes de discutir sus posibilidades, vamos a conocer todas sus características principales.
Los lectores DVD-ROM más básicos nos permiten leer discos DVD-ROM -obviamente-, así como CD musicales y CD-ROM, a una velocidad 8X, es decir, 1200 Ks/sg, y un tiempo de acceso situado entre los 150 y 200 milisegundos. Esta compatibilidad es posible, no sólo porque soporta el estándar ISO 9660 utilizado por los CD-ROM, sino también porque los discos, externamente, son iguales a los CD convencionales. Al contrario que los CD-ROM, existen discos DVD de distinto tamaño. Todos están formados por dos capas de sustratos de 0.6 mm, que se unen para formar un sólo disco.
En primer lugar, tenemos los discos que podemos considerar estándar (120 mm), de una cara, una capa, y una capacidad de 4.7 Gigas, o 133 minutos de vídeo de alta calidad, reproducido a una velocidad de 3.5 Megas. Puesto que un CD-ROM sólo puede almacenar 650 Megas, este espacio es el equivalente a 6 CD-ROM. Estos serán los discos utilizados para almacenar películas.
Llegados este punto, hay que decir que los Gigas ofrecidos por los fabricantes de unidades DVD, no se corresponden exactamente con Gigas informáticos, ya que los primeros utilizan múltiplos de 1000, mientras que en informática, el cambio de unidad se realiza multiplicando o dividiendo por 1024. Así, los 4.7 Gigas de esta primera clase de discos se corresponden con 4.38 Gigas informáticos, mientras que 17 Gigas equivalen a 15.9 Gigas reales. A pesar de ello, mantendremos durante todo el artículo la primera nomenclatura, ya que es la utilizada por los diferentes fabricantes.
Continuaremos con el segundo tipo de disco DVD. Hasta ahora, hemos hablado de los discos de una cara, y una capa. Si se almacena información en la segunda cara, entonces tenemos un disco de dos caras y una capa, con 9.4 Gigas de capacidad. También es posible añadir una segunda capa a cualquiera de las dos caras. Esta doble capa utiliza un método distinto al de los CD tradicionales, ya que se implementa mediante resinas y distintos materiales receptivos/reflectantes. Si la capa es de 120 mm, y dispone de una sola cara, la cantidad almacenada es de 8.5 Gigas, o 17 Gigas si dispone de dos caras. En el caso, también posible, de que la capa disponga de un grosor de 80 mm, la capacidad se sitúa entre los 2.6 y 5.3 Gigas de capacidad -simple o doble cara-. Puede parecer un galimatías, pero sólo se trata de distintos discos con distintas capacidades
Para leer la información, el lector DVD-ROM utiliza un láser rojo con una longitud de onda situada entre los 630 y los 650 nanómetros, frente a los 780 nanómetros de los CD convencionales. Otras diferencias, con respecto a la arquitectura de los CD-ROM, está en el tamaño de las pistas y los pits –marcas que guardan la información-, ya que son más pequeños, por lo que hay muchos más y, consecuentemente, se almacena más información.
Con estos primeros datos, podemos sacar las primeras conclusiones. En primer lugar sobresalen, por encima de todo, sus grandes ventajas: la compatibilidad CD y CD-ROM, su velocidad, y la gran capacidad de almacenamiento, que varía entre los 1.4 y los 17 Gigas. Todas las aplicaciones que, por definición, necesiten una gran cantidad de espacio, se verán beneficiadas: bases de datos, programas con secuencias de vídeo, recopilaciones, enciclopedias, etc. Estas últimas podrán mejorar su contenido, al añadir muchos más vídeos, animaciones y sonidos. Igualmente, se podrán comercializar las versiones dobladas de un programa en todos los idiomas, y en un sólo disco. A pesar de todo, como cualquier tecnología nueva, no está exenta de problemas. El primero de ellos es la incompatibilidad con ciertos estándares. En algunos casos, como puede ser el laserdisc, es inevitable, ya que se trata de discos de diferentes tamaños. Pero, a estas alturas, todavía no está muy claro si las unidades DVD serán compatibles Photo CD y CD-I. Los DVD-ROM tampoco pueden leer CD-R, es decir, CD-ROM grabados con una grabadora de CD-ROM. De forma recíproca, una grabadora CD-R no puede crear discos DVD.
La compatibilidad CD-R es un tema tan importante que es posible que quede solucionado en muy poco tiempo, incluso antes de que los lectores DVD-ROM vean la luz en el mercado europeo.
Un CD-ROM grabado no es reconocido por un lector DVD-ROM, debido a que utiliza un láser con una longitud de onda que es incapaz de detectar las marcas realizadas en un CD-R. Esta limitación tecnológica provocaría que millones de CD-R grabados con valiosa información quedasen inutilizados, por lo que ya se han propuesto distintas medidas para superarlo. En primer lugar, los fabricantes de CD-ROM grabables están trabajando en un nuevo formato de disco llamado CD-R 2, que permitirá a las grabadoras actuales crear CD-R que pueden ser leídos en las unidades DVD-ROM. Para reconocer los discos ya grabados en el formato CD-R 1, se barajan distintas soluciones. Samsung ha anunciado que sus lectores DVD dispondrán de unas lentes holográficas que reconocerán los CD-R. Los reproductores de Sony irán equipados con dos lasers, uno para leer DVD-ROM, y otro para los CD y CD-R. Philips también asegura su compatibilidad con los discos grabados… En definitiva, parece ser que este tema quedará solucionado a lo largo del año.
Otra de las dificultades tiene que ver con la reproducción de películas en el ordenador. El estándar utilizado por el sistema DVD-Vídeo es el formato MPEG-2, a una velocidad de 24 fps (cuadros por segundo). El problema es que ni siquiera los ordenadores más potentes son capaces de soportar semejante flujo de datos por segundo.
En la actualidad, los ordenadores equipados con la tarjeta apropiada (adquirida en el último año) pueden reproducir vídeo MPEG-1, que dispone de una calidad inferior al mencionado formato MPEG-2. Para solucionar esto, existen distintos enfoques, tal como se explica en uno de los recuadros adjuntos.
Todo se reduce a comercializar tarjetas gráficas compatibles MPEG-2, o incluir los chips necesarios en los propios lectores de DVD-ROM.
Como podemos observar, los posibles obstáculos van a poder ser solucionados en muy poco tiempo, por lo que las posibilidades que se nos avecinan no pueden ser más prometedoras, posibilidades que se verán reflejadas en las actuales unidades que están a punto de ser comercializadas.
El software, presente y futuro
Gracias a su compatibilidad con los sistemas actuales, los lectores de DVD-ROM nacen con decenas de miles de títulos a sus espaldas, tanto en el apartado musical, como en el informático. Además, aprovechando que soporta el formato MPEG-1, también pueden utilizarse para ver las cientos de películas existentes en formato Vídeo-CD.
Lo más interesante de todo, se centra en comprobar sus posibilidades como sistema de almacenamiento independiente, es decir, utilizando discos DVD-ROM. De momento, los títulos comercializados no son excesivos, aunque se espera que una gran cantidad de DVD-ROM se publiquen a lo largo del año. En un principio, los títulos más abundantes serán las películas y las recopilaciones de programas. En el primer caso, ya se han puesto a la venta varios títulos (en EE.UU. y Japón), como "Blade Runner", "Eraser", "Batman Forever" o "Entrevista con el Vampiro". Para primeros de marzo, han sido anunciados más de 100 títulos, que superarán los 500 a finales de año. En el caso de las aplicaciones en DVD-ROM, el proceso es algo más lento, pero casi la mitad de los distribuidores de software han anunciado que publicarán programas en formato DVD-ROM. Algunos títulos ya presentados son «Silent Steel», de Tsunami Media, y «PhoneDisc PowerFinger USA I», de Digital Directory. Este último es nada menos que la guía telefónica de Estados Unidos, en donde se guardan más de 100 millones de números de teléfonos, a los que se puede acceder por nombre, dirección, e incluso distancias. Por ejemplo, es posible localizar las tiendas de informática que se encuentran en un radio de 5 Km de un determinado lugar. El programa original ocupaba 6 CD-ROM, que ahora pueden agruparse en un sólo DVD-ROM con 3.7 Gigas, y sobra espacio para ampliar la base de datos de telefónica.
DVD-R y DVD-RAM
Los discos DVD-ROM no se pueden grabar, pero a finales de año esto va a cambiar, con la entrada en escena de las grabadoras DVD, en dos versiones diferentes. Las grabadoras DVD-R serán el equivalente a las grabadoras CD-R actuales, es decir, mecanismos "write once" que permiten escribir en un disco DVD en blanco una sola vez. Los discos dispondrán de una capacidad cercana a los 3 Gigas, aunque se acercarán a los 4.7, para equipararse al formato DVD-Vídeo. Así, las grabadoras DVD-RAM. son discos DVD que pueden borrarse y escribirse múltiples veces. Su capacidad es de 2,6 Gigas.
MPEG-2: EL NUEVO ESTÁNDAR DE VÍDEO
La tecnología DVD utiliza el formato MPEG-2 para reproducir vídeo digital. La primera consecuencia lógica de esta decisión, es que será necesario disponer de una tarjeta gráfica compatible MPEG-2 para visionar películas almacenadas en formato DVD, en un ordenador. El problema es que ningún ordenador actual, ni siquiera los Pentium Pro más potentes, son capaces de reproducir vídeo MPEG-2, y las tarjetas MPEG-2 son demasiado caras o están poco extendidas en el mercado.
Las placas gráficas actuales reproducen vídeo MPEG-1, ya sea mediante hardware o software, pero no pueden ir más allá. Antes de conocer las soluciones que los distintos fabricantes tienen pensado aportar, vamos a descubrir las características principales que encierra el sistema MPEG-2.
Es un hecho conocido por todos, que el almacenamiento digital de imágenes en movimiento necesita una gran cantidad de espacio. Por ejemplo, una sola película de hora y media de duración con unas mínimas garantías de calidad, bajo una resolución de 640×480 y color de 16 bits, puede utilizar varios CD-ROM. La única solución viable, si se quiere reducir este espacio a uno o dos CD, es comprimir el vídeo. Así nacieron los conocidos formatos de compresión AVI y QuickTime. No obstante, la compresión de vídeo trae consigo dos desventajas: la calidad de la imagen es mucho menor, y además se necesita un hardware relativamente elevado para descomprimir las imágenes en tiempo real, mientras se reproducen.
El estándar MPEG es otro más de estos sistemas de compresión, solo que mucho más avanzado. La calidad de imagen se acerca a la del vídeo no comprimido, pero se necesita un hardware muy potente -es decir, una tarjeta de vídeo muy rápida, y un procesador muy veloz-, para poder reproducirlo. Con la tecnología actual, es posible reproducir vídeo MPEG-1 mediante software, en un Pentium con una tarjeta medianamente rápida. Sin embargo, el nuevo protocolo MPEG-2, utilizado por los reproductores DVD-Vídeo, es mucho más exigente.
El formato MPEG-2 está basado en el protocolo ISO/IEC 13818. La especificación DVD toma sólo algunas de sus reglas, para reproducir vídeo de alta calidad, según el estándar NTCS (720×640), a 24 fps (cuadros por segundo).
En realidad, éste es el estándar DVD de máxima calidad, ya que la propia especificación es compatible AVI, QuickTime, MPEG-1 y Vídeo CD, en donde la resolución es más o menos la mitad, es decir, vendría a ser: 352×240.
Por lo tanto, para reproducir una película DVD en un ordenador, será necesario disponer, no sólo de un decodificador MPEG-2 para las imágenes, sino también un decodificador Dolby para el sonido.
Las soluciones previstas para solucionar esto, son muy variadas. Algunos fabricantes adaptarán sus tarjetas gráficas al formato MPEG-2. Precisamente, los nuevos procesadores MMX pueden jugar un papel esencial en este apartado, ya que la aceleración multimedia que aportan es ideal para este tipo de procesos. Otra solución consiste en comercializar placas independientes, que incorporen los chips necesarios para reproducir vídeo DVD. Finalmente, la propuesta más lógica apuesta por incluir los mencionados chips en los propios reproductores DVD-ROM, como ya han confirmado algunas empresas. Esto encarecerá un poco el precio de la unidad, pero asegurará la total compatibilidad con los miles de títulos cinematográficos que comenzarán a comercializarse en el segundo cuatrimestre de 1997.
CÓDIGOS REGIONALES: LA PRIMERA POLÉMICA
Una de las primeras discusiones que se han entablado, relacionadas con las unidades DVD, es la más que previsible implantación de códigos regionales que impedirán que ciertos discos DVD puedan leerse en lectores DVD adquiridos en zonas regionales distintas a la zona de venta del disco.
Afortunadamente, no serán utilizados en los discos DVD-ROM, ya que sólo afectan a las películas DVD.
El código regional no es más que un byte de información, que llevarán implantados algunos discos DVD. Cada reproductor DVD tendrá su propio código regional, por lo que, si encuentra un byte que no se corresponde con el suyo, no leerá el disco. Esta medida de protección ha sido impuesta por las compañías cinematográficas, ya que las películas no se estrenan simultáneamente en todo el mundo. Puesto que es una protección opcional, sólo los estrenos llevarán este código. En un principio, parece ser que las zonas geográficas serán las siguientes, aunque pueden variar:
1: Norteamérica (Estados Unidos y Canadá).
2: Japón.
3: Europa, Australia y Nueva Zelanda.
4: Sudamérica y México.
5: Asia (excepto China y Japón) y Africa.
6: China.
Como no podía ser de otra forma, hecha la ley, hecha la trampa, y no ha faltado tiempo para extenderse el rumor de que algunas compañías asiáticas ya disponen de chips que anulan la protección. Incluso se habla de la posible comercialización de reproductores capaces de leer DVD con cualquier código regional.
VIDEO DIGITAL
INTRODUCCION.
La información de video es provista en una serie de imágenes ó "cuadros" y el efecto del movimiento es llevado a cabo a través de cambios pequeños y continuos en los cuadros. Debido a que la velocidad de estas imágenes es de 30 cuadros por segundo,los cambios continuos entre cuadros darán la sensación al ojo humano de movimiento natural. Las imágenes de video están compuestas de información en el dominio del espacio y el tiempo. La información en el dominio del espacio es provista en cada cuadro, y la información en el dominio del tiempo es provista por imágenes que cambian en el tiempo (por ejemplo, las diferencias entre cuadros). Puesto que los cambios entre cuadros colindantes son diminutos, los objetos aparentan moverse suavemente. En los sistemas de video digital, cada cuadro es muestreado en unidades de pixeles ó elementos de imagen. El valor de luminancia de cada pixel es cuantificado con ocho bits por pixel para el caso de imágenes blanco y negro. En el caso de imágenes de
color, cada pixel mantiene la información de color asociada; por lo tanto, los tres elementos de la información de luminancia designados como rojo, verde y azul, son cuantificados a ocho bits. La información de video compuesta de esta manera posee una cantidad tremenda de información; por lo que, para transmisión o almacenamiento, se requierede la compresión (o codificación) de la imagen. La técnica de compresión de video consiste de tres pasos fundamentalmente, primero el preprocesamiento de las diferentes fuentes de video de entrada (señales de TV, señales de televisión de alta definición HDTV, señales de videograbadoras VHS, BETA, S-VHS, etc.), paso en el cual se realiza el filtrado de las señal de entrada para remover componentes no útiles y el ruido que pudiera haber en esta. El segundo paso es la conversión de la señal a un formato intermedio común (CIF), y por último el paso de la compresión. Las imágenes comprimidas son transmitidas a través de la línea de transmisión digitaly se hacen llegar al receptor donde son reconvertidas a el formato común CIF y son desplegadas después de haber pasado por la etapa de post-procesamiento. Mediante la compresión de la imagen se elimina información redundante, principalmente la información redundante en el dominio de espacio y del tiempo. En general, las redundancias en eldominio del espacio son debidas a las pequeñas diferencias entre pixeles contiguos de un cuadrodado, y aquellas dadas en el dominio del tiempo son debidas a los pequeños cambios dados en cuadroscontiguos causados por el movimiento de un objeto. El método para eliminar las redundancias en el dominio del espacio es llamado codificación intracuadros, la cual puede ser dividida en codificación por predicción, codificación de la transformada y codificación de la subbanda. En el otro extremo, las redundancias en el dominio del tiempo pueden ser eliminadas mediante el método de codificación de intercuadros, que también incluye los métodos de compensación/estimación del movimiento, el cual compensa el movimiento a través de la estimación del mismo.
El Estándar MPEG (Grupo de Expertos en Imágenes en movimiento).
Codificación de video.
El estándar MPEG especifica la representación codificada de video para medios de almacenam iento digital y especifica el proceso de decodificación. La representación soporta la velocidad normal de reproducción así como también la función especial de acceso aleatorio, reproducción rápida, reproducción hacia atrás normal, procedimientos de pausa y congelamiento de imagen. Este estándar internacional es compatible con los formatos de televisión de 525 y 625 líneas y provee la facilidad de utilización con monitores de computadoras personales y estaciones de trabajo. Este estándar internacional es aplicable primeramente a los medios de almacenamiento digital que soporten una velocidad de transmisión de más de 1.5 Mbps tales como el Compact Disc, cintas digitales de audio y discos duros magnéticos. El almacenamiento digital puede ser conectado directamente al decodificador o a través de vías de comunicación como lo son los bus, LANs o enlaces de telecomunicaciones. Este estándar internacional esta destinado a formatos de video no interlazado de 288 líneas de 352 pixeles aproximadamente y con velocidades de imagen de alrededor de 24 a 30 Hz.
Codificación de audio
Este estándar especifica la representación codificada de audio de alta calidad para medios de almacenamiento y el método para la decodificación de señales de audio de alta calidad. Es compatible con los formatos corrientes (Compact disc y cinta digital de audio) para el almacenamiento y reproducción de audio. Esta representación soporta velocidades normales de reproducción. Este estándar esta hecho para aplicaciones a medios de almacenamiento digitales a una velocidad total de 1.5 mbps para las cadenas de audio y video, como el CD, DAT y discos duros magnéticos. El medio de almacenamiento digital puede ser conectado directamente al decodificador, ó vía otro medio tal como líneas de comunicación y la capa de sistemas MPEG. Este estándar fue creado para velocidades de muestreo de 32 khz, 44.1 khz, 48 khz y 16 bit PCM entrada/salida al codificador/decodificador.
Trabajo realizado por: Gustavo Markel