Aunque estén en una misma tarjeta de vídeo, o tengan conectores adaptables, o transmitan aparentemente la misma señal, no son lo mismo, hoy les traemos un tutorial sobre la diferencia entre VGA y DVI.
Interfaz visual digital o comúnmente conocido como DVI (Digital Visual Interface) es una interfaz de vídeo diseñada para obtener la máxima calidad de visualización posible en pantallas digitales, tales como los monitores de cristal líquido de pantalla plana y los proyectores digitales.
Para entender un poco lo que hace los DVI, hay que entender los estándares anteriores, como el VGA, que fueron diseñados de modo analógicos y están diseñados para dispositivos CRT (tubo de rayos catódicos o tubo catódico). La fuente varía su tensión de salida con cada línea que emite para representar el brillo deseado. En una pantalla CRT, esto se usa para asignar al rayo la intensidad adecuada mientras éste se va desplazando por la pantalla. Este rayo no está presente en pantallas digitales; en su lugar hay una matriz de píxeles, y se debe asignar un valor de brillo a cada uno de ellos. El decodificador hace esta tarea tomando muestras del voltaje de entrada a intervalos regulares. Cuando la fuente es también digital (como un ordenador - PC), esto puede provocar distorsión si las muestras no se toman en el centro de cada píxel, y, en general, el grado de ruido entre píxeles adyacentes es elevado.
A todo eso, DVI adopta un enfoque distinto. El brillo de los píxeles se transmite en forma de lista de números binarios. Cuando la pantalla está establecida a su resolución nativa, sólo tiene que leer cada número y aplicar ese brillo al píxel apropiado. De esta forma, cada píxel del buffer de salida de la fuente se corresponde directamente con un píxel en la pantalla, mientras que con una señal analógica el aspecto de cada píxel puede verse afectado por sus píxeles adyacentes, así como por el ruido eléctrico y otras formas de distorsión analógica.
El formato de datos de DVI está basado en el formato de serie PanelLink, desarrollado por el fabricante de semiconductores Silicon Image Inc. Emplea TMDS ("Transition Minimized Differential Signaling", Señal Diferencial con Transición Minimizada). Un enlace DVI consiste en un cable de cuatro pares retorcidos: uno para cada color primario (rojo, verde, y azul) y otro para el "reloj" (que sincroniza la transmisión). La sincronización de la señal es casi igual que la de una señal analógica de vídeo. La imagen se transmite línea por línea con intervalos de borrado entre cada línea y entre cada fotograma. No se usa compresión ni transmisión por paquetes y no admite que sólo se transmitan las zonas cambiadas de la imagen. Esto significa que la pantalla entera se transmite constantemente.
Con un solo enlace DVI, la máxima resolución posible a 60 Hz es de 2,6 megapíxeles. Por esto, el conector DVI admite un segundo enlace, con otro conjunto de pares retorcidos para el rojo, el verde y el azul. Cuando se requiere un ancho de banda mayor que el que permite un solo enlace, el segundo se activa, y los dos pueden emitir píxeles alternos. El estándar DVI especifica un límite máximo de 165 MHz para los enlaces únicos, de forma que los modos de pantalla que requieran una frecuencia inferior deben usar el modo de enlace único, y los que requieran más deben establecer el modo de enlace doble. Cuando se usan los dos enlaces, cada uno puede sobrepasar los 165 MHz. El segundo enlace también se puede usar cuando se necesiten más de 24 bits por píxel, en cuyo caso transmite los bits menos significativos.
Al igual que los conectores analógicos VGA modernos, el conector DVI tiene pins para el canal de datos de pantalla, versión 2 (DDC 2) que permite al adaptador gráfico leer los datos de identificación de pantalla extendidos (EDID, "Extended Display Identification Data").
El conector DVI normalmente posee pins para transmitir las señales digitales nativas de DVI. En los sistemas de doble enlace, se proporcionan pins adicionales para la segunda señal.
También puede tener pins para transmitir las señales analógicas del estándar VGA. Esta característica se incluyó para dar un carácter universal a DVI: los conectores que la implementan admiten monitores de ambos tipos (analógico o digital).
Los conectores DVI se clasifican en tres tipos en función de qué señales admiten:
* DVI-D (sólo digital)
* DVI-A (sólo analógica)
* DVI-I (digital y analógica)
A veces se denomina DVI-DL a los conectores que admiten dos enlaces.
DVI es el único estándar de uso extendido que proporciona opciones de transmisión digital y analógica en el mismo conector. Los estándares que compiten con él son exclusivamente digitales: entre ellos están el sistema de señal diferencial de bajo voltaje (LVDS, "Low-Voltage Differential Signalling") conocido por sus marcas FPD ("Flat-Panel Display", monitor de pantalla plana) Link y FLATLINK, así como sus sucesores, el LDI ("LVDS Display Interface", interfaz de pantalla LVDS) y OpenLDI.
Las señales USB no se incorporaron al conector DVI. Este descuido se ha resuelto en el conector VESA M1-DA usado por InFocus en sus proyectores, y en el conector Apple Display Connector de Apple Computer, que ya no se produce. El conector VESA M1 es básicamente el conector VESA Plug & Display (P&D), cuyo nombre original es EVC ("Enhanced Video Connector", conector de vídeo mejorado). El conector de Apple es eléctricamente compatible con el VESA P&D/M1 y la estructura de los pins es la misma, pero la forma física del conector es distinta.
Los reproductores de DVD modernos, televisores (equipos HDTV entre ellos) y proyectores de vídeo tienen conectores HDMI. Los ordenadores con conectores DVI pueden usar equipos HDTV como pantallas pero se necesita un cable DVI a HDMI.
SVGA ( Super Video Graphics Array o SVGA)
Es un término que cubre una amplia gama de estándares de visualización gráfica de ordenadores, incluyendo tarjetas de video y monitores.
Puerto D-sub de 15 pines
Puerto D-sub de 15 pines
Cuando IBM lanzara al mercado el estándar VGA en 1987 muchos fabricantes manufacturan tarjetas VGA clones. Luego, IBM se mueve y crea el estándar XGA, el cual no es seguido por las demás compañías, éstas comienzan a crear tarjetas de vídeo SVGA.
Las nuevas tarjetas SVGA de diferentes fabricantes no eran exactamente igual a nivel de hardware, lo que las hacía incompatibles. Los programas tenían dos alternativas: Manejar la tarjeta de vídeo a través de llamadas estándar, lo cual era muy lento pero había compatibilidad con las diferentes tarjetas, o manejar la tarjeta directamente, lo cual era muy rápido y se podía acceder a toda la funcionalidad de ésta (modos gráficos, etc), sin embargo, el programador tenía que hacer una rutina de acceso especial para cada tipo de tarjeta.
Poco después surgió Video Electronics Standards Association (VESA), un consorcio abierto para promover la interoperabilidad y definición de estándares entre los diferentes fabricantes. Entre otras cosas, VESA unificó el manejo de la interface del programa hacia la tarjeta, también desarrolló un bus con el mismo nombre para mejorar el rendimiento entre el ordenador y la tarjeta. Unos años después, este bus sería sustituido por el PCI de Intel.
SVGA fue definido en 1989 y en su primera versión se estableció para una resolución de 800 × 600 pixels y 4 bits de color por pixel, es decir, hasta 16 colores por pixel. Después fue ampliado rápidamente a los 1024 × 768 pixels y 8 bits de color por pixel, y a otras mayores en los años siguientes.
Aunque el número de colores fue definido en la especificación original, esto pronto fue irrelevante, (en contraste con los viejos estándares CGA y EGA), ya que el interfaz entre la tarjeta de vídeo y el monitor VGA o SVGA utiliza voltajes simples para indicar la profundidad de color deseada. En consecuencia, en cuanto al monitor se refiere, no hay límite teórico al número de colores distintos que pueden visualizarse, lo que se aplica a cualquier monitor VGA o SVGA.
Mientras que la salida de VGA o SVGA es analógica, los cálculos internos que la tarjeta de vídeo realiza para proporcionar estos voltajes de salida son enteramente digital. Para aumentar el número de colores que un sistema de visualización SVGA puede producir, no se precisa ningún cambio en el monitor, pero la tarjeta vídeo necesita manejar números mucho más grandes y puede ser necesario rediseñarla desde el principio. Debido a esto, los principales fabricantes de chips gráficos empezaron a producir componentes para tarjetas vídeo del alta densidad de color apenas unos meses después de la aparición de SVGA.
Sobre el papel, el SVGA original debía ser sustituido por el estándar XGA o SXGA, pero la industria pronto abandonó el plan de dar un nombre único a cada estándar superior y así, casi todos los sistemas de visualización hechos desde finales de los 80 hasta la actualidad se denominan SVGA.
Los fabricantes de monitores anuncian a veces sus productos como XGA o SXGA, pero esto no tiene ningún significado, ya que la mayoría de los monitores SVGA fabricados desde los años 90 llegan y superan ampliamente el rendimiento de XGA o SXGA.
VGA (Video Graphics Array)
Es una norma de visualización de gráficos para ordenadores creada en 1987 por IBM. VGA pertenece a la familia de normas que comenzó con la MDA. Como pasó con otros productos de IBM, múltiples fabricantes crearon tarjetas clónicas compatibles con la norma VGA. Aunque la norma VGA está anticuada, siendo superada por la XGA, es último estándar de visualización de gráficos de IBM que la mayoría de los fabricantes decidieron seguir. A partir de entonces cada fabricante creó mejoras del estándar VGA incompatibles entre sí denominadas SVGA).
Las tarjetas compatibles con la norma VGA requieren de un mínimo de 256 KB de memoria de vídeo. Pueden mostrar hasta 256 colores elegidos de una paleta de 262.144 colores y alcanzar una resolución de 720 x 480 con un refresco de pantalla de 70 Hz.
La norma VGA admite hasta cuatro planos de vídeo, desplazamientos de la imagen, división de la pantalla en zonas independientes y creación de caracteres definidos mediante software.
La norma VGA admite los modos gráficos de las versiones anteriores: MCGA, EGA, CGA y MDA y añade un nuevo modo de 640 x 480 con 16 colores. Además admite otros modos no documentados por IBM. Estos modos no documentados reciben el nombre genérico de modos X.
Los modos de texto son idénticos a los de la norma EGA, pero además añade uno nuevo de 80 x 50 caracteres. La mayoría de los programas emplean el modo de 80 x 25 caracteres. El color de cada carácter se puede elegir de una paleta de dieciséis colores, excepto en el caso de que esté parpadeando, que se reduce a una paleta de ocho colores.
7:52:00
por
Mr.Dandi en Casa
Déjanos un comentario
(Respeta a los demás, evita los comentarios ofensivos)