Diferencia entre usar VGA y DVI

Colapsar
X
 
  • Filtrar
  • Tiempo
  • Mostrar
Limpiar Todo
nuevos mensajes

  • Diferencia entre usar VGA y DVI

    pues eso, me he comprao finalmente un LG de 22" y tiene salidas... analogica, digital y HDMI... y yo puedo usar en mi pc las dos primeras, vamos, que no se si alguien me puede decir porque no usar el de siempre... mas que nada porque pongo el otro y pasa un cuarto de hora y hace algo raro, o la pantalla se divide en dos y se intercambian de sitio, o aparece una franja negra en medio o algo asi... no se si será del cable pero me tiene mosqueao ¬¬

    ala, a ver que me contais xD
    Intel i7-4790K 4GHz | Maximus VII Hero | Swiftech H220
    ​32GB G.SKILL TridentX DDR3-2400 PC3-19200 10-12-12-31 1.65v
    Crucial M500 240GB | Seagate 7200 2+3TB | WD CG 4TB
    2x HD7970 CFX | Corsair AX860 | Logitech G5
    Galaxy S5 | 5Dmk3+1Dmk2

  • #2
    Re: Diferencia entre usar VGA y DVI

    por cierto, antes de que alguien me diga algo... he dicho salidas VGA, DMI y HDMI... quien dice salida dice entrada... xD
    Intel i7-4790K 4GHz | Maximus VII Hero | Swiftech H220
    ​32GB G.SKILL TridentX DDR3-2400 PC3-19200 10-12-12-31 1.65v
    Crucial M500 240GB | Seagate 7200 2+3TB | WD CG 4TB
    2x HD7970 CFX | Corsair AX860 | Logitech G5
    Galaxy S5 | 5Dmk3+1Dmk2

    Comentario


    • #3
      Re: Diferencia entre usar VGA y DVI

      Una señal es anaólica (VGA) y la otra es digital (DVI).

      DVI
      Los estándares anteriores, como el VGA, son analógicos y están diseñados para dispositivos CRT (tubo de rayos catódicos o tubo catódico). La fuente varía su tensión de salida con cada línea que emite para representar el brillo deseado. En una pantalla CRT, esto se usa para asignar al rayo la intensidad adecuada mientras éste se va desplazando por la pantalla. Este rayo no está presente en pantallas digitales; en su lugar hay una matriz de píxeles, y se debe asignar un valor de brillo a cada uno de ellos. El decodificador hace esta tarea tomando muestras del voltaje de entrada a intervalos regulares. Cuando la fuente es también digital (como un ordenador), esto puede provocar distorsión si las muestras no se toman en el centro de cada píxel, y, en general, el grado de ruido entre píxeles adyacentes es elevado.

      DVI adopta un enfoque distinto. El brillo de los píxeles se transmite en forma de lista de números binarios. Cuando la pantalla está establecida a su resolución nativa, sólo tiene que leer cada número y aplicar ese brillo al píxel apropiado. De esta forma, cada píxel del buffer de salida de la fuente se corresponde directamente con un píxel en la pantalla, mientras que con una señal analógica el aspecto de cada píxel puede verse afectado por sus píxeles adyacentes, así como por el ruido eléctrico y otras formas de distorsión analógica...

      El formato de datos de DVI está basado en el formato de serie PanelLink, desarrollado por el fabricante de semiconductores Silicon Image Inc. Emplea TMDS ("Transition Minimized Differential Signaling", Señal Diferencial con Transición Minimizada). Un enlace DVI consiste en un cable de cuatro pares retorcidos: uno para cada color primario (rojo, verde, y azul) y otro para el "reloj" (que sincroniza la transmisión). La sincronización de la señal es casi igual que la de una señal analógica de vídeo. La imagen se transmite línea por línea con intervalos de borrado entre cada línea y entre cada fotograma. No se usa compresión ni transmisión por paquetes y no admite que sólo se transmitan las zonas cambiadas de la imagen. Esto significa que la pantalla entera se transmite constantemente.

      Con un solo enlace DVI, la máxima resolución posible a 60 Hz es de 2,6 megapíxeles. Por esto, el conector DVI admite un segundo enlace, con otro conjunto de pares retorcidos para el rojo, el verde y el azul. Cuando se requiere un ancho de banda mayor que el que permite un solo enlace, el segundo se activa, y los dos pueden emitir píxeles alternos. El estándar DVI especifica un límite máximo de 165 MHz para los enlaces únicos, de forma que los modos de pantalla que requieran una frecuencia inferior deben usar el modo de enlace único, y los que requieran más deben establecer el modo de enlace doble. Cuando se usan los dos enlaces, cada uno puede sobrepasar los 165 MHz. El segundo enlace también se puede usar cuando se necesiten más de 24 bits por píxel, en cuyo caso transmite los bits menos significativos.

      Al igual que los conectores analógicos VGA modernos, el conector DVI tiene pins para el canal de datos de pantalla, versión 2 (DDC 2) que permite al adaptador gráfico leer los datos de identificación de pantalla extendidos (EDID, "Extended Display Identification Data").

      El conector DVI normalmente posee pins para transmitir las señales digitales nativas de DVI. En los sistemas de doble enlace, se proporcionan pins adicionales para la segunda señal.

      También puede tener pins para transmitir las señales analógicas del estándar VGA. Esta característica se incluyó para dar un carácter universal a DVI: los conectores que la implementan admiten monitores de ambos tipos (analógico o digital).

      Los conectores DVI se clasifican en tres tipos en función de qué señales admiten:

      * DVI-D (sólo digital)
      * DVI-A (sólo analógica)
      * DVI-I (digital y analógica)

      A veces se denomina DVI-DL a los conectores que admiten dos enlaces.

      DVI es el único estándar de uso extendido que proporciona opciones de transmisión digital y analógica en el mismo conector. Los estándares que compiten con él son exclusivamente digitales: entre ellos están el sistema de señal diferencial de bajo voltaje (LVDS, "Low-Voltage Differential Signalling") conocido por sus marcas FPD ("Flat-Panel Display", monitor de pantalla plana) Link y FLATLINK, así como sus sucesores, el LDI ("LVDS Display Interface", interfaz de pantalla LVDS) y OpenLDI.

      Las señales USB no se incorporaron al conector DVI. Este descuido se ha resuelto en el conector VESA M1-DA usado por InFocus en sus proyectores, y en el conector Apple Display Connector de Apple Computer, que ya no se produce. El conector VESA M1 es básicamente el conector VESA Plug & Display (P&D), cuyo nombre original es EVC ("Enhanced Video Connector", conector de vídeo mejorado). El conector de Apple es eléctricamente compatible con el VESA P&D/M1 y la estructura de los pins es la misma, pero la forma física del conector es distinta.

      Los reproductores de DVD modernos, televisores (equipos HDTV entre ellos) y proyectores de vídeo tienen conectores HDMI. Los ordenadores con conectores DVI pueden usar equipos HDTV como pantallas pero se necesita un cable DVI a HDMI.



      SVGA

      Super Video Graphics Array o SVGA es un término que cubre una amplia gama de estándares de visualización gráfica de ordenadores, incluyendo tarjetas de video y monitores.
      Puerto D-sub de 15 pines
      Puerto D-sub de 15 pines

      Cuando IBM lanzara al mercado el estándar VGA en 1987 muchos fabricantes manufacturan tarjetas VGA clones. Luego, IBM se mueve y crea el estándar XGA, el cual no es seguido por las demás compañías, éstas comienzan a crear tarjetas de vídeo SVGA.

      Las nuevas tarjetas SVGA de diferentes fabricantes no eran exactamente igual a nivel de hardware, lo que las hacía incompatibles. Los programas tenían dos alternativas: Manejar la tarjeta de vídeo a través de llamadas estándar, lo cual era muy lento pero había compatibilidad con las diferentes tarjetas, o manejar la tarjeta directamente, lo cual era muy rápido y se podía acceder a toda la funcionalidad de ésta (modos gráficos, etc), sin embargo, el programador tenía que hacer una rutina de acceso especial para cada tipo de tarjeta.

      Poco después surgió Video Electronics Standards Association (VESA), un consorcio abierto para promover la interoperabilidad y definición de estándares entre los diferentes fabricantes. Entre otras cosas, VESA unificó el manejo de la interface del programa hacia la tarjeta, también desarrolló un bus con el mismo nombre para mejorar el rendimiento entre el ordenador y la tarjeta. Unos años después, este bus sería sustituido por el PCI de Intel.

      SVGA fue definido en 1989 y en su primera versión se estableció para una resolución de 800 × 600 pixels y 4 bits de color por pixel, es decir, hasta 16 colores por pixel. Después fue ampliado rápidamente a los 1024 × 768 pixels y 8 bits de color por pixel, y a otras mayores en los años siguientes.

      Aunque el número de colores fue definido en la especificación original, esto pronto fue irrelevante, (en contraste con los viejos estándares CGA y EGA), ya que el interfaz entre la tarjeta de vídeo y el monitor VGA o SVGA utiliza voltajes simples para indicar la profundidad de color deseada. En consecuencia, en cuanto al monitor se refiere, no hay límite teórico al número de colores distintos que pueden visualizarse, lo que se aplica a cualquier monitor VGA o SVGA.

      Mientras que la salida de VGA o SVGA es analógica, los cálculos internos que la tarjeta de vídeo realiza para proporcionar estos voltajes de salida son enteramente digital. Para aumentar el número de colores que un sistema de visualización SVGA puede producir, no se precisa ningún cambio en el monitor, pero la tarjeta vídeo necesita manejar números mucho más grandes y puede ser necesario rediseñarla desde el principio. Debido a esto, los principales fabricantes de chips gráficos empezaron a producir componentes para tarjetas vídeo del alta densidad de color apenas unos meses después de la aparición de SVGA.

      Sobre el papel, el SVGA original debía ser sustituido por el estándar XGA o SXGA, pero la industria pronto abandonó el plan de dar un nombre único a cada estándar superior y así, casi todos los sistemas de visualización hechos desde finales de los 80 hasta la actualidad se denominan SVGA.

      Los fabricantes de monitores anuncian a veces sus productos como XGA o SXGA, pero esto no tiene ningún significado, ya que la mayoría de los monitores SVGA fabricados desde los años 90 llegan y superan ampliamente el rendimiento de XGA o SXGA.



      VGA

      Video Graphics Array (VGA) es una norma de visualización de gráficos para ordenadores creada en 1987 por IBM. VGA pertenece a la familia de normas que comenzó con la MDA.

      Como pasó con otros productos de IBM, múltiples fabricantes crearon tarjetas clónicas compatibles con la norma VGA. Aunque la norma VGA está anticuada, siendo superada por la XGA, es último estándar de visualización de gráficos de IBM que la mayoría de los fabricantes decidieron seguir. A partir de entonces cada fabricante creó mejoras del estándar VGA incompatibles entre sí denominadas SVGA).

      Las tarjetas compatibles con la norma VGA requieren de un mínimo de 256 KB de memoria de vídeo. Pueden mostrar hasta 256 colores elegidos de una paleta de 262.144 colores y alcanzar una resolución de 720 x 480 con un refresco de pantalla de 70 Hz.

      La norma VGA admite hasta cuatro planos de vídeo, desplazamientos de la imagen, división de la pantalla en zonas independientes y creación de caracteres definidos mediante software.

      La norma VGA admite los modos gráficos de las versiones anteriores: MCGA, EGA, CGA y MDA y añade un nuevo modo de 640 x 480 con 16 colores. Además admite otros modos no documentados por IBM. Estos modos no documentados reciben el nombre genérico de modos X.

      Los modos de texto son idénticos a los de la norma EGA, pero además añade uno nuevo de 80 x 50 caracteres. La mayoría de los programas emplean el modo de 80 x 25 caracteres. El color de cada carácter se puede elegir de una paleta de dieciséis colores, excepto en el caso de que esté parpadeando, que se reduce a una paleta de ocho colores.

      Editado por última vez por Graku 28-08-07, 20:25:16.
      Un saludo a tod@s

      Comentario


      • #4
        Re: Diferencia entre usar VGA y DVI

        después de esta matada a leer, que te la agradezco (porque he aprendido alguna cosilla que no sabía y se me ha corregido alguna idea al parecer errónea que ya tenía) pero en realidad no me sirve de mucho, mi duda es... ¿al ojo de un humano "normal" se nota esa diferencia entre una u otra forma de transmisión? yo ahora no se ni en cual estoy, solo se que puedo ver la pantalla... y lo curioso es que cuando pasan esas cosas raras suelen ser al poner algun video, película o algo similar, entonces el modo en el que esté (RGB o DVI) pone que pasa a modo de ahorro de energía... :S

        será que consume demasiado? joer, no entiendo nada!!!

        ahora llevo un par de horas con esto encendido y sin ningun problema, pero quien sabe... ¬¬
        Intel i7-4790K 4GHz | Maximus VII Hero | Swiftech H220
        ​32GB G.SKILL TridentX DDR3-2400 PC3-19200 10-12-12-31 1.65v
        Crucial M500 240GB | Seagate 7200 2+3TB | WD CG 4TB
        2x HD7970 CFX | Corsair AX860 | Logitech G5
        Galaxy S5 | 5Dmk3+1Dmk2

        Comentario


        • #5
          Re: Diferencia entre usar VGA y DVI

          Originalmente publicado por eloyweb Ver Mensaje
          después de esta matada a leer, que te la agradezco (porque he aprendido alguna cosilla que no sabía y se me ha corregido alguna idea al parecer errónea que ya tenía) pero en realidad no me sirve de mucho, mi duda es... ¿al ojo de un humano "normal" se nota esa diferencia entre una u otra forma de transmisión? yo ahora no se ni en cual estoy, solo se que puedo ver la pantalla... y lo curioso es que cuando pasan esas cosas raras suelen ser al poner algun video, película o algo similar, entonces el modo en el que esté (RGB o DVI) pone que pasa a modo de ahorro de energía... :S

          será que consume demasiado? joer, no entiendo nada!!!

          ahora llevo un par de horas con esto encendido y sin ningun problema, pero quien sabe... ¬¬
          A ojo humano no, al menos yo no lo noto. En visualización de películas quizás se note algo.
          Desactiva el ahorro de energía.
          Editado por última vez por Graku 28-08-07, 20:36:46.
          Un saludo a tod@s

          Comentario


          • #6
            Re: Diferencia entre usar VGA y DVI

            vale, muchas gracias!
            Intel i7-4790K 4GHz | Maximus VII Hero | Swiftech H220
            ​32GB G.SKILL TridentX DDR3-2400 PC3-19200 10-12-12-31 1.65v
            Crucial M500 240GB | Seagate 7200 2+3TB | WD CG 4TB
            2x HD7970 CFX | Corsair AX860 | Logitech G5
            Galaxy S5 | 5Dmk3+1Dmk2

            Comentario


            • #7
              Re: Diferencia entre usar VGA y DVI

              graku lo del "ahorro de energia" es un problema que sigo teniendo, eso no se ha solucionado, y no es el ahorro de energía de windows ni nada, cuando le da me apaga el monitor y esta mañana he estado a punto de tirarlo por la ventana porque me he pegao hora y media de reloj enchufando y desenchufando el cable para que pillase la señal y nada, y hasta la tarde no ha funcionao, me estoy desesperando... y voy a acabar devolviendolo porque me ha tocao la moral!!!
              Intel i7-4790K 4GHz | Maximus VII Hero | Swiftech H220
              ​32GB G.SKILL TridentX DDR3-2400 PC3-19200 10-12-12-31 1.65v
              Crucial M500 240GB | Seagate 7200 2+3TB | WD CG 4TB
              2x HD7970 CFX | Corsair AX860 | Logitech G5
              Galaxy S5 | 5Dmk3+1Dmk2

              Comentario


              • #8
                Re: Diferencia entre usar VGA y DVI

                JAJAJJA te ha tocado la moral....
                Aver si va ser defectuoso o algo por el estilo cambialo aver..

                saludos
                No jugeis WoW mas de 2h al dia engancha muchisimo
                sigpic
                Modelador http://www.blitzkrieg-mod.com/

                Comentario


                • #9
                  Re: Diferencia entre usar VGA y DVI

                  no se, he caido en la conclusión de que si muevo el ratón cuando aparece ese mensaje... vuelve a la vida xD

                  igual simplemente es lo que indicaba, el ahorro de energía, pero yo recuerdo k a veces viendo un video corto entraba en ese modo sin haberlo tenido "parado" mucho rato... joer que cosa mas rara ^^
                  Intel i7-4790K 4GHz | Maximus VII Hero | Swiftech H220
                  ​32GB G.SKILL TridentX DDR3-2400 PC3-19200 10-12-12-31 1.65v
                  Crucial M500 240GB | Seagate 7200 2+3TB | WD CG 4TB
                  2x HD7970 CFX | Corsair AX860 | Logitech G5
                  Galaxy S5 | 5Dmk3+1Dmk2

                  Comentario


                  • #10
                    Re: Diferencia entre usar VGA y DVI

                    Si se te va la imágen y de repente cuando mueves el ratón o algo vuelve a encender evidentemente es ahorro de energía bien por parte del S.O. o bien por parte de la configuración de BIOS o Setup monitor.
                    Un saludo a tod@s

                    Comentario


                    • #11
                      Re: Diferencia entre usar VGA y DVI

                      y que me dices de que se me divida la pantalla, con una linea vertical, y de la linea hacia la derecha empieza la pantalla... y cuando llega al borce derecho sigue desde el borde izquierdo de la pantalla hasta la linea vertical...

                      esto puede ser porque el cable sea defectuoso o algo? porque es bien raro... siempre me pasa cuando veo videos, peliculas...
                      Intel i7-4790K 4GHz | Maximus VII Hero | Swiftech H220
                      ​32GB G.SKILL TridentX DDR3-2400 PC3-19200 10-12-12-31 1.65v
                      Crucial M500 240GB | Seagate 7200 2+3TB | WD CG 4TB
                      2x HD7970 CFX | Corsair AX860 | Logitech G5
                      Galaxy S5 | 5Dmk3+1Dmk2

                      Comentario


                      • #12
                        Re: Diferencia entre usar VGA y DVI

                        Hola de nuevo esta vez no escribo para reirme de alguna frase vuestra sino de aportar algo util.
                        Hace tiempo que lei en una revista que el VGA analogico (lo sabe todo el mundo) y el DVI digital,a lo que iba segun lo que ponian con el conector VGA la imagen que recibe el monitor la tiene que pensar como representarla en la misma pantalla y asi se relentiza todo el proceso de la imagen final mientras que el DVI(digital) lo que hace es que la T.Grafica le pasa directamente la imagen al monitor con la calidad final y ese mismo monitor solo tiene que limitarse a su trabajo que es representar la imagen y nada mas^^ bueno esto es lo que entendi yo del review ese xD.

                        Otra cosa lo de la pantalla dividida segun mi experiencia puede ser como tu bien dices eloyweb culpa del cable,aver si me explico yo cuando conectaba mi PC al televisor para ver alguna peli si no ponia el cable original que me venia con la VGA surgian problemas de ese tipo pantallas dobles y otro tipo de anomalias...
                        Si puedes prueba con orto cable

                        Saludos y cuenta como va la cosa.
                        No jugeis WoW mas de 2h al dia engancha muchisimo
                        sigpic
                        Modelador http://www.blitzkrieg-mod.com/

                        Comentario


                        • #13
                          Re: Diferencia entre usar VGA y DVI

                          jaja vale, bien, puede ser... me lo creo... =P

                          y lo del cable... a ver si me compro un cable DVI pero vaya, el que uso es el que me venia pcon la pantalla y me hace cosas raras... porque eso de que se me divida no me gusta na :S:S
                          Intel i7-4790K 4GHz | Maximus VII Hero | Swiftech H220
                          ​32GB G.SKILL TridentX DDR3-2400 PC3-19200 10-12-12-31 1.65v
                          Crucial M500 240GB | Seagate 7200 2+3TB | WD CG 4TB
                          2x HD7970 CFX | Corsair AX860 | Logitech G5
                          Galaxy S5 | 5Dmk3+1Dmk2

                          Comentario


                          • #14
                            Re: Diferencia entre usar VGA y DVI

                            bueno, yo compre el cable DVI para mi Benq de 19". y la verdad, nada que ver con VGA. al ojo humano se distingue perfectamente.
                            normalmente con VGA lo que me pasa es que la parte de arriba se ve oscura y la de abajo muy brillante, y con DVI no pasa eso, veo todo mas igualado.
                            por otro lado, los colores estan mas definidos.
                            no se si en otras pantallas se notara menos, pero al menos en esta hay una gran diferencia.

                            saludos

                            Comentario


                            • #15
                              Re: Diferencia entre usar VGA y DVI

                              es curioso, pero donde yo vivo no hay ningun sitio donde comprar un cable DVI... joder que asco de pueblo... xD

                              a ver si algún dia que vaya a otro lao me acuerdo de comprar un cable... dios >.<
                              Intel i7-4790K 4GHz | Maximus VII Hero | Swiftech H220
                              ​32GB G.SKILL TridentX DDR3-2400 PC3-19200 10-12-12-31 1.65v
                              Crucial M500 240GB | Seagate 7200 2+3TB | WD CG 4TB
                              2x HD7970 CFX | Corsair AX860 | Logitech G5
                              Galaxy S5 | 5Dmk3+1Dmk2

                              Comentario

                              Trabajando...
                              X