Pourquoi l'image HDMI-> DVI est-elle plus nette que VGA?

J'ai un moniteur Dell U2312HM connecté à un ordinateur portable Dell Latitude E7440. Lorsque je les connecte via un laptop -> HDMI cable -> HDMI-DVI adaptor -> monitor (le moniteur n'a pas de prise HDMI), l'image est beaucoup plus nette qu'avec un laptop -> miniDisplayPort-VGA adaptor -> VGA cable -> monitor . La différence est difficile à capturer avec une caméra, mais voir ma tentative ci-dessous. J'ai essayé de jouer avec des paramètres de luminosité, de contraste et de netteté, mais je ne peux pas obtenir la même qualité d'image. La résolution est 1920×1080, j'utilise Ubuntu 14.04.

VGA:

VGA

HDMI:

HDMI

Pourquoi la qualité est-elle différente? Est-ce intrinsèque à ces normes ou devrais-je soupçonner un câble VGA défectueux ou un adaptateur mDP-VGA?

7 Solutions collect form web for “Pourquoi l'image HDMI-> DVI est-elle plus nette que VGA?”

VGA est le seul signal analogique des éléments susmentionnés, donc c'est déjà une explication de la différence. L'utilisation de l'adaptateur peut encore aggraver votre situation.

Quelques lectures supplémentaires: http://www.digitaltrends.com/computing/hdmi-vs-dvi-vs-displayport-vs-vga/

En supposant la luminosité, le contrat et la netteté sont les mêmes dans les deux cas, il pourrait y avoir 2 autres raisons pour lesquelles le texte est plus net avec DVI / HDMI:

Le premier a déjà été indiqué, VGA est analogue, il faudra donc passer par une conversion analogique à numérique à l'intérieur du moniteur, ce qui réduira théoriquement la qualité de l'image.

Deuxièmement, en supposant que vous utilisez Windows, il existe une technique appelée ClearType (développée par Microsoft) qui améliore l'apparence du texte en manipulant les sous-pixels d'un moniteur LCD. VGA a été développé avec les moniteurs CRT à l'esprit et la notion de sous-pixel n'est pas la même. En raison de l'exigence de ClearType d'utiliser un écran LCD et le fait que la norme VGA ne dit pas à l'hôte, les spécifications de l'affichage ClearType seraient désactivées avec une connexion VGA.

Source: Je me souviens d'avoir entendu parler de ClearType d'un de ses créateurs sur un podcast pour This (). Developers (). Life () IIRC, mais http://en.wikipedia.org/wiki/ClearType prend également en charge ma théorie. HDMI est également compatible avec DVI et DVI prend en charge l'identification électronique de l'affichage (EDID)

Les autres font de bons points, mais la raison principale est une évidente incompatibilité horloge et phase. Le VGA est analogue et est sujet à des interférences et à l'incompatibilité des côtés d'envoi et de réception analogiques. Normalement, on utiliserait un modèle comme celui-ci:

http://www.lagom.nl/lcd-test/clock_phase.php

Et ajustez l'horloge et la phase du moniteur pour obtenir la meilleure correspondance et l'image la plus nette. Cependant, étant donné qu'il est analogue, ces ajustements peuvent changer avec le temps, et donc, idéalement, vous devriez simplement utiliser un signal numérique.

Il y a quelques réponses indiquant un signal numérique par rapport à l'analogique qui est correct. Mais cela ne répond pas au pourquoi? Quelques couches de traduction mentionnées, cela est également vrai, une conversion A / D traditionnelle peut entraîner une perte de fidélité, mais vous devriez le mesurer car il est difficile de voir les différences à l'œil nu. Une conversion pas chère et tous les paris sont désactivés.

Alors, pourquoi le numérique est-il meilleur que l'analogique?

Un signal RVB analogique (tel que VGA) utilise l'amplitude du signal (0,7 volts de pic à pic dans le cas de VGA). Ceci comme tous les signaux a un bruit qui, si suffisamment grand, entraînera une traduction incorrecte des niveaux.

Les réflexions dans le câble (défauts d'impédance) sont en fait la plus grande chute d'un signal vidéo analogique. Cela introduit du bruit supplémentaire et s'aggrave avec des câbles plus longs (ou des moins chers), plus la résolution de la vidéo augmente également le rapport signal sur bruit. Il est intéressant de noter que vous ne devriez pas voir une différence dans un signal 800×600, à moins que le câble VGA ne soit trop long.

Comment un signal numérique évite-t-il ces pièges? Bien pour l'un, le niveau n'est plus pertinent. En outre, DVI-D / HDMI utilise un signal différentiel ainsi qu'une correction d'erreur pour s'assurer que les zéros sont correctement transmis correctement. Il y a aussi un conditionnement supplémentaire ajouté à un signal numérique qui n'est pas pratique pour ajouter un signal vidéo analogique.

Désolé pour les mecs de savon, mais ce sont les faits.

Un autre problème est que beaucoup de câbles VGA sont des déchets. Si le câble VGA est inférieur à 1/4 "d'épaisseur, vous remarquerez probablement des fantômes sur des moniteurs plus grands (plus haut, le plus probable des fantômes). J'ai même remarqué des fantômes sur le câble VGA attaché sur des moniteurs CRT de 19". Mes câbles VGA ont environ 1/3 "d'épaisseur et cela contribue vraiment à la netteté (fils plus épais, plus de blindage)

HDMI et DVI sont très similaires. Les deux sont numériques; Les principales différences sont que HDMI prend en charge l'audio et le HDCP. Lors de la commutation entre HDMI et DVI, il y a peu de conversion réelle, mais plutôt la connexion des broches correspondantes sur les connecteurs. Port d'affichage est un protocole numérique, mais VGA est analogique, et le convertisseur introduit probablement de petits défauts et la réduction de la netteté dans le signal. Le moniteur convertit probablement le signal en numérique, entraînant une autre conversion qui affecte négativement la qualité.

Surtout, l'ordinateur-> HDMI-> DVI-> moniteur a moins de conversions réelles que l'ordinateur-> DisplayPort-> VGA-> moniteur et ne convertit jamais le signal en analogique, ce qui donne une image plus nette.

HDMI et DVI sont en fait les mêmes (au moins dans votre contexte). Les connecteurs DVI sont vraiment des connecteurs HDMI avec un brochage différent (les rangées de broches), plus les connecteurs VGA avec un brochage différent (les broches disposées autour d'une forme croisée). Si vous regardez votre convertisseur HDMI-DVI, vous remarquerez probablement que la partie en forme de croix est manquante.

Donc, vous comparez une image HDMI à une image VGA, et, comme l'a souligné @Josh, implique une conversion réelle.

Il existe réellement une différence entre HDMI et DVI, mais ce n'est pas pertinent pour vous. HDMI peut transporter des signaux supplémentaires, y compris le signal de cryptage pour la protection du contenu, le son, l'Ethernet, etc.

  • Pourquoi le rétro-éclairage de mon écran LCD s'éteint-il?
  • Comment puis-je connecter mon périphérique HDMI à une entrée VGA
  • Radeon 7700 - 2ème port DVI désactivé
  • Un connecteur HDMI vers VGA fonctionnera-t-il?
  • 3 moniteurs alimentés à partir d'un Nvidia fx580
  • Le câble VGA vers HDMI est-il le même que le câble HDMI vers VGA?
  • Dysfonctionnement de Matrox TH2G Digital sur Intel HD 5500 GPU (détecte le signal VGA comme DisplayPort, ne fournit que de faibles résolutions)
  • Image fantôme du moniteur 1 dans le moniteur 2 avec câbles VGA enroulés ensemble
  • La résolution 1920 x 1080 n'est pas disponible pour le moniteur externe
  • Câbles DVI vers VGA ou VGA vers DVI
  • Deux moniteurs externes
  • Soyons le génie de l'ordinateur et du réseau.