La modification de la résolution de l'écran affecte-t-elle la consommation d'énergie?

Si j'ai deux moniteurs identiques et que j'ai configuré l'un pour afficher en haute résolution et que l'autre à afficher en basse résolution, il y aura une différence dans la consommation d'énergie?

Notez que cette question diffère de Les écrans de même taille avec différents IPP affectent la batterie différemment? Comme cette question demande directement à propos de la résolution, où le post lié est à la recherche de l'effet de PPI sur la consommation de batterie

Non, la résolution de l'écran n'affectera pas la consommation de la batterie. La raison en est que le nombre réel de pixels est identique. Le moniteur ne peut pas activer ou désactiver les pixels, ce qui entraînerait littéralement qu'il y ait peu de points noirs sur le moniteur, étant donné que la taille du pixel est basée sur le matériel et ne peut pas être modifiée à la volée.

Notez que si PPI est différent, mais tout le reste est le même, le nombre de pixels sur le moniteur est différent et donc la consommation d'énergie sera différente (celle avec PPI plus élevé utilisera plus de puissance).

Voici une explication plus détaillée par analogie, afin de vous donner une idée de la façon dont les moniteurs fonctionnent réellement pour "mettre à l'échelle" les pixels. Notez que le moniteur utilise toujours tous les pixels disponibles, peu importe ce qu'il affiche.

Zoom sur trop loin

Pensez à la façon dont une image est augmentée ou réduite sur un écran d'ordinateur. Lorsque vous zoomez trop loin, il devient flou, car la taille de chaque pixel dans l'image commence à prendre plus d'un pixel sur le moniteur.

Pour afficher l'image, la taille de pixel du moniteur ne change pas réellement, mais elle commence à utiliser plusieurs pixels de moniteur pour afficher un pixel d'image unique.

Cela signifie que l'image a gagné une densité supplémentaire, mais le moniteur n'a pas gagné ou perdu de la densité et affiche toujours le même nombre de pixels.

Réduire trop loin

Pour rendre le problème plus clair, essayez de réfléchir à l'inverse. Lorsque vous faites échelonner une image trop loin, les pixels du moniteur sont plus grands que les pixels de l'image.

Imaginez que vous réduisez l'image jusqu'à la moitié de sa hauteur et de sa largeur originales. Pour que le moniteur affiche correctement l'image, chacun de ses pixels doit représenter quatre des pixels de l'image (deux dans chaque direction, en créant un carré 2×2). Le moniteur fait cela en faisant en sorte que le pixel affiche la couleur calculée en prenant la moyenne des quatre pixels sur l'image qu'elle représente.

Cela signifie que l'image a perdu une certaine densité, car le moniteur n'a pas assez de pixels pour afficher l'image en entier à sa taille actuelle. Nous disons que "le moniteur n'a pas assez de pixels" car, à nouveau, les pixels recouvrent toute la surface de l'écran et le nombre de pixels est limité par la taille des pixels.

Pour clarifier, il est équivalent de dire que les pixels du moniteur sont trop grands pour afficher l'image dans la plus grande qualité possible à sa taille actuelle, car la densité de pixels de l'image à cette taille est supérieure à celle du moniteur. Le moniteur affiche toujours l'image dans la résolution la plus élevée possible, mais utilise toujours tous ses pixels pour afficher l'image.

Plus d'informations

Consultez cette publication sur la qualité de l'image et la densité des pixels sur les écrans Retina (qualité 2x HD d'un écran HD ordinaire). Cela peut vous aider à comprendre comment les moniteurs "échelle" des tailles de pixels pour correspondre au contenu, tout en utilisant toujours tous les pixels disponibles sur l'écran.