HDR (High Dynamic Range) que l’on peut traduire par vidéo à gamme dynamique élevée est l’un des principaux atouts de la télévision 4K et des écrans d’ordinateur.
Elle fait opposition au SDR (Standard Dynamic Range) et permet de pousser le contenu vidéo au-delà des limites (aujourd’hui dépassées) auxquelles les normes de diffusion et d’autres médias ont adhéré pendant des décennies.
Le HDR offre une image plus naturelle et plus réaliste grâce à une gamme de contrastes élargie.
Dans ce tutoriel complet, vous allez apprendre tout ce qu’il faut savoir sur ce standard d’affichage.
Qu’est-ce que HDR
HDR (High Dynamic Range) est une spécification qui détermine si un écran peut restituer une image présentant un contraste plus profond, une gamme de couleurs plus large.
En général, une meilleure représentation de la luminosité que celle d’un écran à plage dynamique standard (SDR).
En effet, la luminosité d’une couleur peut avoir un impact sur la façon dont elle apparaît par rapport à la même couleur à une luminosité plus faible.
Cela signifie qu’avec un contenu prenant en charge le HDR et un écran correctement calibré, vous serez souvent en mesure de repérer plus de détails dans les scènes plus lumineuses et plus sombres, tout en profitant d’une image qui peut sembler légèrement plus saturée ou plus précise en termes de couleurs, en fonction de la mise en œuvre.
Ce standard supprime les limites imposées par les anciens signaux vidéo et fournit des informations sur la luminosité et la couleur sur une plage beaucoup plus large.
La vidéo HDR contient simplement plus de données pour décrire davantage d’étapes entre les extrêmes.
Cela signifie que les objets lumineux et les objets sombres sur le même écran peuvent être affichés à des degrés élevés de luminosité et d’obscurité si l’écran le permet, toutes les étapes intermédiaires nécessaires étant décrites dans le signal et non synthétisées par le processeur d’image.
En d’autres termes, le contenu HDR sur les téléviseurs compatibles HDR peut être plus lumineux, plus sombre et présenter plus de nuances de gris entre les deux que le contenu non HDR.
Bien entendu, cela varie d’un téléviseur à l’autre.
HDR : luminosité, gamme de couleurs et graduations locales
Lorsque l’on s’intéresse au fonctionnement d’HDR et des spécifications d’un téléviseur, on tombe sur les caractéristiques de luminosité, gammes de couleurs et graduations locales.
Quelques explications et définitions :
- Le HDR traite de la quantité de lumière qu’un téléviseur est censé émettre, ou luminance. L’unité de mesures de la luminosité est le Candela exprimé en nits ou cd/cm²
- La gamme et la valeur des couleurs, définies séparément de la lumière, sont appelées chromaticité. Il s’agit de deux valeurs distinctes qui interagissent l’une avec l’autre de plusieurs manières, mais qui restent distinctes
- Gradation locale est une fonction de certains téléviseurs et moniteurs LCD qui assombrit certaines zones de l’écran pour reproduire des noirs profonds. Cela améliore les couleurs et le contraste
Le contenu typique de la gamme dynamique standard est conçu pour une luminosité maximale de 100 à 400 nits.
Avec la technologie HDR, on peut atteindre une plus grande gamme de niveaux de luminosité potentiels allant jusqu’à un niveau plus élevé de 1 000 nits, et pour certains formats, à des niveaux encore plus élevés.
Parallèlement, la vidéo HDR élargit également la palette de couleurs, ce qui permet d’utiliser davantage de couleurs pour afficher une image, qui peut être plus lumineuse et plus vive pour l’utilisateur. Combinée à la luminosité, aux niveaux de contraste plus élevés et à une meilleure fidélité de l’image en général, la vidéo HDR peut fournir une image considérablement meilleure que les formats vidéo standard normaux.
Plus précisément, une vidéo HD normale utilise une spécification 8 bits, que l’Union internationale des télécommunications appelle Rec.709 ou BT.709, tandis que les images 10 bits et 12 bits du contenu HDR adhèrent à Rec.2020 ou BT.2020, qui occupe une gamme de couleurs beaucoup plus large.
Quels sont les types de HDR
Il existe plusieurs standard et normes HDR.
HDR10
HDR10 est la norme proposée par l’UHD Alliance. Il s’agit d’une norme technique avec des plages définies et des spécifications qui doivent être respectées pour que le contenu et les écrans puissent l’utiliser.
Le format HDR10 permet une luminosité maximale de 1 000 nits (mesure de la luminosité) et une profondeur de couleur de 10 bits. Par rapport au format SDR (standard dynamic range), le HDR10 permet d’obtenir une image deux fois plus lumineuse, avec une augmentation correspondante du contraste (la différence entre les noirs les plus noirs et les blancs les plus blancs), et une palette de couleurs d’un milliard de nuances, contre les 16 millions du format SDR.
HDR10 utilise des métadonnées statiques qui sont cohérentes sur tous les écrans. Les métadonnées statiques maintiennent des niveaux de luminosité spécifiques quel que soit le contenu que vous regardez.
Compte tenu des limites du HDR10, de son omniprésence et de l’absence de mise en œuvre d’une norme ouverte, la nécessité pour les fabricants de rendre leurs écrans meilleurs que ceux de leurs concurrents pour la même source de contenu signifie également qu’il existe une grande diversité entre les appareils compatibles HDR10 dans la manière dont le format est interprété et mis en œuvre. Deux écrans peuvent se dire compatibles HDR10, mais offrir des résultats complètement différents.
HDR10+
HDR10+ est une norme développée par Samsung. Elle s’appuie sur la norme HDR10 en ajoutant des métadonnées dynamiques, comme Dolby Vision.
Comme son nom l’indique, HDR10+ reprend tous les points positifs de HDR10 et les améliore. Il quadruple la luminosité maximale à 4 000 nits, ce qui augmente également le contraste.
HDR10+ rend ces métadonnées dynamiques, ce qui permet de les modifier pour chaque image de la vidéo. Cela signifie que chaque image est traitée avec son propre ensemble de paramètres de couleurs, de luminosité et de contraste, ce qui permet d’obtenir une image beaucoup plus réaliste.
Dolby Vision
Dolby Vision est un format HDR avancé créé par Dolby Labs, l’organisation à l’origine de la célèbre collection de technologies audio Dolby comme Dolby Digital et Dolby Atmos.
Dolby Vision utilise des métadonnées dynamiques.
Les métadonnées dynamiques ajustent ces niveaux en fonction de chaque scène ou même de chaque image, en préservant davantage de détails entre les scènes très lumineuses ou très sombres.
Dolby Vision offre une luminosité encore plus grande, jusqu’à 10 000 nits, et une profondeur de couleurs 12 bits, pour un nombre stupéfiant de 68 milliards de couleurs.
Contrairement au HDR10+, qui n’a été lancé officiellement qu’en 2018 et n’a jusqu’à présent été adopté que de manière limitée par les sociétés de contenu et de matériel, le Dolby Vision existe depuis plusieurs années et bénéficie d’un large soutien de l’industrie, ce qui pourrait contribuer à en faire la norme HDR.
Enfin Dolby Vision IQ est une adaptation intelligente de ce format par LG et Panasonic pour un meilleur rendu.
Hybrid Log-Gamma (HLG)
Hybrid Log-Gamma (HLG) est une norme développée par la BBC et la NHK japonaise pour fournir un format vidéo que les diffuseurs pourraient utiliser pour envoyer des signaux HDR.
Il propose une profondeur de bit de 10 bits et a été conçu pour être rétrocompatible avec SDR UHDTV.
Pour cela, il utilise une combinaison de la courbe gamma que les téléviseurs utilisent pour calculer la luminosité du contenu SDR et une courbe logarithmique pour calculer les niveaux de luminosité beaucoup plus élevés que les téléviseurs compatibles HDR peuvent produire (d’où le nom “Hybrid Log-Gamma”).
Il n’est pas aussi répandu que HDR10 ou Dolby Vision, et il y a encore très peu de contenu pour lui en dehors de certaines émissions de la BBC, Sky UK et de DirecTV.
Qu’est-ce que DisplayHDR pour les écrans de PC
Pas facile de s’y retrouver avec ces différentes technologies HDR.
Heureusement, la certification DisplayHDR existe pour simplifier l’évaluation des performances des écrans de PC.
Le numéro de la spécification établit la luminance (niveau de luminosité) en nits.
Soit donc par exemple DisplayHDR 1000 atteint un niveau de 1000 nits.
Specification | Luminosité (nits) | Gamme de couleurs | Gradation locale |
---|---|---|---|
DisplayHDR 400 | 400 | 8-bit, sRGB | None/ Display Level |
DisplayHDR 500 | 500 | 10-bit, 90% DCI-P3 | Edge-Lit |
DisplayHDR 600 | 600 | 10-bit, 90% DCI-P3 | Edge-Lit |
DisplayHDR 1000 | 1,000 | 10-bit, 90% DCI-P3 | Full-Array |
DisplayHDR 1400 | 1,400 | 10-bit, 95% DCI-P3 | Full-Array |
DisplayHDR 400 True Black | 400 | 10-bit, 95% DCI-P3 | Full-Array/OLED |
DisplayHDR 500 True Black | 500 | 10-bit, 95% DCI-P3 | Full-Array/OLED |
Comment avoir le HDR
Fondamentalement, vous avez besoin de contenu HDR, d’un support permettant de lire le contenu HDR et d’un téléviseur prenant en charge les signaux HDR.
Cela signifie que votre écran doit être compatible avec la norme HDR.
Si votre téléviseur ne prend pas en charge le HDR, il ne profitera pas des informations supplémentaires contenues dans le signal. Même si le téléviseur peut gérer un signal HDR, il ne produira peut-être pas une meilleure image, en particulier s’il s’agit d’un téléviseur moins coûteux. La majorité des téléviseurs 4K disponibles aujourd’hui prennent en charge le HDR, même si les modèles moins chers n’ont peut-être pas le contraste ou la gamme de couleurs nécessaires pour le mettre en valeur.
De plus, l’affichage HDR nécessite plus de données en amont.
Certains services de streaming en ligne proposent du contenu HDR, mais vous devez disposer d’une connexion rapide et fiable pour l’obtenir. Amazon Prime Video et Netflix recommandent des vitesses de connexion de 15 Mbps et 25 Mbps, respectivement, pour le contenu 4K, qu’il soit HDR ou non.
En d’autre terme, pour avoir du HDR avec des vidéos en streaming, il est conseillé d’avoir une connexion internet par la fibre.
A noter que les Blu-ray standard ne peuvent prendre en charge le HDR.
Cela nécessite d’utiliser un Blu-ray Ultra HD qui peut contenir plus de données et est conçu pour contenir de la vidéo 4K, de la vidéo HDR et même du son surround basé sur des objets comme Dolby Atmos.
En général, Blu-ray Ultra HD intègre HDR10 ou, parfois, le Dolby Vision HDR
La PlayStation 5 et la Xbox Series X prennent toutes deux en charge le HDR10 et le Dolby Vision pour les applications de streaming ainsi que pour la lecture des Blu-ray UHD. Bien entendu, les versions entièrement numériques des consoles, dépourvues de lecteurs optiques, ne peuvent pas lire les disques Blu-ray UHD, mais elles peuvent tout de même diffuser du contenu 4K HDR.
Enfin depuis Windows 10, il est possible d’activer la HDR sur l’écran de son ordinateur.
Dans Windows 11, HDR est automatique activé via Auto HDR.
- Comment activer/désactiver HDR dans Windows 11
- Comment activer Windows HD Color (HDR) dans Windows 10
Enfin vous pouvez aussi activer HDR dans la configuration d’un jeu vidéo.
Liens
- 8k, 4k, 720p, 1080p, 1440p, FHD, QHD : Différences streaming et résolution dans les jeux
- Qu’est-ce que Vsync, FreeSync ou G-Sync, la synchronisation verticale et devez-vous l’utiliser?
- Freesync vs G-Sync : Les différences
- Les réglages graphiques des jeux vidéo : le dossier
- Comment optimiser son PC pour les jeux : le dossier
- L’affichage dans les jeux par la carte graphique : comment ça marche
- Afficher un compteur et nombre de FPS sur vos jeux
- Comment choisir son écran de PC : Ultrawide, 5k, 4k, FHD – le guide d’achat
L’article HDR (High Dynamic Range) : définition, types et exemples est apparu en premier sur malekal.com.
0 Commentaires