Sind Sie kurz davor, einen LED-Bildschirm zu kaufen und wissen nicht, wie wichtig der Begriff HDR ist (High Dynamic Range, für sein Akronym auf Englisch)?
Keine Sorge, hier werden wir es Ihnen erklären. HDR ist kurz gesagt der Teil Ihres LED-Bildschirms, der dafür verantwortlich ist, Szenen mit realistischeren Farben und höherem Kontrast zu liefern.
Der Kontrast wird durch die Differenz zwischen den hellsten Weißtönen und den dunkelsten Schwarztönen gemessen, die ein LED-Bildschirm darstellen kann, gemessen in Candela pro Quadratmeter (cd/m2): den sogenannten NITS.
Es gibt mehrere Formate in HDR, aber derzeit gibt es zwei Hauptakteure: das proprietäre Dolby Vision-Format und den offenen Standard HDR10. Dolby war der erste, der mit einem Prototyp-Fernseher, der bis zu 4.000 Nits Helligkeit darstellen konnte, mit dabei war. Für kurze Zeit war Dolby Vision im Wesentlichen gleichbedeutend mit HDR, aber nicht alle Hersteller wollten sich an Dolbys Regeln halten (oder deren Gebühren zahlen), und viele begannen, an ihren eigenen Alternativen zu arbeiten.
Die beiden wichtigsten HDR-Formate verwenden Metadaten, die zusammen mit dem Videosignal über ein HDMI-Kabel übertragen werden, Metadaten, die es der Videoquelle ermöglichen, einem LED-Display „mitzuteilen“, wie Farben dargestellt werden sollen. HDR10 verwendet einen recht einfachen Ansatz: Es sendet Metadaten auf einmal und zu Beginn eines Videos und sagt so etwas wie: „Dieses Video wurde mit HDR codiert, und Sie sollten es so behandeln.“
HDR10 hat sich zum beliebteren der beiden Formate entwickelt. Vor allem ist es ein offener Standard: Hersteller von LED-Bildschirmen können ihn kostenlos implementieren. Es wird auch von der UHD Alliance empfohlen, die im Allgemeinen offene Standards gegenüber proprietären Formaten wie Dolby Vision bevorzugt.