Movieside

Registriere Dich um ein Mitglied der Movieside-Community zu werden. Du kannst Dich an Diskussionen beteiligen und eigene Themen einbringen sowie Dich mit anderen Mitgliedern über die private Inbox vernetzen.

Talk  Kann mir mal jemand HDR auf UHDs erklären?

Jordy Verrill

Living in other people's heads
Hier seit
2.10.2023
Beiträge
960
Reaktionen
1.930
Moin.

Ja, ich gebe zu, ich bin ein totaler Nixblicker auf dem Gebiet.

Ich weiß zwar, dass HDR die Abkürzung für "High Dynamic Range" ist und im Grunde bedeutet, dass ein Bild einen größeren Kontrast- und Farbumfang hat als ein normales Bild, aber was da jetzt wirklich die Vorteile sind und was die Unterschiede sind zwischen HDR+ und Dolby Vision? Ich hab keinen Schimmer.

Ich kenne HDR von meiner Digitalkamera. Da fällt mir bei Bildern, die ich in HDR aufgenommen habe, eigentlich immer nur auf, dass die wesentlich leuchtendere, buntere Farben haben als die Bilder im Normalmodus. Auch, wenn man Screenshots von BDs und UHDs vergleicht, fällt ja oft auf, dass die UHDs mehr "poppen". Aber ehrlich gesagt fand ich das bei Fotos schon immer eher unschön, weil viel zu grell bunt.

Mein 4k-Fernseher kann natürlich auch HDR und zeigt das beim Abspielen von UHDs auch an, wenn vorhanden, allerdings bin ich jemand, der auch am TV immer eher etwas gedämpftere Farben einstellt, weil ich dieses Bonbonbunt, das der Bildschirm zeigt, wenn man mittlere Werte einstellt, einfach nicht mag. Von daher kann es natürlich auch sein, dass ich damit den HDR- und somit vielleicht auch den Aha-Effekte beim UHD-Schauen zunichte mache. Keine Ahnung.

Könnte mir mal jemand erklären, warum hier alle so scharf auf HDR bei UHDs sind und was die Unterschiede (und auch Vor- und Nachteile) der beiden HDR-Formate sind?
 
Abgesehen von dem erweitertem Farbraum hast du zb auch dynamische Helligkeit im Bild. Bei SDR ist das Bild überall gleich hell. Bei HDR sind tatsächlich dann zb bei einer Nachtszene in einer Stadt die Straßenlaternen und beleuchtete Reklameschilder heller als der Rest, weil einzelne Bereiche des Bildes heller dargestellt werden als andere.

Oder bei Tageszenen ist die Sonne heller als anderes etc.
 
.... da könnte man fast Romane zu schreiben :zwinker: ..... ganz kurz und prägnant der Hauptgrund, der für alle gelten wird. Durch HDR ( egal welchen Formates und abseits der Popouts ) werden Details in stark kontrastierende Bildfeldern erst überhaupt sichtbar. Da wo z.B. starke Lichtquellen in direkter Nachbarschaft zu dunklen Arealen in SD alles "versumpfen" lassen, werden durch HDR Details erst wieder sichtbar. Gleichzeitig ermöglicht HDR echte oder bewußt stark dargestellte Lichquellen
( Popouts ) ohne das Bild überstrahlen zu lassen.......... aber noch so einiges mehr......
 
Abgesehen von dem erweitertem Farbraum hast du zb auch dynamische Helligkeit im Bild. Bei SDR ist das Bild überall gleich hell. Bei HDR sind tatsächlich dann zb bei einer Nachtszene in einer Stadt die Straßenlaternen und beleuchtete Reklameschilder heller als der Rest, weil einzelne Bereiche des Bildes heller dargestellt werden als andere.

Oder bei Tageszenen ist die Sonne heller als anderes etc.
Gleich hell ist wohl etwas übertrieben, Lichter sind natürlich auch bei SDR heller als Schatten, aber bei HDR hat man einen größeren Spielraum zwischen maximaler Helligkeit und ganz dunkel.
 
Moin.

Ja, ich gebe zu, ich bin ein totaler Nixblicker auf dem Gebiet.

Ich weiß zwar, dass HDR die Abkürzung für "High Dynamic Range" ist und im Grunde bedeutet, dass ein Bild einen größeren Kontrast- und Farbumfang hat als ein normales Bild, aber was da jetzt wirklich die Vorteile sind und was die Unterschiede sind zwischen HDR+ und Dolby Vision? Ich hab keinen Schimmer.

Ich kenne HDR von meiner Digitalkamera. Da fällt mir bei Bildern, die ich in HDR aufgenommen habe, eigentlich immer nur auf, dass die wesentlich leuchtendere, buntere Farben haben als die Bilder im Normalmodus. Auch, wenn man Screenshots von BDs und UHDs vergleicht, fällt ja oft auf, dass die UHDs mehr "poppen". Aber ehrlich gesagt fand ich das bei Fotos schon immer eher unschön, weil viel zu grell bunt.

Mein 4k-Fernseher kann natürlich auch HDR und zeigt das beim Abspielen von UHDs auch an, wenn vorhanden, allerdings bin ich jemand, der auch am TV immer eher etwas gedämpftere Farben einstellt, weil ich dieses Bonbonbunt, das der Bildschirm zeigt, wenn man mittlere Werte einstellt, einfach nicht mag. Von daher kann es natürlich auch sein, dass ich damit den HDR- und somit vielleicht auch den Aha-Effekte beim UHD-Schauen zunichte mache. Keine Ahnung.

Könnte mir mal jemand erklären, warum hier alle so scharf auf HDR bei UHDs sind und was die Unterschiede (und auch Vor- und Nachteile) der beiden HDR-Formate sind?
Danke das Du Dich getraut hast zu fragen, mir ging es ähnlich :blind:
 
Generell wirkt ein Bild mit hoher Bilddynamik (also stärker Helligkeitsunterscheide, ein HDR Monitor kann viel heller werden als ein SDR Gerät) deutlich lebendiger und plastischer.
Die Beschränkung bei SDR ist ja auch keine natürliche, sondern eine technisch bedingte künstliche, womit Sachen dunkler dargestellt werden als sie sein würden. Bei HDR ist diese Grenze bei vielen Monitoren so hoch, dass fast jedes Bild so dargestellt werden kann, wie es benötigt wird. Bei 1000 oder mehr Nits vom Monitor wären etwa nur noch Flashlighting Effekte am Monitor nicht mehr ganz so hell darstellbar, wie vielleicht gedacht, wenn sie heller als 1000 Bits genastert sind.
 
HDR10+ und Dolby Vision sind HDR Varianten, die mit variablen Metadaten arbeiten.
Während „einfaches“ HDR für einen ganzen Film vorher festgelegte Daten nutzt, können bei HDR10+ und Dolby Vision quasi einzelne Szenen analysiert und entsprechend unterschiedlich dargestellt werden.
Das Prinzip ist bei beiden, im Großen und Ganzen gleich, wobei es aber zwei unterschiedliche Marken sind (HDR10+ von Samsung und DV von Dolby), ähnlich wie bei DD5.1 und DTS.

Warum man die Unterschiede zwischen SDR und HDR manchmal nicht so plakativ wahrnimmt oder einem DV oft zu dunkel erscheint, hat mehrere Gründe.
Zum einen ist der momentan verfügbare Content oft auf 1000 Nits in der Spitzenhelligkeit begrenzt (oft auch weit darunter), obwohl viele TV Geräte durchaus mehr könnten. Man will wohl aber den Besitzern älterer Geräte, hauptsächlich mit OLED TV nicht vor den Kopf stoßen.
Darum fallen (z.B. bei Star Wars über Disney+) die Kontrastunterschiede häufig nicht wirklich auf.

Dolby Vision ist ursprünglich nur fürs Kino gedacht gewesen, also für absolut dunklen Raum. Solche Gegebenheiten findet man zu Hause selten. Deshalb erscheint DV oft zu dunkel, gegenüber einfachem HDR und SD sowieso. Mittlerweile gibt es verschiedene Dolby Vision Modi (z.B. DV hell und DV dunkel), die das etwas ausgleichen sollen. Ich konnte das aber noch nicht testen, da mein TV das noch nicht hat.

HDR10+ wirkt im allgemeinen grundsätzlich etwas heller, als das herkömmliche DV. Ob das nun immer Vorteile hat, kann ich nicht beurteilen.
Mein TV kann eh nur HDR und DV.

Was bei aktuellen OLED TV Geräten wohl ein Problem zu sein scheint, ist eine automatische Dimmingschaltung, die nach einiger Zeit einsetzt, wenn Content mit hoher Helligkeit bzw. hohen Kontrastunterschieden dargestellt wird. Das verdirbt einem dann natürlich den Genuss.
Bei LG kann man das wohl in versteckten Menüs deaktivieren, bei anderen Herstellern wohl nicht. Bei Samsung soll es wohl aber ein Update dafür geben oder in Planung sein. Aber das nur am Rande, nur weil es eben auch Einfluss auf die HDR Wiedergabe haben kann.
 
  • Themen-Starter Themen-Starter
  • #10
Vielen Dank an alle für die Ausführungen.
 
Dolby Vision ist ursprünglich nur fürs Kino gedacht gewesen, also für absolut dunklen Raum. Solche Gegebenheiten findet man zu Hause selten. Deshalb erscheint DV oft zu dunkel, gegenüber einfachem HDR und SD sowieso.
das stimmt nicht - DV war AFAIK schon immer als Kette von der Produktion bis ins Kino UND auch nach Hause ins HK gedacht ... das Bild sollte eben auf zertifizierten Geräten in verschiedensten Umgebungen immer so aussehen, wie von den Machern gedacht - jetzt mal stark vereinfacht.
BTW: Meine DV UHDs sind übrigens auf meinem auch jetzt schon etwas in die Jahre gekommenen LG E8 nicht zu dunkel...

können bei HDR10+ und Dolby Vision quasi einzelne Szenen analysiert und entsprechend unterschiedlich dargestellt werden.
Das Prinzip ist bei beiden, im Großen und Ganzen gleich, wobei es aber zwei unterschiedliche Marken sind (HDR10+ von Samsung und DV von Dolby), ähnlich wie bei DD5.1 und DTS.
Nichts könnten weiter neben der Wahrheit liegen als der Vergleich von DV vs HDR10+ mit DD5.1 vs DTS - der hinkt nicht, der hat gar keine Beine :zwinker: Dolby und DTS tun tatsächlich das gleiche, haben die gleiche Qualität, nutzen schlichtweg nen anderen Algorithmus, so nenn ich das mal - DV und HDR10+ sind zwei komplett unterschiedliche Dinge....

von nem Profi, der das mal in nem Formumsbeitrag für uns zusammengeschrieben hat - ist von 2020 - aber im wesentlichen wird das immer noch so sein....(nehme ich an)

"Also HDR10+ ist eine Fallback Lösung für TVs die mit Rec.2020 ernsthafte Probleme haben, aber der Hersteller zu geizig ist einen anständigen Video Prozessor in den TV einzubauen bzw. das ActiveHDR SDK von LG zu lizenzieren (das kann noch mehr als nur Tonemapping). Bei HDR10 kann dann jemand im Rahmen des Authoring (wird für gewöhnlich nicht beim Color Grading gemacht) eine Tonemapping Kurve drauflegen, bei denen dann z.B. Highlights etwas abgeschwächt oder Shadows angehoben werden. HDR10+ müsste eigentlich HDR10- heißen, aber das geht aus Marketinggründen nicht. Es ist immer ein Downgrade des HDR10 Bildes speziell für TVs die nicht so gut sind und kein eigenes vernünftiges Videoprozessing können. So wird auch in den Slides von Samsung beschrieben. Der Einsatzzwecks ist immer Fallback und nichts anders und macht auf TVs Sinn die mit einem reinen HDR10 Bild deutlich überfordert sind. Am Ende wird da das Bild bei analyisiert und es kommen dann "Abschwächungen" vom HDR bei raus, welche in einer Textdatei gespeichert werden die man reinmuxen kann. Das spart dann Videoprozessoren, die das Bild selbst live analyiseren müssen und auch nicht wissen was das Display kann und man setzt nur Blind ein Downgrade Tonemapping ein, das auf die fraglichen Szene angewendet wird.

Darum juckt auf besseren TVs HDR10+ nicht, weil sie mit durchgehender Frameanalyse und Tonemapping auf das Display so was nicht benötigen. Es wäre auch immer ein Downgrade des Bildes gegenüber dem was der TV out of the Box könnte und absolut nicht auf das Display angepasst. Ja, das hindert den einen oder anderen Hersteller nicht daran, es einzubauen. Es ist ja auch völlig sinnlos ein statische Tonemapping Informationen aus der HDR10+ Datei zu benutzen und diese dann dynamisch anzuwenden, wenn man selbst live ausrechenen kann was das Beste für das Display ist. Das Problem sind am Ende feine Farbabstufungen insbesondere in den Highlights und Shadows, bei denen die Bottom Edge Lit Fraktion ohne durchgehendes Videoprocessing einfach nur jämmerlich aussieht, ähnlich wie viele Edge Lit LED TVs damit schon bei SDR Probleme haben. Aber selbst im Low Cost Segment finden Videoprozessoren mit lizenzierten Tonemapping SDKs langsam Einzug.

Das Geschwafel als HDR10+ aufkam, von weg. DV vs. HDR10+ in der Click Bait Presse und Blogs war von Anfang an totaler Mumpitz. Das hört man seit dem auch nicht mehr, weil selbs diese mittlerweile wissen, was es ist und nachgelesen haben, statt Stuss zu schreiben.

DolbyVision ist was völlig anderes....

Bei Dolby Vision gibt es zusätzliche Informationen, um den 12 Bit GAM (Graded Archival Master) wieder herzustellen und es gibt auch Auflagen, dass das Bild auf die Fähigkeiten des Displays angepasst werden muss. Da sind Videoprozessoren, die jeden Frame analysieren und ein Tonemapping nach DV Spezifikationen durchführen Pflicht (das lässt sich auch auf HDR10 zuschalten und sollte man immer an haben). Auch geht es darum, dass das Bild vom Set bis zu dir nach Hause möglichst gleich aussieht. Man könnte es am ehesten mit einem HDR12 + intelligentes Tonemapping vergleichen, wenn es das gäbe. Dolby Vision deckt eine ganze Produktionskette ab und nicht nur ein Consumer Ding. Dabei geht's eben um den Erhalt der Farben vom Set, über die Dailies bis zu dir nach Hause so gut wie es das Display jeweils kann. Vorausgesetzt es ist anständig gemacht.

Jetzt gibt's bei DV aber noch zwei Geschmacksrichtungen: FEL und MEL. Das ist einmal Full Enhancement Layer und einmal Minimum Enhancement Layer. Auf UHD BD hast du für gewöhnlich FEL, also vereinfacht gesagt ein "quantisiertes Delta", was das Bild "aufwertet". Eine FEL braucht ca. 1/4 des Speicherplatzes der HDR10 Base Layer. MEL hingegen ist ähnlich wie HDR10+. Dort geht's aber nicht um Fallback, sondern um das Gegenteil, das Bild etwas mit Tonemapping-Kurven aufzuwerten und es wieder etwas in Richtung das GAM zu bringen. MEL findet sich nur auf wenigen Discs, erkennt man daran, dass die DV Enhancement Layer winzig ist. Streaming Services setzen aktuell auf MEL, obwohl FEL zulässig ist wenn sie DV anbieten.

Ob das im Bild einen Unterschied macht insgesamt hängt immer vom GAM selbst ab. Hat eine Grading auf HDR10 stattgefunden, wird DV da auch nicht viel mehr Informationen herauszaubern können, wenn alles vom GAM in bereits in HDR10 drin ist. Der Unterschied ist dann sehr gering und macht sich kaum bemerkbar und kommt für gewöhnlich vom Videoprocessing, das Vorgeschrieben ist. Gab es aber einen Dolby Vision Workflow (dazu gehört nicht nur das Consumer DV!) in der Post Production und man hat ordentlich mit 12 Bit gearbeitet, dann merkt man den Unterschied schon deutlicher. Wie stark hängt am Ende immer davon ab wie der GAM mal wirklich aussah.

Aber sicherlich wenn eine DV CMU (Content Mapping Unit) nicht richtig eingesetzt wurde, kann DV schauderhaft aussehen. Das gab's öfters in der Vergangenheit wie auch furchtbare HDR Grades - wird aber immer besser langsam.. Wenn das Bild mutwillig zerstört vom unfähigen Coloristen kann man auch nichts machen. Eine CMU ist nicht leicht zu bedienen! Das ist keine One Button Software wenn richtig genutzt.

HDR10+ interessiert niemanden ersthaft, da es ist immer nur eine Abwertung des Bildes ist, die man meistens beim Authoring hinzufügt (ist ein popiliges JSON Textfile), und ist für den Low Cost Markt der Bottom Edge Lit TVs gedacht. Fügt man maximal aus Marketinggründen hinzu, aber da UHD BD im Verkauf mehr ein Enthusiast Medium ist, interessiert es wenige. HDR10+ Ist immer weniger als HDR10 am an Ende, da keine Prüfung stattfindet was das Display wirklich kann.. DV MEL ist dann mittels diverser Kurven eine Aufwertung des HDR10 Bildes, was sich maximal in Blacklevels und Highlights bemerkbar macht, sich aber in Grenzen hält. Das hat du bei den Streamern, weil eben weniger Daten braucht. Aber das können die Streamer ja jeder Zeit in der Zukunft ändern wenn sie wollen. n der Stelle müssten wir in die Technik des Streamens gehen, das würde aber zu weit führen.

DV FEL ist dann auf UHD BD vertreten (aber nicht immer) und bringt die volle Landung und erhält den quantisierten 12 Bit GAM so weit es geht wird entsprechend der Fähigkeiten eines Displays entsprechend der Dolby Vorgaben wiedergegeben. UHD BDs mit DV MEL, ist das DV meißtens nur aus Marketing-Gründen hinzugefügt obwohl sinnfrei, da der Master nur HDR10 an sich ist. "Shining UHD" ist so eine nummer: Mieser HDR10 Grade, DV MEL, das nichts macht (das interne Tonemapping macht da was nätig ist), HDR10+ dass paar Highlights abschwächt in in HDR10 völlig überdreht sind. Die UHD BD war ein furchtbareres Color Grading, was zwischen den Schnitten auch noch inkonsistent ist. War one Frage die mieseste UHD BD letztes Jahr für diesen Klassiker.

HDR10+ und DV kann man nicht vergleichen. Das sind zwei völlig unterschiedliche Dinge. Und bei DV muss man noch zwischen MEL und FEL unterscheiden. Und MEL macht nicht so viel unterschied am Ende. Aber letztendlich hängt alles vom Color Grading ab. Ist es ein HDR10 Master bleibt es auch nach DV einer und es gibt keinen großen Unterschiede. Und MEL macht halt weniger als FEL.

Es gibt auch noch Dolby Vision IQ in neueren Geräten. Das ist wieder was für den Consumer. TVs konnten schon lange ihre Helligkeit anpassen auf das Umgebungslicht, aber das sieht furchtbar aus und funktioniert gar nicht. Hier setzt dann DV IQ ein, welches dieses endlich in einer akzeptableren Form bringt (vernünftig ist weiterhin seinen TV auf Helle Umgebung und dunkle Umgebung zu kalibrieren mit zwei Profilen). Das ist dann eine reine Consumer Nummer. Kann auch aber noch nichts Abschließendes zu sagen, da ich es nicht selbst bisher ausprobieren konnte wie es in der Praxis ist - auf dem Papier klingt es nicht schlecht - jedenfalls ist es besser als der bisherige Dynamilk Backlight Käse.

Bei vernünftigem Color Grading auf 12 Bit GAMs wäre die "Qualität" in Bezug auf die vorhandenen Informationen wie folgt (aufsteigende Reihenfolge):

6. SDR
5. HDR10+
4. HDR10
3. HDR10 (mit zugeschaltetem Tonemapping des TVs, z.b. über das ActiveHDR SDK)
2. DV MEL
1. DV FEL

Natürlich gilt immer Shit In -> Shit Out, wenn wieder mal der Praktikant das Color Grading machen dufte für eine UHD BD...
"

(ich poste das als as it is - nehmt es als einen Beitrag, ich werde nicht über einzelne technische Details diskutieren (können)..
 
@Kumbbl Danke für die Ausführungen. Mein Vergleich sollte sicher nur eine Vereinfachung sein und keine „wissenschaftliche Abhandlung“… :18:

Das HDR10+ technisch dermaßen gegenüber DV „abkackt“ wusste ich auch nicht. Mangels passendem TV konnte ich das allerdings auch noch nicht selbst vergleichen. Ich merke, dass ich wohl aber auch nichts verpasst habe.

Was die allgemein oft zu dunkle Abmischung von DV angeht, hab ich mir das ja nicht ausgedacht. DV ist eben nicht für OLED in hellen (oder nicht dunklen) Räumen gedacht. Wenn der Film dann allgemein noch sehr düster und aus vorwiegend dunklen Szenen besteht, bringt der Kontrastvorteil oder die Intention des Regisseurs herzlich wenig. Ein „Dynamic Backlight“ hat mein OLED, wie viele andere gar nicht, wie allgemein viele Einstellungen im DV Modus fest vorgegeben und nicht veränderbar sind.
Zugegeben, mein Sony A1 ist eh nie der hellste OLED gewesen, weshalb ich davon ausgehe, dass aktuelle Geräte das sicher auch besser hinbekommen. Dennoch sehe ich, dass bei DV erstmal die Helligkeit weggenommen wird, vermutlich damit der Unterschied zu den Highlights dann besser dargestellt werden kann.
 
Für mich ist HDR in der jetzigen Form eine Mogelpackung. Wie oben erwähnt wurde haben wir ja Endgeräte mit unterschiedlichen maximal Nits.
Das HDR Material muss schon gut eingestellt sein, damit es auch gut aussieht. Das Problem ist nur, dass HDR gefühlt bei jedem TV anders aussieht.
Ich selbst habe einen LG Oled und finde HDR in vielen Fällen bescheiden. Besonders bei den Streamern (z.B. Netflix) ist es so, dass viele Serien - vermutlich aus Kostengründen - im Dunklen spielen. Gekoppelt mit einer mittelmäßigen Bitrate erreicht man hier kein homogenes Bilderlebnis. Die LG's haben grundsätzlich noch das Manko hellen Content im Gegensatz zum dunklen Content zu hell darzustellen, dass dieser das ganze Bild überstrahlt.
Beispiel Szene im dunklen Zimmer mit Fenster:
Die Wolken draußen im Fenster sind dermaßen hell, dass man vom Zimmer nicht mehr viel erkennt. Gekoppelt mit dem Blackcrush bei LG OLEDs sieht das Bild mitunter sogar richtig schlecht aus.

Ich würde mich von HDR nicht "blenden" lassen (Haha). Die Hersteller und Content Creator wissen das oft nicht richtig in Szene zu setzen.
Vor allem würde ich bei einem Kauf wenn einem das Feature wichtig ist richtigen Content anschauen und nicht die knallbunten Promo-Videos.
 
HDR10 und DV liefern halt die Tools und die sind toll. Wenn man aber seitens der Content-Anbieter nicht mit einer Zange oder einem Hammer umgehen kann, dann ist nicht das Werkzeug schuld. :zwinker2:
 
HDR10 und DV liefern halt die Tools und die sind toll. Wenn man aber seitens der Content-Anbieter nicht mit einer Zange oder einem Hammer umgehen kann, dann ist nicht das Werkzeug schuld. :zwinker2:

Korrekt. Das nervige an der Sache ist nur, dass man nicht nur Potential liegen lässt beim falschen Content, sondern dieser ungenießbar wird und man auf SDR umstellen sollte für ein besseres Bild.
 
Zugegebenermaßen schaue ich kaum Streaming. Aber mit dem HDR / DV auf den Discs bin ich eigentlich in der Regel zufrieden.

Mal aus Interesse @rroman hast du zufällig The Last of Us im Stream gesehen? Wie fandest du da das DV? Auf Disc fand ich das eigentlich gut.
 
Zugegebenermaßen schaue ich kaum Streaming. Aber mit dem HDR / DV auf den Discs bin ich eigentlich in der Regel zufrieden.

Mal aus Interesse @rroman hast du zufällig The Last of Us im Stream gesehen? Wie fandest du da das DV? Auf Disc fand ich das eigentlich gut.

Bisher nicht, muss ich bei Gelegenheit mal anschauen.
Bin aber gerade etwas bedient mit meinem OLED. Das Blackcrush Problem ist einmal gesehen nur noch nervig. Wie berlin69er erwähnt hat muss ich mir mal überlegen das Auto-Dimming per Service Menü abzuschalten. Vielleicht hilft das etwas.
FIFA auf der PS5 hat HDR auch nicht im Griff. Dort hat man teilweise sehr dunkle Stellen auf dem Platz. Das kann so nicht gewollt sein.
 
Zugegebenermaßen schaue ich kaum Streaming. Aber mit dem HDR / DV auf den Discs bin ich eigentlich in der Regel zufrieden.

Mal aus Interesse @rroman hast du zufällig The Last of Us im Stream gesehen? Wie fandest du da das DV? Auf Disc fand ich das eigentlich gut.

Bisher nicht, muss ich bei Gelegenheit mal anschauen.
Bin aber gerade etwas bedient mit meinem OLED. Das Blackcrush Problem ist einmal gesehen nur noch nervig. Wie berlin69er erwähnt hat muss ich mir mal überlegen das Auto-Dimming per Service Menü abzuschalten. Vielleicht hilft das etwas.
FIFA auf der PS5 hat HDR auch nicht im Griff. Dort hat man teilweise sehr dunkle Stellen auf dem Platz. Das kann so nicht gewollt sein.
HDR in Games ist tatsächlich nochmal ein Thema für sich und sehr durchwachsen. Da ist ja auch noch das Problem, dass man einmal die TV Settings hat, dann die Settings von der Konsole und dann noch die Settings vom jeweiligen Spiel. Und bei manchen Spielen ist es einfach sehr schlecht umgesetzt. Da gibt's mittlerweile sogar extra Webseiten, wo zu vielen Spielen die empfohlenen Settings angegeben werden. Du hast da ja oft diese Regler für Paperwhite und Brightness und die sind gefühlt jedes Mal komplett anders skaliert.
 
Zurück
Oben