Frage HDR Milchig und Farbarm warum?

xAct

Mitglied
Mitglied seit
Jan 3, 2021
Beiträge
16
Bewertungspunkte
1
Punkte
1
Hi leute habe einen WQHD Asus mit HDR,wenn ich die HDR funktion anschalte unter Windows wird das Bild total schlecht.

Ich konnte auch ingame HDR anschalten ohne es in Windows zu aktivieren,aber da war die Bildqualität auch schlechter als ohne HDR.
Jetzt kann ich in game garnicht mehr HDR auswählen warum auch immer.

Habe ich da mit HDR was falsch verstanden oder mache ich etwas falsch? :D
 
Was InGame passiert hängt vom Spiel ab, da fragst du besser im passenden Forum für das Spiel nach was da los ist.

Das in Windows selbst das Bild blass wird wenn du HDR anschaltest ist im Augenblick noch normal, da so gut wie keine Software HDR Inhalte produziert, also alle Inhalte nur die unteren 8 Bit der 10 Bit Farbraum ausnutzen. Keine Ahnung ob Microsoft an dem Thema arbeitet, oder ob HDR auf dem PC immer nur anwendungs-spezifisch bleibt.
 
Was InGame passiert hängt vom Spiel ab, da fragst du besser im passenden Forum für das Spiel nach was da los ist.

Das in Windows selbst das Bild blass wird wenn du HDR anschaltest ist im Augenblick noch normal, da so gut wie keine Software HDR Inhalte produziert, also alle Inhalte nur die unteren 8 Bit der 10 Bit Farbraum ausnutzen. Keine Ahnung ob Microsoft an dem Thema arbeitet, oder ob HDR auf dem PC immer nur anwendungs-spezifisch bleibt.
Danke
 
HDR sieht auf Monitoren ohne FALD (oder OLED) einfach nur falsch aus. Da kann auch Microsoft nichts daran ändern, ganz egal wie sehr man Windows dafür die Schuld gibt.
 
@Grestorn Kannst du das spezifizieren? Das müsste man dann ja zuverlässig messen können.

Ohne FLAD und OLED bleibt aber auch nichts übrig.
Edge-Lit. Sonst fällt mir nichts mehr ein.

Schlecht und milchig... Ich glaub ich weiß worauf du raus willst, aber wenn du das mal ne Woche so lässt und wieder umstellst, wird dir auffallen dass die Farben auf einmal alle übersättigt wirken.
 
@Grestorn Kannst du das spezifizieren? Das müsste man dann ja zuverlässig messen können.
Was willst Du messen? Ohne FALD kannst Du starke Kontraste schlicht nicht darstellen. Entweder ist das ganze Display hell oder dunkel. Also genau nicht das, was man bei HDR will. Es ist schlicht sinnlos, HDR ohne aktive Leuchtelemente (OLED...) oder zumindest viele, getrennt steuerbare Hinterleichtungs-zonen darstellen zu wollen.

Und deswegen scheitert Windows auch: Es soll gleichzeitig helle und dunkle Elemente in einer breiten Skala anzeigen - das geht aber nicht, also ist alles mau, denn das Display kann es schlicht nicht anders anzeigen.
 
welcher wqhd ASUS Monitor ists denn genau?
 
Also selbst mit OLED sieht HDR aufm Desktop komisch aus, milchig trifft es ganz gut. Jedenfalls auch für meinen Geschmack „zu blass“ und kein Dauerzustand.

Bei Spielen kommt es ganz drauf an: bei manchen Spielen muss auch der Desktop im HDR-Modus laufen, damit das im Spiel überhaupt aktivierbar ist.

Generell gilt wohl für das beste „HDR-Erlebnis“: wenn Du im Spiel HDR benutzen willst, am besten auch für den Desktop/Windows HDR aktivieren (auch wenn das Spiel das nicht zwingend verlangt). Und ebenso umgekehrt: kein HDR im Spiel, auch für Windows/Desktop allgemein deaktivieren.
 
Was willst Du messen? Ohne FALD kannst Du starke Kontraste schlicht nicht darstellen. Entweder ist das ganze Display hell oder dunkel. Also genau nicht das, was man bei HDR will. Es ist schlicht sinnlos, HDR ohne aktive Leuchtelemente (OLED...) oder zumindest viele, getrennt steuerbare Hinterleichtungs-zonen darstellen zu wollen.

Und deswegen scheitert Windows auch: Es soll gleichzeitig helle und dunkle Elemente in einer breiten Skala anzeigen - das geht aber nicht, also ist alles mau, denn das Display kann es schlicht nicht anders anzeigen.
Diese Theorie erklärt in keinster Weise warum Windows im HDR-Modus deutlich weniger Kontrast auf den Bildschirm bringt als ohne HDR-Modus. Und auch nicht warum Spiele, Videofilme und auch Youtube-Videos es schaffen im HDR-Modus den erwarteten ordentlichen Kontrast zu liefern ohne die Probleme die in nicht angepasster Windows-Software zu erkennen sind.
 
Also selbst mit OLED sieht HDR aufm Desktop komisch aus, milchig trifft es ganz gut. Jedenfalls auch für meinen Geschmack „zu blass“ und kein Dauerzustand.
Bei mir sieht HDR auf dem Desktop perfekt aus. Ich habe es deswegen auch immer an. Die Farben sind ohne HDR etwas kräftiger, das stimmt, aber das finde ich eher angenehm (mit HDR).

Diese Theorie erklärt in keinster Weise warum Windows im HDR-Modus deutlich weniger Kontrast auf den Bildschirm bringt als ohne HDR-Modus. Und auch nicht warum Spiele, Videofilme und auch Youtube-Videos es schaffen im HDR-Modus den erwarteten ordentlichen Kontrast zu liefern ohne die Probleme die in nicht angepasster Windows-Software zu erkennen sind.
Doch natürlich. Der Desktop selbst ist SDR, d.h. er nutzt absichtlich nur einen kleinen Teil der Dynamik von HDR. D.h. der Monitor nutzt für die Desktop-Elemente nur einen kleinen Teil seines möglichen Spektrums, damit Du eben nach oben und unten auch noch entsprechend "Raum" hast, wie Du es ja auch siehst, wenn Du ein YouTube HDR Video anschaust. Da sind die Farben und Helligkeiten enstprechend krachend.

Aber das willst Du auf dem Desktop natürlich nicht haben, sonst würde man auf Dauer blind werden.

Ein "HDR" Monitor ohne FALD kriegt aber das gar nicht hin, weswegen dann der Desktop auf eine minimale Bandbreite zusammengeschrumpft werden muss, damit bei einem HDR Video überhaupt noch etwas rausgeholt werden kann.

Ich kann das wunderbar nachvollziehen, da ich zwei HDR Monitore nebeneinander stehen habe: Einen "einfachen", ohne FALD mit HDR400, auf dem der Windows Desktop (in HDR) furchtbar aussieht (und auch HDR Videos kaum viel besser) und einen hochwertigen HDR Monitor mit FALD und HDR 1000, auf dem der Desktop (in HDR) perfekt aussieht.

Man darf den Leuten, die das First-Hand sehen und vergleichen können, schon auch mal glauben!
 
Du hast es ja gerade erst in dem Post mitgeteilt, kann ja keiner wissen was du auf dem Schreibtisch für Monitore hast.
Falsch aussehen kann es nicht höchstens ein schlechteres Ergebnis liefern, sollte aber auch so sein bei den Preisunterschieden zwischen direkter Beleuchtung und indirekter, ob das jetzt besser ist mit oder ohne HDR auf dem Desktop zu hantieren muss ja jeder selber entscheiden.
 
@Xander

Man muss nur die Ursache für die Unzufriedenheit dort sehen, wo sie auch hingehört: Beim Monitor, und nicht bei der HDR-Technologie oder Windows. Das, und nur das war meine Message.
 
Habe ich da mit HDR was falsch verstanden oder mache ich etwas falsch? :D
Jain. Wenn du unter Windows HDR aktivierst und der Bildschirm incl. Grafikkarte und HDMI/DP Kabel das unterstützt bzw. schafft, dann werden dir SD Inhalte (SD => nicht HDR) blass angezeigt. Also so gräulich. Das hängt mit der Raketenwisschenschaft der Grafiker zusammen (mit mehr Bits pro Farbkanal ist es wohl nicht getan). Das ist erstmal normal unter Windows bei dem meisten Usern. Ich hatte es mir aber auch vorher anders vorgestellt ^^

Weitere Erfahrungswerte:
- Nicht jeder Browser unterstützt HDR - oder nicht jede Webseite mag jeden HDR fähigen Browser (siehe Youtube; einfach nach HDR inhalten suchen und schauen, ob bei dir HDR neben 4K/HD als Qualitätsmerkmal angezeigt wird).
- Nicht jede Software unterstützt es
- Unterschiede bei der Anzeige könnten sich auch durch das vom Monitor unterstützte HDR Format ergeben (HDR mit oder ohne Metadaten)
- Die Netflix App unterstützt HDR und sieht dann mit HDR genauso aus
- Manche Spiele erkennen die HDR Verfügbarkeit von selbst und schalten automatisch um oder bieten dann die Option an (Hellblade: Sennua's Sacrifice)
- Bei manchen Spielen muss HDR explizit unter Windows aktiviert werden, damit es im Spiel als Option angeboten wird (Cyberpunk 2077)
- Bei Netflix gibts HDR in subjektiv schlechten Zustand (The Umbrella Academy ohne Metadaten) oder auch in subjektiv geil (Ausserirdische Welten ohne Metadaten)

Mein Monitor kann nur das einfache HDR ohne Metadaten (HDR10+ und DolbyVision bieten Metadaten) und kann daher nur von meinen Erfahrungen/Beobachtungen mit einfachem HDR sprechen. Mit Metadaten und/oder anderer Hardware können obige Erfahrungswerte abweichen.
 
Fuck, ich wollte gerade noch was zum Thema FALD und OLED schreiben und dann schwups auf die falsche Taste gekommen oder so... Alles weg... Ähm... dann mal noch kürzer.

Also SD vs. HDR vs. FALD oder OLED oder gleich die lästige Hintergrundbeleuchtung. Nehme wir mal eine Szene mit einer Person im Freien, welche ein Blattpapier hält. Im Hintergrund die wunderschönen gelben Sau (Sonne). Vereinzelnt kleine Wölkchen. Das Blattpapier im Lichtschein. Schattierung im Gesicht der Person:
- SD: Die gelbe Sau ist schlicht eine weiße Scheibe. Das Blattpapier ist auch weiß - kaum von der Sonne zu unterscheiden. Die Schattierung im Gesicht ist erkennbar. Die Wolkchen sieht man außerhalb der Sonne.
- HDR: Die gelbe Sau blendet regelrecht, aber erscheint nicht völlig als weiße Scheibe. Das Blattpapier ist weiß, aber blendet nicht. Die Schattierung im Gesicht erscheint in teilen etwas dunkler und detailreicher. Außerhalb sieht man auch die Wölkchen, dass die Sonne streift. 90% des Bildes ist im Schnitt weder heller oder dunkler, aber die letzten 10% sind tiefer, gehen also tiefer ins Dunkle oder ins Helle - sind der Wirklichkeit ein Stück näher/authentischer.

HDR bietet grob ein höheren Dynamikumfang. Es bietet also Potenzial für mehr Details in einem größeren Spektrum. Eine Kamera kann nur ein Teil des tatsächlichen Dynamikumfangs der Wirklichkeit einfangen und ein Monitor kann eben nur ein Teil das der Kamera wiedergeben. Das nur ganz grob zur Orientierung. Das ist wie mit der Auflösung oder im Audiobereich Bits & Abtastrate.

Und da kommt dann die Hintergrundbeleuchtung ins Spiel. Stichwort Schwarzwert. Um Details im dunklen Bereich anzeigen zu können, muss das Grundleuchten eines Monitors möglichs gering sein. Bei OLED ist das Grundleuchten faktisch nicht existent. Der Weltall ist tief schwarz. Deshalb spricht man da auch von einem Kontrast von 1:1000000. IPS & Co. schaffen das nicht - der Weltall wird schwarz/gräulich dargestellt. Bei OLED leuchten die Pixel von selbst. Jedes für sich. Bei IPS, TN oder VA wird eine Schicht dauerhaft beleuchtet. Also mit den vollen 100% was die Hintergrundbeleuchtung hergibt. Immer. Egal ob der Monitor weiß, schwarz oder bund ist. Über die ominöse Schicht wird die Lichtdurchlässigkeit für jeden Pixel gesteuert. Jeder Pixel besteht dabei aus 3 Subpixel - eins für Rot, Grün und Blau (meisten). Diese ominöse Schicht kann nicht alles Licht blocken. Das ist wie ein leicht lichtdurchlässiger Vorhang. Das Problem ist auch je Typ (IPS, TN, VA) unterschiedlich stark ausgeprägt. VA ist da besser. OLED ist wie gesagt der Platzhirsch. FALD ist eine Technik um den Schwarzwert durch eine dynamische Abschwächung der Hintergrundbeleuchtung zu verbessern. Das passiert nicht für jeden Pixel, sondern für 10 bis keine Ahnung wieviele Teilbereichen des Monitors. Teile das Bild mal Gedanklich in 16 Teile und für jedes dieser 16 Teile entscheidet der Monitor automatisch, wie stark oder schwach die Hintergrundbeleuchtung dort für den dort angezeigten Inhalt verändert werden muss. Ist es untenrechts in einer Szenerie sehr dunkel, kann dort die Hintergrundbeleuchtung im Vergleich zum Rest abgesenkt werden, was dem perfekten Schwarz näher kommt und einer Verfälschung ins Helle entgegenwirkt. Den Nachteil dabei sieht man schön, wenn man mit schwarzen Desktop den Mauszeiger hinundher bewegt. Dem Mauszeiger folgt eine leichte Beleuchtungswolke. Aber so kann FALD den Gesameindruck verbessern.

Nun ist für HDR bzw. oder überhaubt für die korrekte Darstellung nicht nur ein tiefer Schwarzwert wichtig. Es ist auch der Farbumfang/Farbtreue und die maximal erreichbare Helligkeit. Bei der maximalen Helligkeit hat OLED seine Probleme bzgl. der Haltbarkeit bzw. mit dem Einbrenneffekt (je heller, desto (potenziell) stärker) - typische Werte bei OLED sind wohl 700 Nits, VA kann problemlos +1000Nits; d.H. der Dynamikumfang im hellen Bereich kann bei fehlender Maximalhellogkeit ebenso verloren gehen. Es gibt eben nicht nur die Verfälschung ins Helle bei dunklen Szenen. Das gibts über das gesamte Spektrum. Beim Schwarz fällt es halt sofort auf. Bei einem normalhellen Rot ... naja, ob das jetzt etwas roter oder weniger rot, oder mehr grün/blau ist... äh... Aber so ist es auch im Audiobereich. Stichwort Frequenzgang, Kennschaldruck, Rauschabstand etc.

Edit: Damit ist FALD oder OLED keine Grundvorausetzung um HDR ordentlich wiederzugeben.

Nachteil von zu guter Wiedergabe? Man sieht oder hört jeden Fehler ^^
 
Zuletzt bearbeitet :
Seit einem Firmware Update meines Samsung C32HG70 sieht auch der desktop in HDR ganz passabel aus.
 
Doch.

Ich habe noch keinen Monitor gesehen, der es ohne viele FALD Zonen hinbekommen hätte. Weder Farbtreue und natürlich schon gar nicht in der Dynamik.

Und ich wüsste auch nicht, wie das gehen sollte
Den Acer sehe ich, der hat HDR10+. Welchen HDR 1000 Monitor hast du denn noch dran? Ich bin an einer Optimierung der Darstellung ebenfalls interessiert. Danke!
 
Den Acer sehe ich, der hat HDR10+. Welchen HDR 1000 Monitor hast du denn noch dran? Ich bin an einer Optimierung der Darstellung ebenfalls interessiert. Danke!
Der Acer hat 384 FALD Zonen und 1000 Nits.


HDR10(+) ist nur der Standard nachdem die HDR Basisdaten übertragen werden. Das sagt nichts über die Qualität des Bildes aus.

Der zweite, HDR400 Monitor (der für HDR nix taugt) ist ein normaler LG 4k Monitor.
 
@Grestorn
Ich nahm kein konkreten Bezug auf dich oder deiner Meinung. Du findest alles ohne FALD/OLED doof. Find ich nicht schlimm :)
 
@Grestorn
Ich nahm kein konkreten Bezug auf dich oder deiner Meinung. Du findest alles ohne FALD/OLED doof. Find ich nicht schlimm :)
Du musst auch nicht auf mich Bezug nehmen, damit ich Dir antworten darf, oder?

Ich finde Deine Aussage schlicht falsch. Und ich denke auch, dass ich dafür einen guten Grund habe. Alleine, dass man mit LCD und fester Hinterleuchtung alleine den Kontrast niemals hinbekommen kann.
 
Oben Unten