Frage HDR Milchig und Farbarm warum?

xAct

Mitglied
Mitglied seit
Jan 3, 2021
Beiträge
16
Bewertungspunkte
1
Punkte
1
Hi leute habe einen WQHD Asus mit HDR,wenn ich die HDR funktion anschalte unter Windows wird das Bild total schlecht.

Ich konnte auch ingame HDR anschalten ohne es in Windows zu aktivieren,aber da war die Bildqualität auch schlechter als ohne HDR.
Jetzt kann ich in game garnicht mehr HDR auswählen warum auch immer.

Habe ich da mit HDR was falsch verstanden oder mache ich etwas falsch? :D
 
@Xander

Man muss nur die Ursache für die Unzufriedenheit dort sehen, wo sie auch hingehört: Beim Monitor, und nicht bei der HDR-Technologie oder Windows. Das, und nur das war meine Message.
und hab ich irgendwie den Eindruck erweckt das nicht mitbekommen zu haben oder warum bist du der Meinung es mir nochmal erläutern zu müssen. Da steht doch praktisch Bildqualität hat ihren Preis.
HDR sieht auf Monitoren ohne FALD (oder OLED) einfach nur falsch schlecht aus.

und woher sollten wir das wissen?
Man darf den Leuten, die das First-Hand sehen und vergleichen können, schon auch mal glauben!
die Info hast du uns vorher nicht gegeben.
 
Ich finde HDR auch ohne OLED/FALD und ohne perfekten Schmarzwert sehr ansprechend - nein, ich vermisse einen OLED nicht und es sieht bei mir weder falsch noch schlecht aus! Ich finde ebenso, dass ein HDR bei nur 700Nits gegenüber 1000Nits ebenso im WOW-Effekt leiden kann, wie wenn bei einer dunklen Szene im stockdunklen Raum die durchschimmernde Hintergrundbeleuchtung den Effekt für den Moment mindert. Stören tue ich mich an der unbequemen Handhabung unter Windows. Technikverliebt wie ich bin, bin ich sehr auf MicroLED und der OLED als Hintergrundbeleuchtung für LCDs gespannt.

Wenn meine als technische Ausführung gedachte Antwort auf der ersten Seite falsch ist, dann her mit den Links und her mit den konkreten Hinweisen. Gerne per PN. Ich lese mich da gerne durch und korrigiere was falsch ist :)
 

Ist das HDR10 nicht ausreichend für ein besserer Bild als mit SDR?

Danke für die Antworten

Ich habe rausgefunden das wenn man die Helligeitbalance umstellt bei der Windows Color einstellung fpr HDR dann siehts ganz okay aus,dazu noch den Kontrast bei NVIDIA Control Panel von 50 auf 100.

Der Milchige Graue schleier ist dadurch weg gegangen,die Farben wirken in Windows leicht blasser,aber inhalte mit HDR wirken nicht so Farbarm wie im Windows.

Was mir auch auffält ist das hier das Weiße ohne SDR bisschen gelblich wirkt aber mit HDR eingeschaltet viel Heller und klareres weiß.
 
Zuletzt bearbeitet :
Ist das HDR10 nicht ausreichend für ein besserer Bild als mit SDR?
Was ist "besser"? Was hilft HDR10 (also die Unterstützung des Standards), wenn das Display den Kontrast und die Dynamik nicht darstellen kann?

Das ist wie zu sagen, "der Monitor kann HDMI 2.1, also kann er auch 8k" - wenn das Display aber nur ein Full-HD Display ist, hat man davon wenig :)

Generell verwenden die Monitore immer ein anderes Setup wenn HDR an ist. D.h. alle Einstellungen sind getrennt, was alleine schon für ein sehr unterschiedliches Bild sorgen kann.

Ich würde Euch ja zu gerne zeigen, wie HDR aussieht, wenn es einigermaßen korrekt dargestellt wird (100% korrekt kann auch mein Monitor - oder irgendein aktuell erhältlicher Monitor - nicht). Aber man kann das nur mit eigenen Augen sehen, ich kann den Unterschied nicht filmen oder Euch sonst irgendwie zugänglich machen, da Euer eigenes Display das immer verfälscht und den HDR Effekt komplett kaputt machen würde.
 
Bei Monitoren bleibt es einfach bei der fundamentalen Wahrheit: muss man einfach selbst anschauen. Der eine findet das Bild "ok", ein anderer "milchig", wieder ein anderer "falsch" oder "schlecht", der nächste "supergeil" und der letzte sieht "keinen Unterschied" (zu was auch immer). Und nu?

Am Ende muss derjenige damit glücklich sein, der vor dem Ding sitzt - niemand sonst.
 
Das Problem ist: Wo kann man sich einen HDR1000 Monitor mit FALD life an einem Computer mit richtigen Spielen denn schon anschauen?

Nirgendwo.
 
Ja. das ist alles sehr richtig. Ich hab damals von Full HD zu meinem Budget Iiyama gewechselt und war vom WQHD total weggeschossen. Heute merke ich, dass bei Spielen mit richtig hohen Grafik-Möglichkeiten (man muss ehrlich sein: nicht jedes Game bringt die ganzen Features mit. Und nicht bei jedem Spiel addieren einige Features auch was hinzu) das Bild besser sein könnte. Bzw. ich vermute es stark. Ich hab mir damals bei Alternate diverse Displays angesehen, die UNterschiede waren auf den ersten Blick nicht wirklich sichtbar.
EIGENTLICH sollte das so ein Raum sein, wie bei den Hifi-Profis, wo Boxen verkauft werden. Da kann man auch jede Preisklasse testen. Dass das bei Monitoren niemand macht, ist eigentlich Blödsinn.
 
Also ich finde in einigen spielen macht das mit meinem HDR 600 und Local Dimming schon echt Spaß. Sicherlich ist das im Vergleich zum OLED Pillepalle aber mir hat es schon einen mehr wert gebracht.

In CoD musste ich es wieder ausschalten weil mich die Sonne geblendet hat. ( Wer will das in ein online Shooter)
 
Also bei SotTR und bei Metro Exodus hätte ich gerne mehr Lichteffekte....
 
Was mir jetzt auch negativ aufgefallen ist das der Inputlag doch deutlich ansteigt mit aktiviertem HDR.

Ist vllt eher was für Singleplayer Grafikkracher.

Und leider ist es nicht so wie auf dem TV da möchtem man wenn man einmal HDR gesehen hat nicht mehr missen.

Anscheinend bin ich an die sache zu Naiv gegangen,was ich nicht ganz verstehen warum es bei einem 1800€ Ferseher der ja aber auch um ein vielfaches größer ist viel besser HDR gibt wie bei einem 500€ Monitor welcher ja um ein vielfaches kleiner ist.

Bin davon ausgegangen das TVs so viel mehr kostet wegen der größe,und nicht das die auch viel bessere Technik besitzen.
 
Ohne FALD kannst Du starke Kontraste schlicht nicht darstellen. Entweder ist das ganze Display hell oder dunkel. Also genau nicht das, was man bei HDR will. Es ist schlicht sinnlos, HDR ohne aktive Leuchtelemente (OLED...) oder zumindest viele, getrennt steuerbare Hinterleichtungs-zonen darstellen zu wollen.
Kommt ganz darauf an. Ich schreib das jetzt mitunter absichtlich einfach damit die stillen Leser auch was verstehen und um von euch sofort zerfleddert zu werden wenn ich Blödsinn von mir geb. Ich bin beileibe kein Experte, sondern hab das "hie und da mal" aufgeschnappt, ich kann das auch falsch verstanden haben.
Hier fliegen nur so viele Begrifflichkeiten umher, dass ich das mal zusammenfassen möchte.
Ein Grundlagenartikel wär da mal ne klasse Sache @Igor Wallossek

Prinzipiell hast du schon Recht: Grundvoraussetzung für die Anzeige von HDR, also Bildern mit hoher Dynamik (Unterschied zwischen Schwarz und Weiß), ist ein Monitor der solch eine Dynamik überhaupt erst darstellen kann.
Wenn mein Monitor nur 8 -Bit kann (2^8, also 256 Stufen von Weiß nach Schwarz), wird er ein 10-Bit Bild (1024) nie richtig darstellen können. Ihm fehlen ja 3/4 des Umfangs.
Hinkender Vergleich: Er (8bit) ist kein Muttersprachler (10bit), sondern hat nur ein paar Schnipsel gelernt um im Urlaub ein Bier zu bestellen. Jemandem der die Sprache nicht spricht ("noch nie HDR gesehen"), wird das aber kaum auffallen bzw. es fällt auf, aber man weiß nicht was genau auffällt, man spricht die Sprache ja nicht.

Auch ist es hilfreich mehrere Dimmingzonen zu haben, also für dunkle Bereiche die Hintergrundhelligkeit zu verringern und für helle separat zu erhöhen. Sonst hat man zwar theoretisch den Dynamikumfang, aber bei einer einzigen Dimming Zone wäre ein Teil des Bildes immer zu hell und ein anderer immer zu dunkel.

Wie genau das dann gemacht wird, hat mehrere Vor- und Nachteile, die aber auch vom HDR-Standard komplett zunichte gemacht werden können.
Pauschal zu sagen OLED/FALD ist besser als Edge-Lit ist etwas zu einfach.

Ein OLED kann das von Haus aus ohne technische Spielereien. Die Leuchtdiode an Sich hat einfach einen krassen Dynamikumfang. Der speist sich hauptsächlich aus der Fähigkeit einzelne LEDs einfach komplett abschalten zu können. Mehr Schwarz als eine ausgeschaltene LED geht halt nicht.
Andere Displaytechniken müssen sich hier eines Tricks behelfen.
Entweder Full-Array-Backlight-Dimming (FALD), also eine in mehrere Zonen unterteilte, vollflächige Beleuchtung von hinten, die dann für einzelne Zonen heller oder dunkler leuchtet, oder Edge-Lit, ähnliches Prinzip, nur dass die Beleuchtung von der Seite kommt und per mini-Umlenkspiegel an die entsprechende Zone kommt. Hierbei gibt es naturgemäß am meisten Streulicht von allen dreien, daher auch "das schlechteste HDR". Hier kommt es aber auf das Kleingedruckte an.
Edge heißt zuerst mal nur, dass die Beleuchtung in der Seite sitzt. An wie vielen Seiten, ist nirgends definiert.
Wenn ich nur links und rechts Beleuchtung anfüg, kann ich das Licht einmal von links steuern, einmal von rechts, wodurch direkt horizontal benachbarte Zonen ähnliche Helligkeit erhalten. Füge ich oben und unten auch noch Beleuchtung hinzu, kann ich das schon wieder feiner steuern. Womöglich sogar feiner als ein FALD mit wenig Dimmingzonen.

Nun gibt es diverse Standards für das Quellmaterial (Spiel, Film).
HDR10 (10+) bietet die Möglichkeit die entsprechenden Metadaten für den kompletten Film festzulegen,
Dolby Vision erlaubt dies für jedes Einzelbild.

Ein entsprechend schlecht gemasterter HDR10 Film kann also auch auf einem Nonplusultra Display madig aussehen, gleichzeitig kann man mit dem gleichen Film und Dolby Vision selbst mit einem schlechten HDR Display Staunen hervorrufen.

Die Frage ist immer: Was tu ich und wo?
Schau ich HDR10 Filme in einem taghellen Wohnzimmer mit der Sonne im Rücken, wird der OLED nicht hell genug für ein "schönes Bild", gleichsam wird das Streulicht eines Edge-Lit in der hellen Umgebung nicht so arg auffallen.
Schau ich Dolby Vision Filme von der BluRay im Heimkino, werd ich auf OLED vermutlich das Beste Erlebnis haben und der Edge kann direkt einpacken.
Ein FALD Monitor mit 384 Zonen wird ein komplett anderes Erlebnis liefern wie einer mit derer 16.
Aber auch ein FALD mit schlechter Farbtreue, kann gegen einen Farbtreuen guten Edge-Lit abstinken.

Die Technik ist nur so gut, wie der Ingenieur, der sie einsetzt.
 
Ich mach das ganz einfach - ich hab bei Budget angefangen und geh jetzt auf die nächste Stufe: Adaptive Synch + HDR10 und IPS. Ich denke, das wird mir gefallen. Und wenn ich davon müde bin muss ich halt wieder upgraden. Vielleicht gibts dann endlich mal Displays, die was können UND erschwinglich sind.
 
Der große Vorteil von OLED ist halt, dass es keine Hintergrundbeleuchtung wie bei allen anderen Techniken (ausgenommen Plasma, aber tote Technik) gibt, sondern die Pixel SELBST leuchten. Da bisherige Technik bei der Hintergrundbeleuchtung noch nicht auf „Pixelgröße“ geschrumpft ist, wird ein OLED aktuell immer den „genauesten Kontrast“ haben, einfach weil eben nur da Licht ist, wo das Material auch sagt, das Licht sein soll.

Der Rest hängt dann eigentlich nur noch davon ab, a) wie hell (oder eben auch dunkel) das Display bzw. die Beleuchtung dann an einer Stelle sein kann (physischer Faktor) und b) wie genau das Material bzw. die Elektronik eben die relevanten Faktoren definiert bzw. die entsprechenden Informationen verarbeitet. Dummerweise beeinflussen a) und b) sich zum Teil wechselseitig.

Gewürzt wird dann das „ob’s gefällt“ dann am Ende durch die persönliche Präferenz: ich bin immer noch beeindruckt, wie cool auch normales „non-HDR“ Material auf einem OLED aussehen kann. Würde daher auch im Zweifelsfall bei gleichem Preis zum non-HDR OLED greifen als zu irgendwas anderem (egal was) mit HDR (egal welches). Ein anderer mag eben „möglichst hell“ bevorzugen und dafür lieber an anderer Stelle Abstriche machen. Welches Bild da besser ist, liegt eben im Auge des Betrachters.

Am besten ist dann halt ggf. die Kombination von OLED mit z.B. HDR 1000 und Unterstützung sämtlicher Material- und Zulieferer-Standards, die es so gibt. :D Aber das ist dann eine Frage des Budgets und noch zusätzlicher Features, die ja neben der reinen Bild-Technik durchaus auch relevant sein können (wie Sync usw.).
 
Am besten ist dann halt ggf. die Kombination von OLED mit z.B. HDR 1000 und Unterstützung sämtlicher Material- und Zulieferer-Standards, die es so gibt. :D Aber das ist dann eine Frage des Budgets und noch zusätzlicher Features, die ja neben der reinen Bild-Technik durchaus auch relevant sein können (wie Sync usw.).
... und uneingeschränkter Tauglichkeit als Monitor. Das ist immer noch nicht gegeben. Wenn man nicht nur zockt sondern auch auf dem Dektop unterwegs ist, Programmiert usw. wo stundenlang statische Inhalte angezeigt werden, ist OLED weiterhin keine Option. Leider.
 
Das werde ich ja sehen... nutze den sicherlich aktuell mehr als Office- und Arbeitsgerät als ursprünglich gedacht, eben teilweise durchaus über einen ganzen Tag. Bisher seh ich noch nichts, aber das ist in der Tat eine Sorge.
 
Mir ist halt wichtig, dass es nicht so ein Riesending ist. Aktuell sind es 27", bei 4K würde ich bis 32 gehen. Aber die Frage stellt sich grade nicht.
 
... und uneingeschränkter Tauglichkeit als Monitor. Das ist immer noch nicht gegeben. Wenn man nicht nur zockt sondern auch auf dem Dektop unterwegs ist, Programmiert usw. wo stundenlang statische Inhalte angezeigt werden, ist OLED weiterhin keine Option. Leider.
Ich hab ein OLED und zocke relativ viel bei modernen OLED´s ist das garkein problem selbst wenn ich 10stunden ein Game zocke wo die Karte (Minimap)ständig rechts unten im Bild ist,da brennt nix ein weil die TV´s heute Pixelrefresh haben.

Hatte mich vor dem kauf meines OLED intesiv mit einbrennen beschäftigt da auf dem TV auch viel gezockt wird und statische Inhalte stundenlang in der selben Position sichtbar sind,wie erwähnt z.b Minimap

Soweit ich mich informiert hatte lief is immer aufs selbe hinaus,moderne OLED´s brennen nicht ein
 
OLEDs brennen immer ein, das ist technisch bedingt gar nicht zu vermeiden.

Die Frage ist, ob das während der Lebenszeit der OLEDs tatsächlich zu sichtbaren Qualitätseinbußen kommt. Es kann sein, dass das nicht der Fall ist. Mein OLED TV hat auch schon gut 4 Jahre auf dem Buckel und ich seh nichts. Andererseits lässt die Qualität ja schleichend nach, so dass man das nicht wahrnimmt.

Dennoch, ein PC stellt andere Anforderungen. Wenn Du in 4-5 Jahren Windows Nutzung immer noch keinerlei Ghosting der Windows-Toolbar oder anderer Elemente hast, dann reden wir weiter. 10 Stunden Minimap machen da keinen Unterschied. Ab 1000 Stunden wird man einen Effekt sehen, nicht bei 10 oder 100 Stunden.
 
Wär cool, wenn hier jeder mal sein Produkte nennt, um eine Orientierung zu kriegen, wer mit welchen Stärken und Schwächen zu kämpfen hat 👍
 
Oben Unten