Farbtiefe 8 oder 10 Bit und was bringt eigentlich Rec. 2020? | Teil 2.1 Monitor-Grundlagen

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.748
Bewertungspunkte
8.479
Punkte
1
Standort
Redaktion
Nachdem wir uns im letzten Teil unsere Reise bzgl. der Monitorgrundlagen – insbesondere mit dem Thema Farbraum – beschäftigt haben, gehen wir heute noch einen Schritt tiefer in die Materie. Ich hatte es ja bereits kurz im letzten Artikel angesprochen: Farbtiefe 8 Bit vs. 10 Bit vs. 12 Bit, was braucht der Nutzer? Und, was (read full article...)
 
"Die Datenmenge steigt potential an" hm wieviel ist das in Fußballfeldern ? :p


Verständnisfrage... Filme sind mir erst mal Latte, aber bei Spielen und arbeiten am PC dürfte es doch nicht so schwer sein das in einem anderen Farbraum anzuzeigen ? Das wird doch erst berechnet und muss nicht in Rec. 2066 aufgenommen sein.

Oder geben das die üblichen Spiele Engines nicht her ?

P.s. super Spannende Reihe mit guten Infos. Lernt man immer noch was dazu selbst wenn man meint man hätte das schon alles verstsanden.
 
Ich frage mich auch, ob sich das überhaupt anständig nutzen lässt und ob normale Software das überhaupt ansteuern kann.
Mit einem aktuellen Windows ist es ja schon unmöglich das inzwischen "normale" HDR zu nutzen. (Alles wird blass, Spiele-Engines nutzen es nicht, usw.)
 
Ich finds immer wieder schön, die Bilder mit den verschiedenen Farbräumen auf meinem sRGB Bildschirm anzuschauen.

Wer braucht schon das ganze grün da links oben? Sieht ja eh alles gleich aus wie das Grün ganz oben im sRGB ;)
 
Ich finds immer wieder schön, die Bilder mit den verschiedenen Farbräumen auf meinem sRGB Bildschirm anzuschauen.

Wer braucht schon das ganze grün da links oben? Sieht ja eh alles gleich aus wie das Grün ganz oben im sRGB ;)
Grundsätzlich richtig…

Das Problem ist, wenn ich etwas in P3 oder Rec. 2020 master, dann kann das sRGB Display die Farben nicht darstellen und somit verwaschen die… (Alternative Farben)

Wenn ich ein sRGB Bild/Spiel etc in P3/Adobe RGB anzeigen lasse, passiert genau das Gegenteil… die Farben sind plötzlich deutlich mehr gesättigt, mehr Brillanz usw. (Thema Kalibrierung)

Schau mal das Bild von meinen beiden Monitor (ASUS vs LG) der LG ist auf sRGB kalibriert und der ASUS läuft im weiten Gamut mit hardware kalibrierten D65 bei 200 Nits

wenn man genau hinschaut, kann man den Unterschied sehen. Würdest du davor sitzen, fällt dir das sofort auf…
 
War auch überhaupt nicht als Kritik an deinem Artikel gedacht.

Wenn ich die ganzen Farbraumdreiecke auf meinem Handy oder PC anschaue, ist's halt einfach so, als würde ich einen Vergleich zwischen Stereo und 5.1 Sound mit meinem 80er Mono-Walkman anhören.
 
War auch überhaupt nicht als Kritik an deinem Artikel gedacht.

Wenn ich die ganzen Farbraumdreiecke auf meinem Handy oder PC anschaue, ist's halt einfach so, als würde ich einen Vergleich zwischen Stereo und 5.1 Sound mit meinem 80er Mono-Walkman anhören.
Habe es nicht als Kritik aufgefasst 🤪
 
Sehr schöner Bericht

Da drängt sich mir auch eine Frage auf ich besitze einen GIGABYTE AORUS FV43U und kann unter 4k 144hz 12bit in den Nvidia Einstellungen auswählen dabei hat er nur 8bit+frc wie ist das möglich?
 
Danke für die Serie! Frage zum Thema Farbraum bzw Farbdarstellung außerhalb von Medien: gibt's denn auch Bildschirme und Spiele, die HLG (hybrid log gamma) können? HLG wurde ja entwickelt, damit sowohl Standard Dynamic Range (SDR) und HDR Bildschirme mit demselben Signal angesprochen werden können, ohne die verblichenen Farben bei SDR Displays (mit HDR Signal) zu bekommen, während HDR Bildschirme trotzdem den größeren Farbraum und Helligkeit anzeigen können.
 
Zuletzt bearbeitet :
Hier mal eine Zusammenfassung der Anforderungen für HD bzw. UHD TV sowie HDR. Für die Gamer nicht ganz so wichtig. Das bezieht sich alles auf TV und Streaming. Quasi alles was man auf Amazon Prime Video, Netflix und co. so anschauen kann. Wenn man sich die Tabelle mal so anschaut, dann geht man doch davon aus, dass das längst Einzug gefunden hat. Leider nicht, denn ich habe mich mal hingesetzt und verschiedene Filme auf dem LG C1 OLED mit dem ASUS ROG Swift PG279QM verglichen. Ich konnte hier keinen Unterschied feststellen. Warum wurde mir recht schnell klar. Hast du keinen Rec. 2020 Content, dann kannst du ein Wide Gamut Display nicht ausreizen. Läuft alles schön im P3 Farbraum. Rec. 2020 – Pustekuchen!
Bei den ganzen Streaming-Dienste wird das auf absehbare Zeit eh nicht ankommen, bzw. werden die das nicht ausliefern.
Zum einen um Traffic zu sparen, und zum anderen wollen sie ja auch den UHD-Aufpreis noch an jene verkaufen können die nur mit 25 MBit/s unterwegs sind, nicht nur an die paar Glücklichen die 1Gbit/s zur Verfügung haben.

Da Filme/Serien auf Discs am aussterben sind, wird es dort wohl auch nicht mehr zur Verfügung gestellt.
 
Hallo zusammen!

Mal eine Frage: Ich habe den LG 27GP850-B Monitor mit einer 6800XT. Wie stelle ich die Adrenalin-Software am besten ein? Mit 10bit Pixelformat & 10bit Farbtiefe Full RBG? Oder 8bit Pixelformat mit 10bit Farbtiefe, oder 8bit Pixelformat & 8bit-Farbtiefe? Wenn man "HDR-Content" nutzen will, dann muss das Pixelformat z.B. 8bit sein, weil seit der neuesten Version bei 10bit Pixelformat das HDR unter Windows deaktiviert ist. Wenn ich 8bit Pixel und 8bit Farbraum einstelle, dann ist es die einzige Möglichkeit, wo er mir unter aktiviertem HDR das 8bit + FRTC anzeigt, oder macht er das unter 10bit Farbtiefe auch?
 
Hallo zusammen!

Mal eine Frage: Ich habe den LG 27GP850-B Monitor mit einer 6800XT. Wie stelle ich die Adrenalin-Software am besten ein? Mit 10bit Pixelformat & 10bit Farbtiefe Full RBG? Oder 8bit Pixelformat mit 10bit Farbtiefe, oder 8bit Pixelformat & 8bit-Farbtiefe? Wenn man "HDR-Content" nutzen will, dann muss das Pixelformat z.B. 8bit sein, weil seit der neuesten Version bei 10bit Pixelformat das HDR unter Windows deaktiviert ist. Wenn ich 8bit Pixel und 8bit Farbraum einstelle, dann ist es die einzige Möglichkeit, wo er mir unter aktiviertem HDR das 8bit + FRTC anzeigt, oder macht er das unter 10bit Farbtiefe auch?
Hallo,

Der Monitor ist grundsätzlich kein schlechter, aber HDR auf dem GP850?
Der Monitor ist ein 8 Bit + FRC ohne jegliches Dimming... Hat einen HDR 400 Aufkleber... LOL

Wenn der Monitor mit HDR aktiv als 8 Bit + FRC angezeigt wird, dann passt das ja!
 
Hallo,

Der Monitor ist grundsätzlich kein schlechter, aber HDR auf dem GP850?
Der Monitor ist ein 8 Bit + FRC ohne jegliches Dimming... Hat einen HDR 400 Aufkleber... LOL

Wenn der Monitor mit HDR aktiv als 8 Bit + FRC angezeigt wird, dann passt das ja!
Also teilweise sieht selbst HDR400 in Spielen besser aus, als wenn man ohne spielt. Aber das war nicht der Punkt. Ich wollte eigentlich wissen, ob ich Pixel und Farbtiefe auf 10bit stellen soll, oder beides oder nur eins von beiden auf 8bit, damit ich die vermeintlich besten Einstellungen bekomme?
 
Also teilweise sieht selbst HDR400 in Spielen besser aus, als wenn man ohne spielt. Aber das war nicht der Punkt. Ich wollte eigentlich wissen, ob ich Pixel und Farbtiefe auf 10bit stellen soll, oder beides oder nur eins von beiden auf 8bit, damit ich die vermeintlich besten Einstellungen bekomme?
Wenn bei dir 10 Bit / 10 Bit und HDR unter Windows nicht funktiert, dann solltest du es so nutzen, dass es funktioniert!
Ich nutze meinen GN950 nicht mit aktivierten 10 Bit Pixelformat....

Ich nutze nur 10 Bit Farbtiefe in 4:4:4 Full RGB
 
Wann die Spiele Industrie das für sich entdeckt kann man doch ganz leicht mit einigen Gegenfragen beantworten:
- wie viele Monitore unterstützen die besseren Formate nativ?
- was kosten diese Monitore?
- wie oft wurden diese Monitore z.B. bei Alternate, Mindfactory etc im vergleich zu 8-Bit Modellen verkauft?
Dies schließt Laptops natürlich mit ein.
- Gibt es überhaupt auch nur einen Laptop, mit mehr als 8-Bit Display?

Und die wichtigste aller Fragen: Wie viel echten Mehrwert hätte dies für ein Spiel überhaupt im vergleich zum (Daten-)Aufwand?

Immer dran denken: Selbst eine 3090TI Super Duper ist zu schwach, um ECHTE native 4k RT mit über 60 FPS zu schaffen! Will jemand etwa mit unter 30 FPS 4k Zocken dank der noch größeren Datenmenge? Wie würden sich Rec.2020 und co auf den Speicherbedarf (Platte, RAM, VRAM) auswirken?
Alles NATIV, nix mit runter-matschen!
 
Immer dran denken: Selbst eine 3090TI Super Duper ist zu schwach, um ECHTE native 4k RT mit über 60 FPS zu schaffen! Will jemand etwa mit unter 30 FPS 4k Zocken dank der noch größeren Datenmenge? Wie würden sich Rec.2020 und co auf den Speicherbedarf (Platte, RAM, VRAM) auswirken?
Alles NATIV, nix mit runter-matschen!
Eine 4090 (Ti) ist doch fast da, nur noch paar Wochen durchhalten, dann dürfte es (noch) mehr Spiele geben die native 4K mit 60Fps und mehr schaffen, inklusive aktiviertem Raytracing und ohne DLSS.
Gibt ja jetzt schon einige Spiele die das schaffen mit einer 3090(Ti).
 
Zuletzt bearbeitet :
Oben Unten