Farbtiefe 8 oder 10 Bit und was bringt eigentlich Rec. 2020? | Teil 2.1 Monitor-Grundlagen

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.816
Bewertungspunkte
8.809
Punkte
1
Standort
Redaktion
Nachdem wir uns im letzten Teil unsere Reise bzgl. der Monitorgrundlagen – insbesondere mit dem Thema Farbraum – beschäftigt haben, gehen wir heute noch einen Schritt tiefer in die Materie. Ich hatte es ja bereits kurz im letzten Artikel angesprochen: Farbtiefe 8 Bit vs. 10 Bit vs. 12 Bit, was braucht der Nutzer? Und, was (read full article...)
 
Super Artikel. : )
 
@FritzHunter01 : Danke für deinen Artikel. Wieder Mal top erklärrt 😁👍🏼
 
Eine 4090 (Ti) ist doch fast da, nur noch paar Wochen durchhalten, dann dürfte es (noch) mehr Spiele geben die native 4K mit 60Fps und mehr schaffen, inklusive aktiviertem Raytracing und ohne DLSS.
Gibt ja jetzt schon einige Spiele die das schaffen mit einer 3090(Ti).
Na klasse. Dann kommen die 5 Leutchen, die sich eine 2000,-€ GraKa leisten können (bzw wollen und überhaupt bekommen haben), die dann auch noch einen entsprechenden Monitor haben in den absoluten Genuss ... wenn sie es überhaupt wollen. Sprich dieses Spiel dem Genre entspricht, dass sie gerne spielen.

Und dafür soll ein Entwickler extra Material erschaffen?
Nicht davon zu sprechen, dass er selber erst ein mal entsprechende Hardware haben muß, um es erschaffen zu können.

Als Machbarkeitesstudie von ner Uni oder nem Privatmann jo gerne. Oder Marketing seitens NVidia/AMD/Intel. Für eine Spiele Firma stimmt das Kosten-Nutzen-Verhältniss schlicht nicht ;).

PS: und die Game-Engines müssen es unterstützen. Und DirectX, OpenGL, Vulcan müssen es unterstützen. Und Windoof muss es unterstützen. So viele Hürden, die erst bewältigt werden wollen.
 
Danke! Aber was ist denn den Unterschied zwischen Pixelformat und Farbtiefe? LG
So, jetzt kann ich deine Frage beantworten.

Mit Pixelformat (zu finden Radeon Treiber unter Grafik) aktivierst du 10 Bit Rendering der GPU. Standardmäßig wird alles in 8 Bit gerendert.

Inwieweit das Leistung kostet, kann ich dir nicht sagen. Müsste man mal testen…

Mit anderen Worten: willst du auf deinem 10 Bit Display die > 1 Milliarde Farben sehen, dann musst du 10 Bit Pixelformat aktivieren. Natürlich auch die 10 Bit Farbtiefe unter Anzeige (die sich rein auf den Monitor beziehen).

Hoffe, dass ich dir helfen konnte?

Grüße
 
Na klasse. Dann kommen die 5 Leutchen, die sich eine 2000,-€ GraKa leisten können

So solltest Du nicht denken....
Diese „Leuchten“ bezahlen für eine Edel-Technologie,die in zwei,drei Jahren eine „demokratische“ Grundausstattung wird.

Die ersten IPS Monitore konnte ich mir auch nicht leisten. Heute kriegt man gute hinterher geschmissen.
Dieses Prinzip kann man auf alle neue Technologien übertragen.
Außerdem muss man ja nicht immer sofort den „heißesten Sch...“ kaufen.

Unser Leben bietet genug Alternativen,um etwas mal aussitzen zu können.
Umso mehr freut man sich,wenn es dann soweit ist.
 
Das Wesentliche ist, dass es keinen nennenswerten Content im Rec. 2020 Farbraum gibt. Hier geht mein Appell an die Film- und vor allem die Spieleindustrie. Wir haben mittlerweile Monitore und TVs, die können weit über den sRGB (Rec. 709) und den P3 Farbraum hinaus. Warum werden die Spiele nicht zumindest als Option in anderen Farbräumen angeboten?
In Assetto Corsa Competizione z.B. hat man eine Auswahl. Ob das einen bemerkbaren Unterschied macht... keine Ahnung.

805550_20220825131345_1.png

Gibt sowieso noch kaum Gaming-Monitore mit wirklich tauglichem HDR.
 
Sag bloß du hast ein Spiel in Rec 2020 gefunden… kann dein Monitor echte 10 Bit Farbtiefe?

Was für eine GPU nutzt du?
Sorry für die späte Antwort. Keine echte 10-bit (und auch kein wirklich tauglicher HDR Monitor) und RX 5700XT. Deswegen keine Ahnung von dem Unterschied auf einem guten HDR Display (so viele gibt's ja noch nicht, fürs Gaming geignete Monitore zumindest), aber die Einstellung ist jedenfalls in dem Spiel vorhanden.
 
Sorry für die späte Antwort. Keine echte 10-bit (und auch kein wirklich tauglicher HDR Monitor) und RX 5700XT. Deswegen keine Ahnung von dem Unterschied auf einem guten HDR Display (so viele gibt's ja noch nicht, fürs Gaming geignete Monitore zumindest), aber die Einstellung ist jedenfalls in dem Spiel vorhanden.
Siehst du einen Unterschied, wenn du ein 4K YouTube Videos schaust mit dem Chrome Browser ? (60FpS)

Ich sehe es so, die Tiefenunschärfe ist verschwunden.
 
Was bedeutet den HDR übersetzt ?
High Dynamic Range beschreibt den Unterschied zwischen Hell und Dunkel. Je größer, desto höher die Dynamic Range. Und HDR hat erstmal nichts direkt mit der Farbtiefe zu tun. Theoretisch könntest du ein HDR-Display mit 6 Bit Farbtiefe haben, solange es genügend Unterschiede in der Helligkeit mit sich bringt. Das bietet aber natürlich kein Hersteller an, warum auch? Umgekehrt kannst du entsprechend auch ein 12-Bit Display haben, das aber nur maximal 250 nits macht und damit kein HDR kann.
Aber auch all dies hat nichts mit Tiefenunschärfe zu tun. Tiefenunschärfe hat mit dem Fokus der Linse zu tun (oder dem simulierten Fokus, wenn wir von Gaming sprechen). Tiefenunschärfe ist komplett unabhängig von der Farbtiefe oder der dynamic Range des Bildschirms und hat mit der Aufnahmelinse zu tun.
 
High Dynamic Range beschreibt den Unterschied zwischen Hell und Dunkel. Je größer, desto höher die Dynamic Range. Und HDR hat erstmal nichts direkt mit der Farbtiefe zu tun. Theoretisch könntest du ein HDR-Display mit 6 Bit Farbtiefe haben, solange es genügend Unterschiede in der Helligkeit mit sich bringt. Das bietet aber natürlich kein Hersteller an, warum auch? Umgekehrt kannst du entsprechend auch ein 12-Bit Display haben, das aber nur maximal 250 nits macht und damit kein HDR kann.
Aber auch all dies hat nichts mit Tiefenunschärfe zu tun. Tiefenunschärfe hat mit dem Fokus der Linse zu tun (oder dem simulierten Fokus, wenn wir von Gaming sprechen). Tiefenunschärfe ist komplett unabhängig von der Farbtiefe oder der dynamic Range des Bildschirms und hat mit der Aufnahmelinse zu tun.
Ok, ich meinte jetzt HDR Quell Material, da sind einfach mehr Details in die Tiefe ersichtlich.
Und ja mein TV kann echte 12Bit aber nur maximal 1080p @ 60Hz.

4K_HDR_Lion.jpg

Quelle:
 
Zuletzt bearbeitet :
Um HDR sehen zu können, bedarf es zum einen der HDR Aufnahme bzw. dem Mastering.

Ob man jetzt in 8 oder 10 Bit Masted wikt sich am Ende nur auf die Farbtiefe aus, 4:4:4 Chroma Subsampling geht z.B. auch in 8 Bit (spielt erstmal eine untergeordnete Rolle)

Mehr Farbtiefe bedeutet mehr Farben also mehr Informationen.

Die mehr Bandbreite voraussetzen (4:4:4 Subsampling erhöht die Datenmenge nochmals)…

Zum anderen braucht man für HDR ein Ausgabegerät, welches diese Detailtiefe darstellen kann. (z.B. Hell neben Dunkel), Farbraum P3 (Rec. 2030), Farbton und Sättigung… Dabei ist auch die Farbhelligkeit ein wichtiger Faktor (da liegt der Hase bei WRGB OLEDs im Pfeffer) das zusätzliche weiße Subpixel bringt zwar Peak Brightness, wäscht aber die Farben aus… das Wesentliche ist aber:


1. Kontrast
2. Helligkeit

Erst danach kommt Farbe usw…

Kann der Fernseher den Kontast nicht, dann hilft ihm die beste Spitzenhelligkeit nix!

Weshalb ein OLED Panel auch mit deutlich weniger Helligkeit, dennoch HDR so perfekt darstellen kann. „Infinit“ contrast ratio.

Samsungs QLED LCD VA Panels bestechen im Grunde nur durch die Helligkeit und die sehr gute Farbdarstellung dank der Quantum Dots. Ohne FALD würde ein QLED bzgl HDR keinen Hering vom Teller ziehen!

FALD kann gegen OLED nicht bestehen 2000 Dimming Zonen gegen mehr als 8 Millionen selbst leuchtender Pixel…

Das einzige was gegen OLED eine Chance hat ist Micro LED… aber leider viel zu teuer und noch nicht für den Consumer-Markt ausgereift. Das wird noch min. 3 Jahre dauern!

Fazit

HDR Mastering in Verbindung mit einem HDR Geräte sind die Basi

10/12 Bit 4:4:4 und Rec. 2020 bei einem OLED (Micro LED) Kontrast und möglichst hoher Spitzenhelligkeit.

Ergebins: Atemberaubendes farbenfrohes HDR Erlebnis

QD-OLED ist da aktuell ein gutes Beispiel wo die Reise hingeht…
 
Oben Unten