Frage Ist 16k Gameing möglich? (Gedankenspiel)

Obse

Mitglied
Mitglied seit
Sep 15, 2020
Beiträge
20
Punkte
2
Ein paar Gedanken zum Thema KI Basierter Bilddarstellung

Ob DirectML oder DLSS ist gar nicht die Frage

Sondern ab wann ist eine weitere Leistungssteigerung nicht mehr möglich?

Vor Jahren hat man sich darüber aufgeregt das Grafikkarten 200Watt verbrauchen.

Heute können sie schon 400Watt verbrauchen!

In 2 Jahren vielleicht 500 dann 600 dann ….

Ich glaub jeden ist Bewusst das die Entwickler nicht absichtlich mehr Energie verbrauchen, sondern es ein notwendiges Übel ist, mehr „Treibstoff“ zu verbrennen um mehr Rohleistung zu bekommen.

Es sollte auch jeden bewusst werden das eine unendliche Verkleinerung in der Herstellung auch nicht möglich ist.

Ob 7, 6, 5, 4, 3, oder noch 2 nm selbst wenn wir 1nm noch schaffen sollten oder gar in die pm Ebene vorstoßen mit der Silizium Fertigung. Durch die Dotierung müssen wir mit Silizium Gitter Strukturen arbeiten die 543pm breit sind, auch wenn Silizium selbst nur 111-210pm breit ist.

Auch wenn es noch Jahrzehnte dauern könnte bis wir so weit sind 0,5nm Silizium Chips her zu stellen. Kleiner geht es nach aktuellen Erkenntnisstand nicht.


Was ich damit sagen will, um PC Gameing in 16k zu realisieren, braucht man etwa die 16 Fache Leistung einer RTX 3090.
Mit reiner Rohleistung nach aktuellem Technischen Stand
28 Mrd. Transistoren mal 16 = 448 Mrd. Transistoren
628 mm² x16 aber wiederum bei ca. 1nm /16 kommen wir auf etwa den selben Wert 628 mm²
Beim Strom wird es etwas Bombastischer
350Watt x 16 = 5.600 Watt, Selbst wenn wie durch ein wunder die Effizienz um 100% Steigen würden, kommen wir auf 2800 Watt.
Oder ein Zaubertrick gelingt um 200% die Effizienz zu steigern, kommen wir auf 1400Watt.

Ich möchte nicht 1000Watt plus verbrauchen, und ich denk jedem wird klar!

Mit reiner Rohleistung wird das nicht möglich.

DirectML oder DLSS, sind Techniken die es ermöglichen Energieeffizient 8k und 16k zu realisieren. Ich denk sogar soweit zu sagen überhaupt realistisch zu ermöglichen.

Ob wir 16k Brauchen oder 32k sei mal dahin gestellt!
Ob dies versucht wird zu realisieren? ich denk schon.
Ich weiß nur wir Menschen können nicht mehr zwischen 16k und 32k unterscheiden, unser Auge kann einfach nicht mehr Details wahrnehmen als 16k. Und das auch nur unter Optimalen Lichtverhältnissen (Tageslicht).

16k Gaming zu Hause stößt auf viele technische Grenzen.

Was meint ihr, ist 16k möglich?
Ist da Schluss?
 

Besterino

Urgestein
Mitglied seit
Jul 22, 2018
Beiträge
4.028
Punkte
112
Es gibt m.E. kein „Schluss“. Irgendwas Neues wird kommen - nur wie das dann heißt oder funktioniert, weiß im Zweifel noch keiner.
 

Derfnam

Urgestein
Mitglied seit
Jul 22, 2018
Beiträge
4.745
Punkte
112
Wieso braucht man die sechzehnfache Leistung einer 3090?
 

Martin Gut

Veteran
Mitglied seit
Sep 5, 2020
Beiträge
333
Punkte
42
Hallo Obse

Die Herstellung von Mikroprozessoren interessiert mich schon seit 30 Jahren. Die Technick hat sich in der Zeit extrem weiter entwickelt und ist in einen Bereich vorgestossen, der damals noch weit über das Vorstellbare hinaus ging. Ich denke auch, dass die Grenze des sinnvoll (preiswert) machbaren nicht mehr so weit entfernt ist. Wo sie aber genau liegt ist schwer abzuschätzen, wenn man nicht direkt mit so einer Produktion zu tun hat. Es geht ja nicht nur darum, wie klein die Strukturgrössen sind und wie gross die Atome. Es geht darum, dass der gesamte Prozessor funktionieren muss und dass alle über 200 Arbeitsschritte in der Produktion in dieser Grössenordnung zuverlässig und doch rationell durchgeführt werden können. Wenn nur etwas in einer kleineren Struktur nicht funktioniert oder Probleme macht, hat man wenig davon. Wie die Technik grob funktioniert ist wohl bekannt. Genaue Informationen über die ganzen Produktionsabläufe bekommt man von den Herstellern aber natürlich nicht. So kann man auch nicht abschätzen, was irgend wann zur unüberwindbaren Grenze wird.

Nebenbemerkung: 111 - 210 pm ist der Radius von Silzium und nicht die Breite. Der Durchmesser ist doppelt so gross wie der Radius.

Ich verlinke hier einmal 2 Videoserien vom 8auer, die etwas einen Einblick geben, in welcher Kleinheit sich das ganze abspielt und wie ein grosser Aufwand notwendig ist, wenn man mit so feinen Strukturen zu tun hat.

Schon beim Intel 14 nm-Prozessor sieht man einzelne Schichten die nur 3 - 4 nm dick aufgetragen sind. Ob das nun ein Leiter oder eine Isolationsschicht ist, es braucht immer eine gewisse Anzahl Atome, die die Schicht dick ist. Ein zu dünner Leiter leitet nicht mehr zuverlässig und hat mehr Widerstand. Eine zu dünne Isolation führt zu Kriechströmen und damit Leistungsverlusten oder gar zu Kurzschlüssen. Bis jetzt hat man mit der Verkleinerung der Transistoren auch meist einen tieferen Stromverbrauch erreicht. Wenn man einen Transistor zu klein kann er durch den höheren Widerstand und die Kriechströme aber auch mehr Leistung benötigen und heizt sich natürlich auch stärker auf.

Dazu kann man Schichten nie auf ein Atom genau auftragen oder wegätzen. Zur funktionell notwendigen Minimalgrösse kommt darum immer noch die Ungenauigkeit der Produktion dazu.

Es wird in der nächsten Zeit schon noch Verbesserungen der Produktion geben. Die Fortschritte bei der Kleinheit sind aber nicht mehr so rasant und der dazu nötige Forschungsaufwand ist bereits jetzt enorm. Neben einer Verkleinerung der Prozessoren wird in der nächsten Zeit auch die Anzahl der Prozessorkerne weiter steigen. Wenn man in Zukunft noch komplexere Berechnungen durchführen möchte, sind aber auch Verbesserungen auf anderen Ebenen wichtig. Bei DLSS sieht man ja beispielsweise, dass man mit der selben Rechenleistung auch bedeutend mehr heraus holen kann. Die dazu nötige Programmierung ist bedeutend komplexer, aber der gesamte Berechnungsaufwand kleiner.

Ich habe auch von einer 3D-Brille gelesen, die die Augenbewegungen des Nutzers verfolgt und das Bild dort wo man hinschaut in voller Qualität zeichnet und in unwichtigeren Bereiche in der Qualität reduziert. So kann man Leistung sparen, ohne dass die Qualität sichtbar leidet. Wenn man auch schon programmiert hat, weiss man, dass man noch sehr vieles optimieren kann. Meist steigt damit aber der Programmieraufwand auf ein Mehrfaches an.
 

ShieTar

Urgestein
Mitglied seit
Jul 21, 2018
Beiträge
545
Punkte
43
Vor Jahren hat man sich darüber aufgeregt das Grafikkarten 200Watt verbrauchen.
Vor vielen, vielen Jahren? Die GTX 590 hat im Jahre 2011 schon eine TDP von 365 W. Ja das war eine Karte mit zwei GPU-Chips, weil es damals halt einfacher war zwei Chips zu koppeln als den Chip einfach gewaltig groß werden zu lassen, aber es war trotzdem eine Grafikkarte. Der Hauptunterschied bei der 3000er-Reihe von NVidia ist ja nicht das sie grundsätzlich mehr Leistung verbrauchen als die Vorgänger, sondern nur das sie schon ab Werk so viel Leistung verbrauchen wie sie nutzen können. Die 2080 Ti zieht Wassergekühlt und übertaktet auch mal 400W, aber dafür brauchte es halt eine entsprechend ausgelegte Partnerkarte mit viel Spielraum im BIOS.

Was die Sinnhaftigkeit von 16 angeht: Das menschliche Sichtfeld beträgt beinahe 200°, und die Auflösung im Zentrum etwa 1'. Für einen perfekten Kontrast sollte der Bildschirm etwa eine viermal höhere Darstellung auflösen als das Auge, also 0.25'. Macht: 200°/0.25' = 48000 Pixel horizontal. Die sollten dann natürlich nicht mehr auf einem flachen Schirm knapp vor deiner Nase sitzen, sonder an einer Wand die dich in mindestens 2m Entfernung umgibt.

Und das wir uns die Lage versetzen können auch Auflösungen jenseits von 4K als Anzeige zu nutzen zeigen ja die Fortschritte die NVidia alleine zwischen DLSS1.0 und DLSS2.0 schon gemacht hat. Und bei Verwendung von DLSS skaliert die Last auf der Grafikkarte in erster Linie mit der Render-Auflösung, und nicht mit der Ausgabeauflösung. Daher hat NVidia ja zum Launch der 3080 auch ein paar 8K-Fernseher an Youtuber verteilt um zu zeigen das man grundsätzlich auch schon auf 8K spielen kann, solange man bei ~1440p rendert und dann DLSS-skaliert.

Wer weiß, vielleicht wird DLSS ja auch bald in den Monitor ausgelagert, und die GPU schickt nur das gerenderte Bild in niedriger Auflösung + ein paar notwendige Hintergrund-Informationen an den Monitor, der dann selbstständig auf seine native Auflösung umskaliert? Möglich ist an der Stelle vieles.
 

Martin Gut

Veteran
Mitglied seit
Sep 5, 2020
Beiträge
333
Punkte
42
DLSS ist zu kompliziert, um an den Bildschirm ausgelagert zu werden. In grösseren Abständen wird ein hochauflösendes 16K-Bild erzeugt. Dann wird geschaut, was sich im Bild bewegt und daraus Vektordaten berechnet. Für jedes Bild wird dann zuerst ein niedrig auflösendes Bild relativ normal berechnet. Dann wird aus dem 16K-Bild, den Vektordaten und dem aktuellen niedrig aufgelösten Zwischenbild ein gutes aktuelles Bild erzeugt. Das ganze ist somit eingeflochten in die Erzeugung des Bildes aus den 3D-Daten des Games. Es ist nicht einfach ein standardmässiges Hochskalieren nach einem einfachen Alogaritmus wie es ein Bildschirm macht, wenn seine Quelle eine zu niedrige Bildauflösung liefert.
 

HerrRossi

Urgestein
Mitglied seit
Jul 25, 2018
Beiträge
4.743
Punkte
112
Wir werden sicherlich bald multi chip module-Grafikkarten sehen, damit werden dann auch solche hohen Auflösungen möglich, im Zusammenspiel mit DirectML und DLSS wird das dann auch flüssig laufen. Der Stromverbrauch ist sicherlich ein Problem, aber bei den CPUs hat AMD das ja auch gut in den Griff bekommen.
Warten wird es mal ab, es muss dann ja auch die entsprechenden Monitore geben und da ist schon bei 4k die Auswahl immer noch sehr mau.
 

Martin Gut

Veteran
Mitglied seit
Sep 5, 2020
Beiträge
333
Punkte
42
Wie bereits erwähnt hat es bereits öfters Grafikkarten mit 2 GPUs und einer Leistung von 300 - 400 Watt gegeben. Nicht nur von Nvidis, sondern beispielsweise die AMD Raden 5870, 7990 und R9 295X2.

Diese Karten haben aber alle mit der Kühlung zu kämpfen. Bei einer Bauform von 2 - 3 Slot lässt sich nun mal nur eine beschränkte grösse Kühler und Lüfter verbauen. Darum ist die Kühlleistung beschränkt und die Lüfter müssen unverhältnissmässig stark aufdrehen und werden darum sehr laut. Eine so grosse Heizleistung lässt sich nur mit einer Wasserkühlung zuverlässig abführen, aber das ist auch mit recht grossem Aufwand verbunden, den nicht jeder auf sich nehmen möchte.

Darum sind die Dual-GPU-Karten immer ein Nischenprodukt geblieben. Es gibt durchaus Computersysteme, die mehr GPU-Leistung verbauen, sei das für wissenschaftliche Berechnungen oder für Mining. Solche Systeme wenden aber ganz anders aufgebaut. Es muss ja nicht alles auf einer Steckkarte Platz finden an der dann die Bildschirme angeschlossen werden.

Für Mining gibt es beispielsweise Mainboards, die sehr viele PCIe 1x Anschlüsse haben, so dass man sehr viele Grafikkarten an einem Mainboard anschliessen kann. Eine starke CPU und schnelle Datenübertragung ist da nicht nötig.

Wissenschaftliche Grosscomputer werden ähnlich aufgebaut. Da wird erst abgeklärt, welche Rechenleistung, wie viel Speicher und wie grosse Datenübertragungsarten wohin nötig sind. Dann wird ein System zusammen gebaut, das etnsprechend viele GPUs verbaut. Dafür müssen die GPUs nicht einzeln auf einer Grafikkarte verbaut sein, sondern können Gruppenweise auf eine Platine angebracht werden.

Damit solche Systeme möglichst effizient arbeiten, laufen die GPUs meist mit einem tieferen Takt. Dadurch ist der Stromverbrauch und die Abwärme kleiner. Die Kühlungen unterscheiden sich auch stark von den Grafikkartenkühlern. Bei einem Mining-PC mit einigen GPUs lässt sich das noch mit ein paar starken Lüftern bewältigen. Bei Rechenzentren geht es aber nicht ohne grosse Kühlanlagen. Die Lautstärke ist da meist auch nicht so entscheidend. Wichtiger ist, eine hohe Rechenleistung zu geringen Anschaffungkosten und Stromkosten zu bekommen.
 
Oben Unten