Frage Wie lange reichen die 10Gb VRam einer RTX 3080 ?

Ich glaube irgendwie eher, das dir die Grafikkarte dort die Auslastung vom GPU Speichercontroller anzeigt.

3,6Gb Vram wäre bei Horizon Zero Dawn schon sehr sehr merkwürdig.
 
Die Frage ist, was "belegt" bedeutet!

Siehe auch Linux-Speicherauslastung: Es werden Daten nicht aus dem Speicher gelöscht, bis der Speicher gebraucht wird.
Es gibt also eine Anzeige, die auflistet, wieviel Daten im Speicher irgendwo rumliegen und eine, die anzeigt, wieviele Daten im Speicher liegen, die tatsächlich auch gebraucht werden und NICHT bei Bedarf entfert werden können.

Der Unterschied ist also, ob der Speicher (teilweise) freigegeben werden kann oder nicht.

Da ich GPUz und die implementation des Speichermanagements auf Grafikkarten nicht hinreichend gut kenne, kann ich keine definitive Aussage treffen, möchte jedoch darauf hinweisen, dass das unter Linux übliche Speichermodell (oder ein ähnliches) hier angewendet werden könnte.
Dann wären die GPU-z-Werte tatsächlich nur bedingt sinnvoll.
Allerdings möchte man natürlich auch nicht nach jedem Gebrauch einer Textur diese löschen und dann direkt wieder laden... Die "Wahrheit" läge in diesem Modell also irgendwo in der Mitte: Einige Texturen könnten weg, einige würde man besser behalten, da sie recycled werden.
^^

Hat hier jemand fundiertes Wissen (nein, damit meine ich nicht: "Seite X benutzt auch GPU-Z"), der bereits intensiv Grafikprogrammierung betrieben hat oder in der Graka-Entwicklung tätig war?
Das wäre mal super, wenn sojemand etwas dazu sagen könnte...
 
Die Frage ist, was "belegt" bedeutet!

Siehe auch Linux-Speicherauslastung: Es werden Daten nicht aus dem Speicher gelöscht, bis der Speicher gebraucht wird.
Es gibt also eine Anzeige, die auflistet, wieviel Daten im Speicher irgendwo rumliegen und eine, die anzeigt, wieviele Daten im Speicher liegen, die tatsächlich auch gebraucht werden und NICHT bei Bedarf entfert werden können.

so stelle ich mir das auch vor. Vielleicht liegen 8-9GB Daten im Speicher und alle glauben der Speicher ist viel zu klein aber tatsächlich werden eigentlich nur 3GB davon benötigt. Das würde dann eine "verfälschte" Auslastung des Grafikspeichers zeigen.

keine Ahnung, habe 0 Ahnung :giggle:
 
Würde mich auch interessieren... Ich gehe wie irgendwo schon erwähnt danach was ich ingame sehe, sprich habe ich Matschtexturen etc pp... Das GPUz mitunter sogar auch zu wenig anzeigt habe ich ja schon gehabt und auch für mich bewiesen.

Daher kann die Anzeige auch nicht korrekt sein. Interessant ist halt auch die Anzeige von "Memory Controller load" - was von den wenigsten beachtet wird... Der Speicher kann voll sein, dennoch ist der Controller deshalb nicht zwangsläufig ausgelastet...
 
Die Auslasutng des Speichercontrollers zeigt wie viel geschrieben und gelesen wird. Das hängt nicht davon ab, ob der Speicher voll ist oder nicht.
 
Jup, und nun gucke Mal auf das Bild von der Gigabyte und dem dazugehörigen GPUz Screen. 🙂 - Zufall das Controller Auslastung und die Anzeige auf dem LCD der GPU so nah beieinander liegen? (Man beachte auch die Auslastungslinie, gut möglich das dort die Auslastung vom Controller angezeigt wird).

Test3.png
 
Zuletzt bearbeitet von einem Moderator :
Wenn man den Angaben der Spiele selbst glauben kann, reichen die 10GB mal ganz locker. GRBreakpoint zum Beispiel frisst laut eigenen Angaben nicht einmal 7GB bei 4k und höchsten Einstellungen.
 
Jup, und nun gucke Mal auf das Bild von der Gigabyte und dem dazugehörigen GPUz Screen. 🙂 - Zufall das Controller Auslastung und die Anzeige auf dem LCD der GPU so nah beieinander liegen? (Man beachte auch die Auslastungslinie, gut möglich das dort die Auslastung vom Controller angezeigt wird).


leider ist die Software von dem Display so verbugt das ich es jetzt nicht testen kann. Das Display funktioniert nur gelegentlich :cry:

aber ich glaube mittlerweile doch auch das mit VRam Auslastung die Controller Auslastung gemeint ist. Bin halt Noob :D(y)
 
Das hat doch nix mit Noob zu tun @COLDFusion 😄 - es war mir einfach nur aufgefallen und offenbar hat kein anderer sich den Shot genauer angeschaut, das ist alles.


Es ist einfach nen sehr umstrittenes Thema was in den nächsten Jahren noch schlimmer werden wird, zumal nVidia halt dafür bekannt ist den Speicher nah an die Kante zu nähen... AMD hat das bei der FuryX auch so gemacht und die Karten sind nun nicht mehr viel mehr wert als die R9 290X da zwar die FuryX wesentlich mehr Feuer hat, aber halt durch den Vram limitiert wird (genauso mit den RX 480 mit 4Gb übrigens - die haben auch mehr Power als ihr Speicher es zulässt).

Ich hab 0 Bock an so ner Limitierung zu hängen nur weil nen Hersteller knausrig ist bzw. das eiskalt mit einkalkuliert (Würde ich nVidia zutrauen, so hart es klingt...nVidia hat das Spielchen z.b. schon bei der GTX 660 Ti [1x 1024 + 2x 512Mb an 192bit] als auch bei der GTX 970 gemacht und über diese Mogeleien ins Extreme getrieben, oder halt z.b. die 1060 etc etc mit 3Gb Speicher gebracht was absolut NULL Sinn gemacht hat, ala´ irgend nen doofer wirds schon kaufen.)

Ich bin einfach gebrandmarkt in der Richtung weil zu oft auf die Nase gefallen - lieber mehr als zu wenig, und 10Gb sind mir bei der Performance einer 3080 eindeutig zu wenig. Punkt.

Wem das reicht, gerne - jedem seine Meinung und jedem seine Überzeugung. Aber ebenso erwarte ich es auch vom Ggü... so einfach ist das. 🙌🤝

LG
Marti
 
absolut NULL Sinn gemacht hat, ala´ irgend nen doofer wirds schon kaufen
Vielleicht muss man auch einfach mal über den eigenen Tellerrand hinausblicken. Grafikkarten sind nicht nur für Gamer gebaut. Es gibt viele grafische oder technische Anwendungen von Grafikkarten und auch Mining. Wie hoch der Bedarf an Speicher ist, ist da sehr unterschiedlich. Für Mining brauchst du beispielsweise nicht viel. Für gewisse Anwendungen braucht es auch mehr als fürs Gaming wie man bei den Quadrokarten sieht. Nur weil die eigenen Games einen gewissen Speicherbedarf haben, sind noch lange nicht alle Karten die den Ansprüchen nicht entsprechen unsinnig. Für andere Anwendungen kann es genau passend sein. Da muss man eben anschauen, was man braucht und dann das entsprechende kaufen. Ein Hersteller ist nicht knausrig, weil er verschiedene Modelle für verschiedene Ansprüche anbietet.

(Ich will damit aber nicht Fehlkonstruktionen wie die GTX 970 entschuldigen. Die hätte man besser gleich mit 3.5 GB verkauft.)
 
Wenns nur mein eigener Tellerrand wäre. :(
Was durfte ich mir schon anhören weil Games nicht ordentlich liefen... aber der und der hat gesagt kauf dir die Karte... joa, derjenige hat bestimmt die mit 6Gb gemeint... oder die mit 8Gb... je nach Hersteller... nein er hat gesagt kaufe dir DIE Karte... wusste ja nicht dass das Unterschiede gibt blablabla... :rolleyes: <--- Beispiel

Am Ende wurde dann "die richtige" Karte geholt und alles war Tutti - hätte man sich aber sparen können wenn man gleich die richtige genommen hätte. Genau für sowas gibts diese Speicherkrüppel... die Leute kaufen dann 2x ... Siehe Prominentes Beispiel GTX 580... wieviele haben die 1,5Gb Variante gekauft, am besten dann mit SL! Configs rumgeprotzt, weil da hatten sie ja auch 3Gb o_O ... Oder die GTX 295, GTX Titan Z etc etc... paar AMD Beispiele hatte ich ja oben genannt... (Da würde ich gerne die HD3870 X2 mit ihren 2x512Mb hinzufügen, war auch nen Speicherkrüppel für die Leistung, was habe ich mich geärgert... die HD4870 X2 hatte dann 2x1024Mb, ggü dem Standardmodell der 4870 mit 512Mb, was auch gut was ausgemacht hat) ... oder die RTX 2060 - die war zum Glück durch den Aufschrei der User ganz schnell Ad Acta.


Wenn jemand ne "Technische" Anwendung für ne Grafikkarte hat, kauft derjenige idr keine Consumerkarten, eher nen Hybrid wie die Radeon Pro (Vega Frontier Edition, Radeon VII etc)
oder Titan etc... Aber keine Low Budget Karte. Mining mit solchen Low Budget Karten? Eher nicht...

Nicht falsch verstehen, ich weiß worauf du hinaus willst - deshalb schrieb ich ja oben das ich jedem seine Meinung und Überzeugung akzeptiere, aber bitte halt auch meine dann zu akzeptieren ist, ich hab die schließlich auch nicht weil ich langeweile habe und gerade nix anderes zu tun ist. :p
 
Zuletzt bearbeitet von einem Moderator :
@Pirate85 Die RTX 2060 6GB ist alles andere als Ad Acta - die wird fleißig verkauft und selbst jetzt sind noch viele am Markt. Die RTX 2060 Super 8GB hat (hatte) das Sortiment erweitert, nicht die RTX 2060 6GB ergänzt. Jeder der sich etwas auskennt, hätte zur 8 GB Variante gegriffen - alle anderen kaufen über den Preis. Wobei um die 280,- € auch ok ist - 6GB dürften sogar reichen wenn man die Detailregler bedient und eher in FHD spielt. Für alles auf Ultra in allen Spielen ist die Karte aber eher nicht so gut.
 
Mist, vielleicht etwas doof ausgedrückt, da hast du vollkommen recht. 😐

Ich meinte eher dass das "Problem" mit der 2060 ad Acta ist (Chip mehr Bumms als der Speicher es zulässt) seit Nvidia die Karte als Super etwas sinnvoller beschnitten und dadurch mit 8 Gb rausgebracht hat.

Für FHD ist die 2060 ne Bomben Karte, ohne Frage sogar P/L-technisch ne Empfehlungen neben der 5600 XT. (RT kann man knicken, zu wenig Dampf imo)
Beide Karten scheitern quasi an höheren Auflösungen durch die 6Gb Speicher - oder man muss eben die Texturen runter drehen. 🙂
 
Mining mit solchen Low Budget Karten? Eher nicht...
Beim grossen Miningboom vor 3 Jahren habe ich mir einmal angschaut, wie das so funktioniert. Es waren vor allem die günstigen, preiswerten Mittelklassekarten ausverkauft. Das waren zu der Zeit die RX 460 und RX 470. Als diese nicht mehr verfügbar waren hat es langsam auf die GTX 1060 und die teueren Modelle übergegriffen. Für Mining braucht man grosse GPU-Leistung zu günstigen Kosten und tiefem Stromverbrauch. Man braucht dafür kaum Speicher und auch kaum CPU-Leistung oder Festplatten. Ein typisches System hat auf einem Mainboard 3 Grafikkarten verbaut. Es gibt sogar extra Mainboards mit bis zu 12 PCIe 2.0 1x-Steckplätzen an die man die Grafikkarten mit Kabeln anhängt. Da mit der Zeit der Berechnungsaufwand steigt und die Belohnung sinkt, ist Mining bei unseren Stromkosten kaum mehr interessant. Es wird fast nur noch in China betrieben.

Deine Meinung verstehe ich auch. Es ist recht schwierig heraus zu finden, wie viel Speicher und man für eine bestimmte Anwendung benötigt. Beim Gaming gibt es da sogar noch recht viele Informationen. Man findet Benchmarks mit verschiedensten Spielen. Aber da sieht man natürlich auch nur, was das Game in der Grundausstattung benötigt und nicht, was es mit bestimmten Addons, Mods und Textrupacks frisst. Ob dann das eigene Lieblingsgame gut läuft, weiss man auch nicht.

Kürzlich musste ich mit meinem Sohn einen Laptop für sein Maschinenbaustudium auswählen. Für das dort verwendete CAD wird eine Quadrokarte benötigt. Ich musste dann recht lange suchen, um wenigstens technische Daten und einen Benchmarkwert der Grafikchips zu finden. Aber Informationen ob die Software mit dem einen oder anderen Laptop nun wirklich besser läuft und ob sich mehr Speicher lohnt habe ich nicht gefunden. Auch wenn man für eine bestimmte Foto- oder Videobearbeitungssoftware nach solchen Informationen sucht, findet man kaum was. Die angegebenen Systemanforderungen beschreiben meist ein mehrere Jahre altes mittelmässiges System mit dem man nicht glücklich wird. Am ehesten findet man noch in einem Nutzerforum ein paar Erfahrungen von Leuten, die damit arbeiten. So bliebt einem nichts als auszuprobieren und dann zu schauen ob es ausreicht und wo bei der eigenen Anwendung die Engpässe liegen. Bei einem Laptop hat man dann nicht mal die Möglichkeiten aufzurüsten wie bei einem PC.

Da wäre man schon froh um brauchbare Angaben, welche Grafikkarte wofür geeignet ist. Man kann aber auch verstehen, dass die Grafikkartenhersteller nicht einfach sagen können, wer was benötigt und darum lieber einfach eine Auswahl an Modellen auf den Markt werfen und dann kann/muss sich jeder selbst raus suchen was er braucht.
 
Jup, war es nicht ASRock mit dem einen Mining Mainboard wo sogar Extender/Riser dabei waren? 🙈
War echt schlimm, alle Karten mit viel Rohleistung waren kaum verfügbar oder viel zu teuer...
 
Zuletzt bearbeitet von einem Moderator :
Beim grossen Miningboom vor 3 Jahren habe ich mir einmal angschaut, wie das so funktioniert. Es waren vor allem die günstigen, preiswerten Mittelklassekarten ausverkauft. Das waren zu der Zeit die RX 460 und RX 470. Als diese nicht mehr verfügbar waren hat es langsam auf die GTX 1060 und die teueren Modelle übergegriffen. Für Mining braucht man grosse GPU-Leistung zu günstigen Kosten und tiefem Stromverbrauch. Man braucht dafür kaum Speicher [...]

Der "große Miningboom vor 3 Jahren" war IIRC ein Etherum-Boom, eine IIRC extrem Speichertiming- und takt-abhängige Cryptocurrency. Die Menge an Speicher war vielleicht weniger wichtig, aber Du kannst ja mal hellm über die Zeit und die Bedeutung des Speichers für's Mining damals ausfragen, was meinst Du, wer ihn damals nach Straps gelöchert hat – jedenfalls sofern ich das richtig in Erinnerung habe.

Ich denke übrigens, das eine oder andere Tool, das hier bei Igor eine Heimat hat, gäbe es möglicherweise ohne diese Zeit so gar nicht, oder wenn, dann deutlich weniger weit entwickelt.
 
so stelle ich mir das auch vor. Vielleicht liegen 8-9GB Daten im Speicher und alle glauben der Speicher ist viel zu klein aber tatsächlich werden eigentlich nur 3GB davon benötigt. Das würde dann eine "verfälschte" Auslastung des Grafikspeichers zeigen.

keine Ahnung, habe 0 Ahnung :giggle:
Leider ist das nur halb so.

Um ein einziges Bild/Frame dar zu stellen brauch es halt eine bestimmte Speichermenge (sieh Artikel früher verlinkt). Diese Speichermenge läßt sich sehr grob leicht ausrechnen (Pixel*Farbtiefe). Das wäre die Menge, die die ROHDATEN ohne Komprimierung und AI-,Filter-Tricks für ein Bild benötigen.

Du willst ja aber nicht mit 1 FPS zocken ;). Also müssen theoretisch X-Bilder pro Sekunde vorhanden sein. Das wird stark geschrumpft in dem man "Tricks" anwendet wie halt Kompression und nur Veränderungen zwischen Bild 1 und 2 zu finden und zu speichern. (und und und, da werkeln mittlerweile zig duzende solcher Optimierer).

Jetzt hast du drei Möglichkeiten:
- genug Speicher, um viele einzel Bilder ab zu legen (großer VRAM). Wäre quasi Daumenkino oder Trickfilm *g*.
- extrem schnelle Schnittstellen, um wenige Bilder sehr schnell hin und her zu schaufeln (Bandbreite)
- eine gute Mischung aus beidem <- so wie heute üblich

Das absolute Minimum an benötigtem Speicher wäre als (glaub ich, VERMUTUNG) aktuelles Bild + neues Bild für die Berechnungen.
Bei sehr schnellen Bildfolgen (hohe FPS) würde das aber nicht reichen. Eine Bewegung läuft ja über viele viele Einzelbilder, Berechnungen aus nur 2 Vorlagen würden springen/ruckeln/beamen/etc. Also braucht man einen gewissen Vorrat an vorgerenderten Bildern um eine gleichmäßige Bewegung zu berechnen.
Sind ja nur Schätzungen immer!! Woher sollen die Filter wissen, ob du als nächstes nach Links oder Rechts schaust?? Also wird einmal für Links und einmal für Rechts berechnet ... und eingelagert.

Ergo nutzt man den schnellen VRAM (Stichwort Bandbreite!) als "Cache" (Stichwort MENGE/GB) um dort möglichst viele Bilder ein zu lagern und für alle möglichen Berechnungen bereits vorhanden zu haben.

Wie GENAU und 100% das geht weiß ich aber auch nicht ;). Und warscheinlich wissen das sogar nur AMD und NVidia wie ihre Hardware das alles händelt ;).
 
Wie GENAU und 100% das geht weiß ich aber auch nicht ;).
Ich verfolge die Entwicklung der Computergrafiken seit 30 Jahren und habe auch schon ein paar Games programmiert. Da muss ich doch ein paar Sachen ergänzen oder korrigieren.

Der Bildspeicher ist heute nur noch ein sehr kleiner Teil der Speichers der Grafikkarte. Viel mehr Platz brauchen die hoch auflösenden Texturen, der Programmtext für die GPU und die ganzen Daten für die Berechnung des Bildes aus den 3D-Daten der Landschaft in der man sich bewegt.

Der Bildspeicher hat je nach Einstellungen Platz für 2 bis 7 Bilder. Eines wird gerade nach den aktuellen Spieldaten erstellt und ein fertiges wird laufend an den Bildschirm ausgegeben. Zusätzlich können noch vorbereitete Bilder gepuffer sein, um Ruckler zu vermeiden, wenn einen Moment lang nicht genug Bilder erstellt werden können. Es werden aber keine unnötigen Bilder erstellt für verschiedene Situationen. Die erstellten Bilder werden alle in der Reihenfolge angezeigt, in der sie erstellt werden. Je grösser der Puffer ist, um so länger dauert es, bis erstellte Bilder angezeigt werden (längere Latenz). Dafür läuft es aber ruckelfreier, wenn mal nicht genug neue Bilder kommen. Es werden auch nicht Bilder für eine Sekunde gespeichert. Die Bilder werden erstellt, einen Sekundenbruchteil gelagert und dann angezeigt. Danach braucht man sie nicht mehr und der Speicher wird laufend wieder mit neuen Bildern überschrieben.

Bei 4 K hat ein Bild 3840 x 2160 Pixel. Das sind 8.3 Megapixel. Bei 8 Bit pro Farbe, also 24 Bit pro Pixel braucht man 3 Byte für jedes Pixel. Das sind dann 25 MB für ein Bild und 175 MB für 7 Bilder. Bei einem Speicher von heute üblichen 2 - 16 GB ist das nur noch ein sehr kleiner Teil. Je nach Auflösung und Farbteife sieht das natürlich etwas anders aus, aber den Speicherverbrauch von ein paar GB macht das nicht aus.

Entscheidender ist, dass bei höher auflösenden Bilder mehr Objekte sichtbar sind. Man setzt normalerweise eine minimale Grösse von 1, 2 oder 4 Pixeln. Was zu klein ist um so viele Pixel auf dem Bildschirm zu geben, wird nicht berechnet. Bei höherer Auflösung sieht man darum Objekte, die bei tiefer Auflösung verschwinden. Dazu sollte man bei hoch auflösenden Bildern auch bessere Texturen verwenden, da sonst die Bilder schwammig werden. Auch in der ganzen Berechnung können Zwischenschritte gespeichert werden, die mehr Platz brauchen, je höher die Auflösung ist.

Darum ist der Speicherbedarf auch nicht nur von der Bildauflösung abhängig, sondern auch von den Einstellungen im Game und im Grafikkartentreiber. Bei hohen Auflösungen kann man oft einiges an Arbeitsspeicher sparen, wenn man die Einstellungen nur so hoch wie nötig setzt und nicht meint alles auf Maximal sei am besten.
 
Leider ist das nur halb so.

Um ein einziges Bild/Frame dar zu stellen brauch es halt eine bestimmte Speichermenge (sieh Artikel früher verlinkt). Diese Speichermenge läßt sich sehr grob leicht ausrechnen (Pixel*Farbtiefe). Das wäre die Menge, die die ROHDATEN ohne Komprimierung und AI-,Filter-Tricks für ein Bild benötigen.

Du willst ja aber nicht mit 1 FPS zocken ;). Also müssen theoretisch X-Bilder pro Sekunde vorhanden sein. Das wird stark geschrumpft in dem man "Tricks" anwendet wie halt Kompression und nur Veränderungen zwischen Bild 1 und 2 zu finden und zu speichern. (und und und, da werkeln mittlerweile zig duzende solcher Optimierer).

Jetzt hast du drei Möglichkeiten:
- genug Speicher, um viele einzel Bilder ab zu legen (großer VRAM). Wäre quasi Daumenkino oder Trickfilm *g*.
- extrem schnelle Schnittstellen, um wenige Bilder sehr schnell hin und her zu schaufeln (Bandbreite)
- eine gute Mischung aus beidem <- so wie heute üblich

Das absolute Minimum an benötigtem Speicher wäre als (glaub ich, VERMUTUNG) aktuelles Bild + neues Bild für die Berechnungen.
Bei sehr schnellen Bildfolgen (hohe FPS) würde das aber nicht reichen. Eine Bewegung läuft ja über viele viele Einzelbilder, Berechnungen aus nur 2 Vorlagen würden springen/ruckeln/beamen/etc. Also braucht man einen gewissen Vorrat an vorgerenderten Bildern um eine gleichmäßige Bewegung zu berechnen.
Sind ja nur Schätzungen immer!! Woher sollen die Filter wissen, ob du als nächstes nach Links oder Rechts schaust?? Also wird einmal für Links und einmal für Rechts berechnet ... und eingelagert.

Ergo nutzt man den schnellen VRAM (Stichwort Bandbreite!) als "Cache" (Stichwort MENGE/GB) um dort möglichst viele Bilder ein zu lagern und für alle möglichen Berechnungen bereits vorhanden zu haben.

Wie GENAU und 100% das geht weiß ich aber auch nicht ;). Und warscheinlich wissen das sogar nur AMD und NVidia wie ihre Hardware das alles händelt ;).
Es ist NICHT so, dass mehrere fertig berechnete Bilder im Grafikspeicher abgelegt werden bzw dass Bilder "auf Vorrat" berechnet würden. Das passiert nicht.

Es gibt einen Buffer, der recht genau 2 Vollbilder beinhalten kann. Mit VSync an wird in den backbuffer gerendert und mit einem sogenannten buffer flip, passend zum VSync, wird umgeschaltet und der andere Speicherbereich wird zum backbuffer.

Ohne VSync wird der Ausgabepuffer kontinuierlich überschrieben. Es existiert dann immer genau EIN fertig gerendertes Bild auf der Grafikkarte.

Und dann hat man auch nicht 1 FPS. Die Bildrate hat damit rein gar nichts am Hut.
 
recht genau 2 Vollbilder
Bei den neuen Treibern von Nvidia kann man den Modus für geringe Latenz auswählen. Dann sind es wie du sagst 2 Bilder. Wenn man das nicht einschaltet (Standard), wird eine Bildwarteschlange von ein paar Bildern verwendet. Wie viele es bei den aktuellen Treibern sind, kann ich dir nicht sagen. Bei den älteren Treibern konnte man zwischen 2 und 7 Bildern auswählen, wie lange die Warteschlange sein soll. Für VR gibt es die Einstellung immer noch (vorgerenderte Virtual Reality-Einzelbilder 1 - 4).
 
Oben Unten