Ja, was haben wir denn da? NVIDIA hat jetzt mit der GeForce RTX 5070 FE eine neue Grafikkarte auf den Markt gebracht, die mich in vielerlei Hinsicht etwas ratlos zurücklässt. Das stelle ich jetzt bewusst voran, denn man muss den heutigen Test schon aufmerksam lesen und sich auch auf die Feinheiten einlassen, die ich diesmal allerdings optisch sichtbarer herausstellen werde. Nein, ich werde sicher keinen Rant schreiben, auch wenn man sich schon fragen muss, was NVIDIA mit dieser Karte bezweckt und wo genau die Zielgruppe liegt.
Wichtige Vorbemerkungen und ein Paradigmenwechsel
Die kontinuierliche Steigerung der Rasterleistung war über Jahrzehnte hinweg der zentrale Treiber für Fortschritte in der Grafikhardware. Moderne Architekturverbesserungen, höhere Speicherbandbreiten und effizientere Fertigungsprozesse ermöglichten es, die Leistung von GPUs stetig zu erhöhen. Doch mittlerweile scheint dieser Pfad an physikalische und wirtschaftliche Grenzen zu stoßen, zumindest hatte ich bei der GeForce RTX 5070 genau diesen Eindruck. Denn trotz neuer Architektur und minimal gesteigerter Effizienz erreicht sie in klassischen Rastergrafik-Berechnungen kaum höhere Leistung als ihre direkte Vorgängerin, die RTX 4070 Super, das will ich schon einmal spoilern, um auch die Überschrift zu erklären.
Der Hauptgrund dafür ist, dass sich die Skalierung der Rechenwerke nicht mehr im gleichen Maßstab fortsetzen lässt wie in der Vergangenheit. Der sprunghafte Zugewinn an Leistung durch einfaches Hinzufügen von mehr Shader-Einheiten oder durch eine höhere Taktfrequenz wird zunehmend ineffizient. NVIDIA und andere Hersteller setzen deshalb verstärkt auf alternative Technologien, insbesondere auf künstliche Intelligenz. Features wie DLSS (Deep Learning Super Sampling) oder KI-gestützte Bild- und Physikberechnungen sollen die wahrgenommene Performance steigern, ohne dass die Rohleistung der GPU signifikant wachsen muss. Die GeForce RTX 5070 profitiert hauptsächlich von solchen neuen KI-Funktionen, aber ob diese Strategie ausreicht, um den Markt zu überzeugen, bleibt erst einmal offen.
Ein möglicher Stolperstein ist natürlich die breite Akzeptanz solcher Technologien. Während KI-gestützte Upscaling-Methoden wie DLSS in vielen Szenarien bereits überzeugen, bleibt die Frage, inwieweit Nutzer bereit sind, auf klassische Rendering-Methoden zu verzichten. Zudem hängt der Erfolg maßgeblich von der Software-Unterstützung ab. Falls Entwickler und Spieler den subjektiven Mehrwert von KI-Funktionen nicht als ausreichenden Fortschritt wahrnehmen, könnte die RTX 5070 trotz technischer Neuerungen als weniger attraktiv erscheinen als erwartet. Dazu kommt auch, dass die 32-bit CUDA-Bibliotheken nicht mehr unterstützt werden und PhysX in älteren Spielen zu einem prominenten Opfer wird. Warum NVIDIA hier keinen Wrapper implementiert, entzieht sich jedoch meinem Verständnis.
Letztlich zeigt sich an dieser Entwicklung ein Paradigmenwechsel: Die reine Hardware-Leistungssteigerung wird zunehmend durch algorithmische Optimierung ersetzt. Die nächsten Jahre werden zeigen, ob dieser Ansatz ausreicht, um die hohen Erwartungen an neue GPU-Generationen zu erfüllen. AMD sieht das mittlerweile ja ähnlich, das nur mal zur Erinnerung. Und damit zurück zur Karte.
Die unverbindliche Preisempfehlung (UVP) für die NVIDIA GeForce RTX 5070 liegt in Deutschland bei 649 Euro. Doch an wen richtet sich die Karte damit eigentlich? Ich sehe sie im Bereich der Full-HD und maximal noch WQHD-Auflösungen, denn die 12 GB Grafikspeicher der GeForce RTX 5070 könnten in modernen Spielen, insbesondere in Ultra-HD-Auflösung (3840 × 2160 Pixel), zunehmend zum Engpass werden. Ein besonders prägnantes Beispiel dafür ist The Last of Us Part I auf dem PC. Dieses Spiel ist bekannt für seinen hohen VRAM-Bedarf, insbesondere bei maximalen Texturdetails und in hohen Auflösungen. Bereits auf einer RTX 4070 Super mit 12 GB VRAM zeigt sich, dass das Spiel in Ultra-HD regelmäßig an die Speichergrenze stößt. Dies führt nicht nur zu möglichen Leistungseinbrüchen, sondern auch zu sichtbarem Qualitätsverlust der Darstellung, wenn der Treiber anfängt zu tricksen. Und dann muss man sich ab morgen ja auch noch mit der Radeon RX 9070 messen lassen, die sehr ähnlich eingepreist wurde und zudem auch in Stückzahlen verfügbar sein soll.
Die RTX 5070 bringt zwar eine neue Architektur mit sich, die Effizienzgewinne bieten kann, doch die Speichergröße selbst bleibt unverändert. Angesichts der steigenden VRAM-Anforderungen vieler neuer Titel – nicht nur The Last of Us Part I, sondern auch Spiele wie Hogwarts Legacy oder Alan Wake 2 – könnte dies die Zukunftssicherheit der Karte in Frage stellen. NVIDIA argumentiert oft, dass moderne Speicherkompressionstechniken und KI-gestütztes Upscaling (wie DLSS) helfen können, den Speicherbedarf zu reduzieren. Doch in der Praxis zeigt sich, dass diese Maßnahmen die Problematik nicht vollständig eliminieren. Besonders für Nutzer, die in nativem Ultra-HD ohne größere Kompromisse spielen wollen, dürfte die GeForce RTX 5070 daher nicht die beste Wahl sein, wenn alternative Modelle mit 16 GB oder mehr Speicher verfügbar sind. Das schränkt die Zielgruppe natürlich etwas ein. Einigen wir uns also auf maximal WQHD oder ordentlich KI-Unterstützung beim Supersampling, ok?
Ich muss leider auch noch voranstellen, dass ich die Karte diesmal mit einer Zwangsumstellung auf PCIe 4 betrieben habe, da ich neben sporadischen Boot-Loops auch Blackscreens verzeichnen musste, die einem das exakte Benchmarken reichlich schwer gemacht haben. Runterschalten der PCIe-Generation auf 4 ging natürlich, aber es ist ein reiner Workaround, der das eigentliche Problem der Founders Edition nicht behebt. Allerdings gehe ich davon aus, dass die Karte in der Summe eh nicht schnell genug ist, damit man diesen Nachteil in den Ergebnissen auch merkt.
Ich erwähnte es ja bereits, dass NVIDIA bei der RTX 5070 den Fokus weniger auf eine drastische Erhöhung der Rasterleistung gelegt hat, sondern stattdessen durch architektonische Verbesserungen, größere Cache-Strukturen und optimierte KI-Funktionen eine effizientere GPU geschaffen hat. Dies spiegelt sich auch in der Unterstützung von DLSS 4 wider, das in Kombination mit den verbesserten Tensor-Kernen eine noch realistischere Darstellung ermöglichen soll. Die Blackwell-Architektur bringt somit erhebliche Fortschritte in der Art und Weise, wie Rendering und Bildverbesserung miteinander verknüpft werden, auch wenn die reine Rohleistung in klassischen Rastergrafik-Anwendungen nicht über das hinausgeht, was bereits mit der vorherigen Generation möglich war.
Die GB205-300 GPU im Detail
Die GeForce RTX 5070 basiert auf NVIDIAs neuer Blackwell-Architektur und nutzt den GB205-300 Grafikprozessor, der im fortschrittlichen 4-nm-Prozess gefertigt wird. Dieser Chip umfasst rund 31,1 Milliarden Transistoren und erstreckt sich über eine Fläche von 263 mm², was ihn deutlich kompakter als den GB202 der High-End-Modelle macht. Trotz der moderaten Größe bietet der Chip eine hohe Effizienz und Leistungsfähigkeit, die durch eine optimierte Shader-Architektur, neue Cache-Strukturen und eine gesteigerte RT- sowie Tensor-Leistung erreicht wird.
Im Inneren des GB205-Prozessors sind insgesamt 6.144 CUDA-Kerne organisiert, die sich auf mehrere Graphics Processing Cluster (GPCs) verteilen. Jeder dieser GPCs beinhaltet mehrere Texture Processing Clusters (TPCs), die wiederum aus Streaming Multiprocessors (SMs) bestehen. Die SMs stellen die grundlegende Recheneinheit der GPU dar und enthalten neben den klassischen FP32- und INT32-Kernen auch spezialisierte Hardware für Raytracing und KI-Berechnungen. NVIDIA setzt bei der Blackwell-Architektur auf die vierte Generation der RT-Kerne und die fünfte Generation der Tensor-Kerne, was sowohl die Raytracing-Leistung als auch die KI-gestützte Bildverbesserung erheblich beschleunigen soll.
Eine entscheidende Neuerung ist die verbesserte Cache-Hierarchie. Der GB205-Chip verfügt über einen 48 MB großen L2-Cache, der die Speicherzugriffe optimiert und die effektive Bandbreite des Grafikspeichers erhöht. Dies ist besonders relevant, da die Geforce RTX 5070 mit einem 192-Bit-Speicherinterface ausgestattet ist, das zwar mit 12 GB GDDR7-Speicher arbeitet, jedoch im Vergleich zu High-End-Karten mit breiteren Interfaces weniger Rohbandbreite bietet. Dank einer hohen Speichertaktung von 28 Gbps erreicht die GPU dennoch eine durchaus respektable Speicherbandbreite von 672 GB/s, was in Kombination mit dem großen L2-Cache Engpässe minimieren soll.
Die Taktraten des Chips sind auf hohe Effizienz ausgelegt. Der Basistakt liegt bei 2.160 MHz, während im Boost-Modus bis zu 2.510 MHz erreicht werden können. Trotz dieser hohen Frequenzen bleibt die angepeilte Leistungsaufnahme mit 250 Watt im moderaten Bereich, was durch eine optimierte Spannungsversorgung und energieeffiziente Rechenwerke ermöglicht wird.
Ein weiteres wesentliches Merkmal der RTX 5070 ist die Unterstützung moderner Display-Technologien. Die GPU ist mit drei DisplayPort-2.1- sowie einem HDMI-2.1b-Anschluss ausgestattet und erlaubt Auflösungen bis 8K bei 165 Hz mit Display Stream Compression (DSC) oder 4K mit 480 Hz. Diese Features sind besonders für Nutzer relevant, die hochauflösende Monitore oder VR-Headsets mit hoher Bildrate nutzen möchten.
Die Karte wiegt reichlich 1.1 Kilo (1102 Gramm) und die Abmessungen betragen 243 mm in der Länge (Einbaulänge mit Slot), 105 mm in der Höhe (ab Oberkante Slot) und 35 mm in der Einbautiefe (zuzüglich 5 mm an der Backplate). Für den Anschluss externer Geräte stehen ein HDMI-2.1b-Port und drei DisplayPort-2.1b-Schnittstellen zur Verfügung, während die Karte über die PCIe-5.0-x16-Schnittstelle in das System integriert wird.
Der GPU-Z Screen zeigt die restlichen Eckdaten der heute getesteten Karte:
Ich spare mir an dieser Stelle noch weiterführende Architektur-Beschreibungen und verweise auf diesbezüglich auf meinen sehr ausführlichen Launchartikel zur GeForce RTX 5090 sowie meine Einschätzung zu Rasterleistung und notwendigen Paradigmenwechseln bei der Grafikkartenentwicklung:
- 1 - Einführung und Details zur Blackwell GB205-300 GPU
- 2 - Testsystem und Equipment
- 3 - Gaming: Full-HD 1920x1080 Pixels (Rasterization Only)
- 4 - Gaming: WQHD 2560x1440 Pixels (Rasterization Only)
- 5 - Gaming: Ultra-HD 3840x2160 Pixels (Rasterization Only)
- 6 - Gaming: WQHD 2560x1440 Pixels, Supersampling, RT & FG
- 7 - Gaming: Ultra-HD 3840x2160 Pixels, Supersampling, RT & FG
- 8 - DLSS4 und MFG: Cyberpunk 2077 im Detail
- 9 - DLSS4 und MFG: Alan Wake 2 im Detail
- 10 - PCIe 5 Probleme, Leistungsaufnahme in Theorie und Praxis
- 11 - Lastspitzen nativ vs. DLSS4, Netzteilempfehlung
- 12 - Kühler, Temperaturen, Thermografie, Geräuschentwicklung
- 13 - Zusammenfassung und Fazit
41 Antworten
Kommentar
Lade neue Kommentare
Veteran
Mitglied
Urgestein
Veteran
Veteran
Veteran
Veteran
Mitglied
Urgestein
Neuling
Veteran
Urgestein
Urgestein
Urgestein
Urgestein
Urgestein
Urgestein
Urgestein
Urgestein
Alle Kommentare lesen unter igor´sLAB Community →