Artificial Intelligence Gaming GPUs Graphics Reviews

NVIDIA GeForce RTX 5070 Founders Edition Review – When AI has to help out on the finish line

Yes, what have we here? With the GeForce RTX 5070 FE, NVIDIA has now launched a new graphics card on the market that leaves me somewhat perplexed in many respects. I’m deliberately putting this up front, because you have to read today’s review carefully and also get involved in the subtleties, which I will highlight more visually this time. No, I’m certainly not going to write a rant, even if you have to ask yourself what NVIDIA is trying to achieve with this card. Because one thing is clear: the development is already very visibly reaching its physical limits.

Important preliminary remarks and a paradigm shift

The continuous increase in raster performance has been the central driver for advances in graphics hardware for decades. Modern architectural improvements, higher memory bandwidths and more efficient manufacturing processes have made it possible to steadily increase the performance of GPUs. However, this path now seems to have reached its physical and economic limits, at least that’s the impression I got with the GeForce RTX 5070. Despite the new architecture and minimal increase in efficiency, it barely achieves higher performance in classic raster graphics calculations than its direct predecessor, the RTX 4070 Super.

The main reason for this is that the scaling of the computing units can no longer be continued on the same scale as in the past. The sudden increase in performance by simply adding more shader units or by increasing the clock frequency is becoming increasingly inefficient. NVIDIA and other manufacturers are therefore increasingly relying on alternative technologies, especially artificial intelligence. Features such as DLSS (Deep Learning Super Sampling) or AI-supported image and physics calculations are intended to increase the perceived performance without having to significantly increase the raw performance of the GPU. The GeForce RTX 5070 mainly benefits from such new AI functions, but whether this strategy will be enough to convince the market remains to be seen.

One potential stumbling block is, of course, the broad acceptance of such technologies. While AI-supported upscaling methods such as DLSS are already convincing in many scenarios, the question remains to what extent users are prepared to do without traditional rendering methods. Success also depends largely on software support. If developers and gamers do not perceive the subjective added value of AI functions as sufficient progress, the RTX 5070 could appear less attractive than expected despite the technical innovations. In addition, the 32-bit CUDA libraries are no longer supported, making PhysX a prominent victim in older games. Why NVIDIA does not implement a wrapper here, however, is beyond my understanding.

Ultimately, this development shows a paradigm shift: pure hardware performance enhancement is increasingly being replaced by algorithmic optimization. The next few years will show whether this approach is sufficient to meet the high expectations of new GPU generations. And now back to the card.

The recommended retail price (RRP) for the NVIDIA GeForce RTX 5070 in Germany is 600 euros. But who is the card actually aimed at? I see it in the area of Full HD and maximum WQHD resolutions, because the 12 GB graphics memory of the GeForce RTX 5070 could increasingly become a bottleneck in modern games, especially in Ultra HD resolution (3840 × 2160 pixels). A particularly striking example of this is The Last of Us Part I on the PC. This game is known for its high VRAM requirements, especially at maximum texture details and in high resolutions. Even on an RTX 4070 Super with 12 GB VRAM, the game regularly reaches its memory limit in Ultra HD. This not only leads to possible performance drops, but also to a visible loss of display quality when the driver starts to play tricks.

Although the RTX 5070 brings with it a new architecture that can offer efficiency gains, the memory size itself remains unchanged. Given the increasing VRAM requirements of many new titles – not just The Last of Us Part I, but also games like Hogwarts Legacy or Alan Wake 2 – this could call into question the future-proofing of the card. NVIDIA often argues that modern memory compression techniques and AI-supported upscaling (such as DLSS) can help to reduce memory requirements. In practice, however, it has been shown that these measures do not completely eliminate the problem. Especially for users who want to play in native Ultra HD without major compromises, the GeForce RTX 5070 may therefore not be the best choice if alternative models with 16 GB or more memory are available. Of course, this limits the target group somewhat. So let’s agree on a maximum of WQHD or proper AI support for supersampling, shall we?

Unfortunately, I also have to mention that I had to switch the card to PCIe 4 this time, as I had to deal with sporadic boot loops as well as black screens, which made exact benchmarking very difficult. Switching the PCIe generation down to 4 worked of course, but it is a pure workaround that does not solve the actual problem of the Founders Edition. However, I assume that the card is not fast enough for this disadvantage to be noticeable in the results.

 

I already mentioned that NVIDIA has focused less on a drastic increase in raster performance with the RTX 5070, but instead has created a more efficient GPU through architectural improvements, larger cache structures and optimized AI functions. This is also reflected in the support of DLSS 4, which, in combination with the improved Tensor cores, should enable even more realistic rendering. The Blackwell architecture thus brings significant advances in the way rendering and image enhancement are linked, even if the pure raw performance in classic raster graphics applications does not go beyond what was already possible with the previous generation.

The GB205-300 GPU in detail

The GeForce RTX 5070 is based on NVIDIA’s new Blackwell architecture and uses the GB205-300 graphics processor, which is manufactured using the advanced 4 nm process. This chip comprises around 31.1 billion transistors and covers an area of 263 mm², making it significantly more compact than the GB202 of the high-end models. Despite its moderate size, the chip offers high efficiency and performance, which is achieved through an optimized shader architecture, new cache structures and increased RT and tensor performance.

A total of 6,144 CUDA cores are organized inside the GB205 processor, which are distributed across several Graphics Processing Clusters (GPCs). Each of these GPCs contains several Texture Processing Clusters (TPCs), which in turn consist of Streaming Multiprocessors (SMs). The SMs represent the basic computing unit of the GPU and, in addition to the classic FP32 and INT32 cores, also contain specialized hardware for ray tracing and AI calculations. With the Blackwell architecture, NVIDIA relies on the fourth generation of RT cores and the fifth generation of Tensor cores, which should significantly accelerate both ray tracing performance and AI-supported image enhancement.

A key innovation is the improved cache hierarchy. The GB205 chip has a 48 MB L2 cache, which optimizes memory accesses and increases the effective bandwidth of the graphics memory. This is particularly relevant as the Geforce RTX 5070 is equipped with a 192-bit memory interface, which works with 12 GB GDDR7 memory, but offers less raw bandwidth compared to high-end cards with wider interfaces. Thanks to a high memory clock rate of 28 Gbps, the GPU nevertheless achieves a very respectable memory bandwidth of 672 GB/s, which, in combination with the large L2 cache, should minimize bottlenecks.

The chip’s clock rates are designed for high efficiency. The base clock is 2,160 MHz, while up to 2,510 MHz can be achieved in boost mode. Despite these high frequencies, the targeted power consumption of 250 watts remains in the moderate range, which is made possible by an optimized power supply and energy-efficient arithmetic units.

Another key feature of the RTX 5070 is its support for modern display technologies. The GPU is equipped with three DisplayPort 2.1 and one HDMI 2.1b connection and allows resolutions of up to 8K at 165 Hz with Display Stream Compression (DSC) or 4K at 480 Hz. These features are particularly relevant for users who want to use high-resolution monitors or VR headsets with a high frame rate.

The card weighs a good 1.1 kilos (1102 grams) and its dimensions are 243 mm in length (installation length with slot), 105 mm in height (from the top edge of the slot) and 35 mm in installation depth (plus 5 mm on the backplate). An HDMI 2.1b port and three DisplayPort 2.1b interfaces are available for connecting external devices, while the card is integrated into the system via the PCIe 5.0 x16 interface.

The GPU-Z screen shows the remaining key data of the card tested today:

I’ll save myself any further architectural descriptions at this point and refer in this regard to my very detailed launch article on the GeForce RTX 5090 as well as my assessment of raster performance and necessary paradigm shifts in graphics card development:

Kommentar

Lade neue Kommentare

ro///M3o

Veteran

419 Kommentare 304 Likes

Joa, funktioniert schon was sich da nVidia gedacht hat. Ich habe sie durchschaut! Eine schlechte Basis schaffen, um die weitere Preiserhöhung bei der Gen6 zu rechtfertigen. Bei 90% Marktanteil wird das sicher klappen. Schlimme Finger!!!

Im Ernst, 649€ für das? Instabil (PCI-E5.0), heiß, laut, Speicherkrüppel, zu teuer. Hab ich was vergessen? EDIT: ja hab ich, keine Physx und CUDA32 kommt auch dazu. Laut CB in Raytracing auch ineffizienter als die 4070(s).
Man merkt halt, dass Blackwell nicht für die Gamer entwickelt wurde. Ist nur die Resterampe aus der AI / KI Geschichte. Bei release wird sie trotzdem ausverkauft sein und denke die Preise werden nicht unter 800 bis 900€ anfangen. niVidia ist nämlich grün. "Go" for it, just buy it 🙃

Igor, danke für den wieder super Test. Bitte gerne mehr von deinen eigenen Gedanken :)

Antwort 6 Likes

feris

Mitglied

70 Kommentare 54 Likes

Danke für den ausführlichen Test, gute Arbeit wie immer.
Leider stellt sich bei mir, wenn auch erwartet, kein "haben wollen" ein.
Ist bei mir aber bei der kompletten 5000er Serie der Fall.
12 GB machen die Karte in meinen Augen zu einer Todgeburt. Auch für meine UWQHD Umgebung.
Der Preis ist dafür auch frech. Ich hätte es gern auch leiser, was die Karte über den UVP hinaus teurer machen wird.

Antwort 7 Likes

ipat66

Urgestein

1,653 Kommentare 1,808 Likes

Sidestep mit Stolperfallen :)
Diese Generation ist eine verlorene und einfach viel zu teuer für das Gebotene.

@ Igor : Vielleicht ist die Generation noch interessant für den Produktiv - Bereich ?
Aber für's Gaming ist es schon happig :(
Da freue ich mich auf den Test der 7090XT … :)

Ohne Konkurrenz fehlt uns was.
Danke Igor.

Antwort 4 Likes

SchmoWu

Veteran

113 Kommentare 38 Likes
F
Falcon

Veteran

159 Kommentare 169 Likes

War kein Geld mehr im Entwicklungsbudget für nen vernünftigen Kühler mehr übrig nachdem man den für die 5090 fertig hatte?:ROFLMAO:

Über 40dB und fast 3000U/min sind ein schlechter Scherz für das Geld bei nur 250W. (n)

Antwort 7 Likes

konkretor

Veteran

394 Kommentare 417 Likes

Keine Angst wird trotzdem gekauft, trotz all der Probleme mit den Karten, werden die Leute aus Gewohnheit weiter grün kaufen

Antwort 6 Likes

Dragon of Luck

Veteran

215 Kommentare 182 Likes

AHAAHAAAHAAAHAA :ROFLMAO: - Nope.

Danke für den Test - die 5070Ti ist ja wenigstens noch irgendwo Interessant, wenn auch maßlos überteuert.
Aber die 5070..? 12GB? In 2025?

Antwort 7 Likes

f
fwiener

Mitglied

84 Kommentare 52 Likes

Naja. Hab ich mir schon fast gedacht, daß hier nicht allzu viel zu erwarten ist. Außer dem DLSS4 sehe ich hier keinen Grund, so eine Karte zu kaufen, und das sage ich als RTX 3060-Nutzer, der schon länger aufrüsten möchte. Zumal meine Karte auch schon 12 GB hat. Klar, ich spiele ausschließlich in 1080p (2560x1080), was sie in meinem Fall schon (außer der Speichermenge) zu einem deutlichen Upgrade machen würde, aber da gibt es einfach viel zu viele Haken.

- 12 GB Grafikspeicher, keine Verbesserung (abgesehen von schnellerem Speicher)
- ziemlich laut
- keine Physx Unterstützung mehr bei älteren Titeln ist schon sehr dreist, eine neue Karte sollte mit allem besser klarkommen was älter ist
- und natürlich der hohe Preis.

Nein, also diese Karte hatte ich sowieso nicht im Blick mit ihren 12 GB VRAM. Dann schon eher die 5070 TI. Allerdings ist das alles hier so offenkundig die Verkaufsstrategie von nVidia. KI-Funktionen pushen und hypen, als eine Art der Zukunftssicherheit. Aber dann gleichzeitig den VRAM schön niedrig halten damit man schon fast dazu gedrängt wird, das nächsthöhere Modell zu kaufen, was dann aber auch nicht mehr allzu weit entfernt ist vom noch höheren (welches dann wiederum "nur" 16GB bietet und nur halb so schnell ist wie das Spitzenmodell). DIe Stückzahlen extrem niedrig halten, damit die Karten ein absolutes Luxusgut und damit teuer gehandelt werden. Verfügbarkeit runter, Angebot und Nachfrage regeln dann schon den Preis (obwohl man ja im Vergleich so "soziale" UVP deklariert).

Für Unerfahrere sieht das nach extrem begehrten Karten aus die immer nur ganz kurz vorrätig sind, und Ungeduldige und Leute mit genug (angespartem) Geld kaufen sich einfach eine, Scalper können schnellen Reibach machen, so spielt man Poker im Spielcasino Grafikkartenmarkt. Komme mir hier echt verarscht vor. Die 50er-Generation sehe ich nur als temporäre Lösung an, ohne echten Mehrwert. Da fehlt einfach zu viel und der Preis geht überhaupt nicht. Aber ist schon clever durchdacht, das muß man denen lassen. Ziemlich abgebrüht und dreist. Und ein klares Zeichen dafür, daß KI klar im Vordergrund steht, besonders in der Produktion, was die Verfügbarkeit der Einheiten erklärt. Gaming ist nur noch eine Randnotiz ohne jede Priorität. Naja, so hat das auch was Positives - dann kommen ja vielleicht die Roboter, die uns morgens den Kaffee ans Bett bringen und dann für uns zur Arbeit fahren, etwas früher als gedacht.

Umso mehr richte ich den Blick auf die 9070XT.

Antwort 3 Likes

Klicke zum Ausklappem
Widukind

Urgestein

653 Kommentare 310 Likes

Ich glaube eher die ganz unwissenden kaufen einfach Nvidia. Bei unserem Sohn in der Klasse haben die meisten einen PC mit RTX 3050, 3060 oder 4060. 🥳🥳:unsure::LOL:

Alle, die sich auch nur ein wenig informieren, werden in Ruhe abwägen. Gerade in Internetforen wird eher zu AMD geraten. Erst über 1000€ Budget gibt es ja ausschließlich Nvidia.

Verstehe aber die allgemeine Aufregung nicht. Im Motor-Talk-Forum beschweren sich die Honda-Fahrer ja auch nicht über das Kaufverhalten der Skoda-Fahrer.

Die 3060 ist in einer Liga mit der RX6600. Da kann man keine Wunder erwarten. Die 12GB bringen außer in Bildbearbeitungsprogrammen auch leider nichts, da der GPU-Chip zu lahm ist. Trotzdem sollte man damit in 1920x1080 in hohen (wenn auch nicht ultra oder epischen) Einstellungen spielen können.
2560x1080 verlangt schon wieder etwas mehr Leistung. 33% mehr Pixel.

Du bräuchtest für ein Ultra-Setting in 1080p schon eine RX6800 oder RTX3070. Für 2560x1080 bei dem einen oder anderen Top-Titel fast noch höher.

Der Preis der 3060 ist genau so wie jener der RX6600. Um die 200€ damals. Werden die noch verkauft aktuell?

Die Lautstärke hat ja nichts mit AMD oder Nvidia zu tun, sondern hängt vom Design des Grafikkartenhersteller ab. Meine Erfahrung mit diversen AMD- und Nvidia-Karten sagt, dass man alle Karten irgendwo erträglich leise bekommt mit ein wenig rumprobieren an den Settings.

Antwort 1 Like

Klicke zum Ausklappem
T
Troduss

Neuling

5 Kommentare 1 Likes

Ich muss ehrlich sagen, ich bin ganz schön hin und her gerissen. Einerseits bin ich noch zufrieden mit meiner 2080ti, andererseits will ich mir jedoch schon seit Jahren eine neue zulegen, was aber eher mit dem HDMI Standard der betagten Karte zu tun hat.
Ich habe meinen PC schon seit fast 20 Jahren nicht mehr am Monitor, sondern am TV angeschlossen und spiele selbst jetzt noch fast alles in 4k Auflösung. Allmählig muss ich aber langsam einschneidendere Kompromisse eingehen, was die Bildqualität betrifft.
Aufgrund der Tatsache, dass die 2080ti kein 4k in mehr als 60 Hz an den TV liefern kann, war das mit der Framerate Jagt niemals ein Thema für mich. Die 5070 hat mich sehr interessiert und das mit den Temperaturen wäre für mich nicht weiter von Belang, da hier so oder so eine Wakü drauf montiert werden würde.
Die anderen Karten kommen für mich aufgrund des Preises eigentlich nicht mehr in Frage, die 2080ti war damals schon (zu) teuer.

Antwort Gefällt mir

Dragon of Luck

Veteran

215 Kommentare 182 Likes

Ab und zu erwischt man eine 4070Ti Super für etwas über 900 Euro zurzeit.
Bei Alternate oder Computeruniverse gibts immer wieder welche.

Oder halt ne 7900XTX 😁

Antwort 2 Likes

Widukind

Urgestein

653 Kommentare 310 Likes

Bei 4K würde ich auch auf RT verzichten und die 7900XTX (850-950€) nehmen. Mehr Leistung geht kaum.

Mit RT bei 4K wäre es aktuell 5070TI 16GB (ab 1099€). Die 4080(S) ist nicht mehr zu bekommen für einen normalen Preis.

Antwort 2 Likes

T
TheSmart

Urgestein

551 Kommentare 307 Likes

Den Preis würde ich eher bei der TI-Variante sehen.. aber nicht bei der aktuell getesteten Variante.
Denn die Karte ist so wie ise jetzt ist..eine Enttäuschung.. okay man muss sagen bisher war Blackwell alles andere als ein Gamechanger. Vor allem wenn man sich die Preise dafür anschaucht und was man geliefert bekommt.
Ich persönlich würde schon eher eine Radeon karte alleine wegen des größeren VRams-Ausbaus nutzen. Oder mir eine gebrauchte günstige 3080 oder auch 3090 holen.. da hätte ich definitiv mehr von und müsste dennoch weniger bezahlen..deutlich weniger. Vlt auch noch eine 4080, wenn man sie zu tauglichen Preisen bekommt.
Also falls man im grünen Lager bleiben möchte.. ansonsten eher eine gebrauchte Radeon.. da gibts dann wohl noch ein paar Euro mehr zu sparen.

Antwort 2 Likes

grimm

Urgestein

3,572 Kommentare 2,619 Likes

Würde vor der vorgestellten Karte immer zu ner 7800 XT für um die 500€ greifen.
Bei Indiana Jones bist du in WQHD und halbwegs chic schon bei >12GB Speicher-Auslastung.
Die 50er sind ein riesiger Quatsch und ergeben wirklich nur Sinn, wenn man ne 30er oder 20er Karte ersetzen will.

Antwort 2 Likes

T
TheSmart

Urgestein

551 Kommentare 307 Likes

Ja aber auch nur wenn man die Karten 1:1 ersetzen will.
Also 3070 durch eine 5070.
Wenn man schon eine Klasse darüber geht..macht auch eine 5ß70TI wenig Sinn..außer vlt man erwischt ein gutes Smaple und will es durch OC-Parcour jagen.. wo man dann am Ende eine 5080 raus hätte^^
Aber andererseits.. für die TI-Variante sind ja auch nochmal 600 Euro Aufpreis fällig.
Für das Geld kriege ich eine gebrauchte 3090..hmm schwierig.. Gerade geschaut..eine gebrauchte Gigabyte 3090 gibts im Preisvergleich für knapp 1000 Euro mit 24GB Vram^^
Man merkt einfach..das der Gamingbereich für Nvidia ein totes Pferd ist.. da werden nur noch die Gamer gemolken.. Fortschrtitt.. unwichtig^^

Antwort Gefällt mir

Gurdi

Urgestein

1,546 Kommentare 1,108 Likes

Ich machs kurz. An die 5070 verschwendet ab morgen niemand mehr einen Gedanken.

Antwort 6 Likes

T
TheSmart

Urgestein

551 Kommentare 307 Likes

Ach das meintest du mit Donnerstag..
Da kommen dann wohl die Test zu den AMD Grakas raus vermute ich mal.. es könnte also noch ein bisschen spannend werden^^

Antwort 1 Like

Widukind

Urgestein

653 Kommentare 310 Likes

Ne 5070 TI für um die 1000€ wäre schon ok für mich. Der VRAM muss zur GPU passen.

Mehr VRAM bringt ja nicht mehr Performance. Für KI-Anwendungen natürlich klasse, aber ich weiß nicht wozu die 3090 damals 24GB spendiert bekommen hat.

Die 5070 wird es schwierig haben, wenn die 9070 XT im gleichen Preisbereich mehr Leistung abliefert.

Antwort Gefällt mir

Ifalna

Urgestein

656 Kommentare 580 Likes

Erm... du hast ne WaKü (für die man mal eben 1000€+ hinblättert) aber schreckst wegen ein paar Hundert Euro mehr vor zB einer 5070Ti zurück?!

Das ergibt keinen Sinn.

Als ebenfalls 4K TV user: IMHO ist alles unter der 5080 für moderne AAA Titel auf 4K nicht wirklich zu gebrauchen, wenn man da die Qualität hochknüppeln (zB Path Traching) will. Karten mit < 16GB VRAM brauchste da sowieso nicht mehr anschauen.

Wart mal bis zum Sommer, dann sehen wir was der Markt macht. Jetzt sollte man nur kaufen wenn es nicht vermeidbar ist, weil zB etwas abgeraucht ist.

Antwort 6 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung