AI/KI Gaming Grafikkarten Testberichte VGA

NVIDIA GeForce RTX 5070 Founders Edition im Test – Wenn am Ende die KI auf der Ziellinie aushelfen muss

Ja, was haben wir denn da? NVIDIA hat jetzt mit der GeForce RTX 5070 FE eine neue Grafikkarte auf den Markt gebracht, die mich in vielerlei Hinsicht etwas ratlos zurücklässt. Das stelle ich jetzt bewusst voran, denn man muss den heutigen Test schon aufmerksam lesen und sich auch auf die Feinheiten einlassen, die ich diesmal allerdings optisch sichtbarer herausstellen werde. Nein, ich werde sicher keinen Rant schreiben, auch wenn man sich schon fragen muss, was NVIDIA mit dieser Karte bezweckt und wo genau die Zielgruppe liegt.

Wichtige Vorbemerkungen und ein Paradigmenwechsel

Die kontinuierliche Steigerung der Rasterleistung war über Jahrzehnte hinweg der zentrale Treiber für Fortschritte in der Grafikhardware. Moderne Architekturverbesserungen, höhere Speicherbandbreiten und effizientere Fertigungsprozesse ermöglichten es, die Leistung von GPUs stetig zu erhöhen. Doch mittlerweile scheint dieser Pfad an physikalische und wirtschaftliche Grenzen zu stoßen, zumindest hatte ich bei der GeForce RTX 5070 genau diesen Eindruck. Denn trotz neuer Architektur und minimal gesteigerter Effizienz erreicht sie in klassischen Rastergrafik-Berechnungen kaum höhere Leistung als ihre direkte Vorgängerin, die RTX 4070 Super, das will ich schon einmal spoilern, um auch die Überschrift zu erklären.

Der Hauptgrund dafür ist, dass sich die Skalierung der Rechenwerke nicht mehr im gleichen Maßstab fortsetzen lässt wie in der Vergangenheit. Der sprunghafte Zugewinn an Leistung durch einfaches Hinzufügen von mehr Shader-Einheiten oder durch eine höhere Taktfrequenz wird zunehmend ineffizient. NVIDIA und andere Hersteller setzen deshalb verstärkt auf alternative Technologien, insbesondere auf künstliche Intelligenz. Features wie DLSS (Deep Learning Super Sampling) oder KI-gestützte Bild- und Physikberechnungen sollen die wahrgenommene Performance steigern, ohne dass die Rohleistung der GPU signifikant wachsen muss. Die GeForce RTX 5070 profitiert hauptsächlich von solchen neuen KI-Funktionen, aber ob diese Strategie ausreicht, um den Markt zu überzeugen, bleibt erst einmal offen.

Ein möglicher Stolperstein ist natürlich die breite Akzeptanz solcher Technologien. Während KI-gestützte Upscaling-Methoden wie DLSS in vielen Szenarien bereits überzeugen, bleibt die Frage, inwieweit Nutzer bereit sind, auf klassische Rendering-Methoden zu verzichten. Zudem hängt der Erfolg maßgeblich von der Software-Unterstützung ab. Falls Entwickler und Spieler den subjektiven Mehrwert von KI-Funktionen nicht als ausreichenden Fortschritt wahrnehmen, könnte die RTX 5070 trotz technischer Neuerungen als weniger attraktiv erscheinen als erwartet. Dazu kommt auch, dass die 32-bit CUDA-Bibliotheken nicht mehr unterstützt werden und PhysX in älteren Spielen zu einem prominenten Opfer wird. Warum NVIDIA hier keinen Wrapper implementiert, entzieht sich jedoch meinem Verständnis.

Letztlich zeigt sich an dieser Entwicklung ein Paradigmenwechsel: Die reine Hardware-Leistungssteigerung wird zunehmend durch algorithmische Optimierung ersetzt. Die nächsten Jahre werden zeigen, ob dieser Ansatz ausreicht, um die hohen Erwartungen an neue GPU-Generationen zu erfüllen. AMD sieht das mittlerweile ja ähnlich, das nur mal zur Erinnerung. Und damit zurück zur Karte.

Die unverbindliche Preisempfehlung (UVP) für die NVIDIA GeForce RTX 5070 liegt in Deutschland bei 649 Euro. Doch an wen richtet sich die Karte damit eigentlich? Ich sehe sie im Bereich der Full-HD und maximal noch WQHD-Auflösungen, denn die 12 GB Grafikspeicher der GeForce RTX 5070 könnten in modernen Spielen, insbesondere in Ultra-HD-Auflösung (3840 × 2160 Pixel), zunehmend zum Engpass werden. Ein besonders prägnantes Beispiel dafür ist The Last of Us Part I auf dem PC. Dieses Spiel ist bekannt für seinen hohen VRAM-Bedarf, insbesondere bei maximalen Texturdetails und in hohen Auflösungen. Bereits auf einer RTX 4070 Super mit 12 GB VRAM zeigt sich, dass das Spiel in Ultra-HD regelmäßig an die Speichergrenze stößt. Dies führt nicht nur zu möglichen Leistungseinbrüchen, sondern auch zu sichtbarem Qualitätsverlust der Darstellung, wenn der Treiber anfängt zu tricksen. Und dann muss man sich ab morgen ja auch noch mit der Radeon RX 9070 messen lassen, die sehr ähnlich eingepreist wurde und zudem auch in Stückzahlen verfügbar sein soll.

Die RTX 5070 bringt zwar eine neue Architektur mit sich, die Effizienzgewinne bieten kann, doch die Speichergröße selbst bleibt unverändert. Angesichts der steigenden VRAM-Anforderungen vieler neuer Titel – nicht nur The Last of Us Part I, sondern auch Spiele wie Hogwarts Legacy oder Alan Wake 2 – könnte dies die Zukunftssicherheit der Karte in Frage stellen. NVIDIA argumentiert oft, dass moderne Speicherkompressionstechniken und KI-gestütztes Upscaling (wie DLSS) helfen können, den Speicherbedarf zu reduzieren. Doch in der Praxis zeigt sich, dass diese Maßnahmen die Problematik nicht vollständig eliminieren. Besonders für Nutzer, die in nativem Ultra-HD ohne größere Kompromisse spielen wollen, dürfte die GeForce RTX 5070 daher nicht die beste Wahl sein, wenn alternative Modelle mit 16 GB oder mehr Speicher verfügbar sind. Das schränkt die Zielgruppe natürlich etwas ein. Einigen wir uns also auf maximal WQHD oder ordentlich KI-Unterstützung beim Supersampling, ok?

Ich muss leider auch noch voranstellen, dass ich die Karte diesmal mit einer Zwangsumstellung auf PCIe 4 betrieben habe, da ich neben sporadischen Boot-Loops auch Blackscreens verzeichnen musste, die einem das exakte Benchmarken reichlich schwer gemacht haben. Runterschalten der PCIe-Generation auf 4 ging natürlich, aber es ist ein reiner Workaround, der das eigentliche Problem der Founders Edition nicht behebt. Allerdings gehe ich davon aus, dass die Karte in der Summe eh nicht schnell genug ist, damit man diesen Nachteil in den Ergebnissen auch merkt.

 

Ich erwähnte es ja bereits, dass NVIDIA bei der RTX 5070 den Fokus weniger auf eine drastische Erhöhung der Rasterleistung gelegt hat, sondern stattdessen durch architektonische Verbesserungen, größere Cache-Strukturen und optimierte KI-Funktionen eine effizientere GPU geschaffen hat. Dies spiegelt sich auch in der Unterstützung von DLSS 4 wider, das in Kombination mit den verbesserten Tensor-Kernen eine noch realistischere Darstellung ermöglichen soll. Die Blackwell-Architektur bringt somit erhebliche Fortschritte in der Art und Weise, wie Rendering und Bildverbesserung miteinander verknüpft werden, auch wenn die reine Rohleistung in klassischen Rastergrafik-Anwendungen nicht über das hinausgeht, was bereits mit der vorherigen Generation möglich war.

Die GB205-300 GPU im Detail

Die GeForce RTX 5070 basiert auf NVIDIAs neuer Blackwell-Architektur und nutzt den GB205-300 Grafikprozessor, der im fortschrittlichen 4-nm-Prozess gefertigt wird. Dieser Chip umfasst rund 31,1 Milliarden Transistoren und erstreckt sich über eine Fläche von 263 mm², was ihn deutlich kompakter als den GB202 der High-End-Modelle macht. Trotz der moderaten Größe bietet der Chip eine hohe Effizienz und Leistungsfähigkeit, die durch eine optimierte Shader-Architektur, neue Cache-Strukturen und eine gesteigerte RT- sowie Tensor-Leistung erreicht wird.

Im Inneren des GB205-Prozessors sind insgesamt 6.144 CUDA-Kerne organisiert, die sich auf mehrere Graphics Processing Cluster (GPCs) verteilen. Jeder dieser GPCs beinhaltet mehrere Texture Processing Clusters (TPCs), die wiederum aus Streaming Multiprocessors (SMs) bestehen. Die SMs stellen die grundlegende Recheneinheit der GPU dar und enthalten neben den klassischen FP32- und INT32-Kernen auch spezialisierte Hardware für Raytracing und KI-Berechnungen. NVIDIA setzt bei der Blackwell-Architektur auf die vierte Generation der RT-Kerne und die fünfte Generation der Tensor-Kerne, was sowohl die Raytracing-Leistung als auch die KI-gestützte Bildverbesserung erheblich beschleunigen soll.

Eine entscheidende Neuerung ist die verbesserte Cache-Hierarchie. Der GB205-Chip verfügt über einen 48 MB großen L2-Cache, der die Speicherzugriffe optimiert und die effektive Bandbreite des Grafikspeichers erhöht. Dies ist besonders relevant, da die Geforce RTX 5070 mit einem 192-Bit-Speicherinterface ausgestattet ist, das zwar mit 12 GB GDDR7-Speicher arbeitet, jedoch im Vergleich zu High-End-Karten mit breiteren Interfaces weniger Rohbandbreite bietet. Dank einer hohen Speichertaktung von 28 Gbps erreicht die GPU dennoch eine durchaus respektable Speicherbandbreite von 672 GB/s, was in Kombination mit dem großen L2-Cache Engpässe minimieren soll.

Die Taktraten des Chips sind auf hohe Effizienz ausgelegt. Der Basistakt liegt bei 2.160 MHz, während im Boost-Modus bis zu 2.510 MHz erreicht werden können. Trotz dieser hohen Frequenzen bleibt die angepeilte Leistungsaufnahme mit 250 Watt im moderaten Bereich, was durch eine optimierte Spannungsversorgung und energieeffiziente Rechenwerke ermöglicht wird.  

Ein weiteres wesentliches Merkmal der RTX 5070 ist die Unterstützung moderner Display-Technologien. Die GPU ist mit drei DisplayPort-2.1- sowie einem HDMI-2.1b-Anschluss ausgestattet und erlaubt Auflösungen bis 8K bei 165 Hz mit Display Stream Compression (DSC) oder 4K mit 480 Hz. Diese Features sind besonders für Nutzer relevant, die hochauflösende Monitore oder VR-Headsets mit hoher Bildrate nutzen möchten.

Die Karte wiegt reichlich 1.1 Kilo (1102 Gramm) und die Abmessungen betragen 243 mm in der Länge (Einbaulänge mit Slot), 105 mm in der Höhe (ab Oberkante Slot) und  35 mm in der Einbautiefe (zuzüglich 5 mm an der Backplate). Für den Anschluss externer Geräte stehen ein HDMI-2.1b-Port und drei DisplayPort-2.1b-Schnittstellen zur Verfügung, während die Karte über die PCIe-5.0-x16-Schnittstelle in das System integriert wird.

Der GPU-Z Screen zeigt die restlichen Eckdaten der heute getesteten Karte:

Ich spare mir an dieser Stelle noch weiterführende Architektur-Beschreibungen und verweise auf diesbezüglich auf meinen sehr ausführlichen Launchartikel zur GeForce RTX 5090 sowie meine Einschätzung zu Rasterleistung und notwendigen Paradigmenwechseln bei der Grafikkartenentwicklung:

Kommentar

Lade neue Kommentare

ro///M3o

Veteran

409 Kommentare 299 Likes

Joa, funktioniert schon was sich da nVidia gedacht hat. Ich habe sie durchschaut! Eine schlechte Basis schaffen, um die weitere Preiserhöhung bei der Gen6 zu rechtfertigen. Bei 90% Marktanteil wird das sicher klappen. Schlimme Finger!!!

Im Ernst, 649€ für das? Instabil (PCI-E5.0), heiß, laut, Speicherkrüppel, zu teuer. Hab ich was vergessen? EDIT: ja hab ich, keine Physx und CUDA32 kommt auch dazu. Laut CB in Raytracing auch ineffizienter als die 4070(s).
Man merkt halt, dass Blackwell nicht für die Gamer entwickelt wurde. Ist nur die Resterampe aus der AI / KI Geschichte. Bei release wird sie trotzdem ausverkauft sein und denke die Preise werden nicht unter 800 bis 900€ anfangen. niVidia ist nämlich grün. "Go" for it, just buy it 🙃

Igor, danke für den wieder super Test. Bitte gerne mehr von deinen eigenen Gedanken :)

Antwort 6 Likes

feris

Mitglied

66 Kommentare 48 Likes

Danke für den ausführlichen Test, gute Arbeit wie immer.
Leider stellt sich bei mir, wenn auch erwartet, kein "haben wollen" ein.
Ist bei mir aber bei der kompletten 5000er Serie der Fall.
12 GB machen die Karte in meinen Augen zu einer Todgeburt. Auch für meine UWQHD Umgebung.
Der Preis ist dafür auch frech. Ich hätte es gern auch leiser, was die Karte über den UVP hinaus teurer machen wird.

Antwort 7 Likes

ipat66

Urgestein

1,593 Kommentare 1,720 Likes

Sidestep mit Stolperfallen :)
Diese Generation ist eine verlorene und einfach viel zu teuer für das Gebotene.

@ Igor : Vielleicht ist die Generation noch interessant für den Produktiv - Bereich ?
Aber für's Gaming ist es schon happig :(
Da freue ich mich auf den Test der 7090XT … :)

Ohne Konkurrenz fehlt uns was.
Danke Igor.

Antwort 4 Likes

SchmoWu

Veteran

113 Kommentare 38 Likes
F
Falcon

Veteran

149 Kommentare 161 Likes

War kein Geld mehr im Entwicklungsbudget für nen vernünftigen Kühler mehr übrig nachdem man den für die 5090 fertig hatte?:ROFLMAO:

Über 40dB und fast 3000U/min sind ein schlechter Scherz für das Geld bei nur 250W. (n)

Antwort 7 Likes

konkretor

Veteran

358 Kommentare 377 Likes

Keine Angst wird trotzdem gekauft, trotz all der Probleme mit den Karten, werden die Leute aus Gewohnheit weiter grün kaufen

Antwort 6 Likes

Dragon of Luck

Veteran

187 Kommentare 153 Likes

AHAAHAAAHAAAHAA :ROFLMAO: - Nope.

Danke für den Test - die 5070Ti ist ja wenigstens noch irgendwo Interessant, wenn auch maßlos überteuert.
Aber die 5070..? 12GB? In 2025?

Antwort 7 Likes

f
fwiener

Mitglied

82 Kommentare 51 Likes

Naja. Hab ich mir schon fast gedacht, daß hier nicht allzu viel zu erwarten ist. Außer dem DLSS4 sehe ich hier keinen Grund, so eine Karte zu kaufen, und das sage ich als RTX 3060-Nutzer, der schon länger aufrüsten möchte. Zumal meine Karte auch schon 12 GB hat. Klar, ich spiele ausschließlich in 1080p (2560x1080), was sie in meinem Fall schon (außer der Speichermenge) zu einem deutlichen Upgrade machen würde, aber da gibt es einfach viel zu viele Haken.

- 12 GB Grafikspeicher, keine Verbesserung (abgesehen von schnellerem Speicher)
- ziemlich laut
- keine Physx Unterstützung mehr bei älteren Titeln ist schon sehr dreist, eine neue Karte sollte mit allem besser klarkommen was älter ist
- und natürlich der hohe Preis.

Nein, also diese Karte hatte ich sowieso nicht im Blick mit ihren 12 GB VRAM. Dann schon eher die 5070 TI. Allerdings ist das alles hier so offenkundig die Verkaufsstrategie von nVidia. KI-Funktionen pushen und hypen, als eine Art der Zukunftssicherheit. Aber dann gleichzeitig den VRAM schön niedrig halten damit man schon fast dazu gedrängt wird, das nächsthöhere Modell zu kaufen, was dann aber auch nicht mehr allzu weit entfernt ist vom noch höheren (welches dann wiederum "nur" 16GB bietet und nur halb so schnell ist wie das Spitzenmodell). DIe Stückzahlen extrem niedrig halten, damit die Karten ein absolutes Luxusgut und damit teuer gehandelt werden. Verfügbarkeit runter, Angebot und Nachfrage regeln dann schon den Preis (obwohl man ja im Vergleich so "soziale" UVP deklariert).

Für Unerfahrere sieht das nach extrem begehrten Karten aus die immer nur ganz kurz vorrätig sind, und Ungeduldige und Leute mit genug (angespartem) Geld kaufen sich einfach eine, Scalper können schnellen Reibach machen, so spielt man Poker im Spielcasino Grafikkartenmarkt. Komme mir hier echt verarscht vor. Die 50er-Generation sehe ich nur als temporäre Lösung an, ohne echten Mehrwert. Da fehlt einfach zu viel und der Preis geht überhaupt nicht. Aber ist schon clever durchdacht, das muß man denen lassen. Ziemlich abgebrüht und dreist. Und ein klares Zeichen dafür, daß KI klar im Vordergrund steht, besonders in der Produktion, was die Verfügbarkeit der Einheiten erklärt. Gaming ist nur noch eine Randnotiz ohne jede Priorität. Naja, so hat das auch was Positives - dann kommen ja vielleicht die Roboter, die uns morgens den Kaffee ans Bett bringen und dann für uns zur Arbeit fahren, etwas früher als gedacht.

Umso mehr richte ich den Blick auf die 9070XT.

Antwort 3 Likes

Klicke zum Ausklappem
Widukind

Urgestein

614 Kommentare 282 Likes

Ich glaube eher die ganz unwissenden kaufen einfach Nvidia. Bei unserem Sohn in der Klasse haben die meisten einen PC mit RTX 3050, 3060 oder 4060. 🥳🥳:unsure::LOL:

Alle, die sich auch nur ein wenig informieren, werden in Ruhe abwägen. Gerade in Internetforen wird eher zu AMD geraten. Erst über 1000€ Budget gibt es ja ausschließlich Nvidia.

Verstehe aber die allgemeine Aufregung nicht. Im Motor-Talk-Forum beschweren sich die Honda-Fahrer ja auch nicht über das Kaufverhalten der Skoda-Fahrer.

Die 3060 ist in einer Liga mit der RX6600. Da kann man keine Wunder erwarten. Die 12GB bringen außer in Bildbearbeitungsprogrammen auch leider nichts, da der GPU-Chip zu lahm ist. Trotzdem sollte man damit in 1920x1080 in hohen (wenn auch nicht ultra oder epischen) Einstellungen spielen können.
2560x1080 verlangt schon wieder etwas mehr Leistung. 33% mehr Pixel.

Du bräuchtest für ein Ultra-Setting in 1080p schon eine RX6800 oder RTX3070. Für 2560x1080 bei dem einen oder anderen Top-Titel fast noch höher.

Der Preis der 3060 ist genau so wie jener der RX6600. Um die 200€ damals. Werden die noch verkauft aktuell?

Die Lautstärke hat ja nichts mit AMD oder Nvidia zu tun, sondern hängt vom Design des Grafikkartenhersteller ab. Meine Erfahrung mit diversen AMD- und Nvidia-Karten sagt, dass man alle Karten irgendwo erträglich leise bekommt mit ein wenig rumprobieren an den Settings.

Antwort 1 Like

Klicke zum Ausklappem
T
Troduss

Neuling

5 Kommentare 1 Likes

Ich muss ehrlich sagen, ich bin ganz schön hin und her gerissen. Einerseits bin ich noch zufrieden mit meiner 2080ti, andererseits will ich mir jedoch schon seit Jahren eine neue zulegen, was aber eher mit dem HDMI Standard der betagten Karte zu tun hat.
Ich habe meinen PC schon seit fast 20 Jahren nicht mehr am Monitor, sondern am TV angeschlossen und spiele selbst jetzt noch fast alles in 4k Auflösung. Allmählig muss ich aber langsam einschneidendere Kompromisse eingehen, was die Bildqualität betrifft.
Aufgrund der Tatsache, dass die 2080ti kein 4k in mehr als 60 Hz an den TV liefern kann, war das mit der Framerate Jagt niemals ein Thema für mich. Die 5070 hat mich sehr interessiert und das mit den Temperaturen wäre für mich nicht weiter von Belang, da hier so oder so eine Wakü drauf montiert werden würde.
Die anderen Karten kommen für mich aufgrund des Preises eigentlich nicht mehr in Frage, die 2080ti war damals schon (zu) teuer.

Antwort Gefällt mir

Dragon of Luck

Veteran

187 Kommentare 153 Likes

Ab und zu erwischt man eine 4070Ti Super für etwas über 900 Euro zurzeit.
Bei Alternate oder Computeruniverse gibts immer wieder welche.

Oder halt ne 7900XTX 😁

Antwort 2 Likes

Widukind

Urgestein

614 Kommentare 282 Likes

Bei 4K würde ich auch auf RT verzichten und die 7900XTX (850-950€) nehmen. Mehr Leistung geht kaum.

Mit RT bei 4K wäre es aktuell 5070TI 16GB (ab 1099€). Die 4080(S) ist nicht mehr zu bekommen für einen normalen Preis.

Antwort 2 Likes

T
TheSmart

Urgestein

539 Kommentare 295 Likes

Den Preis würde ich eher bei der TI-Variante sehen.. aber nicht bei der aktuell getesteten Variante.
Denn die Karte ist so wie ise jetzt ist..eine Enttäuschung.. okay man muss sagen bisher war Blackwell alles andere als ein Gamechanger. Vor allem wenn man sich die Preise dafür anschaucht und was man geliefert bekommt.
Ich persönlich würde schon eher eine Radeon karte alleine wegen des größeren VRams-Ausbaus nutzen. Oder mir eine gebrauchte günstige 3080 oder auch 3090 holen.. da hätte ich definitiv mehr von und müsste dennoch weniger bezahlen..deutlich weniger. Vlt auch noch eine 4080, wenn man sie zu tauglichen Preisen bekommt.
Also falls man im grünen Lager bleiben möchte.. ansonsten eher eine gebrauchte Radeon.. da gibts dann wohl noch ein paar Euro mehr zu sparen.

Antwort 2 Likes

grimm

Urgestein

3,497 Kommentare 2,518 Likes

Würde vor der vorgestellten Karte immer zu ner 7800 XT für um die 500€ greifen.
Bei Indiana Jones bist du in WQHD und halbwegs chic schon bei >12GB Speicher-Auslastung.
Die 50er sind ein riesiger Quatsch und ergeben wirklich nur Sinn, wenn man ne 30er oder 20er Karte ersetzen will.

Antwort 2 Likes

T
TheSmart

Urgestein

539 Kommentare 295 Likes

Ja aber auch nur wenn man die Karten 1:1 ersetzen will.
Also 3070 durch eine 5070.
Wenn man schon eine Klasse darüber geht..macht auch eine 5ß70TI wenig Sinn..außer vlt man erwischt ein gutes Smaple und will es durch OC-Parcour jagen.. wo man dann am Ende eine 5080 raus hätte^^
Aber andererseits.. für die TI-Variante sind ja auch nochmal 600 Euro Aufpreis fällig.
Für das Geld kriege ich eine gebrauchte 3090..hmm schwierig.. Gerade geschaut..eine gebrauchte Gigabyte 3090 gibts im Preisvergleich für knapp 1000 Euro mit 24GB Vram^^
Man merkt einfach..das der Gamingbereich für Nvidia ein totes Pferd ist.. da werden nur noch die Gamer gemolken.. Fortschrtitt.. unwichtig^^

Antwort Gefällt mir

Gurdi

Urgestein

1,461 Kommentare 1,018 Likes

Ich machs kurz. An die 5070 verschwendet ab morgen niemand mehr einen Gedanken.

Antwort 6 Likes

T
TheSmart

Urgestein

539 Kommentare 295 Likes

Ach das meintest du mit Donnerstag..
Da kommen dann wohl die Test zu den AMD Grakas raus vermute ich mal.. es könnte also noch ein bisschen spannend werden^^

Antwort 1 Like

Widukind

Urgestein

614 Kommentare 282 Likes

Ne 5070 TI für um die 1000€ wäre schon ok für mich. Der VRAM muss zur GPU passen.

Mehr VRAM bringt ja nicht mehr Performance. Für KI-Anwendungen natürlich klasse, aber ich weiß nicht wozu die 3090 damals 24GB spendiert bekommen hat.

Die 5070 wird es schwierig haben, wenn die 9070 XT im gleichen Preisbereich mehr Leistung abliefert.

Antwort Gefällt mir

Ifalna

Urgestein

587 Kommentare 506 Likes

Erm... du hast ne WaKü (für die man mal eben 1000€+ hinblättert) aber schreckst wegen ein paar Hundert Euro mehr vor zB einer 5070Ti zurück?!

Das ergibt keinen Sinn.

Als ebenfalls 4K TV user: IMHO ist alles unter der 5080 für moderne AAA Titel auf 4K nicht wirklich zu gebrauchen, wenn man da die Qualität hochknüppeln (zB Path Traching) will. Karten mit < 16GB VRAM brauchste da sowieso nicht mehr anschauen.

Wart mal bis zum Sommer, dann sehen wir was der Markt macht. Jetzt sollte man nur kaufen wenn es nicht vermeidbar ist, weil zB etwas abgeraucht ist.

Antwort 6 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung