GPUs Graphics Latest news

GeForce RTX 4070 brought to the price point: When the compulsion of the MSRP defeats reason

Actually, I wanted to digest yesterday’s launch of the GeForce RTX 4070 and the associated additional load first and then dive into the individual reviews of the various cards, but there are really things that make you think in the concentrated power. The normal Reviewer will probably not see it for lack of sensitization for technical carelessness and the customer of course not at all (how also), only I have noticed things in the last days with all “MSRP cards” present here, which one does not have to accept so actually.

The fact that NVIDIA tries to counteract the current price spiral at least a bit by more or less directly advising every manufacturer to also offer products at the RRP is quite commendable. However, the problem is elegantly shifted to the board partner (AIC) and you can sit back and relax because you have a certain price advantage with the Founders Edition by using your own chips. And the AIC then starts searching for the last penny to save, which leads to quite strange restrictions in places.

You can rant about the board partners all you want, but I’ll let you in on a secret about these MSRP cards: they yield almost no margin, and in the aggregate, with all the other costs, up to and including support and RMA, even mean a certain unpredictability. These prices are yes FOB (“Free on Board”), which means nothing else, it is the responsibility of the importer or distributor to find and pay a freight forwarder to handle the shipment first, however, these local costs in the country of origin China, Hong Kong or Taiwan (i.e. all services related to transportation until the shipment is fully loaded) will then be charged directly back to the AIC. And that costs a lot.

I’ll put it this way: I wouldn’t buy such a cheap card privately, because the price almost prevents a solid implementation. A Founders Edition, on the other hand, would be possible, but NVIDIA hasn’t to pay for the bundle of chip and RAM. Self-sufficiency FTW. This is not to say that the cards don’t work, of course they do, but it almost always just seems cheap and uncharitably implemented. At 300 or 400 Euros I certainly wouldn’t have written this article today either, but for around 660 Euros I don’t want a rickety plastic bomber with a license to sizzle, but a solid solution. Why I’m so annoyed is actually listed quickly, except I have to start with the source of my complaints. And one more thing: I’m not naming any manufacturer names and products for now, but am actively clarifying the issues with the respective developers right now. But you can see just as well where the shoe pinches.

Starting point: Voltage transformers and the Founders Edition

Both the Founders Edition and most board partner cards only use 6 phases, thus also only 6 voltage converters for the GPU voltage (NVVDD). By the way, according to the reference board, up to 10 would be possible. That in turn would require a much more expensive PWM controller, which is why they reduced the number significantly. The 200 watts on just 6 phases can certainly be done, but if we look at both the FE and the exemplary board partner card (pictured below), we see a somewhat ludicrous distribution. Three of the DrMOS (VRM) are individually scattered (giving per se lower hotspots) and three are in a block together. I have highlighted this in yellow as a potential source of cooling problems. Another marker concerns the single transducer at the top of the card. But I will come to that later

Let’s now take a look at the result of this “shortage” using the Founders Edition in a simple IR recording after 30 minutes of stress test (picture below) and exactly 200 watts TBP. The hotspot is on the block of 3, the single VRM at the top is still labeled “PCB” here.

Let’s now take a look at the Founders Edition cooler. We can see that both the vertically arranged voltage converters and the one single one are thermally connected to the cooler frame by means of a pad (purple frame). The two voltage converters for the memory are marked in green and are also actively cooled. But what is actually even more important: A total of 10 screws (including the 4 screws for the GPU heatsink) fix the board rigidly to the cooler. Thus, this board can neither bend nor move and the contact pressure of the pads and thus also the contact to the voltage transformers is guaranteed and consistently high.

This is exactly the point where I wrote: Yes, you can definitely do it with 6 transducers. The only thing is that you have to implement it in the right way mechanically. What exactly can (and almost must) go wrong in the process is shown on the next page.

121 Antworten

Kommentar

Lade neue Kommentare

echolot

Urgestein

924 Kommentare 722 Likes

Da bietet sich eien Wakü ja geradzu an.

Antwort Gefällt mir

Llares

Mitglied

70 Kommentare 35 Likes

Für die paar Watt? Eigentlich nicht. Und für den Aufpreis schon mal gar nicht. 120 € dürften da nämlich mindestens werden für den Block. dann lieber die FE oder eine ordentliche Partnerkarte.

Kommt aber für mich aber eh alles nicht in Frage. Die 4070 ist ja kaum schneller als meine 6800, für die ich 500 € bezahlt habe.

Antwort 6 Likes

echolot

Urgestein

924 Kommentare 722 Likes

Eine CPU macht auch max. 200 Watt. Vor zehn Jahren war die Leistung auch nicht höher. Da gab es schon über 10 Jahre GPU-Wakühler. Finde den Kommentar von daher etwas sinnfrei. Oder glaubt hier irgendjemand, dass die Hersteller das Problem lösen werden.

Antwort Gefällt mir

h
hellm

Moderator

612 Kommentare 838 Likes

Das ist mir schon bei der 4070 Ti aufgefallen. Kühler hin oder her, die Elektronik, welche ich für so einen relativ hohen Preis bekomme, das macht alles keinen sehr wertigen Eindruck.
Der Vergleich mit einer GTX 1070 Ti für immerhin 480€, also da waren die Nacktbilder noch sehr ansprechend, die Karte hat auch kaum mehr als 200W verlangt:

Ich will mir nicht derart billige Elektronik für so viel Geld in meinen Rechner setzen. Eigentlich egal für wieviel Geld. Da bekomme ich ja Angst, die Freude über eine neue Karte würde sich dadurch eher ins Negative umkehren. Tut mir leid Nvidia, und AMD, aber so kommen wir nicht mehr zusammen. Da hätte ich mehr Vertrauen in alte Spitzenmodelle der Vorgängergeneration. Wobei ich dann vielleicht irgendwas kaufen würde, das deutlich teurer aber auch langlebiger ist, Hauptsache keine merkwürdigen Spar-Designs mit absoluten Billig-Komponenten. Vielleicht ist das auch der Plan, mich einfach zu nötigen noch mehr Geld auszugeben, damit ich wenigstens halbwegs vernünftige Elektronik für mein Geld bekomme. Grafikkarten machen einfach keinen Spaß mehr in den letzten Jahren.

Antwort 5 Likes

Klicke zum Ausklappem
SchmoWu

Mitglied

91 Kommentare 23 Likes

Danke für den Einblick Igor.

Antwort Gefällt mir

Gregor Kacknoob

Urgestein

524 Kommentare 442 Likes

Erstmal gute Besserung @Igor Wallossek

Ich nehme aus dem Artikel mit, dass die Lebenszeit der Graka(s) voraussichtlich nicht alszu lang sein dürfte. Thermisch auf Kante genäht. OC dürfte das Problem noch verschärfen. Gut zu wissen. Noch ein Kaufkriterium ^^

Antwort Gefällt mir

Chismon

Veteran

131 Kommentare 93 Likes

Und in 2-3 Jahren haengt man dann mit den nVidia RTX 4070(Ti) 12 GB Karten - im Gegensatz zu einer RX 6800(XT) mit 16 GB - wohl wieder im Speicherlimit, wie aktuell schon mit den (Ampere RTX 3060Ti bis 3070Ti) 8 GB nVidia Karten:

Gut, dass es noch Leute wie bspw. JayzTwoCents gibt, die die nVidia Preise fuer das Gebotene noch anders sehen und ankreiden.

Gegen eine RX 6950XT sieht - ausser bei der Effizienz und ein paar unausgereiften Features - eine RTX 4070 fuer den gleichen Preis leider kein Land, wie auch schon von Gamers Nexus trefflich beleuchtet.

So gesehen bleibt zu hoffen, dass AMD/RTG mit der RX 7800XT mit kolportierten 16 GB der Kundschaft (wieder) mittel- bis langfristig mehr (Preis-Leistung) bieten kann als nVidia, nur laesst man sich mit einer Ankuendigung (des Marktstarts) dieser Alternative bei AMD/RTG leider sehr viel Zeit.

Antwort Gefällt mir

Klicke zum Ausklappem
echolot

Urgestein

924 Kommentare 722 Likes

Ich denke mal, da bis dahin Intel noch ein Wörtchen mitzureden hat.

Antwort Gefällt mir

F
Furda

Urgestein

663 Kommentare 370 Likes

Danke für die detaillierte Analyse. Unschön ja. Aber auf Grund des Spoilers im 4070 FE Artikel scheint es keine Probleme weder mit Verlustleistung noch Temperatur zu geben, da alle Karten gleich schnell sein sollen innerhalb der 200W Limite. Kurzfristig zumindest. Langfristig werden die Billigen vielleicht mit Platinenschäden bestraft, bedeutet RMA, bedeutet Kosten. Und der Geiz wird verdient bestraft.

Antwort Gefällt mir

Shakj

Mitglied

17 Kommentare 19 Likes

Mh, wird's besser, wenn man die hinteren Schrauben auch noch alle weglässt? :) Oder zumindest die mittleren zwei, dass der Bug wieder ins Wasser taucht?

Antwort Gefällt mir

Ginmarr

Mitglied

67 Kommentare 25 Likes
C
ChaosKopp

Urgestein

516 Kommentare 534 Likes

Erst mal auch von meiner Seite gute Besserung, auch wenn es bei mir weniger nach Lord Vader klang, sondern ich es ansonsten für simuliertes Spulenfiepen gehalten hätte.

Also kauft man für ne ordentliche Summe eine Lösung, die schneller altern könnte als man selbst, wenn man der Holden die Investition erklären möchte.

Schön, dass NV seine Margen oben hält, aber dass man den Boardpartnern nicht mal die Lätta auf der Stulle gönnt, ist mittelfristig nicht die beste Idee.

Antwort Gefällt mir

big-maec

Urgestein

827 Kommentare 475 Likes

Oh ha ein Wackel Kühler mit Luft nach oben. Für 600 € hat man vor einigen Jahren aber noch was Vernünftiges bekommen.

Antwort Gefällt mir

Llares

Mitglied

70 Kommentare 35 Likes

Was heißt hier sinnfrei? Der Unterschied von einem CPU- zu einem GPU-Wasserkühler liegt im Preis und dem standardisierten Layouts. Eine gute AIO für die CPU bekomme ich für unter 100 €, wenn ich schon einen Kreislauf habe, für 30-50 Euro einen guten CPU-Kühler. Zu dem Preis bekomme ich für eine GPU vielleicht die Backplate.

Antwort Gefällt mir

Hans Yolo

Veteran

120 Kommentare 25 Likes

Ohne wirklich Einblick in die Hintergründe zu haben, aber ich gehe davon aus, dass Nvidia mit der FE ordentlich absahnt, und im gleichen Zug aber extremen Druck auf die Bordpartner steckt ein möglichst billiges Produkt auf dem Markt zu werfen, obwohl es nicht rendiert weder finanziell, ganz zu schweigen vom Image den man sich als Bordpartner aufbaut...
Ich verstehe EVGA, die kein Bock mehr hatte auf diese Geschäftspraktiken und hoffe, dass andere Anbieter hier nachziehen, damit auch Nvidia hier etwas über die Bücher muss wie man mit Partnern umzugehen hat...

Antwort 1 Like

echolot

Urgestein

924 Kommentare 722 Likes

Wo kaufts Du denn ein??? Ich gehe von 150 Euro für einen Custom-Kühler inkl. Backplate aus für die Einbindung in eine Custom-Wakü.

Antwort Gefällt mir

K
Kobichief

Urgestein

671 Kommentare 202 Likes

hab mir ne FE bestellt, mal schauen. Mit der 6700xt asus dual war ich nicht sehr zufrieden. Ich hoffe meine erste Nvidia Karte seit 10 Jahren wird besser :)

Antwort Gefällt mir

Igor Wallossek

1

10,178 Kommentare 18,761 Likes
h
hellm

Moderator

612 Kommentare 838 Likes

Hüstl..

..ansonten gehöre ich übrigens auch zu den Verrückten, die früher schon "nur" 200W mit Wasser behandelt hatten. Meine RX480 hat etwas gepimpt allerdings schon 200W für die GPU alleine verlangt, und Polaris war jetzt auch nicht besonders großflächig, Sinn hat das für mich allerdings gemacht. Bei der oben verlinkten 1070 Ti hatte ich auch einen Wasserkühler drauf, gab es damals reichlich zu kaufen. War natürlich Overkill, aber das hat auch sehr viel Spaß gemacht. Konnte so eine Wasserkühlung ohne viel Radau bei maximalem Boost halten, in jeder Lebenslage.

Da haben wir auch in diesem Artikel genug Einblick erhalten. Wie, und ich habe wieder gelesen es handelt sich um die grüne wie die rote Partei, mit den sog. Boardpartnern umgegangen wird, ist ja niemandem entgangen. EVGA hat gleich komplett das Handtuch geworfen. Das kann für den Kunden keine gute Entwicklung sein. Nicht nur, dass man die Partner immer weiter mit Auflagen gängelt, man sägt auch an deren Marge und überhaupt der Möglichkeit etwas Vernünftiges zum geforderten (!) Preis anzubieten. Keine außergewöhnlichen OC-Designs mehr, welche den Namen wenigstens im Ansatz verdienen würden, und billigste Elektronik mit billigen Kühlern oben drauf, bei den sog. "MSRP-Modellen".
Ich weiß nicht, ob Nvidia und AMD ihre Boardpartner als Feinde begreifen. Und uns Kunden wohl zu einem großen Teil als Idioten, oder man schätzt den Anteil der die Fachpresse (gelobt sei, es gibt sie noch) lesenenden Kunden als zu gering ein, um sich über die paar Enttäuschten Sorgen machen zu müssen. Also man kann es nur als Strategie begreifen, die Boardpartner aus deren Verträgen ekeln zu wollen, sonst ergibt das nicht viel Sinn. Um dann nur noch selbst zu produzieren, Verzeihung, in Auftrag zu geben.

Was soll das sonst sein? Je mehr ich darüber nachdenke, desto mehr könnte ich mich darüber ärgern. Bei Mainboards bekommen wir lange nicht mehr so einen Rotz vorgesetzt, ich habe hier ein B550 Board (also nicht Top-Chipsatz oder sowas) mit absolut kranken, echten 14+2 Phasen mit je 90A. Das ist eigentlich nur noch insane und schon fast zuviel für meinen Enthusiasmus, v.a. für AM4-CPUs, aber nehme ich natürlich gerne mit. Und dann soll ich mir so einen Mist von brennbarer Grafikkarte in meinen Rechner pflanzen? Weil 200W bei Grafikkarten heute eh als Witz bezeichnet werden, und gerade in der Mittelklasse die eigenen Boardpartner bekämpft werden müssen?

Also das Ende der "Boardpartner-Kriege" abwarten, nachdem wir nun diesen Krypto-Schwachsinn endlich ausgestanden hatten. Es ist zum Mäusemelken, zum rein-shice-n. Verzeiht meine Ausdrucksweise, allerdings hilft fluchen manchmal wirklich.

Antwort 10 Likes

Klicke zum Ausklappem

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung