GPUs Graphics Latest news

Is the NVIDIA GeForce RTX 3090 Ti intended as a learning object for their board partners and upcoming Lovelace or does the PCI SIG even put the brakes on?

Once again: On Hold. This short information from most sources about the GeForce RTX 3090 Ti coincides with the current situation: Date unknown. Of course, it’s no secret that the cards have actually been ready for a long time, but a few details that could be picked up from the various board partners (AIC) are quite spicy. A few weeks ago, in the article “Possible problems with the NVIDIA GeForce RTX 3090 Ti – When the circuit design becomes a tight corset“, I had already considered what the reason for the postponement could be. These thoughts do not seem to have been quite so far-fetched after all.

© igor’sLAB

Or to put it another way, it really has something to do with it. We hear from some sources that the GeForce RTX 3090 Ti, which was promoted by NVIDIA at CES as a top of the range product, was probably rather intended as a playground for AIC to prepare for NVIDIA’s upcoming Lovelace chips including an exorbitant power consumption. And, of course, to gain initial experience for the smooth mass production of such a card. Allegedly it’s also confirmed that the TDP recommendation (Default Power Limit) for the GeForce RTX 3090 Ti is “only” 450 watts, while the maximum (Max Power Limit) is positioned around 15% above that (i.e. just below the 520-watt limit).

And yes, now suddenly the 12VHPWR connector for graphics cards with 600, 450, 300 and 150 watts fits into the picture again, which I already wrote about several times. Funnily enough, the 12-pin connector used on the Founders Edition for the power supply matches exactly the pins of the 12VHPWR connector, except that the other four optional pins S1 to S4 (gray in the picture below) are missing. Thus, the already used connector of the FE cards remains downward compatible for now, let’s call it 12VHPWR Ready, but this applies ONLY to the connector! So you will be able to plug the old connector into the new cards with the 12VHPWR, but not vice versa. This is certainly the reason why NVIDIA has registered with the PG136C a slightly modified PCB with the 12VHPWR connector for the GeForce RTX 3090 Ti 

Exactly here you have to ask why then companies like EVGA (Kingpin) or Galax (HOF) install two of the new 12VHPWR plugs on the designated top models when one could also manage the power of 600 watts. And of course, we now remind you of Asus, who recently had to downgrade the new ASUS ROG THOR Platinum II from 600 to 450 watts on the 12VHPWR connector again. NVIDIA (and Asus) have obviously done the math without the PCI SIG, the standardization organization that is also behind PCI Express 5.0. However, I still have to explain that briefly.

Source: ASUS

The 12 power supply pins, six of which are for the 12 volts and ground each, remain completely identical in shape and pinout to the normal 12-pin connector of the FE cards. However, the 4 smaller ports on the bottom (highlighted in gray in the picture above) are quite tricky. In fact, with the introduction of the 12VHPWR power supply connections, four optional sideband signals are added, three of which are already temporarily assigned to defined features.

The two optional sideband signals, SENSE0 and SENSE1 (S3 and S4 in the table), provide a mechanism for the add-in card to sense the limits of the connector’s initial allowable power and the connector’s maximum allowable power for the cable and power supply. However, currently only SENSE0 is (temporarily) named, while SENSE1 is still completely open. SENSE0 currently defines (only temporarily) the maximum power limit, i.e. the maximum power supported by this cable. If the 4 contacts were simply omitted, any 12-pin connector would also fit, but only up to 450 watts and without the temporary ground pin, which is supposed to define the 600 watts for S3.

Upon inquiry, an interesting picture emerges: The new standard still doesn’t seem to be finalized, so that in the worst case, a complete redefinition of the assignment and pin coding could take place (which is unlikely, but not impossible). But then a ground connection of the S3 already introduced now would lead to technical problems. However, it is also a fact that the up to almost 520 watts currently can’t even be supplied according to standards with only one connector, if it isn’t divided between connector and motherboard slot. Here I go back to an older article where I already explained this and summarize it briefly:

We see a breakdown of the GPU supply voltage into NVVDD (blue) and MSVDD (green), as well as that for the memory in the form of FBVDDQ (red). The generation of the other partial voltages is negligible here for the time being because of their share in the TBP, although not completely uninteresting. If you know how the phases of the voltage converters work, then you also know that the majority is connected to the external PCIe port (Aux). But that’s not all. A certain part also hangs on the PCIe motherboard slot (PEG) and at the latter now the problem starts.

The PEG has already fully exhausted its limit of 5.5 amps (thus 66 watts) on the 12 volt rail in many GeForce RTX 3090s in the 350 watt window and could only be loaded even further by means of a (blatant) norm overrun! Therefore, board partners are forced to modify the existing designs of the GeForce RTX 3090 and shift the load more towards the 12VHPWR connector. But as always, the devil is already in the details, because the complete power supply of such a card is a very fragile and carefully balanced construction. However, if you believe the board partners, this part has been successfully mastered already.

I don’t want to write about the capacitors underneath the GPU and along all the tracks up to the PWM nodes of the voltage converters, because this topic can’t be dismissed either. If 350 or even 450 watts already cause huge stability problems (and that could only be fixed by a driver), what happens at 520 watts? I don’t really want to think about that. But if such cards really make it to the market, I’ll be happy to be convinced of the opposite (or convince myself).

Incidentally, the memory with 21 Gbps is also a shaky candidate, whose stability could be argued about despite the backdrill method, even if NVIDIA’s base design kit allows it and the manufacturers stick to it. Keyword signal integrity. Theory and practice. Thus, the GeForce RTX 3090 Ti not only shows itself as a top model, but also as an object lesson for the board partners and for what is still to come in 2022: NVIDIA’s Lovelace.

 

142 Antworten

Kommentar

Lade neue Kommentare

konkretor

Veteran

311 Kommentare 321 Likes

Bei über 500 Watt brauchst keine Herdplatte mehr. Wie soll so etwas in einem normalen Gehäuse zu kühlen sein? So ein Gehäuse heizt sich ja auf. Verbrenne ich mir die Finger bei längerer Laufzeit?

Sind solche Stecker überhaupt das richtige um solche Ströme durch zu jagen. Wir haben doch jetzt schon Spitzen drin, wo so manches Netzteil streikt.

Ist hier die ATX Spezifikationen/ PCI SIG am Ende? Wenn es um Endverbraucher geht. Muss etwas total neues her?
Im Server Bereich geht der Trend ganz klar Richtung Wasser.

Hier mal nen spannender Artikel wie so etwas aussieht und was es bringt.

Antwort Gefällt mir

Klicke zum Ausklappem
Igor Wallossek

1

10,366 Kommentare 19,236 Likes

Gegenfrage:
Für was brauche ich dann so eine Karte eigentlich? 500 Watt, das sind für mich in 2 Stunden 33 Cent inkl. USt., ergo kosten dann 6 Stunden Zocken einen Euro? Wo kommen wir hier eigentlich noch hin?

Antwort 13 Likes

k
krelog

Veteran

174 Kommentare 53 Likes

Gegenfrage 2 Stunden im Kino kosten dann das 15 bis 20 fache wo kommen wir für 2 Stunden unterhalung noch hin

Aber aufregen bringt nix es gibt die NAchfrage und deshalb wird das produziert und nur weil bei uns der Strom im Vergleich teuer ist trift das ja auf viele andere außerhalb Deutschlands nicht zu

Antwort Gefällt mir

P
Phelan

Veteran

199 Kommentare 176 Likes

Ich betrachte sowas nur noch als technische Machbarkeitsstudie. Mit Technikbegeisterung interessant zu sehen, praktisch aber keine Relevanz mehr.

Speziell im Sommer wäre die Abwärme für mich nicht akzeptabel. Ich merke schon die gesammten 200-250W meines jetzigen PCs .
Im Winter musste eh heizen ... höre ich immer wieder. Ich möchte aber mein PC das ganze Jahr zum Spielen nutzen.
Außerdem fällt der Winter in Zukunft immer öfters komplett aus und die Strompreis kennen nur eine Richtung.
Der aktuelle ist ja bis jetzt auch keiner.

Ich sags mal so , mein aktueller PC hat ein 500W Netzteil, Grafikkarten die damit nicht laufen, kauf ich nicht. Spiele die nur noch auf 250W+ Grafikkarte laufen, kauf ich nicht.

Antwort Gefällt mir

Megaone

Urgestein

1,795 Kommentare 1,701 Likes

In den Grünen Himmel unserer politischen Fachkräfte. Wobei, ohne dir jetzt in irgendeiner Form zu Nahe treten zu wollen, 33 Cent doch schon sehr optimistisch sind.

Mich tröstet der Gedanke, das ich das Problemlos zahlen kann. Meinetwegen auch das Doppelte. Ich hoffe nur, das die, die diese Truppe gewählt haben, es ebenfalls können.

Ansonsten wieder ein Top-Artikel den man so erstmal ( bevor die anderen wieder abgeschrieben haben) nur bei Igor liest.

Antwort 1 Like

ApolloX

Urgestein

1,687 Kommentare 955 Likes

Also wenn ich mit meinem PC bei 0 Grad auf dem Balkon versuche, die beiden Jungs im 68XTer Time Spy Leaderboard vor mir anzugreifen, dann bekomme ich die 500W aufwärts schon noch weggekühlt. Aber klar, ansonsten ist sowas schon gut verrückt.

Aber falls jetzt jemand in 4K mit aktiven RT in hohem FPS spielen will, dann wird das mit meinem 165W Spar-Profil klappen.
Oder VR mit zwei Kanälen. Oder seinen 8K TV endlich Mal in voller Auflösung Nutzen will.
Ich will nicht sagen, dass ich's gut finde, aber der Trend geht ja nach wie vor zu noch mehr Pixeln und die Industrie will was verkaufen.
Und der größte GPU Hersteller will oder braucht halt auch ein Modell, welches einfach schiere Power hat. Privat spricht mich sowas auch nicht mehr an, aber beruflich greif ich gerne zum Maximum - wobei mir die momentan auch zu teuer sind.

Antwort 1 Like

D
Dezor

Veteran

494 Kommentare 216 Likes

500 W? Das ist doch für Intels empfohlenes ≤2,4 kW-Netzteil (https://www.igorslab.de/netzteil-ir...-ressourcen-verschwendung-zur-methode-wird/2/) überhaupt kein Problem. Und wer >> 2000€ für die GPU übrig hat, den interessieren die Stromkosten sowieso nicht.

Nein, mal im Ernst: Wo soll das noch hinführen? Vielleicht wird ja bald die EU hellhörig, Staubsauger sind ja auch schon in der maximalen Leistungsaufnahme begrenzt.

Wieso können die Hersteller nicht mal in Richtung Effizienz gehen und mehr Leistung bei gleicher Leistungsaufnahme anbieten? Auf meinem M1 MacBook Air laufen nur wenige Spiele. Aber ich zocke immer noch WoW und das läuft immerhin knapp halb so schnell wie auf dem Desktop mit Vega 56 und Haswell i5. Der Desktop gönnt sich dabei aber auch ca. 200 W und das MBA ganze ZEHN! (Mehr ist ja auch bei passiver Kühlung im flachen Notebook nicht drin.)

Nein, die Vega ist noch nie besonders effizient gewesen und nein, ARM und x86 sind nicht direkt vergleichbar. Und natürlich ist das MBA als Notebook auf Effizienz getrimmt. Aber dennoch finde ich den Unterschied enorm, die Leistung/Watt ist fast eine Größenordnung besser.

Wenn ich die Vega 56 auf 70% Leistungsaufnahme einstelle, wird sie "nur" rund 10% langsamer und Notebookprozessoren brauchen auch deutlich weniger Leistung als die Desktop Gegenstücke bei nur leicht gesunkener Leistung. Also die Hersteller könnten, wenn sie wollten (oder gezwungen werden würden, Hallo EU ...)

Antwort Gefällt mir

Klicke zum Ausklappem
Lucky Luke

Veteran

421 Kommentare 194 Likes

Unvorstellbar, in welche Richtung sich das alles hier bewegt.
Ich liebe neue Technologien und steh auf Games die eine grandiose Grafik haben.
Allerdings muss man hier mal langsam die Kirche im Dorf lassen und Leistung einer GPU nicht nur in der Effektivität, sondern auch in der Effizienz wieder spiegeln.
Für welchen Anwender soll eine RTX 3090TI mit 500W+ den sein?
Für den Hardcoregamer der 30h+ in der Woche spielt? Das sind zusätzliche monatliche Fixkosten, die ich persönlich nicht zusätzlich haben möchte.

Antwort 2 Likes

Megaone

Urgestein

1,795 Kommentare 1,701 Likes

Also das allerletzte was ich brauche ist die EU. Deren Preis-Leistungsverhältnis kann keine Grafikeinheit toppen.

Aber ernsthaft, ich denke das die Hersteller im Bereich Effizenz machen, was geht. Bei den derzeitigen Strompreisen würde wahrscheinlich selbst ich im Zweifelsfall zu dem Hersteller greifen, der mir diesbezüglich das attraktivere Angebot macht.

Aber wir sehen es doch überall. Leistung kostet Energie. In welchem Rahmen dies mit den bestehenden Techniken optimierbar ist, wird man sehen.

Antwort Gefällt mir

RedF

Urgestein

4,770 Kommentare 2,640 Likes

Bin mal gespannt wie die das unter Luft wegkühlen wollen.
6 Slot Kühler XD

Antwort 3 Likes

O
Ozzy

Veteran

225 Kommentare 137 Likes

Igor, hab ich das richtig verstanden, die Karten liegen schon fertig bei den Herstellern produziert auf Halde und Nvidia sagt, noch nicht ausliefern?
Aus den Gründen, die Du da aufzählst?
Wer zahlt denen das denn?
Oder könnten sie produzieren, weil Design usw. fertig ist, aber die Maschinen laufen noch nicht und man wartet auf das Go von Nvidia?
Dein 1 Euro klingt wie die Kugel Eis vom Trittin, denn es gibt tatsächlich, wenn auch Grundversorgertarif, schon Preise von über 90 Cent die kWh.
Ich konnte es nicht glauben und da wird das ganze noch mit "für flexible Freigeister" beworben, weil "nur" 14 Tage Kündigunsgfrist, Versorger Gütersloh.

BTW die 12 Spannungsversorgungsanschüsse klingen zwar nett bei soviel Power, sind doch aber eher Anschlüsse.

Antwort 1 Like

RX480

Urgestein

1,885 Kommentare 874 Likes

stell Dir einfach ne SuprimeX ohne Backplateprobleme vor, die von der beidseitigen Bestückung kommen

Bei dem großen Chip gibts dort erstmal kein Problem mit der Wärmeübertragungsfläche, .... sofern der 21Gbps-Vram net noch höhere Volt braucht,
sollten die Temps evtl. gar net so kritisch sein. (ausser Igor findet wieder nen kleinen wunden Punkt auf dem PCB)

Wenn der Vram aber nur mit der Brechstange (mehr Volt) hochgetaktet wird, dann isses weniger schön.
Würde mich soundso mal interessieren wie Vram@>100°C so altert. (rein subjektiv, würde ich keine 3090 gebraucht kaufen)

Antwort 3 Likes

Megaone

Urgestein

1,795 Kommentare 1,701 Likes

Passt doch. Du bist flexibel und frei in der Entscheidung, wo du einparen willst, um diesen Irrsinn noch zu zahlen.

Was allerdings positiv ist, um mal beim Thema zu bleiben, seit Einbau der 3090 brauche im im Büro keine Heizung mehr. Wirkt die 2080S im Wohnzimmer beim zocken schon unterstützend, kann ich mir die Heizung im Büro komplett sparen.

Allerdings haben wir ja nicht das ganze Jahr Winter.

Antwort 1 Like

grimm

Urgestein

3,128 Kommentare 2,057 Likes

Du glaubst doch wohl selbst nicht, dass die Energiekosten bei Schwarz-XY runtergehen würden? Die sind in den letzten 16 Jahren schon um 120% gestiegen und daran wird sich erstmal nix ändern. Dem muss man mit Effizienzsteigerungen begegnen. Man kann von E-Mobilität halten, was man will, aber der Wirkungsgrad eines E-Motors ggüber einem Verbrenner ist um den Faktor 100 besser.

Aber zurück zum Thema: Ich brauche dann zwei Gehäuse - eins für meinen Rechner und da hänge ich via USB-C die Grafikkarten-(Kühl-)Box dran? Das wird nicht passieren. Leistungssteigerung hin oder her. @Igor Wallossek Sind wir denn sicher, dass es dabei um Consumer GPUs geht?

Antwort 1 Like

RX480

Urgestein

1,885 Kommentare 874 Likes

Wer ne 500W-Graka betreibt, fährt sicher auf der Autobahn net nur 120km/h.
>200km/h ist E-auto totaler Schmarrn "ohne" brauchbare Reichweite, wo ein Diesel nur müde lächelt
(und wenn man Schnellladekosten an der Autobahntanke sieht, dann ..., von der vertanenen Zeit ganz zu schweigen)

Antwort Gefällt mir

P
Pokerclock

Veteran

474 Kommentare 404 Likes

Das Käuferklientel dieser Grafikkarten interessiert sich nicht für Energieeffizienz. Wer damit arbeitet, möchte gerne möglichst schnell seine Ergebnisse berechnet bekommen. Den erzielten Umsätzen stehen die vergleichsweise niedrigen Anschaffungskosten gegenüber. Das bisschen Strom sind die berühmt berüchtigten Peanuts. Da geht es schon eher darum bei der Preisklasse mehr Richtung Quadro zu tendieren. Mehr VRAM, mehr Sicherheit dank ECC, für wenige hundert Euro mehr. Was denen aber überhaupt nicht gefallen wird, sind Unsicherheiten während des Betriebs wegen einem mangelnden PCB-Designs. Da geht dann wirklich die Post ab, wenn die Karten nur Müll ausgeben oder auch gleich gar nichts, weil das Ding ständig abstürzt. Ich für meinen Teil werde einen großen Bogen um alle 3090 Ti machen. Dann kaufe und vermiete ich lieber die Quadros oder eben die "alten" vorhandenen 3090er. Hauptsache Kunde (und am Ende eben auch ich) hat damit keinen Ärger.

Und dann gibt es noch diejenigen mit zu viel Geld. Denen ist das ohnehin alles egal.

Antwort 3 Likes

i
immo2020

Neuling

7 Kommentare 1 Likes

die Einhörner gehen doch eh alle zu den Miner

Antwort 1 Like

O
Ozzy

Veteran

225 Kommentare 137 Likes

Ist auch bei der 6900er so, ich habs da immer kuschlig warm, im Sommer aber zu warm, das nervt dann.

Antwort 1 Like

grimm

Urgestein

3,128 Kommentare 2,057 Likes

Wenn die Karten für den Produktiveinsatz gedacht sind, dann ist das ein Stück weit nachvollziehbar. Wenn es aber um 25% Leistungssteigerung für +100/150 Watt geht in einem Gaming-Rig, dann ist das einfach Mist.
Ist auch nur Spekulatius, aber ganz ehrlich: Wenn ich mir ne 3090 Ti hier hinstelle und die unter Wasser bis zur Kotzgrenze übertakte, dann zahl ich auch 3.000+ EUR, verballer ebenfalls 500 Watt und hab wahrscheinlich die gewünschten 20% Mehrleistung. Wo ist der Deal bei "Lovelace"?!

Fun Fact: Linda Lovelace war übrigens der Name der Hauptdarstellerin im Erotik-Klassiker "Deepthroat" - die hat den Hals auch nicht vollgekriegt ;)

Antwort 8 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung