Kühler Brecher statt Fusionsreaktor: die GeForce RTX 3090 Ti stellt mit 300-Watt-Drossel die Effizienzliste auf den Kopf und schlägt die Radeons

wenn der Preis stimmt.
Gelobt sei dein Optimismus. Ich befürchte das der Preis der 4000er Serie erst Ansatzweise in bezahlbare Regionen rückt bei erscheinen der 5000 Serie. Erst ganz langsam kommt ja die 3090 in Preisregionen, die ich im November 2020 gezahlt hab. Und damals war sie schon mindestens 300 Euro zu teuer, aber immerhin hab ich ja schon fast18 Monate damit gezockt. Wer sie heute kauft, kauft ja ein Auslaufmodell. Wobei die Preise im Asus Shop aktuell mit am besten sind.
 
Die Werkseinstellung für die Volt ist halt so, das auch schlechtere Chips noch funktionieren.(die W dann so, das der Takt erreicht wird)
k.A. ob Igor nen guten Chip erwischt hat

bei RDNA2 lässt sich mittlerweile in HWinfo die ASIC-Qualität auslesen
(meine nonXT ist ungefähr auf dem Wert, der für die gebinnten XTXH genutzt wird, ... höher=sparsamer)
Meine Toxic liegt bei 90,1 % 😮
 

Anhänge

  • Bildschirmfoto 2022-04-12 um 09.24.41.png
    Bildschirmfoto 2022-04-12 um 09.24.41.png
    612 KB · Aufrufe : 21
Wow, mega Ergebnis!
Ich glaube die Karte auf 300W eingebremst in Kombination mit dem Ryzen 5700X wäre der effizienteste Gamer PC :)
 
Wie gesagt: mit Framelimiter auf 58FPS Grafik outmaxed in 4K geht die nicht über 250 Watt.
 
Wow, mega Ergebnis!
Ich glaube die Karte auf 300W eingebremst in Kombination mit dem Ryzen 5700X wäre der effizienteste Gamer PC :)
Würde Ich jetzt nicht behaupten,du vergleichst ne Optimierte mit ner nicht Optimierten z.b. RX6900XT..........
R9 5950X ohne SMT mit PPT100Watt und RX6900XT PL 293Watt und lediglich die Spannungskurve Optimiert im Treiber.
Ist natürlich Fraglich was @Igor Wallossek da getestet hat,bei Mir lief der Benchmark.Er hat direkt die CPU und Grafikkarte gemessen.
Ich kann nur Auslesen.
Allein das Netzteil zeigt mir max 522Watt an , ziehe ich die 96Watt Idle ab , lande ich schon bei 426Watt..........
Nehme ich die Daten der Grafikkarte MAX sind es TGP Power 297Watt.
PPT MAX der CPU sind 95Watt,im Benchmark sind es über 20Watt weniger.
Dann komme ich sogar nur auf 392Watt wenn ich MAX + MAX rechne bei 95FPS.
unknown_2022.04.12-14.12.png

Shadow of the Tomb Raider_2022.04.12-14.12.jpg
 
Zuletzt bearbeitet :
Ahhh endlich meine Gebete wurden erhöht.

mein Test bei einem Festen Wattwert und siehe da eine GForce 3090Ti ist ne Karte die was taugt.

schön wäre jetzt noch alle Karten bei 200/300Watt und dann fps und fps / € in Relation setzen gerne auch für uwqhd. Und ich kann meine Karte die Ich brauche einfach in der Tabelle auswählen.
 
Da die Sweet Spots der Karten sehr unterschiedlich sind, wird das schwierig. Die 3090 Ti auf 200 Watt macht Null Sinn. Und es ist für jede Karte eine Heiden-Arbeit, die Kurve richtig stabil hinzubekommen. Und wenn es später dann einer nachbaut und den Zonk im GPU-Lotto hat, bin ich quasi noch in der "Haftung". Echt dünnes Eis ;)
 
Das alleinige Absenken des Power-Limits ist hier witzlos, vor allem bei dieser Karte. Warum man das überhaupt so gemacht hat, keine Ahnung. Man muss sich einfach mal die RTX A6000 ansehen und begreifen, was NV da anders geplant hat. Der Takt muss manuell runter gesetzt werden, sonst spikt sich die Karte zu Tode. Nicht die Spannungen allein sind das Problem, sondern das verhalten des Arbitrators und von Boost. Wenn ich die Spannungen zu sehr absenke, dann schwankt der Takt wie bekloppt und die Karte wird nicht nur instabil, sondern sie läuft auch unrund. Das zu kompensieren schafft man nicht allein mit dem PL, da muss die Kurve wirklich manuell angepasst werden. Das PL ist ein harter Limiter, der alles runterdrückt, egal, ob es dann optimal ist, oder nicht.
Angenommen das TDP Limit greift gerade nicht:
Wie sind denn die Grenzen des Boosts definiert? Takten die Karten dann immer bis zum Maximalwert der Kurve (1.25V) oder sind da maximaler Takt oder Spannung limitiert?
Bzw. was ändert sich wenn man den Takt z.B. um 100MHz senkt?

btw.
Ob der Vram bei der Ti auch im Powerlimit linear skaliert hat ein User vom Luxx in Sup4k untersucht.
(inwiefern dann auch noch schlechtere Timings bei starkem OCen ne Rolle spielen, who knows)

Kann gut sein, das der Vram@OCen dann mehr Watt verbraucht und der "Erfolg" dementsprechend net optimal ist.
(wg. 1 fps die Haltbarkeit zu reduzieren, lohnt sich evtl. net wirklich)
Wenn es der Verbrauch des VRAMs wäre müsste das eher eine Kurve oder Linie sein, nicht so ein Treppeneffekt.

Für mich sieht das eher danach aus als würde die Karte ab einem gewissen Takt die Timings eine Stufe hochschalten. Das könnte zumindest den Treppeneffekt erklären.

Gelobt sei dein Optimismus. Ich befürchte das der Preis der 4000er Serie erst Ansatzweise in bezahlbare Regionen rückt bei erscheinen der 5000 Serie. Erst ganz langsam kommt ja die 3090 in Preisregionen, die ich im November 2020 gezahlt hab. Und damals war sie schon mindestens 300 Euro zu teuer, aber immerhin hab ich ja schon fast18 Monate damit gezockt. Wer sie heute kauft, kauft ja ein Auslaufmodell. Wobei die Preise im Asus Shop aktuell mit am besten sind.
So optimistisch bin ich auch nicht. Um ehrlich zu sein ich plane auch nicht mit dem Topmodell aber ein AD102 Die sollte es schon sein, denn AD103 überzeugt mich nicht wirklich. Aber wenn alle AD102 Dies um die 300-350W nicht vernünftig laufen, dann brauche ich mir die Preisfrage gar nicht zu stellen.
 
Wow, mega Ergebnis!
Ich glaube die Karte auf 300W eingebremst in Kombination mit dem Ryzen 5700X wäre der effizienteste Gamer PC :)
In Sachen Effizienz ist die 6800 King.
280 Watt Gesamtsystem unter voller Last ingame.

Power UV.jpg
 

Anhänge

  • 1649788446133.jpeg
    1649788446133.jpeg
    1,3 MB · Aufrufe : 9
In Sachen Effizienz ist die 6800 King.
280 Watt Gesamtsystem unter voller Last ingame.
und
Wenn man doch mal am 60Hz-Moni ein Fps-Limit/Chill57fps benutzt, .... wirds noch deutlich weniger. (60fps@120Hz geht genauso)
(die Stromsparmechanismen von AMD@RDNA2 greifen ebend sehr gut bis weit hinab; ... meine LD-Kurve ist zusätzlich etwas UVtet)
 

Anhänge

Zuletzt bearbeitet :
Ich würde nur bitten, bei aller Euphorie, auch mal die Varianzen und Perzentile zu beachten. Das war auch einer der Gründe, warum ich die 3090 Ti nicht noch weiter runter geprügelt habe (was nämlich gegangen wäre). Aber ab einer gewissen Stelle wird es nämlich kontraproduktiv. Auch was die Bildqualität betrifft. Und Radeon Chill klappt nur mit einer Handvoll Spielen wirklich brauchbar. Die UV Geschichte klappt mit allen Herstellern gleichermaßen, aber es ist leider auch eine Menge Arbeit und Austesterei. Und bitte auch nicht die Silicon Lottery vergessen. :)

60 Hz sind doch grausam :D
 
Und Radeon Chill klappt nur mit einer Handvoll Spielen wirklich brauchbar.
Warum? Es funktioniert eigentlich überall. Es eignet sich von der Funktion her natürlich am ehsten für Rollenspiele oder Strategiespiele, aber grundsätzlich funzt Chill überall.
60 Hz sind doch grausam
Nur an den meisten TV´s eben der Standard und gerade da hat man am ehsten UHD.

Auch was die Bildqualität betrifft.
Was genau meinst du damit?
 
Mein oller 60Hz-TN-4k-Moni ist mir mit 1ms noch ganz brauchbar.

Das natürlich ein 3090Ti-Käufer auch die paaaaar Cents für nen 120MHz-TV über hat, ist klar,
Nur wird Der net soweit runtertakten wie Igor, ... eher OCen was geht.(meint SH vom Luxx zu seiner Ti)
 

Anhänge

Zuletzt bearbeitet :
Sry, aber ich finde so einen Test ziemlich scheinheilig. Um eine Karte schönzureden, wo es nichts schönzureden gibt. Wie Igor ja selber anmerkt, man kann andere Karten genauso sparsamer betreiben. Wenn man schon die 3090 Ti mit einem Drittel weniger Power Budget betreibt, wo sind dann die Vergleichswerte zu einer 200W 6900 XT oder einer 210-215W 3080? Ich finde es nicht sinnvoll und aussagekräftig, die Energieeffizienz an verschiedenen Punkten auf ihrer Effizienzkurve zu vergleichen. Dadurch entstehen nur Mythen, die mit Fakten wenig zu tun haben.
 
60 Hz sind doch grausam :D
Das ist - mit Verlaub - Quatsch! Ich hab jetzt diverse Displays durch - von 75Hz (WQHD, Adaptive Sync) über 144/165Hz (WQHD, G-Sync) bis aktuell wieder 60Hz (UHD, FreeSync). Ich kann beim besten Willen keinen Unterschied bei der Hertz-Zahl oder den FPS feststellen, solange eine Synch-Technologie aktiviert ist. Ich kann Benchmarks laufen lassen und über die jeweils gerenderten Frames staunen, aber Unterschiede sehen kann ich nicht. Mag sein, dass ich alt bin. Aber da ruckelt nix, da gibts kein Tearing, die Grafik ist butterweich und gestochen scharf.

Mir sind die ganzen Videos mit den Shootern bekannt. Trainiertes Auge, Hochgeschwindigkeits-Aufnahmen, ... Vielleicht spielt die Reaktionszeit des Displays irgendwann eine größere Rolle als die Hz-Zahl? Whatever - wenn du eine flotte GraKa an nem gesynchten Display betreibst, ist es wurscht, ob du 58, 60, 75 oder 180.000 FPS produzierst. Außer in niedrig aufgelösten, kompetitiven Shootern macht es keinen Unterschied. Meine Meinung.
 
Sry, aber ich finde so einen Test ziemlich scheinheilig. Um eine Karte schönzureden, wo es nichts schönzureden gibt.
Macht er doch garnicht. Er belegt, dass die Karte mit 50% mehr Energie nur 12% mehr Leistung bringt. Das hat ja nun rein garnichts mit "schönreden" zu tun.
 
Sry, aber ich finde so einen Test ziemlich scheinheilig. Um eine Karte schönzureden, wo es nichts schönzureden gibt. Wie Igor ja selber anmerkt, man kann andere Karten genauso sparsamer betreiben. Wenn man schon die 3090 Ti mit einem Drittel weniger Power Budget betreibt, wo sind dann die Vergleichswerte zu einer 200W 6900 XT oder einer 210-215W 3080? Ich finde es nicht sinnvoll und aussagekräftig, die Energieeffizienz an verschiedenen Punkten auf ihrer Effizienzkurve zu vergleichen. Dadurch entstehen nur Mythen, die mit Fakten wenig zu tun haben.
Naja,Lesen und Verstehen sollte man so ein Test schon.........ABER wie man an den Kommentaren sehen kann funktioniert das nicht immer.
Das es Einseitig ist und NUR die Testkarte Zeigt ist eigentlich OK.
Was dazu fehlt ist halt der Test Default vs 25% weniger Verbrauch,oder gedeckelt auf 250Watt/200Watt,daran kann man sehr gut sehen wie Effizient die Spitzten Karten schon sind gegenüber der niedrigeren Version RX6900XT/RX6800XT oder 3090Ti/3080Ti.
 
Macht er doch garnicht. Er belegt, dass die Karte mit 50% mehr Energie nur 12% mehr Leistung bringt. Das hat ja nun rein garnichts mit "schönreden" zu tun.
Dafür brauche ich aber keinen Test. Das hätte ich dir auch so sagen können. Was erwartest du denn von einer Karte, die bis auf ein paar wenige Einheiten mehr, quasi identisch zur 3090 ist, und vor allem nur aufgrund der höheren Taktraten mit 100W mehr spezifiziert ist? Wenn du beide Karten bei identischer TGP betreibst, werden beide Karten eben auch eine ähnliche Energieeffizienz aufweisen. An der Technik hat sich schliesslich nichts geändert. Nach oben hin fällt die Energieeffizienz immer stark ab. Sieht man ja auch bestens am i9 12900KS. Wie im Test bei CB zu lesen ist, für "satte" 0-1% mehr FPS in Spielen braucht der einfach mal 25-75% mehr Strom. 🤦‍♂️
 
Naja,Lesen und Verstehen sollte man so ein Test schon.........ABER wie man an den Kommentaren sehen kann funktioniert das nicht immer.
Das hat nichts mit Verstehen zu tun. Was ich übrigens sehr gut kann, keine Sorge. ;) Und ich habe ehrlich gesagt keine Lust mir alle Kommentare durchzulesen. Der Punkt ist einfach, irgendwo werden dann genau diese Diagramme gepostet, völlig aus dem Zusammenhang gerissen, und dann heisst es, "hey, schaut her, wie super toll effizient die 3090 Ti ist". Was sie eben nicht ist. Zumindest wenn man sie mit anderen Karten unter gleichen Voraussetzungen vergleicht. Daran ändert auch der Test nichts. Wie gesagt, dadurch entstehen Mythen. Schön und gut, dass Igor oft mehr ins Detail geht als andere Seiten. Man sollte trotzdem nie seine journalistische Verantwortung aus dem Blick verlieren, wenn man ein seriöses Portal betreibt. Die 3090 Ti ist Brechstange pur. Überteuert, ineffizient, kaum ein Mehrwert zur 3090 vorhanden. Und dafür wurde die Karte auch zurecht von der versammelten Presse abgestraft. Ich finde es einfach nicht gut, wenn man dann künstlich Testbedingungen schafft, um das ganze zu relativieren. Das wird der Thematik einfach nicht gerecht. Wenn sich Hersteller dadurch auch noch bestätigt fühlen, dann ist das doppelt verwerflich. Wenn ich beim Nachfolger Lovelace von bis zu 600-850W aus der Gerüchteküche lesen muss, dann kann man nur noch den Kopf schütteln.
 
Dafür brauche ich aber keinen Test. Das hätte ich dir auch so sagen können. Was erwartest du denn von einer Karte, die bis auf ein paar wenige Einheiten mehr, quasi identisch zur 3090 ist, und vor allem nur aufgrund der höheren Taktraten mit 100W mehr spezifiziert ist? Wenn du beide Karten bei identischer TGP betreibst, werden beide Karten eben auch eine ähnliche Energieeffizienz aufweisen. An der Technik hat sich schliesslich nichts geändert. Nach oben hin fällt die Energieeffizienz immer stark ab.
Du musst den Test auch in den Kontext stellen. @Igor Wallossek hat einen Ausblick auf Spannungsversorgung und Leistung der Lovelace-Karten gegeben. Dann einen (kritischen) Artikel zum Thema Leistungsaufnahme geschrieben. Und jetzt den Effizienztest der 3090Ti (die offenbar teilweise als Kühlbarkeits... Verzeihung: Machbarkeitsstudie - für Lovelace dient. Auf der Basis kann man sich dann die Marketing-Folien anschauen und eine fundierte Bewertung abgeben bzw. Kaufentscheidung treffen.
 
Oben Unten