Kühler Brecher statt Fusionsreaktor: die GeForce RTX 3090 Ti stellt mit 300-Watt-Drossel die Effizienzliste auf den Kopf und schlägt die Radeons

Ja, aber das ist ja nun die Unterkante für diesen Benchmark. Im Alien vs Predator kommt dann das andere Extrem (Verbrauch) - meinst du nicht, dass man am Ende ungefähr da endet, wo das Framelimit (60 FPS) die Karte eingrenzt? Die Frage ist halt echt, ob sich der Aufwand lohnt.
Ich probier das mal aus...
Das Power Limit begrenzt ja nur den Takt und damit kannst sehen wie weit die Spannung im niedrigen Taktbereich durch Änderung der Spannungskurve runter geht.
Daten sammeln und auswerten,darum geht es erst mal in diesen Schnellen Benchmarks.
Wenn du dir die Daten in deinen Spielen anschaust und hast dann z.b. Ein Spiel was bei Deinen gewünschten Einstellungen max 280Watt und max 2,3GHz zieht,dann hast dein Min Takt.
Ein anderes Spiel zieht nur 180Watt und geht auf 2,7GHz,dann hast dein max Takt.
Alle anderen Spiele liegen dazwischen.
So kannst jetzt recht schnell über die Beiden Benchmarks die Optimale Spannungskurve finden.
Powerlimit auf 285Watt.
Takt auf 2,725GHz
Über die Spannung im Treiber stellst dir dann mit den 2 Benchmarks die Kurve ein,fertig.

Zur Sicherheit kannst noch Time Spy im Loop laufen lassen.
Demo=Starke Takt und Spannungsschwankungen
Grafiktest1 war mit etwas höherem Takt
Grafiktest2 mit etwas weniger Takt
oder anders rum......

Dadurch das Alien vs Predator recht kurz läuft schlägt es erst bei sehr geringer Spannung an wo Time Spy besonders im Loop dann doch gern mal Abstürzt........Dann musst die Spannung wieder um 10-15mV höher stellen.

EDIT:
Auch hier sind es bei 60FPS wieder min 25Watt weniger , dieses mal in Tom Clancy's The Division 2.
In Beiden Tests wird aber auch wieder am Powerlimit gekratzt.



Wenn du die FPS Begrenzung raus nimmst schaut es dann schon wieder anders aus,da kannst dann besser sehen was die Optimierung bring.
Beide laufen die gesamte Zeit im Powerlimit,aber die 230Watt mit Takt und Spannungsanpassung sind ein Ticken besser,wenn auch nur ein paar Punkte und 1FPS mehr.

Default.
Tom Clancy's The Division 2_2022.04.14-20.41.jpg

Optimiert.
Tom Clancy's The Division 2_2022.04.14-20.37.jpg
 
Zuletzt bearbeitet :
Du musst den Test auch in den Kontext stellen. @Igor Wallossek hat einen Ausblick auf Spannungsversorgung und Leistung der Lovelace-Karten gegeben. Dann einen (kritischen) Artikel zum Thema Leistungsaufnahme geschrieben. Und jetzt den Effizienztest der 3090Ti (die offenbar teilweise als Kühlbarkeits... Verzeihung: Machbarkeitsstudie - für Lovelace dient. Auf der Basis kann man sich dann die Marketing-Folien anschauen und eine fundierte Bewertung abgeben bzw. Kaufentscheidung treffen.
Das ist doch Käse. Was bitteschön soll die Machbarkeit von Lovelace zeigen, wenn man eine 450W Karte auf 2/3 ihrer Leistungsaufnahme einbremst, dem Nachfolger aber fast das doppelte nachgesagt wird? Und das auf verschiedenen Fertigungsprozessen, deren Unterschiede noch gar keiner einschätzen kann.

Und genau darum geht es bei den gesamten Berichten und Tests, die hier im Zusammenhang mit Lovelace veröffentlicht wurden.
Ich rede aber nicht von "den gesamten Berichten und Tests". Und rede von DIESEM Test und von nichts anderem. Also mal schön beim Thema bleiben. Und hier sehe vor allem folgendes Fazit:
Da muss man kaum noch etwas hinzufügen außer dem Aufruf, einfach auch selbst einmal Hand an seine eigene Karte anzulegen, wenn man so einen kleinen, frechen und heißen Schluckspecht im Gehäuse eingesperrt hart. Mit etwas Erziehung kann sich dieser nämlich durchaus manierlich benehmen, nur müssen beide Seiten auch wollen. Das tut nicht weh und kostet nur etwas Zeit und Geduld, spart aber eben auch pures Geld.
Man soll also nicht davor zurückschrecken, Schluckspechte für viel Geld zu kaufen, um diese dann zu drosseln, weil man dann ja super effizient unterwegs ist und auch noch Geld gespart hat? Geht's noch? Das ist nun wirklich eine denkbar schlechte Empfehlung. Dann kann man sich auch gleich eine Karte im Bereich der gedrosselten TGP kaufen, hat dort die gleiche Performance und Effizienz ohne erst dran rumfummeln zu müssen, steckt schliesslich die gleiche Technik drin (zumindest beim selben Hersteller), und hat tatsächlich Geld gespart, nämlich am Kaufpreis. Das einzige richtige Fazit zur 3090 Ti kann nur lauten "NICHT KAUFEN!". Bedingungslos. Ende der Geschichte.
 
Dann kann man sich auch gleich eine Karte im Bereich der gedrosselten TGP kaufen, hat dort die gleiche Performance und Effizienz
Genau das funktioniert eben nicht. Die Performance der 320-Watt RTX 3080 ist deutlich niedriger. Der Test ist eine Studie, um den eigentlichen Sweet-Spot der Chips zu zeigen, mehr nicht. Der Preis ist hier erst einmal sekundär, weil er an der Technik selbst ja nichts ändert. Was dann per energetischer Brechstange noch rausgeprügelt wird, gehört eigentlich verboten. Ich habe nicht ohne Absicht die RTX A6000 als Blaupause genommen, weil die Workstation-Grafikkarten die eigentlichen Vernunftskarten sind. Auch hier ist der Preis erst einmal nebensächlich, solange es allein nur um die Technik geht. Preisgefeilsche gehört auf den Wochenmarkt oder an den Stammtisch.
 
Großartige Arbeit wieder. Ich hoffe, dass die Kartenhersteller (oder noch besser: Chiphersteller und die Linux-Treiberentwickler) mitlesen. Wie einige andere auch habe ich (leider) nicht wirklich die Zeit um mich in das richtig einzulesen um es richtig selber zu machen - d.h. wenn ein Treiber mir das mit ein paar Klicks automatisch macht, wäre mir das auch extra Geld wert. Vielleicht 10 oder 20%, wobei meine GPU-Preisvorstellung aber bei 200 oder max 300€ endet. Spar ich dann bei der Stromrechnung eh wieder ein... Das eine solche Automatik natürlich nicht so exakt die optimalen Werte einstellen könnte wie Handarbeit ist klar, aber Handarbeit erfordert eben Zeit. Nicht nur zum Machen, sondern vor allem zum Lernen. Alternativ würde natürlich auch reichen, wenn die Karten einfach ab Werk mit Sweetspot-Einstellungen (oder zumindest in der Nähe davon) laufen.

Edit: Bei Laptop-Chips geht's ja auch :/
 
Zuletzt bearbeitet :
Das ist doch Käse. Was bitteschön soll die Machbarkeit von Lovelace zeigen, wenn man eine 450W Karte auf 2/3 ihrer Leistungsaufnahme einbremst, dem Nachfolger aber fast das doppelte nachgesagt wird? Und das auf verschiedenen Fertigungsprozessen, deren Unterschiede noch gar keiner einschätzen kann.


Ich rede aber nicht von "den gesamten Berichten und Tests". Und rede von DIESEM Test und von nichts anderem. Also mal schön beim Thema bleiben. Und hier sehe vor allem folgendes Fazit:

Man soll also nicht davor zurückschrecken, Schluckspechte für viel Geld zu kaufen, um diese dann zu drosseln, weil man dann ja super effizient unterwegs ist und auch noch Geld gespart hat? Geht's noch? Das ist nun wirklich eine denkbar schlechte Empfehlung. Dann kann man sich auch gleich eine Karte im Bereich der gedrosselten TGP kaufen, hat dort die gleiche Performance und Effizienz ohne erst dran rumfummeln zu müssen, steckt schliesslich die gleiche Technik drin (zumindest beim selben Hersteller), und hat tatsächlich Geld gespart, nämlich am Kaufpreis. Das einzige richtige Fazit zur 3090 Ti kann nur lauten "NICHT KAUFEN!". Bedingungslos. Ende der Geschichte.
Ach, komm schon! Der Artikel steht im Kontext mit den anderen. Es geht um den Sweetspot und die Erkenntnis lautet 50% mehr Watt für 12% mehr Leistung. Was du da rausliest oder -ziehst ist selektiv daneben. Ich hab es ja grade selbst: 2080S am Limit in WQHD vs eingebremste 6900XT in UHD. Gleiche Wattzahl bei gefühlt doppelter Leistung. Die 3090Ti ist sauschnell aber läuft halt permanent am Limit. Wo du da eine Empfehlung rausliest, bleibt dein Geheimnis.
 
Großartige Arbeit wieder. Ich hoffe, dass die Kartenhersteller (oder noch besser: Chiphersteller und die Linux-Treiberentwickler) mitlesen. Wie einige andere auch habe ich (leider) nicht wirklich die Zeit um mich in das richtig einzulesen um es richtig selber zu machen - d.h. wenn ein Treiber mir das mit ein paar Klicks automatisch macht, wäre mir das auch extra Geld wert. Vielleicht 10 oder 20%, wobei meine GPU-Preisvorstellung aber bei 200 oder max 300€ endet. Spar ich dann bei der Stromrechnung eh wieder ein... Das eine solche Automatik natürlich nicht so exakt die optimalen Werte einstellen könnte wie Handarbeit ist klar, aber Handarbeit erfordert eben Zeit. Nicht nur zum Machen, sondern vor allem zum Lernen. Alternativ würde natürlich auch reichen, wenn die Karten einfach ab Werk mit Sweetspot-Einstellungen (oder zumindest in der Nähe davon) laufen.

Edit: Bei Laptop-Chips geht's ja auch :/
Naja NV hängt die 6950 im Kreuz, da will man nicht die Krone gegen abgeben, deswegen wird hier an der Kotzgrenze gearbeitet.
 
@Casi030 Hast du ne Alternative zu Alien vs Predator? Bei mir kriege ich den nicht installiert. Der verlangt nach ner .NET Framework Datei, die zwar installiert ist, aber wohl in ner so neuen Version, dass die Applikation damit nix anfangen kann... Hab jetzt länger dran rumgedoktert und es läuft nicht.

Vergiss es - ich hab jetzt ein paar Spiele getestet. Das Bild ist überall gleich: Zu Beginn geht die Last einmal hoch, da wird wahrscheinlich die Umgebung initial gerendert, danach pendelt es sich auf sehr niedrigem Niveau ein.

Hier mal Forza Horizon 5 (UHD, Grafik outmaxed, Framelimiter auf 60 FPS). Oben die Energieversorgung, unten die Spannung. Ich habe das Gefühl, dass der Treiber das selbst schon so intelligent regelt, dass ich da nix mehr addieren kann. Die Karte geht von selbst auf 0,784 / 100 Watt runter und bleibt da. Das Logfile wurde per HWinfo erstellt, das Bild mit so nem Logfile-Viewer ausgespielt.

Meine steile These: Könnte es sein, dass die Karten mittlerweile so flexibel eingestellt und gesteuert werden, dass es am Ende wurscht ist, ob ich UVe oder nicht? Meine einzige Wissenslücke ist jetzt noch die Systemlast am Netzteil. Die CPU geht auch nur einmal auf 64,51 Watt hoch, danach pendelt sie sich bei um die 40 Watt ein.
 

Anhänge

  • Forza Horizon5_GPU_Spannung_Energieverbrauch.png
    Forza Horizon5_GPU_Spannung_Energieverbrauch.png
    243,3 KB · Aufrufe : 3
Zuletzt bearbeitet :
@Casi030 Hast du ne Alternative zu Alien vs Predator? Bei mir kriege ich den nicht installiert. Der verlangt nach ner .NET Framework Datei, die zwar installiert ist, aber wohl in ner so neuen Version, dass die Applikation damit nix anfangen kann... Hab jetzt länger dran rumgedoktert und es läuft nicht.
TimeSpy einfach nutzen, das ist der beste Test für die GPU. Für den Ram empfiehlt sich Dirt 5 inkl RT
 
Gibt es eine Anleitung wie man bei einer 6900xt den sweetspot findet?
Grüße :)
Brutal schwer, weil es für Sweetspot fast mehr Vorstellungen und Definitionen als Mitdiskutanten gibt.

Und wer startet jetzt einen sagen wir 200W Wettbewerb wo alle mitmachen können?
 
Ix
TimeSpy einfach nutzen, das ist der beste Test für die GPU. Für den Ram empfiehlt sich Dirt 5 inkl RT
Naja, die Benchmarks lasten die GPUs voll aus, in realen Anwendungen verhält sich die GPU anders.
 
Ich gehöre leider immer mehr zu der „Zeit ist Geld“ Fraktion, soll heißen, ich hab immer weniger Lust, durch irgendwelche Frickeleien mit viel Geduld und Spucke irgendwelche Custom-Settings zusammenzuflicken und selbst dann immer wieder nachlegen zu müssen, wenn/weil irgendwas doch nicht dauerhaft stabil in Anwendung/Spiel XYZ funktioniert. Das wird ja umso schlimmer, je mehr man manuell Hand anlegt (RAM, CPU, GPU, VRAM…).

Auch darum greif ich inzwischen lieber eine Kategorie höher ins Regal, sachtes Feintuning bei erster in Betriebnahme, fertig. Sowas wie hier wäre super, wenn’s sowas als Fertig-Schalter irgendwo im Treiber gäb. Dann fährst halt so lang es geht im low-performance (positiver formuliert: Stromspar-) Mode und entfesselst das Biest halt, wenn’s sein muss. Das geht momentan eher mit dem FPS-Limiter, der funzt aber halt nicht, wenn die Graka bereits übel aufm letzten Loch pfeift, um die FPS überhaupt zu erreichen. Ob ich dann aber nicht sowieso immer die Handbremse lösen würde, könnt ich jetzt allerdings auch nicht garantieren.
Hier kann ich zu 100% zustimmen.

Ichh abe mich lange mit Optimierungen befasst und habe teils auch Spass daran. Es klaut allerdings eine menge Zeit und am Ende glaubt man ein Stabiles System zu haben, wo dann aber irgendwann ein Absturz, Glitches oder sonst ungereimtheiten Auftauchen...

Mein aktuelles System deshalb:
Ram --> XMP Profil
CPU --> Eco-Modus und Curve Optimizer minimal angepasst
GPU --> UV-Treibermodus
Fertig

Die Spiele (und fps) Einstellungen so wählen, dass das System nicht permanent unter Anschalg läuft, nimmt weit weniger Zeit das andere Rumoptimieren und spart genausoviel.

Wenn es jetzt ums Stromsparen geht eine Frage oder einen Anstoss wo man sich mal gedanken machen sollte:
Wenn ich beim Gesamtsystem X Watt spare wie viel Stromverbrauch habe ich durch Stabilitätstest verursacht? Wird dieser Stromverbrauch jemals durch den gesparten Stromverbrauch aufgefangen?
 
@Casi030 Hast du ne Alternative zu Alien vs Predator? Bei mir kriege ich den nicht installiert. Der verlangt nach ner .NET Framework Datei, die zwar installiert ist, aber wohl in ner so neuen Version, dass die Applikation damit nix anfangen kann... Hab jetzt länger dran rumgedoktert und es läuft nicht.

Vergiss es - ich hab jetzt ein paar Spiele getestet. Das Bild ist überall gleich: Zu Beginn geht die Last einmal hoch, da wird wahrscheinlich die Umgebung initial gerendert, danach pendelt es sich auf sehr niedrigem Niveau ein.

Hier mal Forza Horizon 5 (UHD, Grafik outmaxed, Framelimiter auf 60 FPS). Oben die Energieversorgung, unten die Spannung. Ich habe das Gefühl, dass der Treiber das selbst schon so intelligent regelt, dass ich da nix mehr addieren kann. Die Karte geht von selbst auf 0,784 / 100 Watt runter und bleibt da. Das Logfile wurde per HWinfo erstellt, das Bild mit so nem Logfile-Viewer ausgespielt.

Meine steile These: Könnte es sein, dass die Karten mittlerweile so flexibel eingestellt und gesteuert werden, dass es am Ende wurscht ist, ob ich UVe oder nicht? Meine einzige Wissenslücke ist jetzt noch die Systemlast am Netzteil. Die CPU geht auch nur einmal auf 64,51 Watt hoch, danach pendelt sie sich bei um die 40 Watt ein.
Da fehlen wichtig Daten wie z.b. der Takt........
Ich habe Forza Horizon 5 nicht und auch keine Daten in Game dazu gefunden bis jetzt in 4K,die Testen alle mehr in FullHD....

Wenn du 3D Mark gekauft hast,dann ist der zweite Grafiktest die Alternative zu Alien vs Predator,hab ich gerade mal nach gesehen.


Ähhhh waren ja auch CPU Tests....:rolleyes:
6900XT 4K um 260Watt bei rund 2,3GHz min 83FPS avg 100.
Wenn die 6900XT jetzt bei 60FPS ist und nur rund 100Watt zieht,dann liegt der Takt irgend wo bei 1,3-1,6GHz , da reicht die min Spannung noch für aus,deswegen hast in diesem Spiel keinen wirklichen Unterschied.
Da ist die Frage wie sehen andere Spiele aus die die Grafikkarte auch fordern?!
 
Zuletzt bearbeitet :
FH5 taugt nicht mal ansatzweise um eine GPU zu testen, da läuft meine Karte mit 200Watt und 2,8Ghz...
 
Genau das funktioniert eben nicht. Die Performance der 320-Watt RTX 3080 ist deutlich niedriger.
Es redet ja auch keiner von der 3080. Die dann doch deutlich weniger Einheiten mitbringt, eine schmalere Speicheranbindung besitzt, weniger VRAM, usw. Logisch dass dort die Effizienzunterschiede grösser ausfallen. Ein breiteres Design mit weniger Takt und Spannung war schon immer effizienter. Das ist keine Neuigkeit. Der Knackpunkt ist die 3090. Welche bis auf ein paar wenige unbedeutende Einheiten exakt gleich zur 3090 Ti ist. Aber eben auch "preiswerter" und von Haus aus schon in einem besseren Effizienzbereich angesiedelt ist. Ob jetzt 350W oder 300W spielt dabei keine Rolle. Wenn man das will, dann kann man auch eine 3090 noch etwas runterschrauben. Du wirst bezüglich Effizienz keine nennenswerten Unterschiede zur 3090 Ti feststellen. Steckt wie gesagt die gleiche Technik drin.

Versteh mich nicht falsch, ich finde solche Tests durchaus interessant. Aber ausgerechnet eine 3090 Ti für sowas zu nehmen, ist die denkbar schlechteste Option gewesen. Ich kann mir vorstellen, das hinterlässt bei manchen Leuten einen Eindruck, den man definitiv nicht vermitteln sollte. Eine Kaufempfehlung zur 3090 Ti kann und darf man nicht abgeben. Egal wie sehr man es relativiert. 3090 und 6900 XT gegenüber zu stellen und schrittweise in ihrer TGP nach unten zu schrauben, hätte ich viel interessanter gefunden.

Ach, komm schon! Der Artikel steht im Kontext mit den anderen.
Nö. Der Artikel steht erst mal so für sich. Und muss für sich alleine bewertbar sein. Wie es bei jedem Review der Fall ist.
 
Da fehlen wichtig Daten wie z.b. der Takt........
Ich habe Forza Horizon 5 nicht und auch keine Daten in Game dazu gefunden bis jetzt in 4K,die Testen alle mehr in FullHD....
Kann ich ebenfalls auslesen bzw ist im Logfile drin - für GPU+CPU und SSD...
Wenn du 3D Mark gekauft hast,dann ist der zweite Grafiktest die Alternative zu Alien vs Predator,hab ich gerade mal nach gesehen.
Hab ich nicht.
Da ist die Frage wie sehen andere Spiele aus die die Grafikkarte auch fordern?!
Das würde ich als nächstes testen. Bei SoTR ist das Bild ähnlich. Würde mal RDR2 und HZD ins Rennen schicken. Und dann nochmal so'ne FPS Schleuder wie Black Mesa.
Bin allerdings gerade auf dem Weg in den Urlaub. Müsst ne Woche warten 😎😘
 
etwas OT
<200W wirds wohl nur ein Vgl. 6800XT vs. 6900
Wer sich dafür interessiert kann sich die Effizienz im Luxx anschauen. (da gibts ja mit Duvar@6900 und RaceOwl@6800xt richtige Experten)
(hätte mit meiner nonXT keine Chance auf die Scores zu kommen, da verteilt der Treiber die Last einfach zu gut auf die mooore Shader der XT´s,
die dann bei weniger Takt deutlich effizienter sind, ... übrigens muss bei so niedrigen Settings<150W auch an Cache+SOC+Vram gespart werden,
passsend zum niedrigen GPU-Takt, weil sonst der GPU die W fehlen)


Um Hier nen Vgl. zur 3090Ti zu haben, geht eigentlich wirklich nur 288W wie am Bsp. der 3090FE bereits verlinkt.(Post#103)
Evtl. wäre zusätzlich zum TSE noch D2 geeignet.

btw.
Die 288W sind eigentlich schon weit über Sweetspot von Gurdis6800xt. (=Advantage für die bigger Chips)
-->vllt. könnte man sagen, das Gurdi passend zur Shaderanzahl 0,9 x 288W verwendet, um dann auf W/fps bzw. Points umzurechnen

edit: Was natürlich exakte Vgl. erschwert, sind die unterschiedlichen CPU´s der User.
Normalerweise müsste man in DX12 die Watt von CPU+GPU addieren, um nen fehlerbereinigten Wert incl. Overhead zu haben.
(bin gespannt, was Igor beim 5800x3d im Vgl. NV vs. AMD so herausfindet)
 
Zuletzt bearbeitet :
Naja NV hängt die 6950 im Kreuz, da will man nicht die Krone gegen abgeben, deswegen wird hier an der Kotzgrenze gearbeitet.
Die Krone ist mir aus praktischer Sicht völlig egal, da sollen sie sich von mir aus austoben bis die Karten Feuer fangen, was ja offenbar auch der Plan ist ;) (ok, die Kühlung der 3090ti bei Igor neulich ist technisch beeindruckend, aber praktisch ist das so interessant wie Formel 1 Motoren)

In der aktuellen Generation ist die 6600 (ohne XT) die interessanteste für mich, in der Klasse gibt's keine Kronen ;)
 
Kann ich ebenfalls auslesen bzw ist im Logfile drin - für GPU+CPU und SSD...

Hab ich nicht.

Das würde ich als nächstes testen. Bei SoTR ist das Bild ähnlich. Würde mal RDR2 und HZD ins Rennen schicken. Und dann nochmal so'ne FPS Schleuder wie Black Mesa.
Bin allerdings gerade auf dem Weg in den Urlaub. Müsst ne Woche warten 😎😘
Hab die FPS Bilder nicht 1000% übereinander bekommen.Links 275Watt Optimiert,Rechts 293Watt Default.
Ist ein hin und her von gleichstand und weniger Verbrauch bei der Optimierung.

Einen schönen Urlaub.
 
Oben Unten