Grafikkarten und deren Verbrauch einfach auslesen statt aufwändig messen? Warum das bei NVIDIA einfach ist und bei AMD nicht

Hält sie auch nicht . Den zu dem Powerlimit , kommt ontop Soc und Speicher .
 
Nein ist es nicht . Vielleicht solltest Du dich mal richtig schlau machen. Und das sagt jetzt nicht ein Nv Fanboy sondern ein Amd Only System User
 
Schau mal meinen Post#57 an!

Da kannste alle Einzelwerte nochmal selbst addieren, wenn Du mir net glaubst.
und
Man kann z.Bsp. den fclk mal um 100MHz ändern, um zu checken, das der Cache beim Core mit drin ist.

btw.
Irgendwelche 1000W-Experimente, wo alle Komponenten außerhalb der Spec fast explodieren sind net
aussagekräftig.
 
Nein ist es nicht . Vielleicht solltest Du dich mal richtig schlau machen. Und das sagt jetzt nicht ein Nv Fanboy sondern ein Amd Only System User
Dann belege das mal,@RX480 hat es im Beitrag #57 schon gemacht.

Übrigens eine NICHT von AMD Übertaktete RX6900XT kommt mit PPT 281Watt auf rund 335Watt und rund 20%.
Ich habe bloß nix gefunden wie hoch die PPT bei ner Ref ist....
 
Zuletzt bearbeitet :
Nein ist es nicht . Vielleicht solltest Du dich mal richtig schlau machen. Und das sagt jetzt nicht ein Nv Fanboy sondern ein Amd Only System User
Ich weiß nicht wie du darauf kommst, aber das ist schlicht falsch. Die ASIC beinhaltet GPU+SOC+Speicher.
ASIC`=PPT bzw. Powerlimit. OnTop kommt Nebenverbraucher Board sowie Verluste Wandler.
 
btw.
Neues Review bei TPU mit der 6950ref.@350W:

Ich würde mir mal noch wünschen, das die Reviewer die ASIC-qualität der jeweiligen Samples zeigen!
(net das Igor ne Gurke<85% hat und TPU ein Nugget>87%)
 

Anhänge

  • 6950ref.JPG
    6950ref.JPG
    316,4 KB · Aufrufe : 21
Ihr müsst halt die Reviews mal gründlicher lesen. Die 430 sind der Worst Case in HZD, Cyberpunk in WQHD ist Pillepalle und im Launchreview die 409 sind der Durchschnitt aus 10 Spielen.
 
Was hast Du dann bei der Messung hier im Launchreview gemacht?
Das war eine 2min Einzelmessung! (so gibts auch nen vernünftigen avg. Verbrauch am NT ohne Spikes, die über Kondensatoren gehen)

man kann sich natürlich auch nen Spike-20ms-Bereich rausgreifen, wo dann durch Spikes die Werte viel zu hoch sind, ... ist halt dem
"schlechteren" Regeln bei AMD geschuldet, aber zeigt net wirklich den Durchschnitt an der Steckdose sondern nur die Belastung der
Kondensatoren am NT
Dann gibts bei besonders schlechten Samples kuriose Werte, wie bei der 6900 von TPU: siehe Anhang 2
 

Anhänge

  • 6950avgTotal 400W.jpg
    6950avgTotal 400W.jpg
    275,1 KB · Aufrufe : 17
  • 20ms.jpg
    20ms.jpg
    155,8 KB · Aufrufe : 17
Zuletzt bearbeitet :
btw.
Neues Review bei TPU mit der 6950ref.@350W:

Ich würde mir mal noch wünschen, das die Reviewer die ASIC-qualität der jeweiligen Samples zeigen!
(net das Igor ne Gurke<85% hat und TPU ein Nugget>87%)
Die Ref scheint ja mal wieder sehr gelungen zu sein.
 
Was hast Du dann bei der Messung hier im Launchreview gemacht?
Das war eine 2min Einzelmessung! (so gibts auch nen vernünftigen avg. Verbrauch am NT ohne Spikes, die über Kondensatoren gehen)

man kann sich natürlich auch nen Spike-20ms-Bereich rausgreifen, wo dann durch Spikes die Werte viel zu hoch sind, ... ist halt dem
"schlechteren" Regeln bei AMD geschuldet, aber zeigt net wirklich den Durchschnitt an der Steckdose sondern nur die Belastung der
Kondensatoren am NT
Dann gibts bei besonders schlechten Samples kuriose Werte, wie bei der 6900 von TPU: siehe Anhang 2

Womit misst TPU eigentlich? Sieht nach einer Platine mit USB-Monitoring aus. Sowas bekommt man mittlerweile schon für unter 300 Euro. Nur Spikes würde ich damit nicht messen wollen, das löst doch gar nicht richtig auf. Und ist das bei TPU TrueRMS oder ungeglättet? TPU ist hier komplett intransparent, jedenfalls finde ich nichts zur verwendeten Technik, nur das hier:

"With 40 samples per second"
1000 ms / 40 = 25. Wie wollen die damit bitte 20 ms Spikes messen? Das ist schon theoretisch komplett unmöglich. Außerdem misst man IMMER mit der höchstmöglichen Auflösung und rechnet dann runter, um Fehler auszuschließen. Bei den 20 ms Schritten messe ich über 2 Minuten mit 500 Samples pro Sekunde und bilde dort einen RMS Mittelwert.

Aber das ist wieder ein völlig anderes Thema, denn die Werte lassen sich mit einem teuren und kalibrierten Messaufbau nun mal NICHT vergleichen. Dass meine Messungen stimmen, weiß ich von den Herstellern, die die zudem auch gern als Gegentest verwenden. Es wurde oft genug geprooft und es stimmt.

Willst Du ernsthaft eine bis zur Kotzgrenze versoffene MSI Custom-Karte mit der Refernz vergleichen und wunderst Dich dann über die Unterschiede? Nur mal am Rande: die MSI liegt im Mittelwert beim Gaming ja schon 50 Watt und mehr drüber. TPU misst Gaming nur mit Cyberpunk in 1440p. Was soll das? Das ist doch keine echte Herausforderung. :D

Und meine Leistungsaufnahmemessungen für FHD, QHD und UHD sind Mittelwerte aus jeweils 10 (!) Spielen über deren GESAMTE Laufzeit. Hat TPU auch nicht. Die messen ein Spiel in einer Auflösung. Nun ja...
 
Ob die Spawas bei MSi an der Kotzgrenze besonders ineffektiv sind, kann ich als Laie net beurteilen.
(und ob man Bessere verbauen könnte)

Ob nun Cyberpunk besonders günstig/ungünstig ist weiß ich net. (eeh ne vermurkste Engine = EOL)

CB misst z.Bsp. in DE und hat sowohl in 1440p als auch in 2160p den selben Verbrauch. (vermutlich kein CPU-Limit bei AMD)
(nur die 3090Ti ist wohl im CPU-Limit in 1440p, aber die 3090 OC noch net!?)

theoretisch kann 2160p etwas mehr "Nachladen" vom Vram erfordern, wg. der Trefferquote vom Cache, insofern gebe ich Dir Recht, aber
die hohen Fps in 1440p gibts auch net für lau
vllt. ist DE als Forward-Engine da etwas anders als Deferred-Engines und kann bereits in 1440p die GPU optimal auslasten
 

Anhänge

Zuletzt bearbeitet :
Lies mein Review mit 10 Spielen und für jede der Auflösungen gemittelten Werte über die ganze Laufzeit. Dann siehst Du, das WQHD Warmduschen ist.
 
Hm, ich finde keine Beschreibung der Testhardware bei TP. Wäre interessant was die wirklich verwenden.
 
Die Auflösung alleine reicht nicht, die Voreinstellungen im Spiel (Low, Medium, High, Ultra) haben ja zusätzliche Filter (AA & AF) aktiviert.
8x MSAA mit 4K sind dann 8x 4k =32K Render Auflösung (nur fiktiv als Beispiel)
 
Was Ich aber gar nicht verstehe ist warum Verbraucht z.b. die RX6900XT im Identischen Test mal 302,6Watt und dann wieder 352,7Watt?!
Borderlands-3-AvWatt_DE-3840-x-2160-DX12-Badass-Quality.png


Borderlands-3-AvWatt_DE-3840-x-2160-DX12-Badass-Quality.png
 
Weil Du nicht lesen kannst. Der uralte Test ist mit Referenzkarten, der aktuelle (siehe Seite 1) mit Customs und massig Werks-OC. :D
Das steht aber nun wirklich groß und breit im Artikel. Wenn ich bei jeder Karte den kompletten Namen in die Charts packe, bleiben 2 cm für die Balken :D

Bitte lest doch erstmal und überdenkt, was Ihr da schreibt. Es ergibt sich alles stets aus dem Kontext.

Da AMD diesmal für den Launch auf Boardpartner-Karten setzt, habe ich natürlich sowohl für die entsprechenden AMD- als auch die NVIDIA-Karten auf MSIs Gaming-X- bzw. SUPRIM-X-Reihe zurückgegriffen, um vor allem beim Vergleich zwischen Alt und Neu einen fairen Vergleich rein mit Boardpartnerkarten eines Herstellers zu garantieren. Denn alle Karten kommen auch mit einer gehörigen Portion Werks-OC zum Kunden und es wäre nur unfair, hier die langsameren (und auch sparsameren) Referenzkarten zu nutzen.
 
Zuletzt bearbeitet :
@Igor Wallossek

Gibts eingentlich schon DirectX 12 Ultra Benchmarks ?

Wink an §DMark
 
Ich teste keine Synthetics wo sich die Hersteller die Eier blutig optimieren. Spiele ja, aber nicht sowas :D
Und so bin ich immer auf der Suche nach etwas, was wirklich konsistente Ergebnisse liefert und nicht jeden Tag gepatcht wird.
 
ich teste keine Synthetics wo sich die Hersteller die Eier blutig optimieren. Spiele ja, aber nicht sowas :D
Synthetics, machen keinen Sinn, weil sie zu Fokussiert sind.

Ich meine Linien mit DX 12u API, lass die einzel Summen weg.
Wir wollen Raw Data´s ! :cool:
 
Oben Unten