NVidia Leistungsaufnahme: TDP, TBP und TGP bei Nvidia und AMD-Grafikkarten entmystifiziert und nachgerechnet |igorsLAB

Genau? Ach macht man einen reizerischen "Grundlagenartikel" der "Eine PR Folie zerstört" ... auf der Grundlage von Schätzwerten der AMD Karte? Wie genau sind denn diese Schätzungen?
Sehr genau, denn alles, was da "geschätzt" wurde, kann man nachvollziehen. Da ich die BoM habe, kenne ich sogar die VR Bestückung, Du Held. RAM ist auch klar und beim Rest würden höhere Werte sogar noch weiter für AMD sprechen. Manche brauchen echt zum Stehen noch 10 Meter Anlauf. :D
 
Das macht mich ja glücklich, dass das dein einziger Kritikpunkt ist. Danke!
 
Und dieses "Bescheißen" hast du mit einem Thema belegen wollen, das absolut aus der Luft gegriffen wurde ... und mitlerweile mehrfach debunked wurde. Ich wollte dich nur darauf aufmerksam machen, dass zumindest der Teil deines Posts haarsträubend falsch war. Was jetzt aber GCN vs Kepler genau mit "Nvidia lässt alte Grafikkarten mit neuen Treibern einfach fallen" zu tun hat? Keine Ahnung.
????
Hallo? Das war eher noch ein Nebensatz. Wer hat denn mit Kepler angefangen?
Absolut aus der Luft gegriffen war das auch nicht.
Ist mir aber eigentlich auch Egal. Nicht meine Baustelle.
Ich weiß, das die nicht mein volles Vertrauen und deren Geschäftspraktiken mindestens ein Geschmäckle haben. Das genügt mir. Punkt.
 
Also ich finde solche Artikel immer sehr spannend. Und ich denke auch, der Igor weiß schon sehr genau, wann man sich nicht aus dem Fenster lehnen sollte. Natürlich ist das alles derzeit spekulativ. Und dann kommt jemand und dröselt diese Gleichung mal etwas auf, setzt fachlich untermauert Grenzwerte für einige Parameter und grenzt damit den Erwartungswert sehr plausibel ein. Ein bisschen Licht in das ganze Informationsgewirr... Ja... kann man drüber meckern, grundlegend kann man ja überall was auszusetzen haben. Aber ich steh da eher auf rücksichtsvolles Rumabern, als auf latent aggressive Äußerungen. ;-)
 
Das Lustige ist ja, dass ich immer noch Kontakte habe, die zumindest Ja oder Nein sagen. Beides steht nicht unter NDA wenn ich den Vortrag halte :D

Im Übrigen stimmt ja noch nicht einmal die TGP der 2080 und 2070. Diese Werte der eigenen Karten sollte man als Unternehmen schon kennen. ?
 
Also ich halte fest, dass die CS:GO Karte alt ist. Warum wissen wir nicht. Kann ein Lizenzproblem sein. Aber wenn ich mir Benchmarks anschaue, dann stimmen zumindest die Werte vom 9600K bei dieser Map. Den 3600X kann ich jetzt nicht beurteilen. Aber die Intel skallieren so unter der Auflösung 2560x1440p Ultra. Irgendwie konnte ich jetzt keine Werte für den 3800X unter dieser oder anderer Auflösung finden, nur Werte für 1080p. Und zudem gibt AMD an, dass der 3800X etwas langsammer ist als der 9700K. Ich versteh jetzt deine Panik nicht!? Beim 3600X ist es etwas anders zum 9600K. Kann auch mit SMT (6 Kerne gegen 6 Kerne + SMT) zusammenhängen oder mit schnellerem RAM (Intel 2666Mhz -> AMD 3200 MHz. Man sollte da auch nicht auf das Frame genau achten sondern es geht wohl mehr darum, dass man aufgeschlossen hat zur Konkurrenz.
 
Zum Thema Folien fällt mir noch die (NAMD Performance) ein. Ein Test würde auch hier Klarheit schaffen.

Ich würde schon davon ausgehen, dass Intel's Daten soweit korrekt sind, denn derartige Systeme werden gerade auch in diesem Bereich genutzt, die SW ist Standard und für einige Großkunden (u. a. Universitäten) wäre es ein leichtes, den Benchmark der SW anzuwerfen um zu sehen, ob etwas Vergleichbares zu Intels Zahlen herauskommt. Würde Intel hier das Blaue vom Himmel lügen, wäre das ein beträchtlicher Imageverlust, der auch schnell seinen Weg in die Medien finden würde.
Darüber hinaus war AMDs Vergleich schlicht unsinnig (oder schlampig). Hier könnte ich mir durchaus vorstellen, dass Lisa Su nachträglich noch jemanden dazu zur Rede gestellt haben wird. Es sei denn, der temporäre Wow-Effekt war alles, worum es ging, was ich aber nicht glaube, da AMD eher bodenständig, wenn es so etwas in der Marketingarena überhaupt gibt, auftritt.
Aber 56 Intel-Kerne gegen mehr als doppelt so viele AMD-Kerne (128) und, oh Wunder, das AMD-System ist doppelt so schnell, ist keine Sensation *). Interessanterweise reagierte während der Präsentation aber keiner dahingehend wirklich (während man bei der Apple-Präsentation zu den 999 US$ des Monitorständers ein deutliches Raunen im Saal vernahm). AMD hätte das Ganze während der Präsentation leicht in ein stimmigeres Bild umwandeln können, wenn man etwas wie einen Vergleich auf Flops/Dollar oder Flops/Watt herausgestrichen hätte, aber diesbezügliche Erwähnungen blieben aus und man beließ es rein bei einem Performancevergleich..

Darüber hinaus, Cascade Lake-AP ist ein Monster mit bis zu 56 Kernen (Platinum 9282), 12 Speicherkanälen, doppelten FMA-Pipelines, Dual-Socket-fähig und mit Optane Memory bis zu 7,68 TiB Hauptspeicher pro System ausbaubar, jedoch auch mit 400 W für eine CPU aufgrund von weiterhin 14nm++.
In Intels Gegendarstellung schlagen bereits 96 Intel-Kerne 128 AMD-Kerne, was nicht auszuschließen ist. Maximale Optimierungen im HCP-Bereich sind normal, Intel unterstützt AVX-512, was noch einmal zu mehr Leistung führen kann (trotz niedrigerem Takt) und auch die Speicherbandbreite des Intel-Systems ist voraussichtlich signifikant höher. Wer das nötige Kleingeld hat und maximale Rechenleistung pro Rack benötigt **), dürfte solche Systeme durchaus attraktiv finden. Intel bewirbt die Xeon-APs nicht umsonst als high-performance, high-density compute platform und darüber hinaus wäre es unsinnig anzunehmen, dass Intel so eine speziell angepasste, sehr teuere Plattform auf gut Glück entwirft. Hier wird es durchaus schon entsprechende Signale aus der Industrie gegeben haben (und schlussendliche sind solche Analysen grundsätzlicher Bestandteil von gutem Product Development).

Am Ende noch die Anmerkung, dass man auch leicht Preis/Leistungs-Vergleiche verzerren kann, denn schlicht die Top-Modelle gegeneinander zu vergleichen ist in vielen Fällen nicht zielführend. Nachfolgend einige ältere Zahlen zu Skylake-SP. Mitte 2017 kostete ein Epyc 7601 (Naples) mit 32 Kernen bei 2,2/3,2 GHz bspw. rund 4.200 US$, ein Xeon Platinum 8180 ***) mit 28 Kernen, 2,5/3,8 GHz und 38,5 MB L3 rund 10.010 US$, während jedoch ein Xeon Platinum 8164 mit 26 Kernen, 2,0/3,7 GHz und 35,75 MB L3 nur noch 6.120 US$ kostete, was den Preisunterschied bereits deutlich verkleinert.


*) Es ist zweifelsfrei ein Fortschritt, gar ein beträchtlicher, denn Epyc/Naples hätte hier im wörtlichen Sinne kläglich versagt, aufgrund des nur halb so hohen AVX2-Durchsatzes, jedoch wurde auch diese argumentative Karte während der Präsentation nicht ausgespielt.
Im Nov'18 gab Intel während des Entwicklungsverlaufs zu Cascade Lake an, dass ein Xeon-AP mit 2x48 Kernen einen Dual-7601 im NAMD (APOA1) mit Faktor 2,1 schlägt, während der Linpack (bei nummerischer Algebra) das AMD-System gar um Faktor 3,4 schlägt. Natürlich haben diese Zahlen auch Werbecharakter, jedoch stellen diese auch deutlich dar, warum AMD gar nichts anderes übrig blieb, als diesen beträchtlichen Rückstand bei nummerischen Berechnungen bzw. der Vektoreinheit mit Zen2 anzugehen.

**) Da die Bauform sehr speziell ist und es derzeit bspw. auch keinen Sockel für 12 Speicherkanäle bei Intel gibt, gibt es die CPUs nur als BGA auf auswählbaren Boards, wahlweise mit Luft- oder Wasserkühlung. Maximal liefert Intel bis zu 4 Blades auf 2U (dabei voraussichtlich Single-Socket bei 4 Blades). Rechnet man für einen typischen 42U-Rack pauschal 4U für Networking ab, wären das 76 Blades im Rack, also 4256 CPU-Kerne (und doppelt so viele, mögliche Threads). Die akkumulierte Speicherbandbreite des Racks würde bei rund 20,8 TiB/s liegen. Abwärme und Anschaffungskosten für einen einzelnen Rack rechnet man dann aber besser nicht aus.

***) Wenn man es gar noch auf die Spitze treiben wollte, könnte man gegen die Platinum 8180M-Variante mit erweitertem Hauptspeichersupport für etwa 13.010 US$ vergleichen.
 
CS:GO Benchmark ... gewisse Diskrepanz

Was ist denn hier Dein grundsätzliches Anliegen? Igor sagt aus, dass nVidia hier aus marketingtechnischen Gründen die Zahlen etwas geschönt *) hat und jetzt möchtest Du, dass er zum Ausgleich(?) auch sagt (misst, nachweist, was auch immer), dass AMD mit dem CS:GO-Benchmark Mist gebaut hat?

Deine Forderung scheitert jedoch bereits an den kaum vorliegenden Informationen, die eine Nachvollziehbarkeit der Benchmarks fast unmöglich machen (ganz im Gegensatz zu Igors Abschätzungen; hier besteht zumindest grundsätzlich eine Möglichkeit etwas nachzuvollziehen, da die meisten Variablen bekannt sind).

Der Videomitschnitt zeigt übrigens einen Ryzen 5 3600X bei CS:GO, nicht den 3800X, der im Diagramm gar im Mittel mit 391 FPS angegeben wird. Es wird im Video jedoch nicht mehr angegeben als pauschale "1440p Ultra" (und auch mündlich nicht mehr kommuniziert). Bei den grundsäzlichen Systemsetups, kann man wohl davon ausgehen, dass Standardsetting verwendet wurden, jedoch gibt es keine Informationen zum verwendeten DRAM-Typ (dürfte bei den hohen FPS eine größere Bedeutung haben), es gibt keine Infos zu den Spiel(start)optionen und vor allem nicht zu der verwendeten Grafikkarte, denn auch wenn CS:GO CPU-lastig ist, hat auch die GPU einen wesentlichen Einfluss auf die absoluten FPS-Zahlen.
Und alles was man aus dem Video mitnehmen kann, ist, dass in einem Moment der Ryzen vorne liegt (291:279 FPS) und wenige Sekunden später der i5-9600K (279:295 FPS). Schlussendlich wird vermittelt, dass der Ryzen 3000 die noch bei den älteren Versionen beobachteten Probleme bzgl. IPC, Latenz, etc. wohl weitestgehend hinter sich gelassen haben dürfte und nun auf Augenhöhe mit aktuellen Intel-CPUs liegt (+/- X Prozent mal hier und mal dort) ... mehr aber auch nicht.

In dem zugehörigen Balkendiagramm (jedoch mit 1080p, da keines zu 1440p gezeigt wurde), stellt sich das ähnlich dar. Der blaue und rote Balken sind nahezu gleich groß (nicht nur bei CS:GO), hier und dort ist der rote minimal größer (u. a. bei CS:GO) und Genaueres kann man nicht sagen, da das Diagramm offensichtlich keine lineare Skalierung verwendet oder sogar die Balken unten abschneidet und zudem werden für die blauen Balken keine Werte ausgewiesen und es gibt auch keine Skala, kurzum, auch hier kann nicht viel verglichen werden (die typischen Sünden bei statistischen Diagrammen halt).
Wenn man aber genau hinschaut, fällt bspw. auch auf, dass von 8 dargestellten Spielen, der rote Balken sogar bei 5 Spielen geringfügig kleiner als der blaue ist, d. h. es wird suggeriert, dass der Ryzen hier gar geringfügig weniger FPS als der zum Vergleich herangezogene Core i5 liefert.

Warum die Map selbst nun das Problem sein sollte, müsstest Du noch einmal darlegen, denn CS:GO ist relativ offen, Custom-Maps können gespielt werden und schlussendlich könnte AMD sogar einen komplett eigenen CS-Server lokal aufgesetzt haben, also erneut etliche Variablen, die eine tiefergehende Analyse verbieten.

Und auch der Vergleich mit Deinem eigenen System ist nicht wirklich zu ziehen. Der wichtigste Punkt dürfte auch hier die fehelnde Information zur Grafikkarte sein (bei Dir und bei AMD), die trotz allem einen bedeutenden Einfluss hat und zum anderen verfügt Dein i7-6850K über einen deutlich größeren Cache als der i5-9600K, der bei so einem alten Titel wohl etwas mehr Gewicht haben dürfte. Und die ebenso in den Raum geworfene Zahl des 2700X untermauert da auch nichts, außer dass man vermuten könnte, dass der niedrigere Wert die grundsätzlich von Anfang an bekannten Zen/+-Gaming-Problemchen wiederspiegelt (was zutreffen kann, aber ohne Detailinformationen nichts weiter als eine Hypothese bleibt).

Fazit: Keine Informationen, keine Vergleichsmöglichkeit. Schlussendlich muss man AMD hier Glauben schenken oder lässt es halt bleiben, aber das Vorgehen in AMDs Präsentation war da ein relativ unspektakuläres Marketingbeispiel. (Abgesehen davon, dass man sich bei den architektonischen Verbesserungen an Zen2 (zu denen bereits einiges im Detail gesagt wurde) auch einiges selbst zusammenrechnen kann und in 3 Wochen ist das Rätselraten vorbei, wobei ich hier keine bösen Überraschungen erwarte.)


Für mich auffälliger war eher die völlig blödsinnige Bemerkung "every frame counts", während der Counter nahezu 300 FPS anzeigte, denn damit bewegt man sich bzgl. der Frametimes um Größenordnungen unterhalb menschlicher Reaktionszeiten, die hier bei (sehr einfachen!) visuellen Stimuli im Bereich von bestenfalls 150 - 250 ms liegen. (Für deutlich bessere Werte müsste man eine Fledermaus (50 - 100 ms) oder gar eine Taufliege (bis zu 5 ms) sein.)


*) Das "geschönt" kann wohl zweifelsfrei stehenbleiben, denn man hat hier schlicht AMDs Vorlage (explizit mehrdeutig gemeint) der einfachen Angabe von pauschalen 225 Watt für die 5700 XT zweckentfremdet, um diese Folie zu erstellen. Da nVidia selbst sehr gut weiß, wie man entsprechende Karten layouten muss und welche Bauteile man braucht und auch deren elektrische Parameter kennt, schlicht weil sie selbst genug Ingenieure haben, hätte von denen natürlich einer dem Verantwortlichen für die Folie mitteilen können, dass das alles nicht so vereinfachend dargestellt werden kann (oder sollte), aber danach hat wahrscheinlich auch keiner gefragt und schlussendlich war eine objektive Darstellung auch nicht das Ziel dieser Aktion.
 
Amen :)
 
Na welcher Spezialist hat sich hier wieder eingefunden....
 
Im PCGH gibts ja auch diese diversen User, vom 3DC mal ganz abgesehen, die mit einem falsch verstandenen Bildungsauftrag einseitig gefärbte Emotionen öffentlich verarbeiten und alles anpissen, was nicht bei Drei auf dem Baum ist und sich ein grünes Tarnnetz über die Rübe zieht . :D
 
Im PCGH gibts ja auch diese diversen User, vom 3DC mal ganz abgesehen, die mit einem falsch verstandenen Bildungsauftrag einseitig gefärbte Emotionen öffentlich verarbeiten und alles anpissen, was nicht bei Drei auf dem Baum ist und sich ein grünes Tarnnetz über die Rübe zieht . :D

den kampf gegen die grünen trolle, habe ich aufgegeben... wenn schon wer seine 1080Ti gegen eine 2080 tauscht und die fakto als heiligen gral ansieht... das ding ist bei max. takt in nahezu jeder situation langsamer als die 1080Ti o_O und sobald man alles aufdreht und höhere auflösungen nutzt, ist die 1080Ti sogar auf einmal noch schneller, und ruckelt nicht lustig vor sich hin :geek:
 
Mal ne Frage an den Chef: diese ganze T-Gesellschaft hat was verwirrendes, von daher wüßte ich gern folgendes: welcher Wert ist am ehesten maßgeblich, wenn man hingehen und einen Vergleich anstellen will? Auch hinsichtlich der (anzunehmenden) Tatsache, dass nicht jeder und überall mit gleich 3 Werten aufwarten wird.
 
Zuletzt bearbeitet :
Im PCGH gibts ja auch diese diversen User, vom 3DC mal ganz abgesehen, die mit einem falsch verstandenen Bildungsauftrag einseitig gefärbte Emotionen öffentlich verarbeiten und alles anpissen, was nicht bei Drei auf dem Baum ist und sich ein grünes Tarnnetz über die Rübe zieht . :D
den kampf gegen die grünen trolle, habe ich aufgegeben... wenn schon wer seine 1080Ti gegen eine 2080 tauscht und die fakto als heiligen gral ansieht... das ding ist bei max. takt in nahezu jeder situation langsamer als die 1080Ti o_O und sobald man alles aufdreht und höhere auflösungen nutzt, ist die 1080Ti sogar auf einmal noch schneller, und ruckelt nicht lustig vor sich hin :geek:

Man muss aber auch sagen, in letzter Zeit war es besonders einfach, sich in die nVidia-Blase zu setzen. Einseitige Sichtweisen sind so schön einfach und bequem, da tut der Kopf nicht so weh. ;-) Im real life kann man das schön beobachten, wie sich bei manchen Menschen die Gesichtsmuskeln verkrampfen, wenn man differenziert argumentiert. Habt doch etwas Mitleid mit den fanatischen Befürworterjungs. ^^
 
Also mir tut der Kopf bei so einseitigen Sichtweisen weh. Das geht dann in Richtung Migräne :)
Edit: Wobei ich klarstellenmöchte: Es ist mir egal, ob die einseitige Sichtweise grün,rot oder blau ist.
 
Zuletzt bearbeitet :
Mal ne Frage an den Chef: diese ganze T-Gesellschaft hat was verwirrendes, von daher wüßte ich gern folgendes: welcher Wert ist am ehesten maßgeblich, wenn man hingehen und einen Vergleich anstellen will? Auch hinsichtlich der (anzunehmenden) Tatsache, dass nicht jeder und überall mit gleich 3 Werten aufwarten wird.

Bin zwar nicht der Chef, aber ich antworte mal trotzdem.
Ich würde sagen kommt drauf an was du wissen willst. Für den reinen Verbrauch und damit die NT wahl und was im Gehäuse landet die TBP(also Bordpower).

Wenn dich primär die Temperatur des Chips interessiert, ist die eigentlich TDP wichtiger, weil das ist was der Kühler primär am Chip kühlen muss und damit für Lautstärke und auch Overclocking interessant.

Beispiel VII: Der Chip ist kleiner, das Board sparsamer dementsprechend ist bei selber TBP gegenüber der V64 der Kühlungsaufwand am Chip höher weil mehr durch den Chip läuft als bei der V64.
 
Leistungsvergleich, Gurdi. Meinetwegen Leistungseffizienz. TBP war meine Vermutung, weil das der höchste Wert ist.
 
Leistungsvergleich, Gurdi. Meinetwegen Leistungseffizienz. TBP war meine Vermutung, weil das der höchste Wert ist.

Ja wenn man alles ausklammert nimmt am am besten die TBP, das ist dann der relevante Bezugswert der für Otto Normal entscheidend ist.
Da beide Karten im Vergleich auch GDDR6 nutzen bietet sich dieser eh an. Die 2070 dürfte etwas effizienter sein als die 5700X denke ich.
 
Für Otto, der mit dem Begriff erstmal nix anfangen kann, weil man dem seit x Jahren die TDP in die Augen schmiert. Die Leistungsspitzen mal ganz außen vor. Das ist der Otto, dem zB Gigabyte beim Kauf einer Radeon 7 zum Kauf eines 750W-Nts rät, MSI hingegen schreibt 650 und die anderen mal so, mal so (wenn überhaupt ne Angabe bzw Empfehlung wo steht).
Ottos Mops kotzt.
 
Ganz klar, da herrscht keine inhaltliche Linie. Daher auch aufklärende Artikel wie dieser die notwendig sind damit wenigstens ein paar etwas Durchblick haben.
 
Oben Unten