Kühler Brecher statt Fusionsreaktor: die GeForce RTX 3090 Ti stellt mit 300-Watt-Drossel die Effizienzliste auf den Kopf und schlägt die Radeons

Das hat nichts mit Verstehen zu tun. Was ich übrigens sehr gut kann, keine Sorge. ;) Und ich habe ehrlich gesagt keine Lust mir alle Kommentare durchzulesen.
Das ist schonmal Problem 1. Wenigstens die Artikel wären hilfreich.
Der Punkt ist einfach, irgendwo werden dann genau diese Diagramme gepostet, völlig aus dem Zusammenhang gerissen, und dann heisst es, "hey, schaut her, wie super toll effizient die 3090 Ti ist". Was sie eben nicht ist. Zumindest wenn man sie mit anderen Karten unter gleichen Voraussetzungen vergleicht. Daran ändert auch der Test nichts. Wie gesagt, dadurch entstehen Mythen. Schön und gut, dass Igor oft mehr ins Detail geht als andere Seiten. Man sollte trotzdem nie seine journalistische Verantwortung aus dem Blick verlieren, wenn man ein seriöses Portal betreibt.
Wie gesagt: Kontext. Und ja, auf dem dargestellten Niveau wird hier selten diskutiert. Das können andere so handhaben, ist aber doch nicht Igors Problem.
Die 3090 Ti ist Brechstange pur. Überteuert, ineffizient, kaum ein Mehrwert zur 3090 vorhanden. Und dafür wurde die Karte auch zurecht von der versammelten Presse abgestraft. Ich finde es einfach nicht gut, wenn man dann künstlich Testbedingungen schafft, um das ganze zu relativieren. Das wird der Thematik einfach nicht gerecht. Wenn sich Hersteller dadurch auch noch bestätigt fühlen, dann ist das doppelt verwerflich. Wenn ich beim Nachfolger Lovelace von bis zu 600-850W aus der Gerüchteküche lesen muss, dann kann man nur noch den Kopf schütteln.
Und genau darum geht es bei den gesamten Berichten und Tests, die hier im Zusammenhang mit Lovelace veröffentlicht wurden.
 
Kann mich dem von @grimm Geschriebenem nur anschließen. In keinem der Artikel von Igor kann ich irgendwo erkennen, dass er den Hersteller solch eines überteuerten Monstrums bestätigt. Und auch keineswegs irgendetwas speziell positives zum Ausblick auf die neue Generation.
Und wenn man solch einen Test nicht zu würdigen weiß oder dieser einen nicht interessiert, vor allem die Arbeit, die darin steckt, sollte man sich vielleicht mit solchen entwürdigenden Kommentaren zurück halten. Denn das ist es, was man macht, wenn man den Kontext eines Artikels nicht versteht und dann sein Desinteresse in solch einer Weise zur Schau stellt @gruffi

Nur meine 2 Cent.....
 
Wenn man zu faul ist, die Kommentare zu lesen , ... dann kann man nach m.E. auch NIX verstehen.
Gerade der Post von mir, wo SH aus dem Luxx seine Ti bei 516W mal voll ausgenutzt hat, zeigt doch die deutlich bessere Stromversorgung
und Spikeregelung der Ti, wo ne normale 3090-OC ein viiiiel größeres NT bräuchte, um stabil zu bleiben.(und auch mehr W+V)
und
Die Ti kann mit mehr Shadern für selbe Fps dann ein mue niedriger takten und viiiiel effizienter sein.
(ne olle 3090-OC wäre dann wohl schon bei >2300MHz, was kaum unter normalem h2o ohne Chiller+Shuntmodd zu schaffen ist)
und
Was man net beziffern kann, aber die Haltbarkeit vom Vram dürfte mit den besseren Temps auch deutlich länger sein.
Für mich ist die Ti das, was die 3090 eigentlich hätte sein sollen.

Wer ernsthaft Interesse hat, kann sich im Luxx bei den OCern schlau machen, wieviel W+V man so tatsächlich braucht.
Hier mal noch ein User, der mit 450W-Setting mit nem 700W-NT auskommt:
 

Anhänge

  • 3090Ti@450W_700WNT.JPG
    3090Ti@450W_700WNT.JPG
    77,1 KB · Aufrufe : 6
Zuletzt bearbeitet :
Das hat nichts mit Verstehen zu tun. Was ich übrigens sehr gut kann, keine Sorge. ;) Und ich habe ehrlich gesagt keine Lust mir alle Kommentare durchzulesen. Der Punkt ist einfach, irgendwo werden dann genau diese Diagramme gepostet, völlig aus dem Zusammenhang gerissen, und dann heisst es, "hey, schaut her, wie super toll effizient die 3090 Ti ist". Was sie eben nicht ist. Zumindest wenn man sie mit anderen Karten unter gleichen Voraussetzungen vergleicht. Daran ändert auch der Test nichts. Wie gesagt, dadurch entstehen Mythen. Schön und gut, dass Igor oft mehr ins Detail geht als andere Seiten. Man sollte trotzdem nie seine journalistische Verantwortung aus dem Blick verlieren, wenn man ein seriöses Portal betreibt. Die 3090 Ti ist Brechstange pur. Überteuert, ineffizient, kaum ein Mehrwert zur 3090 vorhanden. Und dafür wurde die Karte auch zurecht von der versammelten Presse abgestraft. Ich finde es einfach nicht gut, wenn man dann künstlich Testbedingungen schafft, um das ganze zu relativieren. Das wird der Thematik einfach nicht gerecht. Wenn sich Hersteller dadurch auch noch bestätigt fühlen, dann ist das doppelt verwerflich. Wenn ich beim Nachfolger Lovelace von bis zu 600-850W aus der Gerüchteküche lesen muss, dann kann man nur noch den Kopf schütteln.
Natürlich,wenn DU nicht alles gelesen hast was hier geschrieben wurde,das beste Beispiel dafür.DU hast es ja Verstanden,nur andere nicht. ;)
Wow, mega Ergebnis!
Ich glaube die Karte auf 300W eingebremst in Kombination mit dem Ryzen 5700X wäre der effizienteste Gamer PC :)
Alien vs Predator Benchmark,RX6900XT Default mit Silent Bios 255Watt vs 230Watt Optimiert.
Default 255Watt 437.8
Optimiert 230Watt 447.7

Weniger Verbrauch mehr Leistung.
Es wurde halt noch kein Test gemacht der genau DAS zeigt.
 

Anhänge

  • Default.txt
    734 Bytes · Aufrufe : 1
  • 230Watt.txt
    734 Bytes · Aufrufe : 1
Doch, hier z.B.
Das ist aber wieder nur Eine Grafikkarte und wenn man die RX6900XT nimmt,schaut die RX6800 schon ziemlich alt aus.........
Das ist mit 230Watt gemessen weil ich das 125Watt Profil nicht mehr habe.
PSU max 424Watt bei 231Watt TGP.
unknown_2022.04.13-11.41.png

Gehe ich jetzt mit den Punkten runter,bin ich bei rund 125Watt.
424Watt - 231Watt + 126Watt =320Watt PSU ;)
Ich habe mit RGB,Wasserkühlung aber auch schon eine recht hohen Idle Verbrauch.
unknown_2022.01.05-18.17.png


Wenn DU mal ein 230Watt Profil hast kannst ja mal was Vorlegen.

Man könnte natürlich auch mal nen Thread machen mit festen Regeln und aus jedem Lager die 3 Top Karten.
 
Zuletzt bearbeitet :
Das ist - mit Verlaub - Quatsch! Ich hab jetzt diverse Displays durch - von 75Hz (WQHD, Adaptive Sync) über 144/165Hz (WQHD, G-Sync) bis aktuell wieder 60Hz (UHD, FreeSync). Ich kann beim besten Willen keinen Unterschied bei der Hertz-Zahl oder den FPS feststellen, solange eine Synch-Technologie aktiviert ist. Ich kann Benchmarks laufen lassen und über die jeweils gerenderten Frames staunen, aber Unterschiede sehen kann ich nicht. Mag sein, dass ich alt bin. Aber da ruckelt nix, da gibts kein Tearing, die Grafik ist butterweich und gestochen scharf.

Mir sind die ganzen Videos mit den Shootern bekannt. Trainiertes Auge, Hochgeschwindigkeits-Aufnahmen, ... Vielleicht spielt die Reaktionszeit des Displays irgendwann eine größere Rolle als die Hz-Zahl? Whatever - wenn du eine flotte GraKa an nem gesynchten Display betreibst, ist es wurscht, ob du 58, 60, 75 oder 180.000 FPS produzierst. Außer in niedrig aufgelösten, kompetitiven Shootern macht es keinen Unterschied. Meine Meinung.
Wenn da so weiter geht, werden wir noch ziemlich beste Freunde. Ich hab aktuell 3 Displays angeschlossen. Mein Gamingdisplay läuft max bei 144Hz der Rest bei 100Hz. Der Benefit bei 100 respektive 144 Hz hält sich in engen Grenzen. Vielleicht bin ich aber auch zu alt.;)
 
Wenn da so weiter geht, werden wir noch ziemlich beste Freunde. Ich hab aktuell 3 Displays angeschlossen. Mein Gamingdisplay läuft max bei 144Hz der Rest bei 100Hz. Der Benefit bei 100 respektive 144 Hz hält sich in engen Grenzen. Vielleicht bin ich aber auch zu alt.;)
Ich bemerke keinen. Klar ist mein System optimiert und die GraKa hat Leistung im Überfluss.
Hier eine gute Zusammenfassung - "der eine sagt... " ... "könne man wahrnehmen"... "90 Hertz könne man noch gut wahrnehmen, danach nehme die Sensibilität ab" ... "ob am Ende 180 oder 200Hz wahrgenommen werden sei nicht bekannt" - klar ist doch: je mehr FPS mit geringer Latenz dargestellt werden, umso besser. Aber ab 60 Hertz/FPS wird's akademisch oder Verkoofe.
 
Also ich habe noch einen unterschied zwischen 100Hz ud 120Hz bemerkt, danach hört es bei mir so langsam auf.
Wenn ich von meinem 144Hz an den meines Sohnes 60Hz wechsle hab ich erstmal echt probleme, das legt sich dann aber auch wieder.
Man gewöhnt sich einfach drann.
 
Ich bemerke keinen. Klar ist mein System optimiert und die GraKa hat Leistung im Überfluss.
Hier eine gute Zusammenfassung - "der eine sagt... " ... "könne man wahrnehmen"... "90 Hertz könne man noch gut wahrnehmen, danach nehme die Sensibilität ab" ... "ob am Ende 180 oder 200Hz wahrgenommen werden sei nicht bekannt" - klar ist doch: je mehr FPS mit geringer Latenz dargestellt werden, umso besser. Aber ab 60 Hertz/FPS wird's akademisch oder Verkoofe.
Genau dann dem Punkt wird es aber ernsthaft richtig enspannend. Ich hab ja die 3080ti gekauft für meine Oculus und falls ich mal mit dem 70 Zoll zocken möchte. Hier ist aber über den Eingang bei 60 Hertz schluss. Mir reicht das. Wenn ich mich also auf 60-100Hz beschränke hab ich die nächsten Jahre keine Probleme mehr, zumindest nicht mit einer 6800XT-6900XT oder einer 3080-TI- 3090.

Bei einer Auflösung von 4K wird auch die CPU ab einer gewissen Leistungsfähigkeit sekundär. Mit dieser Framezahlbeschränkung sowieso.

Das wiederum läst dann so ziemlich alle Diskussionen rund um Ram, Sockel, CPU etc. ziemlich akademisch werden und für Durchnittsuser unter der Vorraussetzung irrelevant. Das einzige was mich immer in Hardwareexzesse getrieben hat, war ja nur und ausschließlich Gaming. Deswegen schaue ich völlig entspannt auf die nächste Generation von was auch immer.
 
Hier eine gute Zusammenfassung
Ich finde in dem Artikel nicht mehr, als das seit Jahren wiederholte Halbwissen. Wenn man wissen will, was es bringt, muss man die Gamer von schnellen Shotern fragen und nicht einen Redakteur der verschiedene alte Beiträge zusammen schneidet.

Es sind zwei Effekte, die eine Rolle spielen. Bei einer hohen Frequenz sind die Bilder früher zu sehen (Latenz) und dadurch kann man schneller darauf reagieren. Bei einer höheren Frequenz fliessen die Bewegungen im Bild aber auch sanfter, gleichmässiger und sind dadurch besser einschätzbar. Bei tieferen Frequenzen ruckeln schnelle Bewegungen und das ist anstrengender für unser Gehirn als wenn etwas sanft zu fliessen scheint.

Nebenbei flackern Sparlampen und LEDs nicht mit 50 oder 60 Hz sondern mit 100 Hz. Für Sparlampen und LEDs wird der Strom gleichgerichtet und dann geglättet. Strom mit 50 Hz hat 100 Halbphasen. Mit einem Kondensator wird der Strom dann geglättet, so dass der Strom dazwischen nicht zu stark abfällt. Gute Lampen unterscheiden sich von schlechten dadurch, dass sie grössere Kondensatoren haben, die die Spannung zwischen den Halbphasen weniger stark abfallen lassen. Was die Erkennbarkeit von flackernden Lampen mit der Frequenz eines Bildschirms zu tun hat, ist mit aber nicht ersichtlich. Das sind 2 unterschiedliche Sachverhalte, die nichts mit einander zu tun haben (fliessender Bildlauf, Flimmern).
 
Das sind 2 unterschiedliche Sachverhalte, die nichts mit einander zu tun haben (fliessender Bildlauf, Flimmern).
Naja würde ich jetzt nicht so stark differenzieren,Zusammenhänge sind immer da,man muss sie nur Verstehen.
Was hat eine Felge mit Reifen mit der Erde und dem Klimawandel zu tun........;)
 
Ich finde in dem Artikel nicht mehr, als das seit Jahren wiederholte Halbwissen. Wenn man wissen will, was es bringt, muss man die Gamer von schnellen Shotern fragen und nicht einen Redakteur der verschiedene alte Beiträge zusammen schneidet.

Es sind zwei Effekte, die eine Rolle spielen. Bei einer hohen Frequenz sind die Bilder früher zu sehen (Latenz) und dadurch kann man schneller darauf reagieren. Bei einer höheren Frequenz fliessen die Bewegungen im Bild aber auch sanfter, gleichmässiger und sind dadurch besser einschätzbar. Bei tieferen Frequenzen ruckeln schnelle Bewegungen und das ist anstrengender für unser Gehirn als wenn etwas sanft zu fliessen scheint.

Nebenbei flackern Sparlampen und LEDs nicht mit 50 oder 60 Hz sondern mit 100 Hz. Für Sparlampen und LEDs wird der Strom gleichgerichtet und dann geglättet. Strom mit 50 Hz hat 100 Halbphasen. Mit einem Kondensator wird der Strom dann geglättet, so dass der Strom dazwischen nicht zu stark abfällt. Gute Lampen unterscheiden sich von schlechten dadurch, dass sie grössere Kondensatoren haben, die die Spannung zwischen den Halbphasen weniger stark abfallen lassen. Was die Erkennbarkeit von flackernden Lampen mit der Frequenz eines Bildschirms zu tun hat, ist mit aber nicht ersichtlich. Das sind 2 unterschiedliche Sachverhalte, die nichts mit einander zu tun haben (fliessender Bildlauf, Flimmern).
Glaub ich dir alles unbesehen aber was nutzt dir die teuerste High-End Anlage wenn du alterbedingt einen geringeren Frequenzgang hörst. Ich spiele fast auschließlich Shooter, aber mir ( und ich spreche ausschließlich von mir) reicht das.

Wenn ich gegen Junge Leute spiele (eigentlich so ziemlich egal was) spielt die Hertzzahl eher eine untergeordnetet Rolle. Hier verliere ich immer aufgrund deren besseren kognitiven Fähigkeiten und schnellerer Reaktionszeiten.

Bei Turnieren gelten doch mittlerweile Gamer mit Ende 20 schon als zu alt.
 
Glaub ich dir alles unbesehen aber was nutzt dir die teuerste High-End Anlage wenn du alterbedingt einen geringeren Frequenzgang hörst. Ich spiele fast auschließlich Shooter, aber mir ( und ich spreche ausschließlich von mir) reicht das.

Wenn ich gegen Junge Leute spiele (eigentlich so ziemlich egal was) spielt die Hertzzahl eher eine untergeordnetet Rolle. Hier verliere ich immer aufgrund deren besseren kognitiven Fähigkeiten und schnellerer Reaktionszeiten.

Bei Turnieren gelten doch mittlerweile Gamer mit Ende 20 schon als zu alt.
Spiele auch fast nur Shooter online. Entweder das matchmaking ist gut oder ich habe für 40J noch sehr gute reflexe 😄.
 
Ich finde es nicht sinnvoll und aussagekräftig, die Energieeffizienz an verschiedenen Punkten auf ihrer Effizienzkurve zu vergleichen.
Solange man sich dessen bewusst ist, finde ich es schon ok. Aber ja, interessant wäre eben auch der Vergleich mit anderen optimierten Karten, ggf. sogar eine Effizienzrangliste mit optimal laufenden Karten (wobei hier natürlich auch die Lotterie eine gewisse Rolle spielt).
 
Das alleinige Absenken des Power-Limits ist hier witzlos, vor allem bei dieser Karte.
Mich würde da interessieren: Nachdem die Karte ja unterhalb von 0,9V den Speicher nicht mehr hochtakten will/kann - wie schaut es dann aus, wenn die Karte aufgrund einer Beschränkung durch das Powerlimit ebenfalls in diesem Spannungsbereich taktet?

Die Frage habe ich mir schon seit der 0,9V-Erkenntnis gestellt, aber bisher noch niemanden gefunden, der es mal ausprobiert hat ;)
 
Gibt es eine Anleitung wie man bei einer 6900xt den sweetspot findet?
Grüße :)
 
Gibt es eine Anleitung wie man bei einer 6900xt den sweetspot findet?
Grüße :)
Ein Guide ist oben bereits verlinkt. Allgemein kann man das dort herauslesen, aber bei deiner spezifischen Karte kann der durchaus woanders liegen.

@Martin Gut Genau. Es gibt nämlich keine neueren Erkenntnisse. Mir sind die Unterschiede allesamt bekannt - Bewegung, Objekt-Verfolgung, Licht-Flackern, ... Genau deshalb hab ich ja die unterschiedlichen Displays ausprobiert. Und für meine Person herausgefunden, dass es egal ist.

@Megaone Same here. 4K@60Hz/FPS gesyncht. Karte bei 50-70% Auslastung. So what?
 
Oben Unten