Nachlese samt Fass ohne Boden: Die RTX 3090 Ti und das, was danach von AMD und NVIDIA noch kommen soll

Wie die Zeiten sich doch ändern :).

Noch garnicht so lange her, dass ich von den Mods hier im Forum "gebeten" wurde, meine grüne Ader doch zu zügeln. Und von einigen Foren Nutzern teils heftig angegangen wurde, wenn ich Bedenken zu 400++++ Watt Backöfen nur zum Zocken äußerte.

Jedes Haushaltsgerät ist mittlerweile mit Verbrauchsklassen makiert (A++ bis irgend was). Jeder Hausbesitzer kennt die Auflagen, die man zum Energiesparen einhalten muss. Selbst bei Autos werden die Richtlinien immer Strenger (für mich noch lang nicht streng genug!! SuVs und 200+PS braucht kein Mensch).

Bei jeder Tomate wird mir gesagt, dass ich selbst die matschigsten noch kleinschneiden und nutzen soll. Und am besten nur noch 3 Minuten KALT Duschen.

Aber in der Freizeit darf man rausballern was nur geht. Bis das Klima total im Eimer ist.

Krieg ist scheiße ... den Nebeneffekt der hohen Energiepreise begrüße ich jedoch /flame ON.
 
Guter Beitrag, Igor.

Ich sehe das so: von Generation zu Generation wird die Leistung höher und verbraucht mehr Strom.
Wenn ich aber 2 Generationen hinter dem Neuesten bleibe, und dann die Leistung per Software beschneide, habe ich mit der neueren Lösung immer noch wesentlich bessere Leistung als mein oller Kram, und durchaus vergleichbaren Verbrauch.

Ich glaube, die GPUs werden sich ähnlich der CPUs daran gewöhnen müssen, daß den Leuten der Verbrauch nicht egal ist. Manche machen es ja jetzt schon per "silent BIOS switch".

Ich mach's per software. Bei so Pi mal Daumen dem gleichen Verbrauch ist ne 3080Ti gut flotter als 'ne 1080.

Es gibt die tools, den Grafikkarten den Verbrauch einzuschränken zzgl. Verbrauch oder Temperatur und so. Das wird in Zukunft bestimmt erweitert und beworben. "Benchmarks bei voller Sau" werden immer da sein. Aber ich glaube "Benchmarks bei XYZ Verbrauch" kann und soll mehr Beachten haben.
 
Und, selbst für diejenigen, bei denen der Strom nur so aus der Steckdose kommt, wartet dann monatlich die Stromrechnung in der Inbox oder dem Briefkasten. Und wenn das mit den Energiepreisen so weitergeht, werden 3 Stunden Daddeln pro Tag mit pro Stunde 500 W eben auch recht teuer. Wobei dies diejenigen, die sich eine 3090 Ti leisten können, wohl auch nicht mehr juckt.
 
Danke für den guten Beitrag, Igor. Du Triffst genau meinen Nerv.

Was jetzt schon von der nächsten GraKa Generation geleakt wird, empfinde ich einfach nur als absurd was für Stromfresser da kommen werden. Ich habe mich bei meiner aktuellen Konfiguration bewusst gegen Ampere und große CPUs entschieden, lasse die 6800XT auch im 2nd BIOS laufen, weil der Mehrverbrauch im 1st BIOS für 2-3 FPS nicht gerechtfertigt ist. Auch die 5600X genügt meinen Ansprüchen völlig.
Für mich persönlich steht die Effizienz immer im Vordergrund und nachrangig die Performance. Selbst wenn die kommende Generation an Grafikkarten 70% Mehrleistung bringen sollte, dafür aber 450 Watt und mehr brauchen sollten, verzichte ich dankend darauf. Was soll denn der Quatsch? Wir sprechen alle von Energiesparen, Klimaschutz, Begrenzung der Erderwärmung (und ich bin auch kein Grüner), aber die Hersteller ballern dann solche Strommonster raus! Das trifft bei mir auf völliges Unverständnis.
NVIDIA und AMD (und seit diesem Jahr auch Intel) sollten hier m. M. n. einen anderen Kurs einschlagen, nämlich zeigen wie Next Gen Leistung und Leistungssteigerungen mit wenig Stromaufnahme möglich ist. Die Hersteller sind so groß, dass sie eine Vorbildfunktion erfüllen können. Und das wäre meiner Ansicht nach der richtige Kurs. Zeigt mir mehr Leistung als die 3090Ti hat und das mit einem Stromverbrauch, der unterhalb von 250 Watt liegt. Damit wäre auch die grüne Seele des Gamers bedient und dennoch der Gedanke des höher, schneller, weiter bedient.
 
Bei der aktuellen Generation trifft das ziemlich gut auf die 6800 (non-XT) zu, die effizienteste RDNA2-GPU und iirc auch effizienter als alle Ampere-GPUs. Blöderweise hatte AMD bei den Leistungsklassen darunter wieder auf die Effizienz gepfiffen.
Weil das halt teuer ist. Die 6800 ist grob 20% schneller als die 6700XT, der Chip ist aber grob 50% größer (und damit erheblich teurer), dazu noch mehr Ram Chips, vermutlich teurere Platine...
Ist halt ähnlich wie bei der R9 Nano damals: Teurer Chip ergibt teure Karte, da wollen die meisten dann auch entsprechend maximale Leistung und die Effizienz interessiert nur nebenbei bis gar nicht.
 
Jetzt warten wir's doch erst mal ab. Es ist ja wohl davon auszugehen, dass der Wechsel von 8 auf 5 nm dazu führen wird, dass man mit weniger Stromverbrauch dieselbe Leistung bekommen wird, d.h. wofür man bei Ampere jetzt noch 3060-3090 benötigt, werden bei Lovelace 4050-4070 ausreichen, bei insgesamt eher niedrigerem Stromverbrauch. Dass dann 4080 und 4090 am oberen Ende einerseits Leistung bieten werden, die es bei Ampere gar nicht gibt - auch nicht mit einer 3090 - und andererseits saufen werden ohne Ende, mag stimmen, aber die muss man ja nicht zwingend kaufen - und das tut ja auch, gemessen am Gesamtmarkt, nur ein kleiner Bruchteil. Und undervolten kann man auch immer noch ...
 
Tja.
Beim Sweetspot habe ich schon den Glauben verloren. Es wurde hier ja offenbar schon angesprochen mit 6800 vs 6700XT. Wobei die RDNA2-GPUs ja noch ziemlich gut bei der Geschichte abschneiden, aber die 6700 hätte man ja noch viel besser machen können.
siehe auch
Weil das halt teuer ist. Die 6800 ist grob 20% schneller als die 6700XT, der Chip ist aber grob 50% größer (und damit erheblich teurer), dazu noch mehr Ram Chips, vermutlich teurere Platine...
Abgesehen davon müsste der Hersteller natürlich "irgendetwas" tun, damit die langsameren Karten dann doch nicht höher getaktet usw. werden.
Wobei ich zur 6700XT sagen muss: meine Sapphire ist eigentlich ziemlich gut dabei. Silent-Bios drauf und auf 175W reduziert, undervolted, gleichen Takt wie vorher. Schon ok. Für das bisschen, was ich mal daddele ist das eigentlich schon zu viel noch. Es ginge bestimmt noch besser, wenn man mehr Arbeit reinsetzen würde. Wichtiger für weniger Lautstärke wäre bei mir wohl mal nach der WLP zu schaun, weil GPU-Hotspot 25°+ über GPU-Temp ist schon recht sportlich und das freut die Lüftersteuerung nicht so.
Aber davon ab: ich glaube irgendwie nicht, dass sich die Hersteller von tiefer, härter, breiter so schnell abbringen lassen.
Es könnte natürlich sein, dass Intel da mit gut&günstig etwas bereitstellt, was den Markt ändert. Aber dafür müssen die Produkte dann so richtig zünden mit Lieferbarkeit, Preis, Treiber, allgemeine Qualität.
Wird sich zeigen, ich bin mir da nicht so sicher. Wenn die Industrie schon die neuen Netzteilanforderungen so gepusht hat, wird es da wohl eine Grundausrichtung in die Richtung geben. Leider. +100-150W oder so für 5% ist natürlich total absurd; also das muss man mal über den Daumen peilen. Irgendwas bei 25% mehr Leistungsaufnahme und 5% mehr Leistung am Ende, ja WENN denn überhaupt. Bekloppt.
 
Interessanter Beitrag. Mich persönlich interessiert der Energieumsatz im theoretischen Bereich als solches nicht im geringsten.
Sollen die halt nen paar Windmühlen mehr in die Pampa stellen. Ist nicht so als hätten wir als Spezies dafür keine technische Lösung die auch mit der Umwelt harmoniert.

Was mich viel eher stört, ist dass fast der gesamte Betrag in sinnlose Wärme umgesetzt wird. Wenn man im Sommer so schon 30°C im Raum hat, kann ich mir nicht vorstellen, mit so einem Ungetüm Spaß am Daddeln zu haben ohne dabei in den flüssigen Aggregatszustand zu wechseln.

Grundsätzlich sehe ich es so:
Es wurde auf mehreren Ebenen gepennt, was diese Entwicklung "problematisch" bzw. "nötig" macht.

  1. Die Politik hat gepennt. Jetzt wo Mütterchen Russland auf einmal grumpy ist, fällt den allen auf, dass wir auf erneuerbare setzen sollten. Ja guten Morgen.
  2. Die Wirtschaft hat das Pennen der Politik weidlich ausgenutzt. Anstatt die Technologie, welche wir schon länger haben, für den Ausbau der regenerativen Energieerzeugung einzusetzen und zu investieren, wurde der Karren lieber in bekannten Bahnen gehalten um Profite zu maximieren.
  3. Die Programmierung ist rotz. Optimisierung ist verpönt und kostet Entwicklungszeit. Warum also wenn die User sich doch einfach overkill Hardware kaufen können um ineffiziente Ports per Brute-Force auf spielbare FPS zu bringen?
  4. High FPS und Auflösungswahn (das Pennen der Consumer) Ja, ich brauch natürlich einen 27" 165HZ 4K Monitor ... damit ich auch mit der Lupe ja keine Pixel mehr sehen kann. :rolleyes: o.k. nich jeder hat -6 Dpt wie ich aber dennoch: irgendwann muss man mal realisieren, dass die Wirtschaft einem blödsinnigen Overkill andrehen will, nur um mit größeren Zahlenwerten Verkäufe anzukurbeln.
Wie war das? Wir arbeiten hart um uns Dinge zu kaufen die wir nicht brauchen, damit wir Leute beeidrucken können die wir nicht mögen.

Mit guter Optimierung des codes, sinnvollen Qualitätseinstellungen und durchdachter Hardware kann man games designen und spielen die das Auge erfreuen... ohne dafür in ein privates Windkraftwerk investieren zu müssen. Dazu müssen aber alle Parteien zusammenkommen: User müssen ein paar kleine Abstriche machen, Developer wieder mehr Liebe zum Detail in die technischen Aspekte stecken, auch wenns Geld kostet, und die Politik/Wirtschaft endlich auf nachhaltige Technologien umstellen.
 
Den Tag möchte ich mal erleben, ja die Nanometer gehen immer weiter runter, aber der Strombedarf immer höher, und da wird sich so schnell nichts daran ändern, wenn die Hersteller gleich mit der Brechstange kommen und ums Verrecken immer die Besten und Stärksten sein wollen.
Ich habe das jetzt 20 Jahre mitgemacht, und jetzt in unserer wirtschaftlichen Lage habe ich die Schnauze voll, so viel Strom dafür zu bezahlen. Dann mache ich halt Abstriche und benutze mehr die Switch, die ich über Eigensolaranlage(autark) wieder kostenlos auflade.
 
Gestern abend die A6000 auf 200 Watt gedrosselt, Und trotzdem in UHD flüssig mit RT gedaddelt - DLSS 2.0 sei Dank. Knackscharf und schnell genug. Dazu ohne Ruckler :D
 
Gestern abend die A6000 auf 200 Watt gedrosselt, Und trotzdem in UHD flüssig mit RT gedaddelt - DLSS 2.0 sei Dank. Knackscharf und schnell genug. Dazu ohne Ruckler :D
Ich denke darauf wirds auch bei mir hinauslaufen, wenn ich im Herbst dann nach 10,5 Jahren endlich mal mein System aufrüste.
Geplant ist eine 4070/80 je nachdem, werde dann aber auch via FPS limitierung und evtl. untervolting drosseln.
 
Gestern abend die A6000 auf 200 Watt gedrosselt
Schade das solche Tests sehr zeitintensiv sind, mich hätte es interessiert, wie sich die 3090ti bei 300Watt Limit schlägt.
Vorauszusehen war der hohe Verbrauch der Ti, weil schon die 3090 am Limit läuft und kaum mehr Leistung liefert.
 
Habe gestern mal auf 200Watt gedrosselt. Warzone läuft auch damit mit 143FPS. ( gut das ist auch sonnst mit Max 235Watt bei 143FPS recht genügsam )
Aber das ist extem Spiel abhängig, habe mir mit dem MPT bis -50% Watt eingestellt und kann mir das pro Spiel jetzt schön einrichten.
 
Ja ich habe das auch schon in meinem Kommentar zum Launchtest anklingen lassen.
Was fa aktuell abgeht mit den immer extremeren Wattzahlen ist einfach nicht mehr normal und es graust einen ja schon fast dann vor der nächsten Graka-Generation.
Denn wohin soll das führen?
Soll das eine Art Nachtspeicherheizung für den PC werden?
Und klar man kann das fürdes Spiel extra einstellen.. nur wer macht das schon? Vlt die Cracks, aber der Ottonormalverbraucher wird das wohl kaum machen.
Bzw...wo ist der Sinn so eine Graka massiv in der Liestungsaufnahme zu beschneiden?
Dann laufe ich mir lieber ein Model das 2-3 Stufen darunter liegt, wenn ich damit das Resultat bekomme, wie nach der Leistungsaufnahmebeschneidung.
Das schont von vorneherein meinen Geldbeutel.
Denn..sorry an alle, denen ich jetzt auf den Fuss trete, aber ich denke wer sich einfach so eine Graka kauft und die dann anschließend beschneidet in der Leistungsuafnahme.. muss einfach etwas überkompensieren.
 
Ja ich habe das auch schon in meinem Kommentar zum Launchtest anklingen lassen.
Was fa aktuell abgeht mit den immer extremeren Wattzahlen ist einfach nicht mehr normal und es graust einen ja schon fast dann vor der nächsten Graka-Generation.
Denn wohin soll das führen?
Soll das eine Art Nachtspeicherheizung für den PC werden?
Und klar man kann das fürdes Spiel extra einstellen.. nur wer macht das schon? Vlt die Cracks, aber der Ottonormalverbraucher wird das wohl kaum machen.
Bzw...wo ist der Sinn so eine Graka massiv in der Liestungsaufnahme zu beschneiden?
Dann laufe ich mir lieber ein Model das 2-3 Stufen darunter liegt, wenn ich damit das Resultat bekomme, wie nach der Leistungsaufnahmebeschneidung.
Das schont von vorneherein meinen Geldbeutel.
Denn..sorry an alle, denen ich jetzt auf den Fuss trete, aber ich denke wer sich einfach so eine Graka kauft und die dann anschließend beschneidet in der Leistungsuafnahme.. muss einfach etwas überkompensieren.
Mir macht das testen der Hardware meist mehr Spaß wie das eigentliche Spielen. Kompensieren muss ich da nix ;).
 
Aber hast schon recht das Otto normal sowas nicht macht.
 
Aktuell habe ich noch eine 2060 Super und eigentlich reicht die selbst für 2k locker aus (gucke auf keine FPS und drehe auch keine Grafikeinstellungen nach oben). Sie läuft aktuell auf 1815 Mhz und schluckt knapp 145 Watt. Trotzdem muss ich mich jede Woche aufs neue zügeln das ich mir nicht doch eine 3070 hole ... Anstrengend :) Das gleiche Spiel mit dem aktuell verbauten 2700x. Läuft alles damit und trotzdem schiele ich auf den kommenden 5700x,, Da kann ich mir dann mit dem Stromverbrauch die Neuanschaffung schön reden. Aber bis ich den gesparten Strom im Verhältnis zum Preis für die Neuanschaffung wieder drin habe vergehen Jahre...
 
Dann laufe ich mir lieber ein Model das 2-3 Stufen darunter liegt, wenn ich damit das Resultat bekomme, wie nach der Leistungsaufnahmebeschneidung.
Modelle skalieren nicht ausschließlich nur durch den Takt, als mitunter auch in der Breite.

Dickere Modelle mit Taktraten darunterliegender können immer noch deutlich mehr Leistung auf die Straße bringen.

Ob das sinnvoll ist, ist dabei eine andere Frage.

Davon ab, meist sind 5-15% Spannungsreduktion mit zusätzlichem OC ohne Weiteres möglich, je nach Chipglück.

Gilt meist durch die Bank, sprich für alle Karten und kann man gerne mitnehmen ;)

Meine 6900 mit -10% schafft rund 2735mhz bei ca. 1.1V.

Aus reiner Voltagebetrachtung, verglichen zu anderen Chips, scheint meine Karte (leider) nicht sonderlich hervorzustechen.

Meine 1650 Super Eagle Taktet mehrere hundert Mhz höher als angegeben, mit einer ordentlich abgesenkter Spannungskurve on top.

Sweetspotauslotung ist ein Hobby an sich und keins, an dem der Hersteller und die meisten Laien interessiert sein dürften.
 
Zuletzt bearbeitet :
Denn..sorry an alle, denen ich jetzt auf den Fuss trete, aber ich denke wer sich einfach so eine Graka kauft und die dann anschließend beschneidet in der Leistungsuafnahme.. muss einfach etwas überkompensieren.

Da bin ich anderer Meinung.
Wenn du die schwächere Karte auf Anschlag fahren musst,wird diese sehr warm (heiß).
Die größere Karte wird mit einem intelligenten UV gerade mal lauwarm (Langlebigkeit) und verliert dadurch kaum Leistung.
Siehe Igor mit seiner A6000 und 200 Watt Verbrauch (# 70)
Wer also genug Geld hat um ins obere Regal zu greifen(leider nicht mein Fall),kann mit UV die Temperaturen in den meisten Situationen niedrig halten und,wenn er es braucht,ohne UV die Pferde loslassen.

Trotzdem bin ich natürlich auch deiner Meinung,dass diese hohen Watt-zahlen in die falsche Richtung zeigen....
 
in den "75W" sind sicherlich immer die bis zu 9,9W auf 3,3V mit drin. Max Limit ist 75W auf 3,3+12V
 
Oben Unten