Nachlese samt Fass ohne Boden: Die RTX 3090 Ti und das, was danach von AMD und NVIDIA noch kommen soll

Danke für das Statement! Ich bin da immer ambivalent und entdecke teilweise schizophrene Züge bei mir. Zum einen ist Gaming mein Hobby und ich möchte das in so chic wie möglich betreiben, daher auch per 6900 XT auf 4K gegangen. Zum anderen ist das auch tatsächlich die Grenze, die ich zu investieren bereit bin. Monetär wie energetisch.

Nach allem, was ich so sehe, gibt es auf Seiten der Entwickler eine Menge zu tun, denn auf den Konsolen kriegen sie komischerweise gute Grafik mit vergleichsweise "normaler" Hardware hin. Wenn ich sehe, wie optimiert ein Forza Horizon 5 läuft und dagegen dann ein Elex 2 (mir ist klar, dass das Geld dahinter nicht das gleiche ist) ...

Ich frage ich mich aber auch, wer bzw wie viele wirklich mehr Leistung benötigen. Die aktuelle Highend-Generation schafft UHD outmaxed >60 Hz flüssig. Was brauche ich denn noch? Man hat ja mit DLSS / FSR oder Synch-Technik noch eine ganze Schar an Hilfsmitteln, die trotz durchschnittlicher Leistung ein flüssiges Erlebnis hinzaubern. Ja "Enthusiasten" - aber jetzt mal ehrlich: Wem fehlt was? Doch wirklich nur den Menschen, die mal kurz in FHD ne Runde zocken wollen und dafür aktuell +300 EUR ausgeben müssen, also die Einstiegs- und Mittelklasse.

Und ich bin auch von der "Enthusiasten"-Argumentation alles andere als überzeugt - denn pures Bigger-Better-More hat imho nix mit Hardware-Enthusiasmus zu tun. Gerade im Enthusiast-Bereich geht es doch um die beste Lösung - bezogen auf alle Bereiche. Also den höchsten Takt bei den niedrigsten Temps und einer geringen Geräuschkulisse. Das kann doch nur ein Kompromiss sein - oder eine fein austarierte Custom-Karte. Ich hätte Interesse bzw. habe erst kürzlich mit der 6900 XT Toxic ein sehr feines Stück Hardware geschossen.
 
Es ging mir um den Gummiband-Effekt. Es ist bedenklich, das Portfolio soweit auseinander zu ziehen. Ich befürchte, dass man bald nichts mehr unter 150 Watt bekommen wird.
 
Ich will damit sagen - das Zeug hält verdammt lange wenn man gut kühlt, auch ohne Wakü... Und Strom mag in Sachen Nachhaltigkeit eine Rolle spielen, die Karten 5 oder mehr Jahre zu nutzen ist definitiv ne Menge wert, grad wenn es in Sachen Nutzung nicht um 24 / 7 geht...
Gegenfrage die man stellen müsste: Für das, was das alte Zeug leistet und im Verhältnis dazu schluckt, ist es tatsächlich nachhaltig, es heute noch zu verwenden?

Netburst Pentiums in 22 zu betreiben ist zwar Nachhaltig aus Lebensdauer-/Nutzungsdauersicht, mehr allerdings wohl auch nicht 🤡

Ende des Jahres kommt voraussichtlich sowieso ein großer Shift aus uns zu, in vielerlei Hinsicht.

300~500W werden voraussichtlich die Norm für den Highendbereich mit entsprechend steigenden Netzteilen. ATX 3.0 lässt schon tief genug blicken. Relativ betrachtet, sollten diese jedoch unter dem Strich effizienter agieren, verglichen zu heutigen Counterparts.

Wohlgemerkt sollte "heutige Leistung" deutlich effizienter werden, wenn in den Anschaffungskosten vermutlich nicht günstiger.

Das Geld für heutige Highend CPUs würde ich so oder für das Jahresende aufsparen.


Es ging mir um den Gummiband-Effekt. Es ist bedenklich, das Portfolio soweit auseinander zu ziehen. Ich befürchte, dass man bald nichts mehr unter 150 Watt bekommen wird.

Ich denke, dass wir in einer APU Transitionsphase sind, in der APUs noch zu schwach sind und dedizierte Hardware sich nicht mehr lohnt.

Gesamtgesellschaftlich, auch fernab des Klimawandels, werden wir, gemessen an der Inflation, bald ohnehin ganz andere Probleme haben 🥳
 
Zuletzt bearbeitet :
Gegenfrage die man stellen müsste: Für das, was das alte Zeug leistet und im Verhältnis dazu schluckt, ist es tatsächlich nachhaltig, es heute noch zu verwenden?

Netburst Pentiums in 22 zu betreiben ist zwar Nachhaltig aus Lebensdauer-/Nutzungsdauersicht, mehr allerdings wohl auch nicht 🤡
Alte Hardware oder Geräte oder Autos weiter zu betreiben ist sehr lange sehr nachhaltig. Man sollte in die Kalkulation auch immer die graue Energie zur Herstellung, zur Gewinnung der Rohstoffe etc. miteinbeziehen. Ich hab das mal für unser aktuelles Kfz (im 9. Jahr in Betrieb) ausrechnen lassen - ein neues Elektro-Fahrzeug müsste ich >6 Jahre lang fahren, um eine positive Energie-Bilanz zu erzielen. Beim ollen 124er, den wir vorher hatten, lag die Spanne bei >12 Jahren - das kann die aktuelle E-Fahrzeug-Generation garnicht.

Für die Netbursts ist der energetische EOL lange vorbei. Für die Sandy Bridge nur dann, wenn du sie mit z.B. Ryzen 3000er mit TDP 65/95 Watt ersetzt. Und für Letztere noch lange nicht. Von meinen GraKas laufen nur zwei nicht mehr: 4600 Ti und 6800. Die sind hinüber. 7900 GTO hat ein Freund im Rechner, 980 Ti wurde verkauft (und läuft noch), die 2080 S steht ebenfalls zum Verkauf oder wandert in den Rechner meiner Tochter.
 
Man sollte in die Kalkulation auch immer die graue Energie zur Herstellung, zur Gewinnung der Rohstoffe etc. miteinbeziehen.
Klar, hier würde ich aber auch die Wiederverwendung aufzeigen, sofern das Zeug nicht auf Regalen oder in Schubläden vor sich hin staubt.

Ich persönlich verkaufe meinen Krempel meist sowieso weiter.

Weniger Krempel Zuhause und mehr Geld in der Tasche ;)
 
Ich denke, dass wir in einer APU Transitionsphase sind, in der APUs noch zu schwach sind und dedizierte Hardware sich nicht mehr lohnt.

Gesamtgesellschaftlich, auch fernab des Klimawandels, werden wir, gemessen an der Inflation, bald ohnehin ganz andere Probleme haben 🥳
Letztendlich könnte man heutzutage problemlos APUs bauen, die für so ziemlich alles ausser Highend-Gaming reichen. Man muss sich ja nur die APUs von Xbox und PS5 ansehen. Dieses Design ein wenig auf die PC-Notwendigkeiten optimieren ( gesockelt, DDR-Ram statt GDDR ) und man hätte eine sehr brauchbare Lösung mit überschaubarer Leistungsaufnahme die zudem für Entrylevel-Gaming und Office reichén würde, vielleicht sogar etwas mehr.

Cunhell
 
Ich hätte gerne eine Karte mit >200 GP/s, <1 Ws/GP und <1000 €. Mal sehen, ob Lovelave so was in der Art bringt.
 
Ich frage mich, ob die 3000er Serie nicht einfach weiterlaufen wird und die 4000er in den Versionen 4090/80/70 on top dazukommen.
Dann kann Nvidia guten Gewissens die 2000-3500€ Preisschilder drankleben und sagen: Wer das braucht: Bitteschön.

Ich denke nämlich nicht, dass GPUs mit derartigen Verbräuchen Massenmarkt-tauglich sind.

Nicht umsonst wurden bereits für Ampere Karten nicht nur ausreichend dimensionierte, sondern auch hochwertige Netzteil empfohlen.

Für Systemintegratoren wäre alleine das schon ein Preistreiber, wenn das benötigte Netzteil statt 50€ auf einmal 250€+ kosten würde.


Und wer kauft einen PC für 5000€ von der Stange?


Man kann zwar hoffen, dass ein 4060 mit der Leistung einer 3080 zum kleinen Preis kommt, "allein mir fehlt der Glaube".
Falls eine 4060 kommt, dann für UVP 999€ mit dem Hinweis, dass sie ja genauso schnell ist wie eine 3080.
Und der Trend ist ganz klar, dass sich Nvidia und AMD die GPU-Mehrleistung 1:1. bezahlen lassen.


Ein Glück ist der Pile of Shame voll mit Spielen die auf aktueller Hardware wunderbar laufen (Witcher 3 plus Add-ons, Red Dead Redemption 2, Divinity: Original Sins 2 noch nicht fertig und ganz heißer Tipp!)
 
Stromfressende GPU Generationen gab es doch schon immer. Man erinnere sich an die 300W einer 7970 (2012) in der GHz Edition oder die 290W der Stock R9 290X (2013 - der Nachfolger landete sogar bei 275W) oder die 250W einer Stock 980ti (2015). RX Vega 64 (2017) war mit 295W seinerzeit auch schon so ne Hausnummer .Für die gebotene Leistung würde ich die aktuellen Karten nicht unbedingt als inneffizient betiteln erst recht nicht wenn man dann vielleicht noch etwas versierter ist und undervolted (270W auf meiner 3080 ohne Performance Minus). Klar die Richtung an sich ist nicht unbedingt rosig. Aber ich glaube schon dass sich der Anteil der Gamer die sich solche Karten kaufen an sich schon sehr gering ist und jener der übertaktet wahrscheinlich noch geringer ist. Ich für meinen Teil undervolte dann sogar noch eher (zumindest so weit runter dass unterm Strich die Stock Leistung nicht sinkt.)

Aber so zu tun als gäbe es das Problem erst seit der aktuellen Generation finde ich schon ein wenig "heuchlerisch"... 2012 noch völlig in Ordnung und 2022 ists schon verteufelt?
Es geht ja aber nicht um die Vergangenheit wo das Maximum eben zuverlässig unter 300W lag, sondern um die Nähe Zukunft die anscheinend mit 500-600W plant. Das ist das Doppelte!
 
Ich würde gern bei der 4000er Serie endlich mal wieder zuschlagen, aber nur bis 250W, zur Not auch selbst gedrosselt, wenn es vertretbar ist.
 
Es geht ja aber nicht um die Vergangenheit wo das Maximum eben zuverlässig unter 300W lag, sondern um die Nähe Zukunft die anscheinend mit 500-600W plant. Das ist das Doppelte!
da liegen trotzdem 10 Jahre und mehr dazwischen wo derartiger Verbrauch offenbar geduldet und okay waren. Die beliebten SLI oder Crossfire Systeme bewusst nicht miteinbezogen die ja heute zum Großteil ja gar nicht mehr möglich geschweige den supported oder Sinnhaft wären. Hatte in der Vergangenheit selbst 2 solcher Systeme jahrelang im "nur" im Gamingeinsatz mit einem Verbrauch den man selbst mit ner 600W Karte nicht erreicht. Heute mit "reiferen" Gedankengängen auch als ziemlich Grenzwertig zu sehen.

Ich halte die kommende Generation ehrlich gesagt nur für einen statistischen "Ausreißer" wie sie es in der Vergangenheit eben immer wieder gab. Und wie auch schon erwähnt ich halte diese Aussichten auch nicht unbedingt für rosig da ich selbst eigentlich auch der Meinung war die Zeiten wo man ein 1000W+ Netzteil braucht eigentlich schon längst vorbei sein sollten.

Würde mich nicht überraschen würde und die Watt Anzahl in der übernächsten Generation wieder etwas runtergehen, sei es durch Fertigungsoptimierung oder Zwangsregulierung durch die EU (die machen das ja bekanntermaßen gern - siehe Staubsauger). Gab es ja auch schon öfters. Zudem diese derzeit rumgeisternden 500-600W auch nur wieder auf absoluten OC Karten zu finden werden sein. Die werden keine Referenzkarten mit den Werten raushauen schon allein weil dann nicht mehr an Energie zu holen wäre außer 2 der neuen 12+4 Pins würden verbaut werden oder Hersteller fangen an Stecker zu mischen und ich wage zu bezweifeln dass das aus heutiger Sicht irgendwer machen wird.
 
gibts eigentlich einen richtigen Nachfolger für die 750ti? war doch damals eine super sache, endlich eine performante Karte ohne extra Stromanschluss.
 
da liegen trotzdem 10 Jahre und mehr dazwischen wo derartiger Verbrauch offenbar geduldet und okay waren. Die beliebten SLI oder Crossfire Systeme bewusst nicht miteinbezogen die ja heute zum Großteil ja gar nicht mehr möglich geschweige den supported oder Sinnhaft wären. Hatte in der Vergangenheit selbst 2 solcher Systeme jahrelang im "nur" im Gamingeinsatz mit einem Verbrauch den man selbst mit ner 600W Karte nicht erreicht. Heute mit "reiferen" Gedankengängen auch als ziemlich Grenzwertig zu sehen.

Ich halte die kommende Generation ehrlich gesagt nur für einen statistischen "Ausreißer" wie sie es in der Vergangenheit eben immer wieder gab. Und wie auch schon erwähnt ich halte diese Aussichten auch nicht unbedingt für rosig da ich selbst eigentlich auch der Meinung war die Zeiten wo man ein 1000W+ Netzteil braucht eigentlich schon längst vorbei sein sollten.

Würde mich nicht überraschen würde und die Watt Anzahl in der übernächsten Generation wieder etwas runtergehen, sei es durch Fertigungsoptimierung oder Zwangsregulierung durch die EU (die machen das ja bekanntermaßen gern - siehe Staubsauger). Gab es ja auch schon öfters. Zudem diese derzeit rumgeisternden 500-600W auch nur wieder auf absoluten OC Karten zu finden werden sein. Die werden keine Referenzkarten mit den Werten raushauen schon allein weil dann nicht mehr an Energie zu holen wäre außer 2 der neuen 12+4 Pins würden verbaut werden oder Hersteller fangen an Stecker zu mischen und ich wage zu bezweifeln dass das aus heutiger Sicht irgendwer machen wird.
Das Problem, wenn man es übertreibt und dann z.B. die EU eingreift: Dann kann es auch ganz schnell passieren, dass da sehr hart reguliert wird. Also im Sinne von: Aktuell wird es noch ignoriert, und die Hersteller dürfen da frei schalten und walten. Dann werden sie übermütig, es kommen die 600W Monster. Und dann gucken sie dumm aus der Wäsche, wenn die Politik die Daumenschrauben so hart anzieht, dass man selbst von den heutigen Verbräuchen nur noch träumen darf.
 
100% Dito.

meine IMO Warum das so läuft wie es läuft.

1. Haben bisher Käufer immer die höheren Verbräuche akzeptiert und gekauft.
Die Leistungsaufname steigt ja nicht erst jetzt sondern bei jeder Generation.

2. Amerikanische Leistungsgesellschaft.
Verschwende nicht deine Zeit um was zu sparen, sondern überlegen wie du mehr Geld verdienen kannst.

3. Managment kann nur auf das Maximum optimieren.
Das Optimum liegt aber irgendwo zwischen Minimum und Maximum.
Es ist also Unbekannt und muss erst in einer Annäherung gefunden werden und ändert sich auch noch ständig.
Auf das Maximum kann man viel leichter Managen und das Maximum zu erreichen verlängert... vergrößert das Ego.

4. Auch mit dem letzen Tropfen Öl kann man noch beschleunigen. (Ausgebrannt von Andreas Eschbach)

Es wird sich erst ändern, wenn Gamer beim GRakas die Leistungsaufname gleichwertig als Produkteigenschaft wie FPS und Kühlung in ihre Kaufentscheidung einfließen lassen.



PS: Menschen haben in der Masse leider die sehr schlechte Eigenschaften, die Überbringer (Cassandras) der schlechten Nachricht zu töten und erst dann was zu ändern wenn sie ums Verrecken nicht mehr so weiter machen können.

Ich habe es mittlerweile aufgegeben. Seit 30 Jahren versuch ich Leuten zu erklären wie man Energie sparen kann.
Wenn ich was sagt bekommt ich, zumindest verbal, eins aufs Maul oder ich bin wegen verbreiten schlechte Laune alleine.
Wenns dann passiert ist, und ich sage "ich habs doch gesagt" bekommt ich auf jedenfall immer aufs Maul und bin der Böse.
Wenn ich danach nichts sage wurde ich beschuldigt die andern nicht doll genug gewarnt zu haben und bin schuld und bekommt auch aufs Maul.

Mittlerweile halt ich oft meine Meinung zurück und lass Mendel und Darwin ihre Arbeit machen, wissend was passieren wird.
Ich will einfach nicht mehr immer aufs Maul bekommen. Es tut mir immer weh zu wissen das man problemlos etwas hättte machen können und viel schlimmes zu verhindern, aber unfähig es zu ändern. Wie Cassandra halt.
 
Zuletzt bearbeitet :
Ich wäre dafür, dass Igor künftig auch die Wirtschaftlichkeit betrachtet und Empfehlungen gibt. Nehmen wir man als Beispiel an, ich will UHD mit 60 FPS spielen. Das sei mit der neuen GTX 4070 bei 400W für 700€ möglich. Alternativ könnte man für die exakt gleiche Grafikleistung eine 4080 für 1000€ nehmen und die Karte auf 200W einstellen. Beim Hardcoregamer mit durchschnittlichen 4h Spielzeit am Tag ergäbe das mit aktuellen 50C/kWh eine Ersparnis von 146€ pro Jahr! Wenn es wieder 2.5 Jahre bis zur nächsten Generation dauert und dann direkt aufgerüstet wird, lägen die Gesamtkosten der 4070 also bei 1430€ und die der auf 200W eingestellten 4080 bei 1365€. Die 4080 wäre für den Hardcore-Gamer bei vorgegebener Leistung also das günstigere Angebot. Das würde sich noch verschärfen, wenn man den zusätzlichen Kostenaufwand für das dickere Netzteil, die zusätzlichen Lüfter etc. berücksichtigt.

Solange die Gesamtkosten nicht gesehen werden, wird sich aber an der aktuellen Situation nichts ändern. Was Ottonormal-Gamer sieht, ist nicht der ökologische Fußabdruck oderdie tatsächlcihen Kosten sondern Bling-Bling und "Übertaktet, Har, Har, Har!!!einseins".
 
Das Problem, wenn man es übertreibt und dann z.B. die EU eingreift: Dann kann es auch ganz schnell passieren, dass da sehr hart reguliert wird. Also im Sinne von: Aktuell wird es noch ignoriert, und die Hersteller dürfen da frei schalten und walten. Dann werden sie übermütig, es kommen die 600W Monster. Und dann gucken sie dumm aus der Wäsche, wenn die Politik die Daumenschrauben so hart anzieht, dass man selbst von den heutigen Verbräuchen nur noch träumen darf.
Die Eu muss nur schon bestehende Verordnungen entsprechend ausweiten und/oder anpassen:

Cunhell
 
Jetzt warten wir's doch erst mal ab. Es ist ja wohl davon auszugehen, dass der Wechsel von 8 auf 5 nm dazu führen wird, dass man mit weniger Stromverbrauch dieselbe Leistung bekommen wird, d.h. wofür man bei Ampere jetzt noch 3060-3090 benötigt, werden bei Lovelace 4050-4070 ausreichen, bei insgesamt eher niedrigerem Stromverbrauch. Dass dann 4080 und 4090 am oberen Ende einerseits Leistung bieten werden, die es bei Ampere gar nicht gibt - auch nicht mit einer 3090 - und andererseits saufen werden ohne Ende, mag stimmen, aber die muss man ja nicht zwingend kaufen - und das tut ja auch, gemessen am Gesamtmarkt, nur ein kleiner Bruchteil. Und undervolten kann man auch immer noch ...
Undervolten in den aktuellen Preisregionen, ist einfach daneben. Warum sollte man selber noch Hand anlegen und damit weniger Leistung rausziehen?
@DavyB Es sind 10 Jahre dazwischen...andere Welt.
 
Guter Beitrag,ich kann das Statement durchaus unterschreiben.Das nimmt Formen an die einfach nur noch absurd sind.
 
Es ging mir um den Gummiband-Effekt. Es ist bedenklich, das Portfolio soweit auseinander zu ziehen. Ich befürchte, dass man bald nichts mehr unter 150 Watt bekommen wird.

Und das genau ist das Problem ich kaufe normal immer nur was bis 180Watt. Meine 2070Super bekomme ich nur danke UV auf unter 200W.
Wenn ich bedenke, das die GTX1080 mit UV bei knapp 140W war und ich die im Ncase hatte, wird mir beider Entwicklung nur noch schlecht.
Ich werde definitiv erst wieder eine neue GPU kaufen, wenn ich 308012GB Leistung für unter 200Watt bekomme. So lange werden einfach die
Regler in den Games angepasst.
 
Oben Unten