Nachlese samt Fass ohne Boden: Die RTX 3090 Ti und das, was danach von AMD und NVIDIA noch kommen soll

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.748
Bewertungspunkte
8.477
Punkte
1
Standort
Redaktion
Irgendwie habe ich Redebedarf und jedem normaldenkenden Anwender sollte es eigentlich mittlerweile genauso gehen wir mir. Schneller, Höher und Weiter sind ja als Ziele schön und gut, aber ich habe das Gefühl, gerade die Hersteller von Grafikkarten und CPUs machen momentan den gleichen Fehler wie die Funktionäre im ehemaligen sozialistischen Wirtschaftssystem: sinnlose Extensivierung statt überlegter (read full article...)
 
Danke für diesen Beitrag!
Die Hersteller beschreiten dadurch auf jeden Fall einen gefährlichen Pfad (für sich selbst). Entweder das Zeug bleibt in den Regalen liegen, weil niemand sich diese Säufer in den PC bauen will, oder es kommt dann früher oder später eine politische Regulierung des Marktes. Weil irgendwann wird man wahrscheinlich auch von der Seite das nicht mehr ignorieren können.
 
Die Frage wäre für mich, ob denn ein Markt für eine "Sweet Spot" Edition aktueller Hardware da wäre.
Ich würde sofort zugreifen, allein schon, weil ich keine Triple-Slot-Karte möchte (und auch keine WaKü).
Sonst würde ich einfach untervolten.

Aber ich weiß nicht, ob das für den Gamer an sich auch gilt und der nicht im Zweifelsfall doch die Karte nehmen würde, die ihm alle Möglichkeiten lässt, so dass eine "Sweet Spot" Edition ein Ladenhüter wäre.
 
Jetzt warten wir's doch erst mal ab. Es ist ja wohl davon auszugehen, dass der Wechsel von 8 auf 5 nm dazu führen wird, dass man mit weniger Stromverbrauch dieselbe Leistung bekommen wird, d.h. wofür man bei Ampere jetzt noch 3060-3090 benötigt, werden bei Lovelace 4050-4070 ausreichen, bei insgesamt eher niedrigerem Stromverbrauch. Dass dann 4080 und 4090 am oberen Ende einerseits Leistung bieten werden, die es bei Ampere gar nicht gibt - auch nicht mit einer 3090 - und andererseits saufen werden ohne Ende, mag stimmen, aber die muss man ja nicht zwingend kaufen - und das tut ja auch, gemessen am Gesamtmarkt, nur ein kleiner Bruchteil. Und undervolten kann man auch immer noch ...
 
Hier im Forum haben ja die meisten die Meinung das so ca300W für ne Grafikkarte ok sind. Wer gibt vor das 300W ok sind und 500W böse
Wenn man 25 Jahre zurück denkt (die ersten 3Dfx Voodo Karten) das war optisch nen riesen unterschied und die haben ca 50W gezogen in dem Vergleich sind doch die jetzigen 300W Karten auch schon totale Verschwendung .

Ja man kann sich hinstellen und Gaming als Freizeitvergnügen abstempel, mag aus der Sicht der meisten hier stimmen aber wenn wir das mal etwas umdrehen die Software Entwickler der Spieleindustrie, die Hardewareentwickler der Grafikkarten, Chiphersteller, Logistiker die es verschicken, die die die Rohstoffe gewinnen, Maschienenhersteller und das Vertriebsnetz leben davon die ganzen Youtuber, Tester und Influencer nicht zu vergessen. Deshalb greift es immer etwas kurz wenn einem persönlich etwas nicht gefällt und man dann versucht es zu verteufeln. Der MArkt die Menschen bzw. Gesetze werden es regeln ob man es persönlich gut oder schlecht findet spielt dabei keine Rolle
 
Igor, du sprichst mir aus der Seele. Die Vernunft ist nur leider kein Attribut, dass dem Menschen im Kollektiv zugestanden werden kann.

Erst recht nicht in einer Welt, in der millionen Kilowattstunden Energie verschwendet werden, um der Illusion der Cryptowährungen zu dienen. Auch hier liegt natürlich die Crux an der Sache. Denn es sind wohl keine Gamer, die sich die aufgeblasenen Grafikkarten tatsächlich zum Spielen anschaffen. Die Grafikkarten-Knappheit ist auch nicht alleiniges Ergebnis der Pandemie. Solange das spekulative Gut Cryptowährung das schnelle Geld verspricht und sich auch das mehrere tausend Euro teure Mining-Rig amortisiert, sehe ich Schwarz für den Traum vom Sweetspot und erschwinglichen Karten. Nun ja - etwas lässt der Hype nach. Endlich. Eine Regulierung ist überfällig.

Wobei uns ja eventuell auch an der Stelle des Sweetspots die Autoindustrie und das autonome Fahren helfen können. Hier sind hunderte Watt eben nicht "verschwendbar". Fraglich nur, ob diese Chips den Weg in die heimischen Rechner finden würden, wo die Chipknappheit gerade diesen Industriezweig besonders beutelt.
 
kann ich auch nur voll unterschreiben - meine Signatur zeigt recht deutlich, wie geizig und nachhaltig ich in Sachen aufrüsten sein kann - grad weil ich mit der verbauten Hardware noch ne ganze Weile klar komme...

Klar könnte ich grad in sachen CPU / Board / RAM mal ne Schippe nachlegen und hin und wieder reizt es... aber ich werde tapfer durchhalten bis eins der genannten Dinge kaputt geht oder eben wirklich nicht mehr reicht.
 
Ich frage mich auch seit 2 Jahren, warum AMD und Nvidia den Markt für Mittelklasse- und Einsteigergrafikkarten (50.- bis 400.-) mit 30 bis 150 Watt überhaupt nicht mehr bedienen. Über 400.- war früher der Highendbereich für Enthusiasten. Da besteht eine riesige Lücke zwischen einer integrierten Prozessorgrafik und den günstigsten Grafikkarten die man kaufen kann. Nvidia hat früher Karten von 80.- bis 800.- angeboten. AMD hat sich meist eher auf den Einsteigerbereich konzentriert. Jetzt hat es AMD geschafft, auch im Highendbereich mit zu mischen. Der untere Bereich und somit der Grossteil der Kunden scheint die Hersteller nicht mehr zu interessieren.
 
Hier im Forum haben ja die meisten die Meinung das so ca300W für ne Grafikkarte ok sind. Wer gibt vor das 300W ok sind und 500W böse
Wenn man 25 Jahre zurück denkt (die ersten 3Dfx Voodo Karten) das war optisch nen riesen unterschied und die haben ca 50W gezogen in dem Vergleich sind doch die jetzigen 300W Karten auch schon totale Verschwendung .

Ja man kann sich hinstellen und Gaming als Freizeitvergnügen abstempel, mag aus der Sicht der meisten hier stimmen aber wenn wir das mal etwas umdrehen die Software Entwickler der Spieleindustrie, die Hardewareentwickler der Grafikkarten, Chiphersteller, Logistiker die es verschicken, die die die Rohstoffe gewinnen, Maschienenhersteller und das Vertriebsnetz leben davon die ganzen Youtuber, Tester und Influencer nicht zu vergessen. Deshalb greift es immer etwas kurz wenn einem persönlich etwas nicht gefällt und man dann versucht es zu verteufeln. Der MArkt die Menschen bzw. Gesetze werden es regeln ob man es persönlich gut oder schlecht findet spielt dabei keine Rolle
Wieviel hat im Vergleich den die 2D Karte zu den 50 Watt der 3dfx gezogen?
 
Na ja, Produkte, wie die 3090ti sind Marketing, da geht es nicht um Wirtschaftlichkeit oder Nachhaltigkeit.

Sowas wäre mMn nur möglich, wenn die Käuferschicht wirklich solche Produkte ablehnt und auf der anderen Seite ein Indikator für die Wirtschaftlichkeit geschaffen würde. Vereinfacht gesagt FPS in Korrelation zu Frame per Watt.

Oder die Energie müsste so teuer werden, das es wirklich ein Entscheidungskriterium wäre, aber dann hätten wir ganz andere Probleme.
 
YES! genau so ähnlich denke ich auch Igor.
ich mache den Pixel-wahn nicht mit, unter 34" braucht es nun wirklich keine 4K.
Raytracing mache ich erst mit wenn diese Technik ausgereift ist, also wenn es üblich ist diese vollbild zu berechnen.
DLSS damit das früher klappt da verweigere ich mich komplett, das ist in meinen augen nur eine technische krücke
wie das früher nicht unübliche upscaling.
ich weigere mich auch ein grafikkarte mit mehr als 350w zu nutzen, man kann auch weniger sinlos energie verpulvern ohne harte abstriche zu machen -irgendwo ist mal eine grenze und die liegt bei mit eben dort wo benannt.
ebenso habe ich preislich eine obergrenze, die ich zugegebener maßen beim letzten kauf chon durchbrochen habe, eigentlich wollte ich keine karte für über 350€ haben und hab dann 410€ gezahlt, weil die alte karte ihren geist aufgab und ich nicht ohne dastehen wollte. aber nochmehr zahle ich mit sicherheit nicht, dann mach ich lieber abstriche oder kaufe was altes gebrauchtes!
apropo geldwert etc, ich habe beim kauf meines letzten monitores auch darauf geachtet den zu nehmen der weniger watt verbauch hat, also 23w statt 36w weil ohne eingebaute lautsprecher die hier eh nicht genutzt werden.
ich habe auch meine wasserkühlung aufgegeben weil die kosten für strom und zukauf des kühlers bei jeder neuen grafikkarte sich auf dauer nicht rechnen -für den mehrwert jedenfalls nicht ausreichend.
daher gab es auch 'nur' einen 5800x und nichts mit 12 oder gar 16kernen, die ich hier nicht wirklich ausnutzen würde weil ich kaum anwendungen dafür habe die das ausnutzen.
später mal vieleicht, dann kann ich immernoch umstecken und das alte teil weitergeben -meinen 4790k wollte aber keiner mehr, der liegt jetzt als notreserve im schrank...
 
Zuletzt bearbeitet :
Igor : »Dem Aufrüstwahn habe ich schon lange abgeschworen. Und ich fühle mich dabei noch nicht einmal schlecht «

Ich fühle mich damit sogar richtig gut !
Ich bin auf mein neues System gewechselt,weil Xplane11 und MS Flugsimulator auf meinem alten System unspielbar waren.
Nach 8 Jahren wurde es aber auch Zeit diesen Wechsel zu vollziehen.

Ansonsten denke auch ich,dass man nicht jede Generation mitmachen muss.
Selbst wenn es finanziell passt, sollte man die ökologischen Folgen nicht außer Acht lassen.
Da bin ich ganz bei @Tesetilaro.
Logisch,dass es einen manchmal juckt.
Dennoch sollte sich jeder ab und an die Frage stellen,ob es wirklich nötig ist.
Habe selber keine Kinder.
Wir müssen die endlichen Ressourcen schonen,um den nachfolgenden Generationen nicht nur Müllberge und verbrannte Erde zu hinterlassen.
 
Zuletzt bearbeitet :
@Igor Wallossek
Die Nachhaltigkeit hört bei Apple immer dann auf wenn sich daraus kein Profit schlagen lässt. Nicht auf- oder nachrüstbare Hardware ist auch nicht der richtige Weg. Linus hatte das in der letzten WAN Show kritisiert.
 
Zuletzt bearbeitet :
Guter Text, aber diese ganze Nachhaltigkeitsdebatte ist häufig scheinheilig und ideologisch aufgeladen. (Unabhängig davon, das eine 3090ti allensfalls als Machbarkeitsstudie von Relevanz sein sollte.)

Aber was ist nachhaltig? War meine 7990 nachhaltig die 2012 schon 375 Watt zog, aber bis 2019 in diversen Rechner lief? Oder eher mein 1080 GTX SLI Setup aus 2016, das dank Wasserkühlung irgendwo wahrscheinlich bis zum Anschlag übertaktet nun in 2 Rechnern seine Dienst tut.

Ist es nachhaltig eine Wakü zu verbauen, die einerseits sicher die Lebensdauer der Karte erhöht, aber anderseits dadurch es erlaubt die Karte Leistungsmäßig an Ihre Grenze zu treiben, jedweder Ökonomie zum trotz.

Wie nachhaltig können übertaktete Mittelklasse Karten überhaupt sein. Und ist übertakten nicht mittlerweile Volkssport.

Sind Mittelklasse Karten, die nach 3 Jahren nur noch bedingt brauchbar sind, nachhaltig?

Oder doch eher Oberklassekarten, die lange nutzbar sind. Meine 2080S, die ich gerade verkauft hab, wird sicher noch eine ganze Weile irgendwo ihren Dienst tun.

Sind nicht die die Nachhaltigsten, die sich eine 3090/6900XT kaufen und diese untervolten?

Ich kaufe immer relativ hochwertige Produkte mit langen Garantiezeiten und verkaufe immer alles sofort, wenn ich keine Verwendung mehr dafür habe. Das ist meine Idee von Nachhaltigkeit, zumal es für Antikhardware auch keinen Markt gibt.

Am schlimmsten aber finde ich die Millionen von alten Handy´s die in irgendwelchen Schränken verrotten und mittlerweile unbenutzbar sind, weil man sie tiefenentladen hat lassen. Wenn ich sehe, was bei meinen Bekannten an guter und durchaus brauchbarer Hardware in den Schränken liegt, nur weil man zu bequem ist, es zu verkaufen, wird mir regelmäßig schlecht. Angefangen über Boards, CPU`s Ram bis zu Grafikkarten im Bereich 1060-2060 bei NVIDIA und 570er - 5700er von AMD. Stellenweise stehen da komplette, zu 100% lauffähige Rechner rum, die man dank Windows 11 bald nur noch in Müll werfen kann.

Von dem von mir immer wieder gern zitierten Kauf von Produkten mit nicht wechselbarem Akku mal ganz zu schweigen. Schlimmer gehts nimmer!

Will sagen. Nachhaltigkeit ist nochmal ein sehr eigenes Thema.

Und wenn jeder mal konsequent bei sich anfangen würde, ginge es dem Planeten mit Sicherheit ein Stück besser.
 
Zuletzt bearbeitet :
Dass Intel eine Nische besetzt bzw. besetzen kann, bedingt auch ein vollumfänglich funktionierendes Produkt oder zumindest so weit funktionierend, dass der Kunde meint zu glauben es wäre so.

Das sehe ich bei Intel aber nicht. Die Treiberentwicklung und auch -pflege erscheint mir irgendwo in den Mid-2010ern stehen geblieben zu sein. Was nutzen einem die effizienten Grafikkarten, wenn die Blackscreens, Grafikfehler und sonstige Ärgernisse einem gehörig auf den Sack gehen?
 
Ich frage mich auch seit 2 Jahren, warum AMD und Nvidia den Markt für Mittelklasse- und Einsteigergrafikkarten (50.- bis 400.-) mit 30 bis 150 Watt überhaupt nicht mehr bedienen. Über 400.- war früher der Highendbereich für Enthusiasten. Da besteht eine riesige Lücke zwischen einer integrierten Prozessorgrafik und den günstigsten Grafikkarten die man kaufen kann. Nvidia hat früher Karten von 80.- bis 800.- angeboten. AMD hat sich meist eher auf den Einsteigerbereich konzentriert. Jetzt hat es AMD geschafft, auch im Highendbereich mit zu mischen. Der untere Bereich und somit der Grossteil der Kunden scheint die Hersteller nicht mehr zu interessieren.
Ich sehe das genauso. Leider scheint das Geschäftsmodell, dass sie jetzt fahren, so gewinnbringend zu sein, dass sie es nicht ändern.
Jetzt ist gerade auch ein ungeschickter Zeitpunkt um auf Masse zu setzen (Chipkrise und so), deshalb befürchte ich, dass das noch eine ganze Weile so bleiben wird.
Anscheinend wird jetzt erstmal getestet, wie teuer man noch werden kann, bevor wieder ein Schritt zurück kommt.
 
Naja, aktuell wissen wir doch noch gar nichts über die neuen Karten.
AMD hat z.B. durchaus noch potential für langsamere Karten und zu langsam muss es dann auch nicht sein, denn Rembrandt ist ja als APU das Performance Minimum und liegt mit schnellem Ram wohl knapp unter einer 1650er (die ersten Reviews waren ja mit recht langsamem DDR5, da ist sicher noch Potential nach oben). Da wird es also wenig Abstand zur 6500XT geben, bei den Nachfolgern kann man daher davon ausgehen, dass hier nicht gleich eine riesige Lücke herrschen wird.
Generell finde ich aber auch, dass man sich durchaus mehr auf Effizienz konzentrieren könnte. AMD hat das bei RDNA2 durchaus auch teilweise gemacht, die 6800 war da z.B. ein schönes Beispiel. Ich hoffe, das verliert man bei RDNA3 nicht aus den Augen.
Ich würde nämlich gerne mal meinen R5 2600 und meine R9 Nano austauschen und habe garantiert keinen Bock auf über 500W Gesamtverbrauch.
 
Ich frage mich auch seit 2 Jahren, warum AMD und Nvidia den Markt für Mittelklasse- und Einsteigergrafikkarten (50.- bis 400.-) mit 30 bis 150 Watt überhaupt nicht mehr bedienen. Über 400.- war früher der Highendbereich für Enthusiasten. Da besteht eine riesige Lücke zwischen einer integrierten Prozessorgrafik und den günstigsten Grafikkarten die man kaufen kann. Nvidia hat früher Karten von 80.- bis 800.- angeboten. AMD hat sich meist eher auf den Einsteigerbereich konzentriert. Jetzt hat es AMD geschafft, auch im Highendbereich mit zu mischen. Der untere Bereich und somit der Grossteil der Kunden scheint die Hersteller nicht mehr zu interessieren.
Lies doch einfach mal in den Foren der anderen Hardwareseiten. Da werden sich wegen irgendwelchen Benchmark-Balken verbal die die Köpfe eingeschlagen, nur weil Hersteller A 2% langsamer ist als Hersteller B. Spätestens wenn der von einem selbst bevorzugte Hersteller die 2% schneller ist, ist Effezienz das Letzte was interessiert. Alles muss auf max Settings bei 120Hz und am Besten bei UHD laufen.
Im Gaming bedienen mMn die Hersteller also einfach die (vermeintlichen) Forderungen der Kunden mit ihren Karten. Jede Karte, und wenn es noch so sinnlos ist, wird mit OC nach oben geprügelt, egal was es an Strom kostet. Und den vermeintlichen Aufwand läßt man sich eben fürstlich bezahlen und, was schlimmer ist, wird auch von den Kunden bezahlt.
Die Custom-Hersteller haben es zusätzlich geschafft im Zuge von Corona und dem Mining-Boom die UVPs nach oben zu schieben.
Das nicht alles den aufgerufenen Preis wert ist, zeigen ja Igors Analysen und die deutlich geringeren Preise der orginalen AMD- und Nvidia-Karten.

Wenn Intel schlau ist, grätschen sie mit "normalen" Karten genau in den Preisbereich hinein, der AMD im Grafikkartenbereich am Leben gehalten hat.
Das könnte dazu führen, dass der verwaiste Bereich wieder an Bedeutung gewinnt.

Cunhell
 
Aber was ist nachhaltig? War meine 7990 nachhaltig die 2012 schon 375 Watt zog, aber bis 2019 in diversen Rechner lief? Oder eher mein 1080 GTX SLI Setup aus 2016, das dank Wasserkühlung irgendwo wahrscheinlich bis zum Anschlag übertaktet nun in 2 Rechnern seine Dienst tut.

... [gekürzt]

Wie nachhaltig können übertaktete Mittelklasse Karten überhaupt sein. Und ist übertakten nicht mittlerweile Volkssport.

Sind Mittelklasse Karten, die nach 3 Jahren nur noch bedingt brauchbar sind, nachhaltig?

Moin, wer entscheidet ob Mittelklassekarten nur 3 Jahre nutzbar sind?

Mal zu meinen Graphikkarten... die praktisch alle nach dem die bei mir raus waren, an meine Frau gingen und von da aus ne Drittverwendung bekamen
GTX 270 von 2009 - immernoch im Einsatz zusammen mit einem AMD X4 in einem alten Rechner für Office Aufgaben
R9 290x von ~2011 - immernoch im Einsatz in einer alten casual Gaming Möhre
GTX670 von ~2013 - immernoch im Einsatz in einer "Budget Junior" Gaming Kiste
GTX980 TI von ~ 2016 - aktuelle Karte in meinem Rechner

Ich will damit sagen - das Zeug hält verdammt lange wenn man gut kühlt, auch ohne Wakü... Und Strom mag in Sachen Nachhaltigkeit eine Rolle spielen, die Karten 5 oder mehr Jahre zu nutzen ist definitiv ne Menge wert, grad wenn es in Sachen Nutzung nicht um 24 / 7 geht...
 
Stromfressende GPU Generationen gab es doch schon immer. Man erinnere sich an die 300W einer 7970 (2012) in der GHz Edition oder die 290W der Stock R9 290X (2013 - der Nachfolger landete sogar bei 275W) oder die 250W einer Stock 980ti (2015). RX Vega 64 (2017) war mit 295W seinerzeit auch schon so ne Hausnummer .Für die gebotene Leistung würde ich die aktuellen Karten nicht unbedingt als inneffizient betiteln erst recht nicht wenn man dann vielleicht noch etwas versierter ist und undervolted (270W auf meiner 3080 ohne Performance Minus). Klar die Richtung an sich ist nicht unbedingt rosig. Aber ich glaube schon dass sich der Anteil der Gamer die sich solche Karten kaufen an sich schon sehr gering ist und jener der übertaktet wahrscheinlich noch geringer ist. Ich für meinen Teil undervolte dann sogar noch eher (zumindest so weit runter dass unterm Strich die Stock Leistung nicht sinkt.)

Aber so zu tun als gäbe es das Problem erst seit der aktuellen Generation finde ich schon ein wenig "heuchlerisch"... 2012 noch völlig in Ordnung und 2022 ists schon verteufelt?
 
Oben Unten