Grüne Sonntagsgedanken: Ein doppeltes Lottchen aus den 80ern und dahinschmelzende Stecker

Die 4090 ist rein für den Vergleich gemacht, wer den Längsten hat. Nvidia will und braucht das Prestige, vor AMD zu liegen, zumindest, was die Rechenleistung angeht. Die 4090 Ti folgt, wenn der Prozess eingefahren ist.
 
Weder AMD oder Nvidia fertigen ihre Chips selbst was heißt beide haben keinen Einfluss auf Wafer oder Yields. Beide beziehen die fertigen Chips von TSMC. Und was gekaufte Kapazitäten angeht wird AMD das nachsehen haben weil mit diesen Kapazitäten noch CPUs und Konsolen Chips produziert werden.
Verzeihen sie mir diesen unverzeihlichen Fehler, ich hoffe ich habe ihren Tag nicht nicht komplett versaut :cautious:

ps. In 5nm wird in nächster Zeit kein Konsolenchip hergestellt.
 
(y)
 
Für mich ist Rasterleistung das Einzige was zählt. Mir geht bei etwas Gespiegel und Schatten jetzt nicht gleich einer ab.
Wenn ich da in Action bin nehm ich das gar nicht wahr.
Davon ab, dass der Unterschied in den meisten Games echt sehr, sehr, sehr gering ist. Und auf keinen Fall den FPS Penalty wert ist.
Aber hey, jeder wie er meint.

3080 10GB ist ein Speicherkrüppel, wie kann man sowas nur kaufen?

Wo sind die Radeons?
Hier sind sie:

Anhang anzeigen 20624

Was bis auf RTX sollen denn die Nachteile sein? Solange ich nicht mit Cuda Software rumspiele und nur Game?. Mir Fällt da nicht viel ein.
Ich hab die schnellere und sparsamere Karte mit mehr Speicher. FSR 2.X gibts auch und auch eine Audio AI Geräuschunterdrückung.
Der Rest läuft bei mir unter WAYNE?

Dann kommst noch mit rückständiger Technik, ja neh ist klar.
Wer hat denn rückständigen Samsung 8NM Prozess verwendet?
Wer baut denn noch ausschliesslich Monolithen?
Wer schaut sich denn den grossen Cache mit dem kleinen Speicherinterface bei AMD ab?

Rückständig ist das was NV da versucht, sonst nix.
Sorry, und bei allem Respekt. Komm mir doch nicht mit Listenpreisen aus den USA. Genausogut kannst du mir mit dem Ölpreis aus Dakar um die Ecke kommen. Die Frage ist doch, was das Zeug hier im Laden kostet. Und da sehe ich keine Radeons die in Summe und preislich eine Alternative darstellen.

Der Rest ist doch wie gehabt. RT und Cuda braucht kein Mensch, und alles andere läuft unter ferner liefen. Das die Rasterleistung, im Bedarfsfall auch in niedrigsten Auflösungen und bei "No Details" das Maß aller Dinge, kennt man ja auch.

Aber ein Großteil der Spieler bewertet das völlig anders. Rein technich betrachtet hinkt die 6000er Serie immer noch selbst der 2000er Serie hinterher. Von der aktuellen mal ganz zu schweigen.

Versteh mich nicht falsch. Ich hoffe sehr, das AMD mit den kommenden Chipletkarten einen Schritt in die richtige Richtung macht. Es besteht sogar die Chance, das sie in der nächsten oder übernächsten Generation vielleicht sogar einen Schritt voraus sind. Aber aktuell können sie NVIDIA nicht das Wasser reichen. Und was Monolith kann im Vergleich zu AMD werden wir ja bald wissen. Zumindest hat man bei NVDIA GDDR6X Speicher. Wie toll der Cache bei 4K funktioniert, sieht man ja auch.
 
@Andi
Besonders lobenswert finde ich ja den großen Kupferblock um möglichst viel Wärme abzuführen. Hier ist die komplette Grundplatte aus Kupfer? = Viel Fläche. Freue mich schon wenn @Alphacool @Igor Wallossek den Kühler zum Test überlässt! Dann kann wieder Gechillert werden und wir sehen was NVIDIA so kann
Da gibt es scheinbar noch mehr Änderungen. Im Vergleich zu meinem aktuellen Suprim Kühler sind die Finnen jetzt deutlich feiner. 0,4 mm zu 0,6 mm. Weiterhin wird das Kupfer jetzt statt vernickelt erstmalig verchromt und sollte damit viel robuster sein.


Eine detaillierten Aufbau des PCB und der Kühlung gibt es im Manual auch schon: https://www.alphacool.com/download/...TX_4090_with_Backplate_(Reference)_Manual.pdf
 
Eigentlich könnte Nvidia gleich alle neuen Karetn als 4080 rausbringen, die sind doch eh alle super Extraklasse.
So Abstufungn wie 70/60/50 verwirren blos die Käufer.

4080Ti 16G
4080S 12G
4080 16G
4080 12G
4080TI 10G
4080 10G
4080S 8G
4080 8G
4080M
4080LB

ist doch viel besser ;-)
Die guten alten GT und GTS, FX Bezeichnungen auch wieder aufleben lassen. Wär ich mit dabei.
 
Aber seit der 480 wurden aus meiner Sicht immer Erwartungen geweckt, die von der Wirklichkeit nicht wiedergespiegelt wurden.
Bei RDNA 2 haben sie aber geliefert... Und dann kam der Mining Boom.

Siehe Gamestar Tech vom 21.09.

Ich zitiere" Aufgrund von einigen Leaks und AMDs eigenem Auftreten können wir aber durchaus schon einschätzen, wo sich AMD zumindest gleichauf, wenn nicht sogar vor Nvidia sieht."

Und was kann AMD dafür, wenn Gamestar (Bildzeitung der Tech Welt) es so schreibt?
Langsam werden deine Postings bzgl. AMD schon etwas eigenartig.
Und ja AMD ist auch ein gieriger Verein, aber wir werden sehen ob sie die Chance nutzen oder nicht.
 
Bei RDNA 2 haben sie aber geliefert... Und dann kam der Mining Boom.



Und was kann AMD dafür, wenn Gamestar (Bildzeitung der Tech Welt) es so schreibt?
Langsam werden deine Postings bzgl. AMD schon etwas eigenartig.
Und ja AMD ist auch ein gieriger Verein, aber wir werden sehen ob sie die Chance nutzen oder nicht.
Ich weiss nicht ob eigenartig das Wort der Wahl ist. Aus meiner Sicht hat AMD immer, selbst bei der Präsentation, Erwartungen geweckt, die sie hinterher nicht gehalten haben.

Ich finde auch nicht, das die 6900er Serie in Summe auf Augenhöhe mit der 3000 Serie ist. Von daher hat AMD für mich nicht geliefert.

Aber das ist meine subjektive Meinung. Ich weiss, das es da auch andere Bewertungen hier im Forum gibt.
 
Präzisier das bitte.
Das würde mich auch interessieren - bin ja von 2080S auf 6900XT umgestiegen. Mir sind diese ganzen "AMD liegt technisch hinten"-Posts ein Rätsel. Auf was bezieht sich das - RT? DLSS? Und woran genau macht ihr das fest?
Nochmal: Bei RT hab ich kaum Unterschiede wahrgenommen - schon garnicht beim Rumgeballer. Und DLSS hat bei mir in diversen Szenarien Bildfehler produziert, die es ohne nicht gab. Ich bin da echt undogmatisch, was rot oder grün anbelangt, aber die 6900XT steckt so einiges in die Tasche, was mir Nvidia jahrelang serviert hat.

Edit: @Megaone das Softwarepaket juckt mich nicht, insofern geht das nicht in meine Bewertung rein. was allerdings den Treiber bzw. die Settings (Radeon Adrenalin) anbelangt, könnte sich NV einiges abgucken.
 
Ich weiss nicht ob eigenartig das Wort der Wahl ist. Aus meiner Sicht hat AMD immer, selbst bei der Präsentation, Erwartungen geweckt, die sie hinterher nicht gehalten haben.

Ich finde auch nicht, das die 6900er Serie in Summe auf Augenhöhe mit der 3000 Serie ist. Von daher hat AMD für mich nicht geliefert.

Aber das ist meine subjektive Meinung. Ich weiss, das es da auch andere Bewertungen hier im Forum gibt.
Bei Polaris, Fury geb ich dir noch Recht, da war auch noch der Poor Volta Heini dabei, der jetzt bei Intel sein Unwesen treibt, danach hat AMD aber immer den Ball relativ flach gehalten.
Kannst mir ja gerne das Gegenteil beweisen, vielleicht irre ich mich ja.

Cuda Cores. Schnelleres RT und das insgesamt deutlich bessere Softwarepackage.
Cuda Cores und die dazugehörigen Anwendungen sind für reine "Gamer" erstmal uninteressant.
Schnelleres RT stimmt, NV hat aber eine Gen Vorsprung und richtig durchgesetzt hat es sich ich nicht. Ich wage sogar zu behaupten, dass selbst Ada noch nicht genug Power dafür haben wird, leider.
DLSS 3.0 muss auch erstmal zeigen was es kann und welche möglichen Nachteile mit dabei sind.

Software, Beispiele?
Ich nutze derzeit selber eine Nvidia GPU (2070 super) und hätte diese wohl auch durch Ampere ersetzt (auch weil ich noch einen alten Gsync Monitor von 2017 habe der somit inkompatibel zu AMD GPUs ist), wäre da nicht der Mining Boom gewesen, aber ich nutze ehrlich gesagt keine spezielle Software von Nvidia, von daher kann ich das nicht beurteilen.

Jedenfalls ist es schon sehr übertrieben, RDNA 2 als minderwertige Technik gegenüber Ampere zu bezeichnen.
 
Zuletzt bearbeitet :
Das würde mich auch interessieren - bin ja von 2080S auf 6900XT umgestiegen. Mir sind diese ganzen "AMD liegt technisch hinten"-Posts ein Rätsel. Auf was bezieht sich das - RT? DLSS? Und woran genau macht ihr das fest?
Nochmal: Bei RT hab ich kaum Unterschiede wahrgenommen - schon garnicht beim Rumgeballer. Und DLSS hat bei mir in diversen Szenarien Bildfehler produziert, die es ohne nicht gab. Ich bin da echt undogmatisch, was rot oder grün anbelangt, aber die 6900XT steckt so einiges in die Tasche, was mir Nvidia jahrelang serviert hat.

Edit: @Megaone das Softwarepaket juckt mich nicht, insofern geht das nicht in meine Bewertung rein. was allerdings den Treiber bzw. die Settings (Radeon Adrenalin) anbelangt, könnte sich NV einiges abgucken.
Erstens ist das nur meine Meinung. Zweitens hat sich DLSS auch bei NVDIA weiterentwickelt. Drittens scheint allen AMD - Usern eins gemeinsam. RT interessiert Sie nicht und das Softwarepaket ist völlig Mumpe.

Zu den Treibern sag ich nichts. Mag sein das sich da viel verbessert hat.

Ich verstehe nicht wieso man das mal nicht einfach stehen lassen kann. Wenn AMD für dich das bessere Produkt ist, ist das für mich völlig OK.

Ich sehe auch, das bei der neuen Generation AMD den innovativeren Weg geht.

Trotzdem würde ich stand Heute immer zur 3000er Serie greifen und ich befürchte, das wird sich bei der Nachfolgegeneration nicht ändern.

Präsentiere mir Heute ein Produkt von AMD , das für mich und meine Ansprüche auf Augenhöhe ist, renne ich Morgen in den Laden und kaufe. Bei mir stehen aktuell eine Menge Kisten rum. Und in jeder ist eine AMD CPU.
 
Ich würde nie sagen, dass AMD das bessere Produkt hat. Vielleicht triggert mich so eine Aussage deshalb? Ich stelle immer auf den Kontext der Nutzung ab. Bei mir ist das Gaming in vollster Grafikpracht. Und ja, dafür ist die 6900XT ein super Produkt. Da gibts aber auch noch die 3080Ti und die 3090 - die sind bei mir aber am Preis gescheitert.
 
Bei Polaris, Fury geb ich dir noch Recht, da war auch noch der Poor Volta Heini dabei, der jetzt bei Intel sein Unwesen treibt, danach hat AMD aber immer den Ball relativ flach gehalten.
Kannst mir ja gerne das Gegenteil beweisen, vielleicht irre ich mich ja.
Es wurde eine Rießenwelle mit der 6000er Serie gemacht. Und was ist übrig geblieben. Hohe Rasteriesierungsleistung, am besten bei niedrigen Auflösungen und Low Details.

Ich halte RT für eine wirkliche Innovation. Da hat man Hardware - und Softwareseitig bei NVDIA viel dran gearbeitet.

Komisch ist immer nur, wenn NVDIA sowas rausbringt und es noch nicht optimal läuft, ist es Schrott bis ans Ende aller Zeiten, egal ob RT oder DLSS und wie sich das entwickelt. Die ersten Ergebnisse werden die nächsten 10 Jahre angeführt. Wenn AMD das tut, dann brauchen sie einfach Zeit.

Hier wird mir zuviel mit zweierlei Maß gemessen.

Und nein, ich mag NVIDIA auch nicht.
 
Ich würde nie sagen, dass AMD das bessere Produkt hat. Vielleicht triggert mich so eine Aussage deshalb? Ich stelle immer auf den Kontext der Nutzung ab. Bei mir ist das Gaming in vollster Grafikpracht. Und ja, dafür ist die 6900XT ein super Produkt. Da gibts aber auch noch die 3080Ti und die 3090 - die sind bei mir aber am Preis gescheitert.
Das gehe ich ja auch Wort für Wort mit. Aber der Preis relativiert sich ja gerade. Das war ja der Ausgangspunkt.

Bei 3 K für eine 3090 und 1.4 K für eine 6900 erübrigt sich auch jede Diskussion.
 
Es wurde eine Rießenwelle mit der 6000er Serie gemacht. Und was ist übrig geblieben. Hohe Rasteriesierungsleistung, am besten bei niedrigen Auflösungen und Low Details.
Bitte unterscheide inoffizielle Dinge wie Leaks und solche Clickbait Artikel wie bei der Gamestar mit offiziellen Statements.
Verlinke mir gerne, wo AMD zu hohe Erwartungen bei RDNA 2 geweckt hat.
Ich halte RT für eine wirkliche Innovation. Da hat man Hardware - und Softwareseitig bei NVDIA viel dran gearbeitet.
Bestreitet keiner, dass RT der heilige Gral ist, aber es muss auch vernünftig laufen, sprich genug FPS und auch eine brauchbaren optischer Unterschied sollte es geben, das ist nicht bei allen Spielen die RT unterstützen der Fall, dafür kann aber NV nichts.
Komisch ist immer nur, wenn NVDIA sowas rausbringt und es noch nicht optimal läuft, ist es Schrott bis ans Ende aller Zeiten, egal ob RT oder DLSS und wie sich das entwickelt. Die ersten Ergebnisse werden die nächsten 10 Jahre angeführt. Wenn AMD das tut, dann brauchen sie einfach Zeit.
Es war auch nicht optimal als sie es mit Turing gebracht haben, das meiste war über 1 Jahr nicht vorhanden oder kaum nutzbar. Dass es Schritt bis ans Ende aller Zeiten ist, stimmt auch nicht, das behaupten vielleicht die AMD Fanboys und deine Wahrnehmung täuscht dich dann.
Seit DLSS 2.0 ist es doch super (mit kleinen Macken wie auch FSR2.0) und RT ist bei einigen Spielen in Kombination mit Ampere auch deutlich besser.
Weiteres Problem ist ebenfalls, dass AMD das Zeug für alle Hersteller freigibt und Nvidia alles geschlossen haben will.
AMD würde es aber wie Nvidia machen wären sie am deren Stelle, das ist mir auch klar.

Hier wird mir zuviel mit zweierlei Maß gemessen.
Ja, aber da musst du auch erstmal vor der eigenen Haustür kehren.

ps. Zur Preisdiskussion RDNA 2 vs Ampere:


Japp ich weiß, dass Ampere in höheren Auflöaungen besser ist, das muss jeder für sich selbst entscheiden.
 
Zuletzt bearbeitet :
Das gehe ich ja auch Wort für Wort mit. Aber der Preis relativiert sich ja gerade. Das war ja der Ausgangspunkt.

Bei 3 K für eine 3090 und 1.4 K für eine 6900 erübrigt sich auch jede Diskussion.
Zu den aktuellen Preisen sind die 3080 10/12GB oder auch ne TI gute Angebote - so wie 6800/XT und 6900XT. Hier hat man aktuell die Qual der Wahl.
Dass RT ein großer Wurf ist, bestreite ich nicht - langsam kommen ja auch erste Anwendungen plus Hardware, die damit auch umgehen kann. Ich hatte nur keine Lust, etwas mit zu bezahlen, dass ich nicht richtig nutzen kann.
 
Oben Unten