Grüne Sonntagsgedanken: Ein doppeltes Lottchen aus den 80ern und dahinschmelzende Stecker

Bitte unterscheide inoffizielle Dinge wie Leaks und solche Clickbait Artikel wie bei der Gamestar mit offiziellen Statements.
Verlinke mir gerne, wo AMD zu hohe Erwartungen bei RDNA 2 geweckt hat.

Ich hab mehrfach geschrieben, das sie nach Ihren Präsentationen häufig zurück gerudert sind. Bei der letzten war RT plötzlich nur bis WQHD gedacht.
Bestreitet keiner, dass RT der heilige Gral ist, aber es muss auch vernünftig laufen, sprich genug FPS und auch eine brauchbaren optischer Unterschied sollte es geben, das ist nicht bei allen Spielen die RT unterstützen der Fall, dafür kann aber NV nichts.
Bei 9 von 10 Pro AMD Posts braucht RT keiner, die Software ist uninteressant und Rasterisierung das Maß der Dinge. Stichwort (spiegelnde Pfützen)


Es war auch nicht optimal als sie es mit Turing gebracht haben, das meiste war über 1 Jahr nicht vorhanden oder kaum nutzbar. Dass es Schritt bis ans Ende aller Zeiten ist, stimmt auch nicht, das behaupten vielleicht die AMD Fanboys und deine Wahrnehmung täuscht dich dann.
Mag sein, aber da gibt es eine Menge.


Seit DLSS 2.0 ist es doch super (mit kleinen Macken wie auch FSR2.0) und RT ist bei einigen Spielen in Kombination mit Ampere auch deutlich besser.
Weiteres Problem ist ebenfalls, dass AMD das Zeug für alle Hersteller freigibt und Nvidia alles geschlossen haben will.
AMD würde es aber wie Nvidia machen wären sie am deren Stelle, das ist mir auch klar.
Es gibt unglaublich viel, was man zurecht an NVIDIA kritisieren kann. Ich bin der letzte, der das in Zweifel stellt.


Ja, aber da musst du auch erstmal vor der eigenen Haustür kehren.

ps. Zur Preisdiskussion RDNA 2 vs Ampere:

Ich würde uns gern die Diskussion ersparen, ob ich zwingend eine 3090 gegen eine 6900 stellen muss oder ob eine 3080 mit 12 GB oder eine TI nicht auch reicht. Bei RT hat sie schon häufig Not gegen eine 2080TI.

Ich hatte für meinen Zweitrechner eine 6900XTH bestellt um AMD zu unterstützen, aber der Lieferant hat mich als Kunde gecancelt, weil ich daneben gegriffen hatte und ich sich storniert habe. Bei Bestellung der richtigen Karte wurde mir das dann verweigert.

Daraufhin habe ich anderswo zu einer 3080TI gegriffen. Posthum halte ich es für die eindeutig bessere Wahl.
 
Also ich nutze ne 6900Xt, finde gut gemachtes Raytracing super und Radeon Adrenalin ist der Geforce Experience ja wohl deutlich überlegen.
Hat aber alles nichts damit zu tun, dass die neuen 4080 offensichtlich dazu gedacht sind die Leute über den Tisch zu ziehen.
 
Zu den aktuellen Preisen sind die 3080 10/12GB oder auch ne TI gute Angebote - so wie 6800/XT und 6900XT. Hier hat man aktuell die Qual der Wahl.
Dass RT ein großer Wurf ist, bestreite ich nicht - langsam kommen ja auch erste Anwendungen plus Hardware, die damit auch umgehen kann. Ich hatte nur keine Lust, etwas mit zu bezahlen, dass ich nicht richtig nutzen kann.
Das ist alles richtig und absolut nachvollziehbar. Ich denke auch, das je nach persönlichen Vorlieben die 6900XT die bessere Wahl sein kann.

Das ändert aber alles nichts an der Tatsache, das NVIDIA eindeutig das fortschrittlichere Produkt mit dem besseren Softwarepaket hat.

Das war meine Aussage. Nicht mehr und nicht weniger.
 
Kann mir (Nutzer einer Nvidia Grafikkarte aus der 10er Serie) bitte jemand erklären, was mit dem "Softwarepaket" gemeint ist.
-Sofern Experience damit gemeint ist: Das hat für mich persönlich keinen Mehrwert.
- Sofern der Treiber gemeint ist: Mit dem bin ich grad nicht glücklich. Habe stellenweise Bedenksekunden bei der Bedienung vom Treiberpanel und auch schon den ein oder anderen Absturz.
- Cuda wurde ja extra aufgeführt. Hier gibt es aus meiner Sicht für Alternativen das "Henne-Ei-Problem" weswegen ich glaube, dass Cuda noch länger Vorteile hat.
 
BTW: Ich habe deinen LTSpice Benchmark mit drin. Skaliert jetzt nicht sooo üppig, zeigt aber schön die Unterschiede zwischen Alt und Neu. :)
 
Das ändert aber alles nichts an der Tatsache, das NVIDIA eindeutig das fortschrittlichere Produkt mit dem besseren Softwarepaket hat.
Bezüglich DLSS und RT hast du sicher Recht, keine Frage. Aber wenns um Stromverbrauch und Preis geht? Ist halt auch die Frage, wie man Fortschritt definiert.
 
Ich will jetzt nicht sagen, dass die Steamumfrage so 100% das Kauf- und Nutzungverhalten aller Konsumenten wiederspiegelt, allerdings ist es schon ein starkes Indiz und erlaubt es eine klare Tendenz zu ziehen.
Da muss man nicht raten. Hier sind die echten Zahlen:

Nvidea hat 80% des Marktes an diskreten GPUs im PC. Intel 62% der iGPU im PC
Apple ist stark im Kommen soll ein paar Jahren ca. 20% Marktanteil haben (M1).

Wenn man Konsolen, Smartphones, Tablets und Industrie-Anwendungen etc. mitrechnet, dann spielen Apple, Qualcomm, Samsung auch weit vorne mit und vermutlich wird sich der GPU-Markt nicht im PC-Markt entscheiden, daher gehen die Anbieter ja auch alle in diese Märkte.
 
Was ist grün und kann vor Kraft kaum laufen? Der Hulk der Pixel-geprägten Neuzeit heißt GeForce RTX 4090 und macht vor allem auch durch sein hochenergetisches Auftreten seit Wochen, ja Monaten schon, ordentlich von sich reden. Und wo der Hulk einmal zuschlägt, da wächst auch kein Gras mehr und der Strom fließt plötzlich (dank DLSS (read full article...)
Einfach köstlich und so true :cool: @Igor Wallossek lass alles raus, höre (lese) dir gern zu :LOL:(y) Hat mich ebenfalls mit Humor erleichtert in der Sache :D Super zusammengefasst die Thematik.
 
Beim Titelbild des Artikels vermisse ich ja eigentlich noch die Version mit 3,5+05 GB , die liesse sich bestimmt auch noch irgendwo zwischenschieben, als 4750 oder so :rolleyes:

Wenn Rechenleistung nur noch mit Brechstange bzw enorm hoher zugeführter elektrischer Leistung erreicht werden kann und das so weitergeht, muss man sich bei den mittlerweile auftretenden Strömen langsam mal Gedanken machen ob 12V nicht langsam ausgedient haben und man einen Sprung auf 24V+ macht... Bei >24V stellt sich dann aber langsam die Frage, ob denn noch jeder Laie zuhause selbst seinen PC zusammenschrauben darf.

Wie auch immer, ich bin auf die neuen Karten zumindest insofern gespannt, was DLSS3 kann (oder nicht kann) . Ist, wie ich finde, eine sehr interessante Technik. Rechenleistung abseits von Spielen wird auch spannend für mich.

Mein "will haben" hält sich aber erstmal extrem in Grenzen. Auch in Anbetracht der Preise, schliesslich will auch die Gasrechnung bezahlt werden. Elektrisch heizen mit GPUs ist da noch ein Stück weit teurer.
 
Aus dem Grund ist ja aktuell selbst eine 3080 10G, wenn sie denn unter 800 Euro fällt, DER Geheimtipp :D
Ernsthaft? Ist da die aktuelle Zotac mit 12 GB für 889 Euro nicht perspektivisch der bessere Deal?

Ansonsten Danke für den Text. Treffender kaum zu beschreiben!
Was ist mit den 6900XTs (ab und an sogar mit XTXH Chip) um 800€ (vorgestern eine XFX limited Black um den Preis für einen Freund geholt)? Wenn nein, dann wieso?
 
Was ist mit den 6900XTs (ab und an sogar mit XTXH Chip) um 800€ (vorgestern eine XFX limited Black um den Preis für einen Freund geholt)? Wenn nein, dann wieso?
Haben wir doch diskutiert bis der Arzt kommt. Wobei eine 6900XTS mit XTXH Chip zu dem Preis sicher auch ein guter Deal ist.
 
Sorry, der Schreibstil ist kaum noch lesbar. Weniger wäre hier mehr.
 
Haben wir doch diskutiert bis der Arzt kommt. Wobei eine 6900XTS mit XTXH Chip zu dem Preis sicher auch ein guter Deal ist.
Hab ich gelesen. Deswegen frag ich ja 🙃

Zum ZOCKEN 6900XT top und die Preise fallen weiter und weiter (y) Die Technik Fertigung, Effizienz (vor allem Infinity cache) finde ich wegweisend. Adrenalin inzwischen wirklich sehr gut. Kann man tweaken bis der Arzt kommt. Mit dem Cache spricht 5800X3D Bände oder damals der i7-5775C. Denke gebraucht bald um die 500€ rum. Dann hol ich mir auch eine. Da liegt meine absolute Beinbruch- Schmerz- Grenze für GPUs. So hatte ichs mit der Vega64 gemacht (200€) die seinerzeit mit dem HBM Speicher auch ein Technikleckerbissen war. Mit UV auch noch effizient. Inzwischen auch noch schneller als eine 1080. AMD ist da bissle gut reifender Wein und nVidia eher der Energy Drink zwischen durch hahahaha. Apropoppo, die nVidias werden vermutlich nie so weit im Preis sinken. Vermutlich sind die jetzigen Besitzer dann so dermaßen verbittert (vor allem über die 10G), dass sie sie lieber zerschreddern :D > Joke :p
 
Bei >24V stellt sich dann aber langsam die Frage, ob denn noch jeder Laie zuhause selbst seinen PC zusammenschrauben darf.
Also erstmal, ein PC hat ja auch ein Netzteil mit 230V (AC), von dem her ;-)

Gefahr von Elektrizität für Lebewesen hängt davon ab, ob Gleich- (DC) oder Wechselspannung (AC), und von der Stromstärke. Die aktuellen 12V im PC sind Gleichspannung. Wechselspannung gilt für Lebewesen (mit einem Herz) als gefährlicher wegen der Alternierung (Wellen), schädlich für den Herz-Rhythmus , ist vom gleichen Widerstand (Körper eines Lebewesen) aus gesehen, rechnerisch mehr als doppelt so gefährlich wie die gleiche DC Spannung. Fatal an der Elektrizität ist letztlich nicht die Spannung selbst, sondern der resultierende Strom, der über den Widerstand (Lebewesen) fliesst. Statische Aufladung z.B., wenn es zwickt, kann mehrere Tausend Volt betragen, aber ein sehr kleiner Strom, daher ungefährlich. [Sorry für Offtopic]
 
Ob nun rot oder grün "besser" ist, rein auf dem Papier gesehen.... :
- Für rot spricht die generell bessere DrawCall-Performance. Aber es gibt halt Spiele, die eine Farbe "lieber" haben, als die Andere. Dito bei CPUs.
- Grün hat auch meiner Meinung nach das genannte bessere Entwickler-Package rund um CUDA, vs. dem freien OpenGL etc. (z.B. Visual Studio Tools). Entsprechend die Unterstützung für (professionelle) Software, die rot dann fehlt. Interessiert Gamer aber nicht. Experience und dergleichen klammere ich aus, Geschmackssache.
- DLSS ist halt proprietär, daher muss man es ich bei grün "erkaufen".
- RT grün leicht vorne (bis und mit RTX 30). Aber auch Geschmackssache.
- VRAM Pluspunkt für rot; grün ist einfach zu geizig.
- Ob rot wirklich sparsamer ist, keine Ahnung. Rot muss aufwendig elektrotechnisch gemessen werden, während grün meist das Nachsehen hat, weil die totale Leistungsaufnahme ausgelesen werden kann. Interessant wäre aber, wie es bei UV aussieht, ob da grün und rot etwa gleich viel Reserve bei Stock-Settings drauf packen, oder ob da rot auch schon Stock-mässig vielleicht ein Bisschen anders optimiert resp. weniger grosszügig, und deswegen sparsamer ist. Wäre interessant zu wissen. Kennt jemand Messungen?
- Preis. Hm, mal schauen, ob rot mit der kommenden Generation noch etwas "humaner" sein wird, oder einfach auch nur Ca$h im Kopf hat.
- Weiter...? ;-)
 
Was ist mit den 6900XTs (ab und an sogar mit XTXH Chip) um 800€ (vorgestern eine XFX limited Black um den Preis für einen Freund geholt)? Wenn nein, dann wieso?
Im vergleich zu einer "3080 beinahe ti" für 900€, vermutlich, obwohl hier wieder gilt: wer Nvidia Software/ Cuda / RT möchte/benötigt wird um die teurere "fast 3080 ti" nicht herumkommen, im vergleich zu der 750€ KFA2 3080 die ich vor kurzem für einen Kollegen gekauft habe, wird es dann schon schwieriger, ja die 6900XT hat mehr rohleistung, aber sie ist auch 50€ teurer und insbesondere in 4k kommt davon nicht viel an, und das RT argument hatten wir ja schon.

Obwohl ich schon bock auf eine ASRock 6900XT hätte.
Schwierig.
 
Im vergleich zu einer "3080 beinahe ti" für 900€, vermutlich, obwohl hier wieder gilt: wer Nvidia Software/ Cuda / RT möchte/benötigt wird um die teurere "fast 3080 ti" nicht herumkommen, im vergleich zu der 750€ KFA2 3080 die ich vor kurzem für einen Kollegen gekauft habe, wird es dann schon schwieriger, ja die 6900XT hat mehr rohleistung, aber sie ist auch 50€ teurer und insbesondere in 4k kommt davon nicht viel an, und das RT argument hatten wir ja schon.

Obwohl ich schon bock auf eine ASRock 6900XT hätte.
Schwierig.
Ich versteh auch immer nicht was es da zu diskutieren gibt. Soll doch jeder kaufen was er mag. Hier liegt die Empfindlichkeit jedenfalls nicht bei der "Grünen Fraktion". Ich würd gern AMD kaufen, fahre aber aus meiner Sicht seit der 1000er Serie mit NVIDIA eindeutig besser. Wer das anders sieht: "so what". Meinen Segen hat er. Mit NVDIA als Monopolist würde ich mir gar nicht erst vorstellen wollen.
 
Oben Unten