Grüne Sonntagsgedanken: Ein doppeltes Lottchen aus den 80ern und dahinschmelzende Stecker

Und was spricht dafür, dass AMD den Vorteil nicht einfach in die eigene Tasche steckt?
Nichts, hab ich auch nicht behauptet, oder?
Geht ja um das können.
Meine Tendenz ist auch eher, dass AMD nur ein wenig günstiger als NVIDIA sein wird.
 
Zuletzt bearbeitet :
Wenn man die Shaderanteile prozentual mit der 3000er Reihe vergleicht und jeweils von der xx90 als 100% ausgeht, ist die 4080 16GB genau genommen eine 4070 Ti
Man braucht nicht einmal so investigativ sein. Es reicht wenn man das Kind beim Namen nimmt: 4080 12GB heißt AD104.
Ein Blick in die Vergangenheit zeigt folgendes: RTX 3070 - GA104

Na sowas...
 
Das einzige was Lisa dazu bewegen könnte preislich Gnade walten zu lassen. Das man doch gewillt ist größere Marktanteile auch bei GPU`s zu erobern... Aber so recht dran glauben mag ich nicht dran... Aber still und leise hoffen tue ich es... Was bleibt denn sonst einem übrig...
 
Das man doch gewillt ist größere Marktanteile auch bei GPU`s zu erobern...
Die Frage ist auch, in welchem Segment man Marktanteile holen will. Ich vermute, das ist ganz oben schwieriger, auch wegen Raytracing und das dann auch in 4K. Wer 1500-2000 EUR für eine Grafikkarte ausgibt, der will dann halt auch alles vom Allerbesten haben, da werden dann keine Kompromisse mehr gemacht, was allerdings auch der 4080 16GB zum Nachteil gereichen könnte. Zudem ist in dem Bereich nur wenig Masse, der sich auf den gesamten Marktanteil niederschlägt. Und last but not least hat Nvidia ja sicherlich auch eine Marktforschungsabteilung bzw. einen solchen Dienstleister, die sollten eigentlich wissen, zu welchem Preis sie welche Leistung platzieren können.
Wenn ich mir die Umfrage bei Computerbase ansehe, dann scheint die Marktforschung aber ein Stück weit daneben zu liegen. Warten wir es ab, es wird sich ja zeigen, ob die Karten schnell weg gehen oder ob sie im Regal liegen bleiben.
 
Haha. Klasse geschrieben, ich hab gut gelacht. Danke dafür.

Die kommende Gen. geht aus meiner persönlichen Sicht irgendwie am Bedarf vorbei. Wenn ich was von 400 Watt lese, verfolge ich den Releasezyklus mit der gleichen Neugierde wie die neusten Entdeckungen um Sagittarius A. Aufmerksam und ohne echtes Kaufinteresse.

Ich hoffe dennoch weiterhin auf unterhalsame Berichterstattung am Tech-Horizont.
 
Wenn ich mir die Umfrage bei Computerbase ansehe, dann scheint die Marktforschung aber ein Stück weit daneben zu liegen.
Ich würde vermuten, daß man in der frühen bis mittleren Entwicklungsphase dieser Generation noch stark davon ausgegangen ist, daß die Teile wie die Vorgänger als mining-plattform reißenden Absatz finden werden, Hauptsache Rechenleistung, Energieverbrauch demgegenüber zweitrangig.
Wenn man nun beim "stiefmütterlich vernachlässigten" gaming-sektor nachfragt, ob man die Teile jetzt evtl. da loswerden kann,
ist die Antwort ja klar.
Für ein paar Enthusiasten natürlich immer noch geil, aber der Rest schüttelt verständnislos den Kopf.
 
Für ein paar Enthusiasten natürlich immer noch geil, aber der Rest schüttelt verständnislos den Kopf.
Sie siehts aus.
Habe grad den neuen Alphacool Kühler gesehen. Schon irgendwie witzig wie aus diesem riesigen Monstrum eine kleine Karte wird dessen Kühler 600W abführen darf.
Wenn ich mir die Umfrage bei Computerbase ansehe, dann scheint die Marktforschung aber ein Stück weit daneben zu liegen.
Man muss hier aber berücksichtigen, dass hier nur CB User abstimmen dürfen. Und mMn ist das nicht gerade ein Forum für Enthusiasten und Leute mit dickem Geldbeutel. Sicherlich wird man dort auch diese Leute antreffen aber ich denke mal das wird sehr überschaubar sein. Das kommt für mich etwas vor wie der Kommentarbereich unter den NVIDIA Videos wenn Professionelle Hardware für Rechenzentren vorgestellt wird.
Aber soll keine Beleidigung an CB oder deren User sein! Denke einfach nur dass dort eine andere Zielgruppe angestrebt wird.
 
Zuletzt bearbeitet :
Aus dem Grund ist ja aktuell selbst eine 3080 10G, wenn sie denn unter 800 Euro fällt, DER Geheimtipp :D
Ernsthaft? Ist da die aktuelle Zotac mit 12 GB für 889 Euro nicht perspektivisch der bessere Deal?

Ansonsten Danke für den Text. Treffender kaum zu beschreiben!
 
Für mich ist mindestens die 4080 so gut wie gesetzt. Nachdem ich die 3000er übersprungen habe, will ich jetzt endlich eine Karte, die auch bei (geplantem) UHD noch hohe fps liefert. Die 4090 ist natürlich ein Brecher. Hier ringe ich noch mit mir, ob am Ende Vernunft (4080) oder Gier (4090) siegt. Zur Kaufentscheidung werde ich erst mal Tests abwarten. Zwei Themen zum Stromverbrauch interessieren mich dabei besonders:
Ähem, ich glaube ernsthaft das die Vernunft hier eindeutig bei der 4090 liegt. Und das unter so ziemlich jedem Aspekt. Egal ob Leistung oder Preis-Leistung oder Nutzungsdauer oder Wiederverkaufswert oder Gaming Spaß.

Der Preisunterschied von der 4080 16GB zu 4090 ist einfach zu gering bei dem Leistungsunterschied.
 
Auf Heise liest man zu 12GB vs. 16GB 4080 etwas von unterschiedlichen Chips... AD104 vs. AD103 und der Verheimlichung dieses Umstandes....
 
Nach 2 Jahren GPU Mangel die katastrophal waren für jeden Gamer, ist jetzt wohl der wichtigste Zeitpunkt in der Geschichte von Radeon/AMD gekommen, um ihr wahres Gesicht, ihre Intentionen zu zeigen. Ja es ist ein Weltkonzern, aber wenigstens daran glauben darf man jetzt noch...
 
Haha. Klasse geschrieben, ich hab gut gelacht. Danke dafür.

Die kommende Gen. geht aus meiner persönlichen Sicht irgendwie am Bedarf vorbei. Wenn ich was von 400 Watt lese, verfolge ich den Releasezyklus mit der gleichen Neugierde wie die neusten Entdeckungen um Sagittarius A. Aufmerksam und ohne echtes Kaufinteresse.

Ich hoffe dennoch weiterhin auf unterhalsame Berichterstattung am Tech-Horizont.
Gut gesprochen - etwa genauso überschaubar erscheint das Interesse von Team Green am Marktsegment Gaming. Ist halt da und wird sicher gerne abkassiert bei minimalem Aufwand mit maximalem Ertrag. Mit fehlenden zeitgemäßen Features und weggespartem Vollausbau des Speichers sowie reduzierter Busbreite ist die 40xx Generation ein nurmehr halbfertiges DOA Produkt für daß man zudem Höchstpreise aufzurufen wünscht. Sprich wieder werden Enthusiasten für dumm verkauft. Und das lasse ich mir nicht bieten. Auf Wiedersehen Team Green bis zur 50xx oder 60xx Generation. Es war schön mit euch *umarmt begeistert zwei historische GTX690 GPU und weint halb verbrannt aber glücklich vor sich hin* 😭 - ich jedenfalls kehre wieder gerne zu meinen klassischen Spielekonsolen zurück :love: und wünsche allen eine schöne Zeit. Ich mach hier erstmal Sendepause.
 

Anhänge

  • WP_20220911_18_40_47_Pro.jpg
    WP_20220911_18_40_47_Pro.jpg
    2,5 MB · Aufrufe : 20
  • WP_20220911_18_40_30_Pro.jpg
    WP_20220911_18_40_30_Pro.jpg
    1,3 MB · Aufrufe : 19
  • WP_20220925_22_06_43_Pro.jpg
    WP_20220925_22_06_43_Pro.jpg
    2,3 MB · Aufrufe : 8
Zuletzt bearbeitet :
Würde mich nicht wundern, wenn eine 4080 Ti (12 G) und eine 4080 Ti (16 G) nachgeschoben würden. Platz genug wäre ja.

Was mich ein wenig wundert, ist der relativ große Abstand von 4090 zum Vollausbau (unter 89%). Zum Vergleich: 3090 (98%) und 2080 Ti (94%). Ausbeuteprobleme?
Zu Deiner Frage meine spekulative (!) Antwort: Ich nehme stark an, daß NVIDIA die Chips mit Vollausbau für ihre Quadros reserviert. Würde auch Sinn machen, schließlich sind die auch gleich nochmals viel, viel teurer. Die vergleichbare Quadro wird den Preis der 4090 sehr deutlich übertreffen. Da sind ein paar CUDA cores mehr als die Konsumenten Karte ein gern benutztes Feigenblatt "Sie kriegen ja auch den Vollausbau". Wobei mir klar ist, das Profi Karten aus anderen Gründen (Zertifizierung) gekauft werden.
 
Fragen: Werden alle 40xx Karten mit dem dualen Video encoding ASIC mit AV1 usw ausgestattet? Ja nach Anwendung kann das durchaus ein fühlbarer Mehrwert sein. Allerdings eben nur wenn das wichtig ist.
Und, hat sich was in der Qualität von NVENC geändert? Die wurde ja bei der 3000 Serie unverändert von Turing übernommen.
 
Auf Heise liest man zu 12GB vs. 16GB 4080 etwas von unterschiedlichen Chips... AD104 vs. AD103 und der Verheimlichung dieses Umstandes....
Was heißt "Verheimlichung"? Ich kenne nicht den Inhalt vom Nvidia Greenlight Program. Möglicherweise steht da drin, dass solche Angaben nicht auf die Retailverpackung aufgedruckt werden dürfen.
Im Ada Lovelace Whitepaper von Nvidia soll alledings der Hinweis auf AD104 und AD103 drinstehen. Direkt gefunden habe ich bei Nvidia nichts dazu (da sind momentan viele, viele tote Links), aber Anandtech hatte neulich Angaben veröffentlicht, die der Redakteur wohl direkt von Nvidia erhalten hatte.

 
Das einzige was Lisa dazu bewegen könnte preislich Gnade walten zu lassen. Das man doch gewillt ist größere Marktanteile auch bei GPU`s zu erobern... Aber so recht dran glauben mag ich nicht dran... Aber still und leise hoffen tue ich es... Was bleibt denn sonst einem übrig...
Es besteht zumindet Hoffnung, bei Zen 4 scheinen sie die Preise auch kaum angehoben zu haben, allerdings haben sie das mit Zen 3 schon getan
 
Gut gesprochen - etwa genauso überschaubar erscheint das Interesse von Team Green am Marktsegment Gaming. Ist halt da und wird sicher gerne abkassiert bei minimalem Aufwand mit maximalem Ertrag. Mit fehlenden zeitgemäßen Features und weggespartem Vollausbau des Speichers sowie reduzierter Busbreite ist die 40xx Generation ein nurmehr halbfertiges DOA Produkt für daß man zudem Höchstpreise aufzurufen wünscht. Sprich wieder werden Enthusiasten für dumm verkauft. Und das lasse ich mir nicht bieten. Auf Wiedersehen Team Green bis zur 50xx oder 60xx Generation. Es war schön mit euch *umarmt begeistert zwei historische GTX690 GPU und weint halb verbrannt aber glücklich vor sich hin* 😭 - ich jedenfalls kehre wider gerne zu meinen klassischen Spielekonsolen zurück :love: und wünsche allen eine schöne Zeit. Ich mach hier erstmal Sendepause.
Kannst du das bitte Erläutern? Fehlende zeitgemäße Features? NVIDIA hat hier doch mit RT und DLSS so ziemlich den Startschuss gegeben. Gut Upscaling ist an sich nichts neues aber seit es NVIDIA hat, machen es doch alle. RT sowieso. Weggespartem Speicher? Stimme ich zum Teil zu. Aber jetzt mal leicht übertrieben, braucht eine 3070 keine 16GB VRAM, da sie eh kein 4k wirklich gut packt bei richtigen Texturen. Reduzierte Busbreite, gebe ich zu kenne ich mich nicht aus da ich immer nur im oberen Bereich gekauft habe. Aber ich denke mal das verhält sich ähnlich wie mit dem VRAM.
Beispiel VRAM: Jetzt knallst du auf alle Karten die 24GB GDDR6X, das würde den Preisvorteil nur extrem verhauen. AMD verbaute bisher sogar nur den GDDR6 anstatt den schnelleren GDDR6X wie NVIDIA.
Preise ja stimmen. Wenn du mit deinen GTX690 noch spielst, bist du noch Traumpreise gewöhnt :) Der Schock muss wahnsinnig sein wenn man mal die UVP´s vergleicht :D
 
Kannst du das bitte Erläutern? Fehlende zeitgemäße Features? NVIDIA hat hier doch mit RT und DLSS so ziemlich den Startschuss gegeben. Gut Upscaling ist an sich nichts neues aber seit es NVIDIA hat, machen es doch alle. RT sowieso. Weggespartem Speicher? Stimme ich zum Teil zu. Aber jetzt mal leicht übertrieben, braucht eine 3070 keine 16GB VRAM, da sie eh kein 4k wirklich gut packt bei richtigen Texturen. Reduzierte Busbreite, gebe ich zu kenne ich mich nicht aus da ich immer nur im oberen Bereich gekauft habe. Aber ich denke mal das verhält sich ähnlich wie mit dem VRAM.
Beispiel VRAM: Jetzt knallst du auf alle Karten die 24GB GDDR6X, das würde den Preisvorteil nur extrem verhauen. AMD verbaute bisher sogar nur den GDDR6 anstatt den schnelleren GDDR6X wie NVIDIA.
Preise ja stimmen. Wenn du mit deinen GTX690 noch spielst, bist du noch Traumpreise gewöhnt :) Der Schock muss wahnsinnig sein wenn man mal die UVP´s vergleicht :D
Hatten wir ja alles schon. Was nützt der Speicher wenn die Karte bei WQHD schon zusammenbricht. Ob es FSR ohne DLSS gegeben hätte, lassen wir mal dahingestellt und NVDIA könnte die Entwicklungsabteilung RT 24 Monate in Urlaub schicken und AMD würde immer noch kein Land sehen.
Vom Soft- und Hardware Gesamtpaket mal ganz abgesehen.

Aber das ist seit Jahren so. Wenn Zwei das gleiche tun ist das noch lange nicht dasselbe.

Die Gleichung ist ganz einfach. AMD top, Nvidia Flop. Wenn interessieren da schon groß Fakten.

Es gibt noch nicht einen objektiven Test der Karten im ganzen Netz. Nicht eine Messung oder nachprüfbaren Benchmark. Niemand weiss wirklich was zu Verbrauch, Wäremeentwicklung, Untervolting und Marktpreis etc..

Aber gefühlt 95% aller Spekulationen sind extrem negativ.

Wie hies die Komödie noch gleich.

"Wehe, wenn sie losgelassen werden".

Ich bin wirklich auf die Präsentation von AMD gespannt.
 
Ich lasse mich gern von AMD eines Besseren belehren, aber dafür sehe ich die Chancen 1:20.
 
Oben Unten