GeForce RTX 4090 und 2x RTX 4080 - Ada Lovelace startet ab Oktober

Was ich mich an der Stelle frage

Wenn ich mir eine "Billige" Tuf oder Zotac oder was auch immer kaufe und die karte nur einen 3x8pin auf 16pin hat kann ich der karte trotzdem 600watt geben (Bios Flash vorrausgesetzt) oder merkt das die karte anhand des 3x8pin adapters? weil es gibt ja auch bilder wo es einen 4x8pin adapter geben soll für die 600watt

Falls die karte das merken sollte reicht es dann einfach einen 4x8pin auf 1x16pin adapter zu besorgen?
 
Dem 12+4 12VHPWR fehlt dann das Grounding des Seitband-Anschlusses. Kabelbrücke, Lötkolben und fertig :D
 
Also ist es nicht einfach damit getan einen 4x8pin adapter zu beorgen :LOL: Schade eigentlich 🙈

Oder besteht die möglichkeit sowas käufich zu erwerben bei die Igor nach dem verkaufsstart (soll für einen Freund fragen :cool:)
 
Zuletzt bearbeitet :
Wenn ich allein den ganzen leuchtenden Displaykrams auf den Grafikkarten sehe bekomm´ ich Pickel. Als würde jeder nur noch Custom Showroom PC´s bauen. Hauptsache bling bling, Funktion follows Design. Bin zu alt für den Scheiß 😁
 
Der rollende Heizkörper ist übrigens garnicht sooo doof. Bei den aktuellen Kosten für Heizlüfter kommt son Gehäuse plus Karte u. U. nicht viel teurer.
Also wenn ich in meinem Büro zocke, dann kann ich schon jetzt die Heizung abschalten. Der Raum ist aber mit 12m² auch eher klein.
 
DLSS 3 kann nicht ohne Inputlag gehen.

Ich kann mir im besten Falle vorstellen, dass Beispielsweise ein 60fps Spiel mit DLSS 3 auf 120 fps kommt. Der Inputlag bleibt dann aber weiterhin bei dem selben Lag, den es auch bei 60 fps hat, d.h. DLSS fügt im besten Fall vielleicht keinen eigenen Lag hinzu, aber es wird ganz sicher nicht den Input Lag verringern, wie es eigentlich für eine Verdopplung auf 120fps zu erwarten wäre.

Denn: Im besten Falle wird ja zwischen zwei herkömmlich berechneten Bildern ein interpoliertes eingefügt. Die beiden berechneten Bilder sind die einzigen, die aus dem Programmcode gesteuert werden und damit vom User-Input abhängen.

Das interpolierte Bild ist immer nur ein Zwischenbild. Ganz ähnlich wie die Anti-Ruckel Einrichtungen bei Fernsehern, nur vielleicht im Detail besser, aber sicher nicht mit mehr Informationen.


Zum Thema Performance-Gewinn:

Der Faktor 2 wird sich auf einige, eher theoretische Benchmarks beziehen. Da viele Spiele ja nicht nur an einer Stelle limitieren, u.a. auch Dinge, die gar nicht von der GPU abhängen (CPU, RAM, PCIE usw.) auch wenn sie nicht voll am CPU-Limit hängen, ist es nur natürlich, dass bei einem Spielemix ein deutlich niedriges Plus steht. Da sind also die 50% für mich nicht überraschend, noch nicht mal enttäuschend, sondern absolut im erwartbaren Rahmen.

Die Leute, die da unken und auch höhnisch reagieren sind entweder zu jung um die letzten Kartengenerationen mitbekommen zu haben, haben schon wieder alles vergessen oder sie wollen absichtlich trollen.


Ja, die Karten sind sehr teuer. Aber auch die Entwicklung ist sehr teuer, die Karten sind sehr aufwendig. Die Wahrheit ist aber auch, dass der Gewinnanteil von NVidia extrem hoch ist.

Der Konkurrenzdruck, der auch für bessere Preise sorgen würde, ist leider nicht ausreichend bei GPUs. AMD hängt leider doch immer eine Generation zurück, reine Rasterizing Performance reißt das nicht raus.

Als Gamer sollte man aber auch nicht meinen, man braucht unbedingt eine Lovelace. Eine 3060 oder 3070 tut es schließlich auch für alle modernen Spiele, inkl. RT. Vielleicht nicht in 4k und vollen Details, aber dieser Anspruch ist - wenn man nicht das Kleingeld hat - auch nicht unbedingt nachvollziehbar.


Jetzt eine Konsole als Vergleich heranzuziehen, die weit von der Performance einer 3070 weg ist, kann ich ehrlich nicht ganz nachvollziehen. Auch wenn man dort sicher gut spielen kann, aber eben auch mit Abstrichen.
Der Konkurrenzdruck, der auch für bessere Preise sorgen würde, ist leider nicht ausreichend bei GPUs. AMD hängt leider doch immer eine Generation zurück, reine Rasterizing Performance reißt das nicht raus.

AMD hängt eine Generation zurück? Mit der RX 6900 XT hing man schon gut am Allerwertesten der 3090. Mit der RX 6950XT wurde mit der 3090 TI sogut wie gleich gezogen.
Was NVIDIA wirklich in 2k oder 4k besser macht sind 2 Dinge:
1. DLSS
2.Höhere Speicherbandbreite
 
Was NVIDIA wirklich in 2k oder 4k besser macht sind 2 Dinge:
1. DLSS
2.Höhere Speicherbandbreite
Und RT ist eine Generation weiter, bzw. NVidia verbaut einfach mehr dedizierte HW.

Dies und auch die Tensor Kerne sind einfach Aufwand, den man sich auch bezahlen lässt.

Wäre es nicht so, würde AMD auch größere Marktanteile haben. Bei CPUs sieht man, wie schnell ein absolut dominanter Hersteller in Schwierigkeiten kommen kann.

Warum bist Du eigentlich als Gast markiert? Seit wann kann man hier anonym Beiträge verfassen?
 
ich hoffe, dass nvidia auf diesen überteuerten zeug sitzen bleibt.
vor allem, dass sie aus der 3070 offensichtlich noch schnell eine langsame, aber teure 3080 gemacht haben ist grund genug nvidia mal einen denkzettel zu verpassen
 
ich hoffe, dass nvidia auf diesen überteuerten zeug sitzen bleibt.
vor allem, dass sie aus der 3070 offensichtlich noch schnell eine langsame, aber teure 3080 gemacht haben ist grund genug nvidia mal einen denkzettel zu verpassen
Die Leute werden es kaufen. Genau so wie auch eine 3080 mit 10 GB gekauft wurde.
 
Die Leute werden es kaufen. Genau so wie auch eine 3080 mit 10 GB gekauft wurde.
Die ergibt ja auch Sinn - in WQHD. Auch wenn das geringfügig von gewissen Folien einer gewissen Präsentation abweicht. Ähnlich wie die Performance des Flaggschiffs – wer erinnert sich noch an die Promis, die im Einspieler irgendwas in 8K gezockt haben?
 
Für WQHD ist die Karte (4080/12) nur einfach zu teuer. Ganz ehrlich.

Also als Enthusiast der keine Familie und ein gutes Einkommen hat, kann ich die 4090 für mich rechtfertigen. Meine ganze PC Hardware ist top notch, und das leiste ich mir sehr bewusst.

Aber wenn ich eben wichtigere Dinge und nicht so viel freies Einkommen habe, so dass ich mich mit WQHD und nicht immer die höchsten Details zufriedengebe, dann will ich auch keine €1200 für eine Grafikkarte zahlen. Das ist einfach drüber.

Ich bin nun wirklich kein großer NVidia-Kritiker, aber die 4080/12 verstehe ich einfach nicht. Kein bisschen.
 
Ich bin nun wirklich kein großer NVidia-Kritiker, aber die 4080/12 verstehe ich einfach nicht. Kein bisschen.
Was sich Nvidia dabei gedacht hat, darüber kann man - wie immer - nur spekulieren.

Klar ist, dass die Karte mit ihrer (für eine 80er verhältnismäßig) schwachen Leistung, bei gleichzeitig hohem Dollar- und sehr hohem Euro-Preis, den interessierten Teil der Öffentlichkeit ziemlich abgefuckt hat.

Andererseits ist das natürlich der optimale Preis, um die 3090 im Abverkauf attraktiv erscheinen zu lassen. Die kostet ähnlich viel, hat kaum weniger Leistung und sogar den doppelten Speicher. Hauptnachteile sind halt der höhere Stromverbrauch und die geringere RT-Leistung, aber wen das nicht besonders stört, der hilft vielleicht beim Räumen der Ampere-Regale.

Dass vierstellige Preise für Grafikkarten, zu deren Betrieb ein 1000-Watt-Netzteil empfohlen wird, in Zeiten von Inflation und Energiekrise seltsam aus der Zeit gefallen scheinen (zumindest hierzulande), ist dann noch mal ein ganz anderes Thema.
 
Das einzige Problem was ich an der RTX 4080 12GB sehe, ist der Preis. (Für den halben Preis würde ich sofort zuschlagen!) Ansonsten verstehe ich gerade die Diskussion bezüglich der voraussichtlichen Leistungsfähigkeit der Karte nicht. Der RTX 4080 mit 16GB fehlt eigentlich nur der Namenszusatz "Ti".

Der 104er Chip im Vollausbau der jeweiligen Generation wird schon seit längerem für *80er GPUs verwendet. Ausnahme bisher war die Generation Ampere mit der RTX 3070Ti. Ist halt doof, wenn die Marketing-Abteilung dauernd an den Benamungsregeln rumspielt - irgendwann verliert selbst das technikbegeisterte Publikum den Überblick.

GenerationChipGrafikkarte
MaxwellGM204GTX 980 (4GB)
PascalGP104GTX 1080 (8GB)
TuringTU104RTX 2080 Super (8GB)
AmpereGA104RTX 3070Ti (8GB)
Ada LovelaceAD104RTX 4080 (12GB)
 
Hmm die 4090 ist nen cm höher als die 3080... bei der jetzt schon die Kabel die Scheibe meines O11 Dynamic evo knutschen.

Glaub die 4090 würde da mit dem PWR Anschluss Ärger machen.

Naja, akademische Diskussion, da ich erstmal games bräuchte mit denen meine 3080 überfordert ist.

Finde es amüsant, dass so viel über die Preise weinen, als ob das nicht von vornherein klar war, wenn man die wirtschaftliche Situation, den "new shiny-faktor" und die Restbestände der 3xxx Karten bedenkt.
 
Der 104er Chip im Vollausbau der jeweiligen Generation wird schon seit längerem für *80er GPUs verwendet. Ausnahme bisher war die Generation Ampere mit der RTX 3070Ti. Ist halt doof, wenn die Marketing-Abteilung dauernd an den Benamungsregeln rumspielt - irgendwann verliert selbst das technikbegeisterte Publikum den Überblick.

GenerationChipGrafikkarte
MaxwellGM204GTX 980 (4GB)
PascalGP104GTX 1080 (8GB)
TuringTU104RTX 2080 Super (8GB)
AmpereGA104RTX 3070Ti (8GB)
Ada LovelaceAD104RTX 4080 (12GB)

Die Tabelle kann man auch anders füllen. Dann ist der 104er plötzlich der Chip der 70er-Reihe...
GenerationChipGrafikkarte
PascalGP104-200-A1GTX 1070
TuringTU104-410RTX 2070 Super
AmpereGA104-200
GA104-202
3060Ti
Ada LovelaceAD104RTX 4080 (12GB)
...außer bei Ampere, da war's der 60er Chip.
 
Das einzige Problem was ich an der RTX 4080 12GB sehe, ist der Preis. (Für den halben Preis würde ich sofort zuschlagen!) Ansonsten verstehe ich gerade die Diskussion bezüglich der voraussichtlichen Leistungsfähigkeit der Karte nicht. Der RTX 4080 mit 16GB fehlt eigentlich nur der Namenszusatz "Ti".

Der 104er Chip im Vollausbau der jeweiligen Generation wird schon seit längerem für *80er GPUs verwendet. Ausnahme bisher war die Generation Ampere mit der RTX 3070Ti. Ist halt doof, wenn die Marketing-Abteilung dauernd an den Benamungsregeln rumspielt - irgendwann verliert selbst das technikbegeisterte Publikum den Überblick.

GenerationChipGrafikkarte
MaxwellGM204GTX 980 (4GB)
PascalGP104GTX 1080 (8GB)
TuringTU104RTX 2080 Super (8GB)
AmpereGA104RTX 3070Ti (8GB)
Ada LovelaceAD104RTX 4080 (12GB)

Ist das nicht eine ziemliche Nebelkerze, die du hier abbrennst?

Bitte korrigiere mich, aber ist es nicht das erste Mal, dass bei NV zwei Produkte mit unterschiedlichem Chip die gleiche Modellbezeichnung OHNE unterscheidendes Suffix wie "Ti" oder "Super" tragen?
 
Oben Unten