News Neuigkeiten und Gerüchte zu RTX 4xxx "Lovelace" (Sammelstrang)

Mal sehen ob das stimmt oder nur ein Fake ist mit nur 55% mehr Rasterleistung...
Ich glaube das ist durchaus realistisch. Die Rasterizing-Leistung zu steigern ist schwer und da ist nicht mehr viel Luft.

ALlerdings muss AMD erstmal beweisen, dass sie das so viel überbieten können.

Ich rechne damit, dass im Rasterizing RDNA3 Lovelace knapp schlagen wird. Billig werden die Karten vermutlich aber nicht werden. Und wie effizient sie am Ende tatsächlich sind, muss sich erst noch zeigen.
 
Ich bin jedenfalls bei diesem Marketing-Gebrabbel bei der GTC weggenickt.... Da gaben die Leaks zuvor ja schon mehr an Infos her. Einzigstes verwertbares Faktum ist der Preis, und den find ich in der Mid-Range gelinde gesagt frech. Schon allein das "hochlabeln" einer vermeindlich 4070 zu einer "kleinen" 4080/12G. 👿
Mal schauen was von den schönen grünen Folien noch übrig bleibt wenn Igor&Co die Karten mal in den Fingern hatten. 😎
 
Preise und Verbrauch gar nicht mal schlecht, sofern man Besitzer einer Gasheizung ist, was immer noch ca. 50% aller Haushalte abbilden sollte 🤡

Hype hab ich keinen.

Mal sehen, was AMD bringt oder ob die 6900XT Extrarunden fahren wird.
 
Disclaimer gibt bereits mehr als genug Anlass, auf tatsächliche Benchmarks zu warten ;)
 
Preise und Verbrauch gar nicht mal schlecht, sofern man Besitzer einer Gasheizung ist, was immer noch ca. 50% aller Haushalte abbilden sollte 🤡
Ich find den Verbrauch jetzt halb so schlimm im Kontext der aktuellen Generation.

3090Ti -> 4090
3080 -> 4080 16G
3070 Ti -> 4080 12G

Ist sicher nicht wenig, aber die Benchmarks werden zeigen, wie es an der Performance/Watt Front aussieht.

Das ganze Gerede im Vorfeld von 600 W GPU und 1200 W Netzteilen scheint mir jedenfalls ziemlich übertrieben.
 
Wenn ich dann aber lese, dass die 4080 12GB, bei reiner Rasterisierung schlechter ist als eine 3090ti und nur bei RT und/oder DLSS3 so richtig Punkten kann, dabei der Verbrauch noch immer über 300W liegt, finde ich das irgendwie Ernüchternd.

Da ich schon DLSS (alle Versionen) probieren möchte und RT nicht ganz auschliessen möchte, hoffte ich auch etwas in Richtung 10-20% mehr Leistung als meine aktuelle 6800XT bei maximal 250W Verbrauch. Dies sollte eigentlich rein über die 4nm Fertigung möglich sein. Leider wurde ich in dem Sinn enttäuscht. Ich glaube auch kaum, dass hier eine mögliche 4070 etwas rausreissen kann.

Mal sehen ob mein Optimismus am 3.11 wieder gestärkt wird. Im Moment habe ich aber das Gefühl, dass die ganze Generation an mir vorbei gehen wird. Mit der 5000 Serie müsste dass aber echt was kommen. Und bis dahin bin ich bei meiner Backlog an Spielen auch dort angekommen wo RT wichtiger wird.
 
Das einzig positive, diesmal ist die 4090 wirklich deutlich flotter wie die 4080 bzw. 4080ti. Bei der 3090 war der Abstand ja recht gering zur 3080. Letztlich sind über 2.000€ natürlich kein Schnäppchen. Die 4080 hat hingegen, trotz UVP Aufpreis zur 3080, weniger Shader wie die 3080. Da erwarte ich keinen großen Leistungssprung - die Tests werden es dann wohl zeigen. Alles läuft darauf hinaus das ich diese Gen auslasse...
 
Das ganze Gerede im Vorfeld von 600 W GPU und 1200 W Netzteilen scheint mir jedenfalls ziemlich übertrieben.
Gerüchteküche behauptet, dass zumindest die 4090 möglicherweise ein Alternativbios besitzt. welches gegen 600W TDP steuert.

Da die Kühler- und Kartendimensionen alles andere als überschaubar sind, wirken sie überdimensioniert für die offiziell verlauteten TDPs. Dass der Fertigungsprozess alleine diesen Aufschlag verursacht, kann ich mir zumindest nicht vorstellen.

Denke hier kommt möglicherweise tatsächlich noch was. Wie sinnvoll das sein wird, wird man dann sehen.
 
Wenn ich dann aber lese, dass die 4080 12GB, bei reiner Rasterisierung schlechter ist als eine 3090ti und nur bei RT und/oder DLSS3 so richtig Punkten kann, dabei der Verbrauch noch immer über 300W liegt, finde ich das irgendwie Ernüchternd.
Die 12 GB ist auch schon nur noch eine halbierte 4090, da erstaunt die Leistung nicht. TBP ist 285 W, also vergleichbar zur 3070 Ti.

Aber wenn eine halbierte 4090 mehr als 50% des Preises der 4090 hat, passt das einfach nicht mehr.

Bei CPUs mag so eine Preisstruktur noch halbwegs Sinn machen (8 Kern Ryzen kostet mehr als die Hälfte eines 16 Kerners). In vielen Anwendungen ist der Mehrwert gering, und die Halo Preise beginnen bei Threadripper.

Aber im GPU Sektor sollte eine x090 nicht das beste P/L Verhältnis haben...
 
Kann die Leute auch nicht verstehen, die 1000-1200€ für eine Mainstreamkarte einfach so akzeptieren können. Meiner Meinung nach auch mit denen geschuldet, die in der Miningzeit 2000€ und mehr für eine 3000er Karte hingelegt haben. Ein offensichtliches Zeichen für Hersteller und Händler, dass solche Preise für ambitionierte Gamer machbar sind. Das scheinen nun ja auch die MB Hersteller erkannt zu haben. Ich kann mich noch an Igors Worte von vor 3 Jahren erinnern, als ein X570 Brett für 180€ noch als "fesch im Preis" galt. Für die wenigen, die sich nicht mehr erinnern können, eine GTX1080 beispielsweise hatte einen MSRP von 599$. Rechnet man jetzt noch CPU und restlichen Komponenten dazu, dann ist man mal ganz schnell bei 2000€ Upgradekosten alle 2 Jahre für eine neue Generation. Wer kann und vor allem will das noch? Dafür leasen andere schon ein Auto, wenn auch zugegebener Weise nur ein Kleines ;)
 
die Werte sind von den FEs, die Customs dürfen wohl mehr saufen wenn der Hersteller so ne Option mitgibt. Später gibts sicherlich noch den Vollausbau des Chips mit dann 600W in einer 4090TI
 
Kann die Leute auch nicht verstehen, die 1000-1200€ für eine Mainstreamkarte einfach so akzeptieren können.
Die 4090 für knapp 2kEUR finde ich in Ordnung, das ist eben alleroberstes Regal und da muss man dann halt auch ordentlich löhnen, zumindest am Anfang. Evtl. kommt da noch eine 4090ti oder Titan hinterher, die dann aber kaum noch schneller ist.

Die 4080ti wird dann für die 4090 wieder eher zum Ärgernis, die wird diesmal sicherlich auch 16GB RAM bekommen, da bleibt dann abzuwarten, wie sehr Jensen die GPU kastriert.

Keine der beiden 4080 ist ihren Preis auch nur ansatzweise wert, das ist schon extrem mies, aber ok, irgendwo müssen die 60%plus Marge ja herkommen und wer das mitmacht ist selber Schuld.
 
1663834927450.png

brackets zum stützen der GPU werden wohl in Zukunft Pflicht

So ein Klotz hier wird doch jedes Motherboard verziehen ohne Hilfe
 
Wehe da sitzt eine Schraube der Slotblenden nicht bombenfest...

Das zeigt doch alle wie abartig das Thema mittlerweile geworden ist. Es wird so verschwenderisch mit Rechenleistung umgegangen, dass wir Karten brauchen, die so viel Energie benötigen, dass wir 4 Slot Designs brauchen, um die ganze Energie irgendwie beinahe notdürftig an Luft abgeben zu können.

Ich empfinde das bald als peinlich. In einer vorherigen Diskussion habe ich das schon einmal geschrieben: Wenn mehr Fokus auf die FPS/Watt Betrachtung gelegt würde, dann glaube ich kommen so nach und nach auch die Nutzer dahin. Ich stelle mir das so vor, dass man in den drei Standardauflösungen testet. Dann eine FPS Vorgabe macht und misst wie die Effizienz dabei ist.

Der Leser sucht sich seine Auflösung und seine gesuchte FPS Zahl heraus und weiss welche die effizienteste Karte dafür ist.

Aber ich verstehe natürlich auch, das das unglaublich viel Benchmark Aufwand wird und so wahrscheinlich kaum umsetzbar ist.
 
Zuletzt bearbeitet :
Dann eine FPS Vorgabe macht und misst wie die Effizienz dabei ist

Das macht Igor doch schon in seinen GPU-Reviews.
Die Effizienzanalyse beinhaltet doch eine Effizienz in Watt pro FPS Analyse ( In FHD und QHD ).
Aus den Diagrammen ergibt sich doch eine gewisse Grundtendenz der jeweiligen GPU's .
 
  • Like
Bewertungen: Thy
Techpowerup hat bei den Tests von Grafikkarten ebenfalls Grafiken für Performance per Watt. Dort ist es eine relative (also in Prozent) Angabe im Vergleich zu anderen Karten. Es gibt da derzeit 3 Grafiken: für 1080p, 1440p und 2160p.
Für Performance per Dollar gibt's dort vergleichbare Grafiken.
 

die gen5 PSU cable Adapter sind wohl offiziell von der PCI-SIG nur für eine Lebenszeit von 40 mal "umstecken" vorgesehen, und stark geknickt/gebogen werden dürfen sie überhaupt nicht.

Zotac sagt hier 30 mal umstecken ist das maximum der Gefühle bei ihrem Adapter. Viel mehr wird es bei anderen Herstellern wohl auch nicht werden.

Toll für alle Menschen mit kleinen Gehäusen, die für jeden Kleinkram die GPU rausbauen müssen.

Langsam frage ich mich, ob hier nicht die Industrie die alten PSUs einfach schlecht reden will, um neue zu verkloppen - die "Negativmeldungen" über alte PSUs/Adapter häufen sich in den letzten Tagen stark. Zufall? Oder System?
 
Zuletzt bearbeitet :
Oben Unten