GeForce RTX 4090 und 2x RTX 4080 - Ada Lovelace startet ab Oktober

Ist nicht das Gleiche. Ne Grafikkarte ist an sich kein Hobby, außer im Einzelfall fuer einen Sammler. Das ist ein Gebrauchsgegenstand. Das Spielen waere das Hobby.
Dann wäre an sich die 800€ Lok auch nur ein nutzloser Gebrauchsgegenstand. Weil spielen und fahren kann man mit der 50€ Lok auch. Diorama wäre ja dann genauso dumm wenn nur das Spielen das Ziel des Hobbies wäre... Genauso gut wäre die 5,5K Kamera dann auch nur Gebrauchsgegenstand weil ja das Fotografieren dann das eigentliche Hobby wäre. Das geht ja mit der Handy Cam auch ganz gut.

Ich weiß ja nicht wie du mit dem Hobby Computer umgehst aber wenn für dich nur das simple Spielen ohne Ansprüche an die Technik als Hobby zählt und nicht der Zusammenbau und die Nutzung (Wie bei einer Modeleisenbahn?) und somit auch der Anspruch am Ende das Spiel in bestmöglicher Form zu genießen, dann wären Konsolen vielleicht eher was für dich. Dann würde ich aber behaupten du hast Videospiele als Hobby und nicht Computer an sich.
 
naja wirklich verlgeichen kann man das erst wenn das Nachfolgemodell der 800 Euro Lok dann plötzlich 1200 oder mehr und das Nachfolgemodell der Kamera dann 8000+ usw kosten würde...

von dem her klar ist PC schrauben und Gaming im Vergleich mit vielem anderen noch ein recht günstiges Hobby, aber die Teuerung von Gen zu Gen ist bei Grakas zumindest schon ziemlich abartig in den letzten Jahren...
 
ist das überhaupt legal, weil es offensichtlich gewollt den Verbraucher irreführt?
Das ist doch ganz normal. Es gibt immer wieder Modelle mit verschiedenen Ausstattungen wie beispielsweise eine GTX 1060 3/6 GB oder eine RX 580 mit 4/8 GB. Wer lesen kann ist im Vorteil. Irreführend muss das nicht sein, denn je nach Anwendung braucht man nicht so viel RAM und kann gut die günstigere nehmen. Warum sollte es nicht verschiedene Ausstattungen für verschiedene Anwendungen geben.
 
Finde die Generaration aber ehrlich gesagt zeimlich gut. Wem der Verbrauch zu hoch ist, der kauft sie eben nicht oder betreibt UV. Wer sich nur Karten bis 200W leisten will, kauft eben die kleinen Karten. Finde es ehrlich gesagt etwas kindisch das sich hier heute alle am Spitzenmodell und Top Modell aufregen?? Auch die Erwartungen kommen mir bei manchem Kommentar recht unrealistisch vor. BMW, Benz und Audi bauen auch jedes Jahr nur Autos und keine Flugzeuge... Natürlich ist der Verbrauch hoch, das wil ich garnicht bestreiten, aber über die vielen vielen Jahre in denen es PC HArdware gab, gab es immer nur eine Richtung.... Nach oben! Auch der Preis ist irdendwo noch verständlich. Falls ihr es nicht bemerkt habt, es wird derzeit alles teurer. Bei E-Bikes ist das doch genauso. Lebensmittel, Sprit, Strom einfach alles. Wir müssen uns allgemein von dem Luxus erstmal verabschieden bzw. abstriche machen.
Das Manche sich wünschen dass Nvidia aufgrund von Effizienz Leistung spart finde ich (mM) nach auch der falsche Weg. Natürlich will ich diese Leistungsaufnahme auch nicht. Am Ende vom Tag will ich aber die Leistung! Kraft kommt von Kraftstoff und so...
 
Das ist doch ganz normal. Es gibt immer wieder Modelle mit verschiedenen Ausstattungen wie beispielsweise eine GTX 1060 3/6 GB oder eine RX 580 mit 4/8 GB. Wer lesen kann ist im Vorteil. Irreführend muss das nicht sein, denn je nach Anwendung braucht man nicht so viel RAM und kann gut die günstigere nehmen. Warum sollte es nicht verschiedene Ausstattungen für verschiedene Anwendungen geben.
Wenn es nur das wäre, aber die 4080 12 GB wird leider auch deutlich langsamer sein, wegen weniger cuda cores (ad104, - 21 %) und viel weniger Bandbreite (192 bit, 21 Gbps , -34 % (!) ).

Dieser Unterschied ist in Gegensatz zu den anderen genannten Karten (plus 3080) gewaltig und genau deswegen finde ich es mehr als grenzwertig.
 
Bei den aufgerufenen Preisen wird es diesen Winter keine neue GPU. Vielleicht bringt AMD ja noch was stromsparendes. Ansonsten gucke ich mal ob ich auf dem Gebrauchtmarkt eine Karte von einem Enthusiasten erstehen kann. Am besten schon mit Wasserblock.
 
Ist SER wirklich neu oder nur ein hübscher neuer Name für etwas altbekanntes
 
Naja 300W geht ja noch wenn man es vergleicht was die 4000er ziehen hab Glocken Läuten hören 500W+ und das geht für mich absolut gar nicht.
Bin ich bei Dir, Du gibst 2000€+ für eine Karte aus, brauchst dann im schlimmsten Fall noch eine neue PSU (Jetzt eigentlich nach neuer Spezifikation, oder funktionieren die "alten" noch?), einen satten Mehrverbrauch und wenn Du den ganzen Kram nicht unter Wasser setzt, auch noch ordentlich Geräuschkulisse. 400W/ 500W bekommt man nicht mal eben so flüsterleise mit Luft von der Karte geräumt. ... und wenn unter Wasser, nochmal schlanke 200€ inkl. Backplate und Co. 🤡
 
Naja, bei 1500 Uvp für die 16GB liegen die Boardpartner dann ja auch bei 2000 Flocken.
 
Zu Groß, zu viel Verbrauch und zu teuer. Ich weiß nicht, ob es an meinem fortgeschrittenen Alter liegt, aber
die Karten holen mich nicht ab. Das was mir an Ampere schon nicht gefallen hat wird jetzt weiter geführt.
Richtig erkannt! Nvidia wird auch weiterhin keine Alternative für AMD sein! Die 7900 wird mindestens so schnell sein wie die 4090, nur 999$ kosten und dabei maximal 300W verbrauchen. Es gibt weiterhin keinen grund für Nvidia. Außer man ist Fanboy mit zu viel Geld!
 
Auf dem Papier sieht das wieder super aus, ob ich es zu Hause merke, wenn ich von 6900XT auf 4080 16GB umsteige - ich bezweifle es. Da spielen die Synch-Funktionen am Monitor die größere Rolle, als eine Erhöhung von 80 auf 120 FPS. Und wie gesagt: 4K läuft flüssig mit max. Details. Bis Spiele da sind, die mehr Rechenpower nötig machen, ist die 50XX oder auch die 60XXer Serie am Start (vgl. RT-Features ab 20XX).

Das kommt auf den konkreten Usecase an. Ich z. B. bin an sich zwar nur ein Casual Gamer, dessen Spiele-Phasen sich seit 4 Jahrzehnten immer wieder mal intensivieren und dann eine Weile abflauen. Aber wenn ich dann Lust auf Spiele habe, dann meist aufgrund des aktuellen heißen Scheiß´. Zum Beispiel der Microsoft Flight Simulator, oder Cyperpunk. Und gerne auch in VR.

Und dann starte den MSFS bitte mal auf einem ordentlichen 4K-Fernseher, oder - noch "schlimmer" - mit einer VR-Brille. Schalte bei Cyperpunk Raytracing ein, und zwar so, dass man den Effekt auch sehen kann. Da ist man dann sofort am oder weit übers Limit, und zwar auch mit einer RTX 3090, die ich mir geholt habe, nachdem ich feststellen musste, dass eine 6800 XT - die sich ansonsten sehr "mag" - bei fast allen meiner Anforderungen hoffnungslos überfordert ist. Gerade der MSFS ist unter VR ein so dermaßen überwältigendes Erlebnis, bei dem man aber ständig mit dem Leistungsmangel kämpft, dass man mit Faktor 2 zu einer 3090 gerade mal so aus dem Gröbsten raus ist.

Aber klar: das sind jetzt nicht die Szenarien, die die Mehrzahl der Spieler betrifft. Wenn man sich die monatlichen Ergebnisse der Steam-Umfragen anschaut, ist die Mehrzahl mit 1080 unterwegs, man sieht sogar m. E. überraschend viele Gaming-Notebooks. Das heißt, dass die durchschnittliche benötigte als auch die durchschnittlich verfügbare Grafikpower weit weit weit unterhalb dessen sind, über was wir uns hier unterhalten.
 
Die 7900 wird mindestens so schnell sein wie die 4090, nur 999$ kosten und dabei maximal 300W verbrauchen.
Das wäre wirklich krass und ein Punkt für AMD. MMn ist es aber aktuell (6000 +3000) so dass wenn man RT möchte und Upscaling mag, an NVIDIA nicht vorbei kommt! Hatte 3080 und war etwas enttäuscht von der Performance bzw Qualität. Bei AMD ist einfach das P/L Verhältnis besser, aber bietet einfach keinerlei Konkurenz zu den Features wie Raytracing und DLSS.
BTW woher kommt diese Information? AMD wird kaum die neue 7900XT für 999 USD anbieten. Kann ich mir beim besten willen nicht vorstellen. Ich lasse mich gerne überraschen!!
 
Nvidias CEO Jensen Huang hat in der aufgezeichneten Keynote der GTC in diesem Zusammenhang auch recht beeindruckende Zahlen genannt.

Es wird ja auch viel mit dem neuen DLSS 3.0 geprahlt. Ich lese das bisher so, dass aber ausschließlich mit den neuen Ada Lovelace funktioniert, weil es Eigenschaften der neuen Tensor-Kerne angewiesen ist?!
 
Um das lag-frei hinzubekommen, wird sicher eine gewisse Menge an Tensor Cores vorausgesetzt. Von Ada-exklusiv habe ich da nichts rausgehört.
 
Von Ada-exklusiv habe ich da nichts rausgehört.

Vielleicht lese ich solche Texte anders. Beruflich muss ich nämlich auch Gesetzestexte und Tarifverträge lesen und verstehen, um die dann in Software abbilden zu können.

Jedenfalls steht auf der Nvidia-Seite zu DLSS 3:

DLSS 3 is a revolutionary breakthrough in AI-powered graphics that massively boosts performance, while maintaining great image quality and responsiveness. Building upon DLSS Super Resolution, DLSS 3 adds Optical Multi Frame Generation to generate entirely new frames, and integrates NVIDIA Reflex low latency technology for optimal responsiveness. DLSS 3 is powered by the new fourth-generation Tensor Cores and Optical Flow Accelerator of the NVIDIA Ada Lovelace architecture, which powers GeForce RTX 40 Series graphics cards.

The DLSS Frame Generation convolutional autoencoder takes 4 inputs – current and prior game frames, an optical flow field generated by Ada’s Optical Flow Accelerator, and game engine data such as motion vectors and depth.
 
@Igor Wallossek
Ich hoffe, Du bekommst eine RTX 4090 FE zum Test. Auch eine Boardpartnerkarte wäre sehr interessant im Vergleich, insbesondere bzgl. Kühlung/Temperatur vs. Lautstärke und nicht zuletzt das „Abfedern“ von Spannungsspitzen – da hatte ja die MSI 3090 Ti Suprim X in Deinem Test sehr gut abgeschnitten. Eine RTX 4090 werde ich mir nur zulegen wenn ich sicher sein kann, dass ich sie per „3-auf-1“-Adapter an meinem Netzteil betreiben kann (habe ein Dark Power Pro 1200 – Leistung sollte also mehr als genug da sein). Mein Sparschwein hat schon Angstperlen auf der Stirn – und ich wahrscheinlich auch bald, wenn ich die Gas- und Strompreise für nächstes Jahr erfahre.
 
Das wäre wirklich krass und ein Punkt für AMD. MMn ist es aber aktuell (6000 +3000) so dass wenn man RT möchte und Upscaling mag, an NVIDIA nicht vorbei kommt!
Nvidia war bisher auch nicht schnell genug für RT. Also kein Argument. Und wenn dann weil sie die Spielehersteller geschmiert haben.
 
Oben Unten