Ist die NVIDIA GeForce RTX 3090 Ti als Lernobjekt der Boardpartner für Lovelace gedacht oder bremst gar die PCI SIG?

Mann muss auch sagen, dass es eine Zeit gab, wo SLI/Crossfire doch sehr verbreitet war (ich selbst hatte 2 generationen hintereinander SLI benutzt) und hier waren die Verlustleistung in ähnlichen Bereichen...

Ich würde es nun wirklich in Relation setzten ob wie in Zukunft noch von Single-Die GPUs reden oder Multi-Die GPUs. Wenn Nvidia jetzt ein Die entwicklet, welcher bei 300W die Leistung einer 3090 hat und hier eine Karte mit 2 Die's bringt, welche fürs OS als eine sinlge GPU gesteuert werden kann. Könnten so mit einem kleinen Verlust von Latenzen, sogar 90% Mehrleistung rausspringen.

Also 600W und 190% Leistung einer 3090

Runter gebrochen auch 2 Teils Deaktivierte Die's welche sagen wir nur 175W je Die benötigen und so die Leistung einer 3070 bringen würde --> 190% Leistung einer 3070, dann wäre sie mit 350W noch immer über 40% schneller als eine jetzige 3090

So, das wäre meine optimistische Glaskugel und würde bedeuten, dass wird schon mit der nächsten Generation eine Mehrleistung bei gleichem Verbrauch erwarten können, es Nvidia aber auch möglich wäre ein Monster Karte zu bringen, welche zwar eine ungesunde Verlustleistung hat, dafür aber eine Leistung bietet, was wir bis dato nur erahnen können und eine Steigerung, welche wir die letzten Jahrzehnte nicht mehr erlebt haben.
 
Es scheint ja so als würde AMD auf Multichip setzen und Nvidia eher auf monolithisch. Ich denke auch AMD hat in dem Bereich aktuell einen Vorsprung gegenüber NV und Intel.
 
Das wäre sehr positiv. Ich hatte auch schon in die Richtung gedacht. 16XX/20XX > Einstiegsklasse, 30XX > Mittelklasse, 40XX > Highend. Dann müssen die Grünen im Prinzip nur ein neues Layout für Highend entwickeln.
Bin mal gespannt, wo AMD mit dem "Multi-Chip Layout" landet. Und wenn dann noch Intel in der oberen Mittelklasse zumindest mal mitspielen kann, kriegen wir ggf. nochmal ein bisschen Bewegung bei erträglicheren Preisen.
 
Der GH100 soll noch als Single Die kommen, eine Die Size von 900mm² haben und bis zu 1000W verbraten können, soll dafür aber auch mehr als doppelt so viele FP32-Shader bieten. Das ist natürlich die absolute Speerspitze für das Rechenzentrum.
 
500 Watt, das sind für mich in 2 Stunden 33 Cent inkl. USt.,
Das reicht jetzt schon nicht mehr. :unsure:
Allein der PC mit 3090 zieht jetzt schon bis zu 650 Watt, dann noch 4K Monitor und Audio-Zubehör.
Zocken wird mal Luxus, wer hätte das gedacht....
 
Hängt an den Ansprüchen.
Wahrscheinlich wünscht man sich in zwei drei Jahren Stromgutscheine statt Steam-Guthaben. Die armen Kinder!
 
Gegenposition: sobald das neue Modell bestellbar ist, klicke ich den „Kaufenknopf“. Mir egal, was das Ding schluckt. Meine jetzige Graka ist dann ca. 2 Jahre alt und ich kann prima eine Gegenrechnung aufmachen, dass ich meine Grakas gekauft und behalten habe und nicht wie zig andere den freundlichen DHL-Boten zig Mal hinundher geschickt und Sprit oder sonstige Energie verblassen lassen habe. Auch verbrenne ich keine unnötige Energie für Benchmarkorgien oder Mining und lasse die Karten auch nicht in der theoretisch denkbaren Kotzgrenze glühen, sondern drehe glücklich abends ab und an ein Ründchen in Spielen. Auch wenn ich eine neue Graka kaufe werden die alten bis EOL fröhlich in der Familie weiter genutzt. Und ich bin mit dem frühen Kauf sogar preislich denkbar günstig weggekommen. Für mich eine win-win-win Konstellation.

Gibt für alles Argumente, ich hab meine und andere kenne ich zwar, interessieren mich aber bei diesem Hobby nicht.

Bei anderen Dingen stelle ich mich anders auf. Ich fahre mit dem Fahrrad ins Büro, wenn’s zu nass ist nen popeligen Smart und wenn ich mal “standesgemäß“ vorfahren muss oder Langstrecke ansteht, hol ich mir halt nen Mietwagen.
 
Ich weiß ja nicht, wie ihr das seht, aber ich hab irgendwie keine Lust, nun auch hier noch Diskussionen über E-Autos, AKWs, EE-Ausbau, usw. zu lesen. Denn selbst da sind die Fronten wie bei vielen anderen Dingen inzwischen extrem verhärtet. Wäre schade um die Community hier.
Wenn man nicht Dinge mal kurz anreissen darf, bei denen die Fronten verhärtet sind, zieht du dir selber einen Stacheldrahtzaun durch das Hirn. Dann passiert genau das, was sich einige wenige Wünschen. Man äussert sich nicht mehr Öffentlich und schwimmt Wortlos im Mainstream als ungehörter mit.. Natürlich ist dies ein PC-Forum, aber das eine oder andere Abschweifen finde ich ganz ok.

Ich kann sehr gut mit anderen Meinungen leben. Am Ende eines langen Tages ist aber genau das, das der Wesen der Demokratie. Andere Meinungen, solange sie auf dem Boden des Grundgesetzes stehen, aushalten.

Und Energiebedarf ist halt ein universelles Thema.
 
Zuletzt bearbeitet :
Ich hab Bock auf neue Grafikkarten, auf 4K@100FPS mit max. Details und Grafikporno. Aber für 2-3.000 Euro? Und dann noch 500+ Watt? Das schmälert meine Freude gewaltig. Dass das nicht jede und jeder so sieht - fein.
Ähem ich möchte nicht impertinent erscheinen, aber wie du weißt, habe ich ja eine 3090. Aber 4K@100FPS mit max. Details und Grafikporno schaffst du sicher auch mit einer 3090ti nicht. Vielleicht mit DLSS auf Leistung ohne RT, aber dann ist auch schon nix mehr mit Grafikporno.
 
Die GraKa erinnert mich frappierend an Intel. Die haben ja auch beim i9-Alderlake die Brechstange rausgeholt um unbedingt ein bisschen schneller zu sein als die Konkurrenz.
Ich habe jetzt nicht mehr so die Werte im Kopf, aber ich glaube der hat so spitze etwa 250 Watt verbraucht..wenn dann jetzt dazu noch diese GraKa kommen würde.. Kernschmelze im Gehäuse oder wie?
Da macht es auch keinen Sinn mehr über eine WaKü nachzudenken, denn das "mehr" an Leistung steht in keinerlei logischem Zusammenhang zum Verbrauch.
Damit ist die Karte völliger Unsinn^^ Und irgendwie mehr Marketing als irgendwas anderes.
 
Gegenposition: sobald das neue Modell bestellbar ist, klicke ich den „Kaufenknopf“. Mir egal, was das Ding schluckt. Meine jetzige Graka ist dann ca. 2 Jahre alt .....

Gibt für alles Argumente, ich hab meine und andere kenne ich zwar, interessieren mich aber bei diesem Hobby nicht.
...
Das kann ich schon gut nachvollziehen!
Ich werde aber trotzdem voher abwägen, und der Energieverbrauch spielt schon eine Rolle beim Kauf, weil der ganze Rechner dann umgebaut, bzw ersetzt werden muss. Für mein PIMAX8KX Headset reicht die 3090 je nach Anwendung gut, nur knapp, oder mit deutlichen Einschränkungen. Die Nachfolgegeneration muss mit DP2.0 kommen, und massiv multiparallel arbeiten, sehr viel schnellen Speicher haben, UND sparsamer werden.
Das WIRD nun ein Consumer-Problem, wenn die technischen Leistungs-Standards wie die Aufnahmeleistung weiter so blind nach oben durchrauschen. Die Entwärmung bereitet mir jetzt schon Kopfzerbrechen....
 
Ich glaube, so langsam wird der Aquarium-PC vom 8auer zum Standard. :cool:
Wäre interessant, davon mal was neues zu hören.
 
ich stelle mir schon ernsthaft die Frage, wie leicht man sein Geld verdienen muss um jetzt noch ernsthaft den Kauf einer 3090Ti zu erwägen - und zwar nicht vor dem Hintergrund des zu erwartenden Preises, den sich jeder mit mindestens Baum-Abitur selber ausrechnen kann - sondern schon allein vor dem Hintergrund der bereits aufploppenden Erkenntnisse zur Nachfolgegenereation, bei der ich mittlerweile da bin, dass ich ich mehr auf die Energieeffizienz als auf die maximale Leistung schaue - wobei, manche müssen ja auch mit einem Bugatti mit 400 km/h über die Autobahn rasen, egal wie bescheuert das ist.
 
ich stelle mir schon ernsthaft die Frage, wie leicht man sein Geld verdienen muss um jetzt noch ernsthaft den Kauf einer 3090Ti zu erwägen - und zwar nicht vor dem Hintergrund des zu erwartenden Preises, den sich jeder mit mindestens Baum-Abitur selber ausrechnen kann - sondern schon allein vor dem Hintergrund der bereits aufploppenden Erkenntnisse zur Nachfolgegenereation, bei der ich mittlerweile da bin, dass ich ich mehr auf die Energieeffizienz als auf die maximale Leistung schaue - wobei, manche müssen ja auch mit einem Bugatti mit 400 km/h über die Autobahn rasen, egal wie bescheuert das ist.
Naja. das ist möglicherweise der falsche Ansatz. Warum jetzt nicht eine 3080ti als Zwischenkarte kaufen, bis endlich die 4090 kommt. Ob die dann reicht wird man sehen. :cool:

Das eine schließt das andere ja nicht aus. :ROFLMAO:

Ich hab mir letztens spaßeshalber mal ein Lenkrad gekauft, um mit meiner 3D Brille rennen zu fahren. Der Name der Firma war Fanatec. Sowas muss man auch sein, um die aufgerufenen Preise zu zahlen. Selbst die Einnsteigersystem werden fast in Gold aufgewogen.

Sobald du dich mit hochwertigen 3 D Brillen beschäftigst, fragst du dich, ob eine 4090 dafür reicht. Darum eiere ich mit meiner Oculus Rift noch rum.

Mit einer PIMAX8KX stößt du leistungsmäßig das Tor zur Hölle auf.

Aber ernsthaft.

Mir juckt es gerade gewaltig in den Fingern. Ich spiele im Wohnzimmer mit meiner Brille und da läuft ja noch ne alte 2080Super. Ich würde sie so gerne austauschen!

Aber genau dein Argument der Nachfolgegeneration läst mich Innehalten.

Ausserdem ist es mit der Karte ja nicht getan. Meine Netzeile reichen zwar, aber ich hab jetzt schon Not die 3090er und den 3900x mit dem
Aquaduct 720 XT zu kühlen.

Vorsorglich bin ich auf Define 7XL Tower umgestiegen, aber eine komplett innen verbaute Kühlung ist was völlig anderes als ein externes System.

Ausserdem braucht es auch erst Wakükühler.
 
Manche haben auch einfach Spaß daran mit dem Bugatti zu 99% mit „nur“ 200 Sachen oder weniger zu fahren, und holen freuen sich dann bei den 1% umso mehr.

Meine Vive2 Pro war übrigens ein klarer Fehlkauf. Nutze ich nie.
 
Manche haben auch einfach Spaß daran mit dem Bugatti zu 99% mit „nur“ 200 Sachen oder weniger zu fahren, und holen freuen sich dann bei den 1% umso mehr.

Meine Vive2 Pro war übrigens ein klarer Fehlkauf. Nutze ich nie.
Genau das. Ich habe die Vive sogar verschenkt, denn mir mir ist entweder schwindelig oder langweilig geworden. Oder beides :D

Und das mit dem Tempo, ja mei... Es gibt auch noch so leckere Sachen wie Ampelsprints, Kolonnenschrubben oder einfach nur die Nachbarn früh aufwecken. Ich gebe zu, das hat auch was. Auf schleifende Kupplungen links neben mir reagiere ich auch schon gern mal mit 520 Nm+ :D
 
Manche haben auch einfach Spaß daran mit dem Bugatti zu 99% mit „nur“ 200 Sachen oder weniger zu fahren, und holen freuen sich dann bei den 1% umso mehr.

Meine Vive2 Pro war übrigens ein klarer Fehlkauf. Nutze ich nie.
Naja, die Testberichte der Pro waren ja auch, vorsichtig formuliert, durchwachsen.

Wenn ich sehe, wie meine 2080s, die eigentlich für die Rift völlig overdosed sein soll, bei Alyx zusammenbricht auf der zweitbesten Grafikstufe, weiss ich was die Stunde geschlagen hat.

Sobald die Games wirklich grafisch Anspruchsvoll werden, ist selbst bei Brillen mit mäßiger Auflösung Schicht im Schacht.

Im Moment stecke ich in Brillen keine Kohle, weil man nicht weiss ob das ganze überhaupt noch eine Zukunft hat und welche Grafikkarte dafür taugt. Falls Steam aussteigt, wird es sehr schwierig.

Und selbst eine 3090 dreht mit hochauflösenden Brillen ziemlich am Rad.
 
......

Sobald du dich mit hochwertigen 3 D Brillen beschäftigst, fragst du dich, ob eine 4090 dafür reicht. Darum eiere ich mit meiner Oculus Rift noch rum.

Mit einer PIMAX8KX stößt du leistungsmäßig das Tor zur Hölle auf.

Aber ernsthaft.

Mir juckt es gerade gewaltig in den Fingern. Ich spiele im Wohnzimmer mit meiner Brille und da läuft ja noch ne alte 2080Super. Ich würde sie so gerne austauschen!

Aber genau dein Argument der Nachfolgegeneration läst mich Innehalten.

Ausserdem ist es mit der Karte ja nicht getan. Meine Netzeile reichen zwar, aber ich hab jetzt schon Not die 3090er und den 3900x mit dem
Aquaduct 720 XT zu kühlen.

Vorsorglich bin ich auf Define 7XL Tower umgestiegen, aber eine komplett innen verbaute Kühlung ist was völlig anderes als ein externes System.

Ausserdem braucht es auch erst Wakükühler.
Genau das meine ich. Bei nativen VR 2*4K Displays ist Ende der Fahnenstange mit Consumer-Grafikkarten. Da reden wir davon wie schön es wäre, mit was auch immer für Klimmzügen, möglichst stabile ruckelfreie 90Hz Framerate zu bekommen. Und für eine echte Produktiv-Umgebung (nicht die militärische Sniper-Anwendung Hololens, wohlgemerkt) braucht es eher 8K PRO AUGE. Das bräuchte dann wohl eine 4090 TI SUPER DUO. Und jetzt reden wir über den Leistungsbedarf.... Da könnte die Wohnzimmersteckdose mit 10A abgesichert (ja so was gibt´s noch) echt bereits ausgelastet sein. Das geht gar nicht.
 
Oben Unten