News Neuigkeiten und Gerüchte zu RTX 4xxx "Lovelace" (Sammelstrang)


Ich find das geil.
Wenn man ne aeltere CPU hat, also 1600x, 2600x oder teilweise sogar 3600x. Hast mit einer 5700XT mehr fps als mit einer 3090. :LOL:

Jaja die Jammerer werden gleich kommen und sagen "mimimi wer eine 3090 kauft hat keine alte CPU mimimimimimi" und "mimimi spielt doch alle in 4K!!!!"
Schon klar, aber wer einen 3600x hat, hat auch gern mal ne 5700XT, und die ist dann schneller als die 3070. :LOL::poop:

Vor Jahren wars umgekehrt, da hat man ATI (zurecht) durch den Dreck gezogen, weil ihre Treiber so CPU lastig waren .... die haben das nachhaltig gefixt und nun steht Nvidia bloed da. (y)
 
Vor Jahren wars umgekehrt, da hat man ATI (zurecht) durch den Dreck gezogen, weil ihre Treiber so CPU lastig waren .... die haben das nachhaltig gefixt und nun steht Nvidia bloed da. (y)

Nvidia steht blöd da, weil die 3090 in 1080p mit mittleren Einstellungen keine Wurst vom Teller zieht? 😅 Was man hier manchmal lesen darf.. oder muss?

Wer sich eine 2500€ Karte für 1080p kauft dem ist nicht zu helfen. Der Test ist absolut Realitätsfern.

Achso:


Es ist scheinbar auch Spielabhängig. Diese Treiberprobleme aber auch 🤷‍♀️
 
Der Test zeigt einfach, dass es sich bei 1080p, mittleren Details und älterer CPU wenig lohnt, eine 3090 zu kaufen.

Die Ahnung hatte ich bereits ohne den Test.

Er verleitet mich aber nicht zum rumheulen weil ich eine stärkere CPU habe und 1440p mit vollen Details zocke.
 
🤦‍♂️

Die 3090 ist die schnellste Karte, deshalb wird mit der getestet.
Wer einen 1-2 Jahre alten 6 Core CPU hat und eine 3070 oder 3060 reintut, HAT DASSELBE PROBLEM.
Ist das kein Problem fuer euch?

2021-03-13_10-44.png


Da gehen sie minfps sogar runter, wenn man "aufruestet". :LOL:
Und wie man an der RX 6800 sehen kann, ist der 2600x ist 81min und 106avg fps hier noch nicht im CPU Limit gewesen!!!
 
die 3090 ist ja nur das Extrembeispiel wo die Schere zwischen theoretischer Leistungsfähigkeit und aktueller Leistung in der Praxis so weit aufklappt
 
  • Like
Bewertungen: mer
Da gehen sie minfps sogar runter, wenn man "aufruestet". :LOL:
Und wie man an der RX 6800 sehen kann, ist der 2600x ist 81min und 106avg fps hier noch nicht im CPU Limit gewesen!!!

Du hast scheinbar leider keine Ahnung von dem was du da schreibst. Dreh die Grafik hoch und lass die GPU arbeiten, wie es sich für eine GPU dieser Leistungsklasse gehört.

Kein Mensch kauft sich eine 3090 um die mit einem 2600x auf 1080p und mittleren Einstellungen zu betreiben.

Was willst du hier für sinnloses Nvidiabashing betreiben?
 
Genau so ist es: eine 3090 kaufen sich die, die wollen, dass ein Spiel möglichst gut aussieht und diejenigen, die eh immer ganz oben ins Regal greifen. Beiden ist völlig wumpe, wann ein Spiel in etwaiges CPU Limit rennt.
 
So ist es. Und auch ein Grund für die "dickste" Karte: man hat bei WQHD in höchsten Grafikeinstellungen eine leisere, kühlere Grafikkarte. Wenn man mit einer kleineren Karte z.B. AC Odyssee in 1440p und höchsten Einstellungen spielt, wird die ganz schön beansprucht. Mit der 3090 kann ich mit fps-Limit auf 80 fps schön leise mit CPU- und GPU-Temperaturen um die 60°C stundenlang spielen. Und der im Moment absolut versaute Markt rechtfertigt im Nachhinein den Kauf einer RTX 3090 zur UVP ja erst recht.
 
Zuletzt bearbeitet :
Manche verstehen es immer noch nicht ......
Wenn sich eine 3070 mit dem 2600X nicht mal von einer 5600XT (diese im GPU-Limit) absetzen kann aber mit dem 5600X dann das fliegen anfängt.
 
  • Like
Bewertungen: mer
Der Test ist in sofern schon interessant, da man eben hier klar sieht, dass selbst eine neue Grafikkarten Generation nicht immer die Lösung ist. Sondern eben immer beides beachtet werden muss (GPU und CPU, vereinfacht gesagt).

Und ja, wer eine 3090 in einen Zen1+ Rechner einbaut und damit in FullHD spielt, verschenkt viel Leistung seiner GPU. Aber das muss am ende derjenige selber wissen.

Ändert halt nichts daran, dass solche Tests eben mal an direkten Beispielen zeigen wie sinnvoll bestimmte Kombis sind, oder halt auch nicht. Wen das nicht interessiert, der muss diese ja nicht lesen/ansehen.
 
stell dir mal vor jemand hat nen 1600X und ersetzt eine 5700 mit einer 3060/3060Ti, dann gibt's zwar RT aber sonst weit weniger Leistung aufgrund des frühen CPU-Limits durch die nvidiatreiber.
Das was nvidia bei DX11-Spielen geholfen hat fällt denen beim viel hardwarenäher agierenden DX12 vor die Füße, bei AMD ist's genau andersrum.
 
  • Like
Bewertungen: mer
Ja manche Verstehens eben nicht. Was solls.....

Dass der Nvidia Treiber 20% mehr grundlast auf einem 6 Kerner erzeugt ist komplett egal. Kauft euch halt alle 12 Kerner!!!
 
Ja, stell dir vor jemand schnallt eine RTX 3090 auf die 1600X CPU, um nur in 1080p zu spielen, furchtbar. Sollte aber gerade hier jetzt nicht soo interessant sein.
 
Grandiose Troll posts. Echt.
 
Selbsterkenntnis ist der erste Schritt zur Besserung. ;)
 
Die einzigen Trolle hier seid ihr beiden, das habt ihr aber längst nicht verstanden.

Freut euch darüber, dass die 5700XT vermeintlich die schnellere Karte ist, weil die Testbedingungen eben so angepasst sind oder kauft ihr euch einen Ferrari um damit dann auf einer Straße zu fahren, auf der maximal 50 km/h möglich sind? Mich wundert es nicht, dass Nvidia mal die Entscheidung getroffen hat Hardware Unboxed keine Karten mehr zu schicken. Nicht nach solchen Videos die dann von der Community völlig fehlinterpretiert werden, sie hätten ihre Entscheidung dabei belassen sollen.

Ach und ich verrate euch noch ein Geheimnis, meistens ist immer eine Komponente im Limit, entweder CPU oder GPU, besser ist hier zweitere. Sollte dem nicht so sein, ist eure CPU nicht potent genug die gesamte Leistung der GPU auszulasten oder ihr habt schlicht die Grafik bzw. Auflösung so weit runter gedreht, dass sich die GPU langweilt.

Ich bin hier aber raus 👌🏼 erstens stehe nicht so auf das Markengebashe und zweitens bin ich ein Fan von aussagekräftigen Tests und Testbedingungen, für den Rest ist mir meine Zeit zu schade.
 
@Majin
Naja, aber genug Zeit die Posts hier zu lesen findest du dann scheinbar doch noch. Und so eine Aussage, wie dass es richtig von nVidia war HU keine Karten mehr zu schicken, ist nett ausgedrückt doch schon zweifelhaft. Du stehst nicht auf Markengebashe, verunglimpfst aber HU, nur weil dir deren Tests bzw. Aussagen nicht gefallen. Aber damit machst du ja genau dasselbe. Und dafür scheint dir ja deine Zeit eher nicht zu schade zu sein. ;)
 
Ich habe absolut kein Problem damit festzustellen, dass RDNA2 bei FHD und in Grenzen auch in WQHD höhere Leistungen als Ampere erbringt.

Auch nicht damit, dass das wohl daran liegt, dass das CPU Limit bei Ampere eine größere Rolle spielt. Und ja, das ist eine Umkehrung der Situation vor RDNA. Gut für AMD.

So, wenn man jetzt auch noch endlich akzeptieren würde, dass das nur eine Sicht der Dinge ist und das man auch auf andere Dinge schauen kann?

Wenn man nur in FHD und WQHD Spiele spielt, niemals aber ein Spiel spielt, das DLSS und/oder RT unterstützt, dann ist RDNA2 sicher das beste, was man kaufen kann. Lassen wir mal Preise außen vor, denn die sind eh nicht realistisch, egal was man kaufen will.

Jede Menge "wenns", aber wenn es das ist, was ihr hören wollt, bitte schön.

Trotzdem ist das Video von HU klar provokant und einseitig. Alleine schon der Aufmacher ist ein ClickBait par excellence.

"Wussten Sie, dass die Spieleleistung im CPU Limit bis zu 20-30% besser sein kann mit RDNA2? Unglaublich? Aber wir werden es beweisen!"

Was die meisten da nur hören ist, "Im CPU Limit ist RDNA 20-30% besser". Wie man auch in diesem Thread gut erkennen kann. Und das ist natürlich so nicht richtig. Aber was solls.
 
Find ich sehr spannend das Thema, mit der 6800XT lauf ich wieder voll ins CPU Bottleneck und das ist immerhin ein 3700X.

Auch wenn AMD beim Simracing schlechter performt als Nvidia, keine schlechte Wahl wies ausschaut. :)
 
Oben Unten