GPUs Graphics Practice Reviews System

Before the review of the Ryzen 7 5800X3D, an interesting cross-over test: When the Ryzen likes the Geforce and Intel’s Core prefers the Radeon

Disclaimer: The following article is machine translated from the original German, and has not been edited or checked for errors. Thank you for understanding!

You can already see in the individual graphics how the increasing render time correlates with a decreasing GPU power consumption. I’ll just let that sink in without further comment. But now you can also see where some load peaks and slumps come from.

Kommentar

Lade neue Kommentare

ipat66

Urgestein

1,355 Kommentare 1,355 Likes

Bei 30% Energieaufnahme trotzdem schneller als der KS ?
Wow !!!
Schön,wenn so was auch bei den GPU's möglich wäre....

Freue mich auf den morgigen Test.
Danke Igor

Antwort 1 Like

Casi030

Urgestein

11,923 Kommentare 2,338 Likes

Hab ich das richtig gelesen das du den Benchmark im Spiel genommen hast?

Antwort Gefällt mir

Perdakles

Mitglied

43 Kommentare 20 Likes

Danke Igor für diesen wunderbaren Spoiler. Die "unheilvolle Allianz" bereitet mir Gänsehaut :LOL:. Das läuft definitiv in die falsche Richtung.

Antwort 1 Like

Perdakles

Mitglied

43 Kommentare 20 Likes

Nach allem was man aus der Gerüchteküche so hört, könnte es bei RDNA3 vs. Ada zugunsten von RDNA3 ebenfalls in diese Richtung gehen. Ich kann mir aber nicht vorstellen, dass es so krasse Ausmaße wie hier annimmt.

Antwort Gefällt mir

Igor Wallossek

1

10,184 Kommentare 18,777 Likes

Ja, den auch. Es ist eigentlich gut ausgewogen gewesen. Und dann kam der X3D :D

Antwort 2 Likes

ApolloX

Urgestein

1,662 Kommentare 929 Likes

Gut gemacht ja, aber ich werde das Gefühl nicht los, das es in diesem Artikel und vermutlich auch in der Diskussion nur um den Kandidaten geht, der nicht mit dabei war.

Antwort Gefällt mir

Ghoster52

Urgestein

1,407 Kommentare 1,061 Likes

Nein, das passt schon so.... die 3090 war doch nicht die schlechteste Wahl. :LOL:

Antwort Gefällt mir

Corro Dedd

Urgestein

1,810 Kommentare 670 Likes

Unheilvolle Allianz... und jetzt stelle man sich die CPU noch mit der kommenden GPU Generation vor, die allein bis zu 450w und in Spitzen auch noch mehr schlucken kann :eek:

Antwort Gefällt mir

Igor Wallossek

1

10,184 Kommentare 18,777 Likes

600 Watt + Spitzen :D

Antwort 2 Likes

Ghoster52

Urgestein

1,407 Kommentare 1,061 Likes

Hab ich jetzt schon (5900x+3090 sind noch nicht optimiert)... :eek:

Antwort Gefällt mir

Perdakles

Mitglied

43 Kommentare 20 Likes

Dann sollte man in Zukunft wohl den Staubsauger auslassen während der Rechner läuft. Oder den aktuellen Spielstand noch schnell abspeichern sobald man den Staubsauger angehen hört :D

Antwort Gefällt mir

Ghoster52

Urgestein

1,407 Kommentare 1,061 Likes

Bei 16A Absicherung pro Stromkreis ist noch Luft nach oben.... :LOL:

Antwort 2 Likes

Case39

Urgestein

2,500 Kommentare 928 Likes

Also war Alder Lake, doch nicht der Fortschritt, den man sich von Intel erhofft hat.

Antwort 1 Like

Casi030

Urgestein

11,923 Kommentare 2,338 Likes

Dann kann ich ja auch mal vergleichen. ;)

Antwort Gefällt mir

Ben87

Veteran

149 Kommentare 34 Likes

Wie verhält sich das bei höheren Auflösungen WQHD/UHD? Ich weis es ist nicht der Rede wert sein aber führst du das dann auch mal auf?

Antwort Gefällt mir

RX480

Urgestein

1,869 Kommentare 860 Likes

Der 12700k ist doch dort wo man ne normale GamingCPU erwarten durfte.
sehe da bei Watt per Frame keine Probleme

Interessant, das Intel so gut zu RDNA2 passt!
... und das wird im GPU-Limit sicher noch besser

btw.
Falls ich Heute aufrüsten müsste würde ja auch ein 12600 nonK reichen (oder 5600 nonX).
Beim 12600 solls wohl auf preiswerten B660 nur bis ca. DDR4 3500 zu OCen gehen!
(liegt an freigegebenen Spannungen)

Antwort 1 Like

big-maec

Urgestein

827 Kommentare 475 Likes

Schön, dass man über solche Vergleiche sein Wissen erweitern kann. Bin gespannt, wie es weitergeht.

Antwort 1 Like

Igor Wallossek

1

10,184 Kommentare 18,777 Likes

Nur dass Ihr mal seht, warum das alles so lange dauert, wie es dauert. Export-Import-Abteilung und WordFress :D

View image at the forums

Antwort 11 Likes

Göran

Veteran

154 Kommentare 63 Likes

Wenn man die CPUs auf wenigen Kernen am Limit betreibt werden die Brechstangen in Form von Kernspannungen und Taktraten ausgepackt :LOL:.
Kann man so was eigentlich als Heimanwender noch vertretbar kühlen ?
Warum können eigentlich Intel CPUs (immer noch) höhere Taktraten erreichen als AMD CPUs ? Am Fertigungsprozess sollte es doch nicht (mehr) liegen.

Klar 720p wird genommen um die Grafikkarten als limitierenden Faktor auszuschließen, aber damit ist das Ergebnis auch eher akademisch.
Wir wäre es mit einem wirklichkeitsnaheren Test bei 1080p144 ? Auch dort sollte doch die CPU immer noch stark gefordert werden.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung