Frage Stromfresser AMD GPU 2023

Soll ich ehrlich sein…. Ich habe noch nie so etwas wie 3dmark benutzt….werde ich nachher mal machen.

Casi fein auf den Punkt gebracht….6700k z170 & rx6800 ist das Thema!!!

Mein Daddelgenosse war gestern da, der mit einem 3700er AMD , ner 570er mit 4 GB und nur Full HD auf 24zoll daddelt und hat mein Bild gesehen… und war erschrocken wie geil das Bild ist.
Naja, ne RX6800 ist ja auch nen völlig anderer Schnack als ne RX570, speziell mit nur 4 Gigabyte.

Allerdings könnte das doch auch was mit dem Monitor zu tun haben? Klar ist zumindest, dass die 6800, zumindest ein Stück weit und das hängt auch an Auflösung und Spiel, von dem Prozessor ausgebremst wird. Mit - beispielsweise - nem 5800X3D hätteste noch eine weit bessere Performance - und zusätzlich AMD SAM.

Der Kollege hat das entgegengesetzte Problem: Der Ryzen 7 3700X ist zu viel mehr in der Lage, als eine RX570 zulässt. ;-)
 
Liebe eine zu schnelle cpu als umgekehrt. Gpu kann man skalieren aber Cpu ? Das Steht irgendwann einfach an. Obwohl ich alles ab zen 3, 11000 bei intel für pfeilschnell halte :D.
 
Zuletzt bearbeitet von einem Moderator :
3d Mark: 11884….Grafik 16123… CPU 4773
 
Das meiste. Wobei man da auch eher daneben greifen kann (Ryzen 5 5500 zB).
Naja wfür den preis was der oft zu haben ist doch ideal für die kleinen imo. Langsam ist auch der nicht klar its er langsamer als die mit vollecm cache aber da ding ist of für unter 90€ zu haben . Aber hier kann man definitiv argumentieren leg den 30€ drauf für den 5600. Aber für ein enges budget sind 30€ auch viel :) oder für kids die zusammensparen.
 
Perfekt meine 6800 hatte 16800 grafikscore mit 2400mhz also mit oc.
Grad mal getestet, auf Stock hat meine 16.141.

Naja wfür den preis was der oft zu haben ist doch ideal für die kleinen imo. Langsam ist auch der nicht klar its er langsamer als die mit vollecm cache aber da ding ist of für unter 90€ zu haben . Aber hier kann man definitiv argumentieren leg den 30€ drauf für den 5600. Aber für ein enges budget sind 30€ auch viel :) oder für kids die zusammensparen.
Man muss halt wissen, was man sich kauft. Wenn man ne Pcie4-GPU oder Nvme dazu bauen will, sollte man sich das zwei mal überlegen.

Klar, für nen Bürorechner... lohnt sich eher einer aus der G-Reihe. Ich weiß nicht so recht. Der 5500 ist so nichts halbes und nichts ganzes. Find ich schwierig mir Szenarien vorzustellen, wo der empfehlenswert wäre.
 
Ich hatte mit 12 keinen cent ich hätte mir nicht einmal ein spiel kafuen können. Für sowas sind die billigen ryzens schon gut. Nbisschen drauf hinarbeiten ^^

ich habe eine nvme ssd pcie 3 . ist sauschnell. :) Fürs gamen reicht es und war echt billig. ob pcie 4 würde ich nicht merken. man muss scho drauf achten ob es realen gegenwert gibt oder nur messbare.
 
Zuletzt bearbeitet von einem Moderator :
Klingt erst mal so, als wäre der 6700k noch nicht ein 200% Nadelör.
Das mein Board den 3200er Speicher nicht mit XMP akzeptier, schade lebe ich aber schon 6-7 Jahre mit.
Trotz MSI Liste.
Nächstes klappt es bestimmt.

Meine 980 pro wartet auch schon sehnsüchtig auf pcie4…

2 monate gebe ich dem Markt noch, dann kommt AM5, nur welcher ist noch offen.
Viele viele Kerne a la 7900 ohne x wird man auch auf Sicht nicht brauchen.
3d Cache klingt sexy, die Preise …noch nicht, mal schauen…
Ich komm dann auf euch zu.
 
Andere Frage Bye the way, ich finde bei Sapphire nix über das Dual BIOS.
Wie nutzt man den Switch?
 
Andere Frage Bye the way, ich finde bei Sapphire nix über das Dual BIOS.
Wie nutzt man den Switch?
Nitro+?

nitro_5700xtse_5700xt_822x638_23jul20.ashx
 
Danke!
 
3d Mark: 11884….Grafik 16123… CPU 4773
Also war ich ein wenig drüber bei CPU und Grafik.Ich würde aber mal behaupten das der 6700K doch schon gut drosselt,weil die Sapphire min 250Watt PowerLimit hat wie die 6900XT und NUR stark im Takt gedrosselt ist,da sollten locker noch 2000P drinne stecken.
Wenn du den 6700K nicht schon mal versucht hast zu Übertakten,dann würd ich bis zur neuen CPU lernen wie du die Grafikkarte optimieren kannst.

Recht günstig ohne Verluste ist immer noch der 5800X3D......
 
Reins aus Interesse und Information.

Nehmen wir an ich hätte eine Rx6800Xt statt der 4070 gekauft. (550 Watt Netzteil) geht das überhaupt?

Hier noch ein Bild von Dying Light 2 Max 4k Max RT Dlss Qualität und FG. Sieht man eh 10GB Vram werden reserviert und benutzt werden nur 8.4GB was wirklich gebraucht wird dürfte sogar drunter liegen um ein paar hundert MB, dass kann man ohne Devtools nicht 100% genau auslesen.

FSR Qualität sieht schlechter aus als DLSS Performance das muss man sich mal auf der Zunge zergehen lassen.

Das wäre unmöglich mit einer 6800XT ich glaube es wäre nicht mal auf den High End Rdna 3 Karten möglich da Fg meine Fps fast verdoppelt. Das für 630€ von der Effiziens ganz zu schweigen wir reden hier von einer Gtx 1070 Fe was leistungsaufnahme betrifft.

Sorry aber wer da zu Amd greift dann weiß ich auch nicht, da hat man die 16gb vram, bringen hier nicht viel wenn sie auf 15 fps rumdümpeln während ich bei 58-75fps bin. Rdna 2 ist 2 Jahre alt und kaum billiger als die Uvp. Raster Leistung alleine reißt nicht viel selbst da sind sie nicht wirklich schneller als eine 4070.


Der Pc verbraucht hier 230 Watt gesamt an der Steckdose gemessen. Rx 6800Xt mit UV 250 Watt alleine wenn man Stock Performance will. Selbst bei 200 Watt wäre das nur für die Gpu.

59.png


Na da bin ich jetzt aber gespannt.
 
Macht der Trixx Mode Sinn?
 
Im Software Switch Mode kann man das Bios in der Trixx Software auswählen welches beim Neustart geladen werden soll.
Wird aber erst beim Neustart aktiv!
Ergibt viel Sinn wenn die GPU nur schwer erreichbar ist.
Die Alternativen Auflösungen sind auch nicht schlecht.

LG
 
Feine alte Monster…



Schalter verschoben.
Gestartet.
Ich finde im Trixx das Feld nicht.

Dashboard ist nix

BIOS Samen ohne was gemacht zu haben… macht keinen Sinn..


Hardwaremonitor auch nix

Trixx boost
Resolution Scale …bei mir 85%
3x active Resolutions
Alle off

Zum Schluss Radeon Image Sparpfennigs….off
 
Macht der Trixx Mode Sinn?
Die Frage ist was DU willst.Willst das Max haben was deine CPU Nicht verarbeiten kann,bringt es nix.
Willst das System Stromsparend und lautlos laufen lassen mit max Optimierung,dann schau mit HWinfo64 bei welcher Schalterstellung du das geringste PowerLimit über den Treiber einstellen kannst die GPU und SOC Ströme (TDC) ändern sich dann auch mit.
Das ist Ref 6900XT Bios mit 255Watt.
Du hast Kern und SOC TDC von 320A und 55A.
255Watt Neu.JPG

Stell ich die Leistungsgrenze auf das max - ,liegt das PowerLimit bei 229Watt ,Kern und SOC TDC gehen auch auf 288 und 49A runter.
Je weiter du mit diesen Werten runter gehst um so besser und Effizienter läuft die Grafikkarte mit höherem Takt und der Verbrauch geht runter.
230Watt Neu.JPG


Je höher du mit diesen Werten gehst um so mehr verbraucht die Karte und die Leistung steigt NUR in geringen Schritten an.
Ich habe da z.b. die 20553P beim PL von 229Watt,bis rund 260-280Watt steigen die Punkte noch gut mit an,aber alles drüber bringt nur ein paar Punkte mehr bei deutlichem Verbrauch.

Genauso in Spielen,je mehr Daten du sehen kannst um so besser kannst anpassen und ohne wirklich FPS zu verlieren sparst locker 50-100Watt.
 
Feine alte Monster…
Danke 🤩!

Ich kann die Software im Moment nicht starten da ich meine 6700xt Nitro auf‘s Lager gelegt habe und aktuell eine 6900xt im Rechner steckt. Die ist aber von Asrock und da verweigert Trixx den Start.

Ich bin mir nicht ganz sicher aber die Funktion sollte im Startscreen unten rechts zu finden sein?!?
VBios Selection müsste da stehen!

[Edit] hab noch ein Foto gefunden:
1683479440632.jpeg
LG
 
Zuletzt bearbeitet :
Oben Unten