Frage Stromfresser AMD GPU 2023

Du bist wirklich unerträglich mit diesem Fanboy-Gesülze, dazu noch auf unreflektierte und ignorante Art und Weise...werd mal erwachsen und probier nicht ständig, hier alles auf Comnputerbase-Niveau zu ziehen.
Also ich habe nicht gelogen, aber gut dann lügt euch weiter in die Tasche.
 
Wenn man wie ich weder die Grüne, Blaue oder Rote Brille trägt, gern aber Wettbewerb im Markt haben möchte.
Ich habe immer mal wieder in den letzten 30 Jahren gewechselt.

Sonst haben wir irgendwann „Biontech-Preise“ bei Computern, nämlich ich nehm weil ich kann!

4070? dann hätte ich auch preislich 6950 nehmen können und wäre noch drunter.

Wer weiß was in 2 Jahren ist, hat den Nagel auf den Kopf getroffen…daher die 6800, die deutlich über meiner 1070 liegen dürfte, die 1070er aber für meine 144hz und uwqhd schon dicht dran war.


LEIV ich komme auf dich zu!!

Kapitel vorerst abgeschlossen.

Danke in die Runde
Ja nimm die 6950 mit der du preiselich nicht darunter wärst würdest du unseren Strompreise miteinbeziehen :)^^
 
Da PN Zitate auch am PC nicht funktionieren,eben so.

Ich hab über Monate immer wieder getestet obwohl ich ja nicht mal Spiele,wie ich die Grafikkarte laufen lasse in 2160p.Am Ende hab ich mir gesagt warum kaufst dir ne 6900XT wenn du die nur mit 150-200Watt "Laufen"lässt.Deswegen sind so ziemlich alle Spiel auf rund 300Watt eingestellt.Wenn ich nix Teste ist der Rechner eh aus und dann hab ich ja noch andere für I-Net und Co.Bis auf beim 5950X sehe ich es nicht ein den mit 125 oder 150Watt laufen zu lassen wenn es mit 75Watt keine Unterschied macht außer ich schneide mal Videos für YouTube zusammen,aber da stören mich die 75Watt auch nicht.
Der 5950X läuft zum Testen wie ein 5800X mit 75Watt.
Horizon Zero Dawn z.b.
Spieleeinstellung schaut so bei mir aus,alles andere sorgt ehr für Probleme besonders beim Aufnehmen.
Unbenannt.JPG

Meine 2160p Einstellung für dieses Spiel.
Unbenannt1.JPG


Horizon Zero Dawn Test mit 1440p wie bei Dir mit meinen Einstellungen womit du gegentesten kannst.
Im ersten Bild sind die wichtigsten Daten in Rot.
Erste Reihe:
GPU Takt/Spannung/GPU Temperatur/GPU Hotspot/GPU Auslastung
Zweite Reihe:
GPU Effektiver Takt/aktuelles PowerLimit/Was meine Karte grob insgesamt Verbraucht/eingestelltes PowerLimit
Horizon Zero Dawn_2023.04.29-14.01.png

Horizon Zero Dawn_2023.04.29-14.01_1.png

Das PowerLimit liegt avg um 200Watt.Horizon Zero Dawn_2023.04.29-14.04.jpg
 
Das Ergebnis
Horizon Zero Dawn_2023.04.29-14.05.png

Neue Einstellung mit FSR,die Max Qualitätsstufe ist mit FSR noch ok,besonders wenn der Monitor nicht so groß ist,da kannst schon mal einiges Sparen.
Horizon Zero Dawn_2023.04.29-14.06.png

Damit sind es avg um 160Watt.
Horizon Zero Dawn_2023.04.29-14.08.jpg

Am Ergebnis ändert sich nix besonders wenn du eh auf 90 oder 120....FPS begrenzt.
Horizon Zero Dawn_2023.04.29-14.09.png

Je mehr du angezeigt bekommst und so mehr Daten hast und um so besser kannst noch weiter auf das Spiel durch die Profile im Treiber Optimieren.

So schaut es dann Optimiert das das eine Spiel aus.
Unbenannt2.JPG
 
Und so dann im Spiel mit avg unter 100Watt.
Extra noch für @Duality meine Karte hat nen Wasserblock,es fehlen die Lüfter,somit kann man rund 6Watt in der zweiten reihe,dritte Stelle drauf rechen und es sind immer noch deutlich unter avg TBP von 125Watt mit ner angeblichen Stromfressenden RX6900XT.Zeig mir das erst mal mit der Super Duper 4070.ABER wie ich dich mittlerweile kenne kommt da gar nix von dir außer weiters dummes Gelaber.
Und um sich die TBP nicht auf das Watt genau,aber um ein paar Watt genau bei der 6000er an zeigen zu lassen braucht man Köpfchen......
Wurde auch mit ner 6600 und ner 6700XT gemacht und deckt sich bis auf ein paar Watt mit Igors Messungen.
Horizon Zero Dawn_2023.04.29-14.26.jpg

Am Ergebnis ändert sich wieder nix,nur die MAX FPS gehen in diesem Benchmark runter weil der Benchmark nicht auf 120FPS drosselt.
Horizon Zero Dawn_2023.04.29-14.27.png

Wenn du die FPS begrenzt ist der Unterschied natürlich nicht soooo Extrem aber er ist auf jeden Fall da und auch zu Spüren.Daher ist Ein Profil für Alle Spiele in meinen Augen auch nicht wirklich gut weil der Unterschied zu groß ist in den Spielen.
Perfekt ist jedes Spiel über die gesammelten Daten im OSD an zu passen.
 
So Karte ist drin aber Adrenalin toll startet nicht!?
Nach dem Tausch Vega vs. 6800 was das?

Juser zu blöd?
 
@Victorbush in der Regel entfernt man die Treiber mit allem drum und dran, bevor man die Hardware tauscht.

Würde dir empfehlen, dass einfach nachzuholen. Wen mit was auch immer du noch hast und dann das frischste von der amd.com Seite ziehen.

Was den Rest des Gejammeres angeht, meine 6900XT läuft gerne mal mit 120~140W in 4K im 90FPS Limit. Im 160~180W fürs 120FPS Limit. Full Power (2.7ghz Timings Fast) packt sie noch im 230W Korsett. Kann mich nicht beklagen.

Hab im Grunde 3 Profile: Desktop, welches ebenfalls die einfacheren Titel mehr als ausreicht (1,8ghz), ein Effiziensprofil (2,25ghz) und Vollgas (2,7ghz).

Paar Watt müsste man natürlich noch drauflegen für das Drumherum, aber da geht schon einiges 😏

RDNA2 war schon ordentlich.
 
Zuletzt bearbeitet :

Einfach den Treiber runter laden und der Installatiert dann alles

Am besten vorher den alten AMD Treiber deinstallieren, wobei das bei mir nicht nötig war (6600xt auf 6800)
 
Laufen tut die Graka nur Adrenalin startet halt noch nicht…..ggfl. Alles runter und neu.
 
Mit DDU nicht abgesichert deinstalliert… neu installiert….Installation gelaufen… Eieruhr nicht passiert…Bit Defender….scheint nichts zu blockieren… ratlos
 
kannst du Adrenalin von Hand starten?
Ansonsten mal im abgesicherten Modus mit ddu deinstallieren
 
@Victorbush in der Regel entfernt man die Treiber mit allem drum und dran, bevor man die Hardware tauscht.

Würde dir empfehlen, dass einfach nachzuholen. Wen mit was auch immer du noch hast und dann das frischste von der amd.com Seite ziehen.

Was den Rest des Gejammeres angeht, meine 6900XT läuft gerne mal mit 120~140W in 4K im 90FPS Limit. Im 160~180W fürs 120FPS Limit. Full Power (2.7ghz Timings Fast) packt sie noch im 230W Korsett. Kann mich nicht beklagen.

Hab im Grunde 3 Profile: Desktop, welches ebenfalls die einfacheren Titel mehr als ausreicht (1,8ghz), ein Effiziensprofil (2,25ghz) und Vollgas (2,7ghz).

Paar Watt müsste man natürlich noch drauflegen für das Drumherum, aber da geht schon einiges 😏

RDNA2 war schon ordentlich.
Das ist kompletter blödsinn warum sollte man teiber entfernen wenn es eh der gleiche vendor ist xD

Selbst wenn bei modernen pcs kannst du beide treiber oben haben der pc erkennt automatisch welche gpu drin ist und spricht den korrekten treiber an.

hier meine 4070 in forspoken 4k kein fps limit das spiel tretet die karte hammer hart, sonst kannst in den meisten games 10-20 watt weg tun^^powerlimituv2.png

160 Watt gesamtverbrauch, mit fps limiter je nach spiel bin ich bei 110-140 Watt

bei deinen werten musst du noch 30-50 watt on top draufrechnen da amd nicht den gesamtverbrauch der karte ausliest. deswegen new gen vs oldgen.
 
@Victorbush in der Regel entfernt man die Treiber mit allem drum und dran, bevor man die Hardware tauscht.

Würde dir empfehlen, dass einfach nachzuholen. Wen mit was auch immer du noch hast und dann das frischste von der amd.com Seite ziehen.

Was den Rest des Gejammeres angeht, meine 6900XT läuft gerne mal mit 120~140W in 4K im 90FPS Limit. Im 160~180W fürs 120FPS Limit. Full Power (2.7ghz Timings Fast) packt sie noch im 230W Korsett. Kann mich nicht beklagen.

Hab im Grunde 3 Profile: Desktop, welches ebenfalls die einfacheren Titel mehr als ausreicht (1,8ghz), ein Effiziensprofil (2,25ghz) und Vollgas (2,7ghz).

Paar Watt müsste man natürlich noch drauflegen für das Drumherum, aber da geht schon einiges 😏

RDNA2 war schon ordentlich.
na dann lies mal mein freund :)
 
Das ist kompletter blödsinn warum sollte man teiber entfernen wenn es eh der gleiche vendor ist xD

Selbst wenn bei modernen pcs kannst du beide treiber oben haben der pc erkennt automatisch welche gpu drin ist und spricht den korrekten treiber an.

hier meine 4070 in forspoken 4k kein fps limit das spiel tretet die karte hammer hart, sonst kannst in den meisten games 10-20 watt weg tun^^

160 Watt gesamtverbrauch, mit fps limiter je nach spiel bin ich bei 110-140 Watt

bei deinen werten musst du noch 30-50 watt on top draufrechnen da amd nicht den gesamtverbrauch der karte ausliest. deswegen new gen vs oldgen.
Naja, Blödsinn ist das nicht, höchstens evt. unnötig !

Ja, Forspoken lastet die GPU Ordentlich aus.

Bei mir sind es mit UHD, Ultra-Preset & HDR Rendering ~ 14 GByte VRAM:

Forspoken_Ultra.png

Da nehme ich den Mehrverbrauch gerne mit. ;)
 
Naja, Blödsinn ist das nicht, höchstens evt. unnötig !

Ja, Forspoken lastet die GPU Ordentlich aus.

Bei mir sind es mit UHD, Ultra-Preset & HDR Rendering ~ 14 GByte VRAM:

Anhang anzeigen 25515

Da nehme ich den Mehrverbrauch gerne mit. ;)
14gb wie wie denn das? ich komme max auf 9?

Deine Karte zieht da fast 400 watt und brutzelt bei 100 grad dahin. junction 130? 😂 ist das ein witz?

hdr kostet kein % bei mir aber das sieht auf fotos nicht gut aus wie man bei dir sieht.

hälfte sieht man nichtmal also für was nimmst du das gerne mit? verstehe ich nicht. Bildqualität ist bei mir sowieso besser.

watn witz ein schlechteres verzweifeltes foto wäre nicht mal mit absicht möglich 😂. ich weiß nicht mal welche karte das sein soll?

lol gerade aufgefallen rdna 2 wirkt gegen ada exakt wie vega zu pascal😳😭.
 
Zuletzt bearbeitet von einem Moderator :
14gb wie wie denn das? ich komme max auf 9?

Deine Karte zieht da fast 400 watt und brutzelt bei 100 grad dahin. junction 130? 😂 ist das ein witz?

hdr kostet kein % bei mir aber das sieht auf fotos nicht gut aus wie man bei dir sieht.

hälfte sieht man nichtmal also für was nimmst du das gerne mit? verstehe ich nicht. Bildqualität ist bei mir sowieso besser.

watn witz ein schlechteres verzweifeltes foto wäre nicht mal mit absicht möglich 😂. ich weiß nicht mal welche karte das sein soll?

lol gerade aufgefallen rdna 2 wirkt gegen ada exakt wie vega zu pascal😳😭.
Das liegt daran, weil ich HDR10+ vom TV nutze.
Da werden ein paar mehr Bits zwischen GPU und Display hin und her Transferiert.

Immerhin ist deine 4070 schneller, mit weniger Pixel pro Sekunde. ;)
 
Das liegt daran, weil ich HDR10+ vom TV nutze.
Da werden ein paar mehr Bits zwischen GPU und Display hin und her Transferiert.

Immerhin ist deine 4070 schneller, mit weniger Pixel pro Sekunde. ;)
ignored. red noch mehr müll.

🤡 bei dir ist der ganze zirkus hier. postet nbild das 100 grad celsius gpu bis zum abkotzen anzeigt? für was eigentlich?

mit fsr wahrscheinlich 😂 was nicht einmal an 4k nativ rankommt. 🤪

😂
 
???

3 Einstellungen:
1. UHD
2. Ultra Preset
3. beinhaltet 2. das HDR & RT Rendering schon. :ROFLMAO:

Es liegt an dir, sei Anständig oder lass es einfach.
 
☮️…. Wir sind hier nicht im Religionskrieg….rot gegen Grün….

Adrenalin vor 2 Wochen mit der Vega 64 installiert… Nividia hinterher deinstalliert… alles ging.

Vega raus 6800 rein…. Adrenalin quasi noch mal drüberweg installiert…

EXE führt nicht aus.

Die Karte schafft aktuell die 144hz nicht… ohne Adrenalin läuft freesync sicherlich auch nicht….
Aber Einstellungen auf Max bei uwqhd + fhd mit 75hz zweitmonitor für DIM…. Ich bin bei Destiny 2 sorry….

Sicherlich ist aktuell das z170 Board mit 6700k das Nadelöhr….oder der Speicher der kein XMP will …

Nur täte ich Adrenalin gern allein wegen freesync starten wollen.

Die 6800 ist bei mir nicht zu hören, wie zuvor meine 1070er auch, wenn auch dort nicht alle Einstellungen auf Ultra waren.

Ich mein 3x Adrenalin runter schmeißen dürfte doch auch zu nicht führen oder?
 
Oben Unten