Frage Stromfresser AMD GPU 2023

Bitte vergesst nicht dass das z170 Mainboard mit dem 6700k auch schon etwas betagt ist.


Bin inzwischen auch auf 23.4.3 !!!! Und es läuft.

Außer adaptive Sync, 10bpc nichts aktiviert.



Von der Graka höre ich nichts, obwohl der Deckel auf dem 900er be quiet noch ab ist.
Hatten wir das mit dem 6700k nicht schon, der reichte doch noch locker für Destiny2.
Hast jetzt den vollen Treiber drauf?
Funktioniert 10bpc nicht?
Je weniger Wärme sich im Gehäuse bilden kann um so leiser wird es.

Ok gefunden,der 6700k war doch am drosseln, die Frage war nur um wie viel.......
 
Zuletzt bearbeitet :
Das ist auch bei Server & Laptop Hardware normal, 95°C bis 115°C wenn die Bauteile dafür ausgelegt sind, gibt es da keinen Grund sich Sorgen zu machen.
Grundsätzlich ja, die Hardware ist dafür gebaut auch bei den Maximaltemperaturen im Dauerbetrieb laufen zu können. Ich habe aber auch schon mehrere Laptops gesehen, die durch das Temperaturlimit spürbar abregeln oder auch abstürzen. Dazu tönt es wie ein Föhn. Wenn es sich vermeiden lässt, ist es mir lieber wenn die Temperaturen nicht grenzwertig sind.
 
Naja, Blödsinn ist das nicht, höchstens evt. unnötig !

Ja, Forspoken lastet die GPU Ordentlich aus.

Bei mir sind es mit UHD, Ultra-Preset & HDR Rendering ~ 14 GByte VRAM:

Anhang anzeigen 25515

Da nehme ich den Mehrverbrauch gerne mit. ;)
Kann es sein das man in der Demo nicht alles einstellen kann?
Ansonsten mit TBP ohne Lüfter mit 150Watt bei 60FPS gedeckelt.FORSPOKENDemo_2023.05.06-13.36.jpg

OK,Voreinstellung Ultra wo auch RT an ist schaut dann so aus.
FORSPOKENDemo_2023.05.06-13.56.jpg
 
Zuletzt bearbeitet :
Bitte vergesst nicht dass das z170 Mainboard mit dem 6700k auch schon etwas betagt ist.
Wie schaut denn dein 3D Mark Ergebnis aus?
Da man nix sehen kann,Spiel an,ins Spiel,wieder raus,HWinfo64 Resettet und nach rund 15min den Screen gemacht.
Single Core ist so relativ schlecht.......Schaut dann so aus bei 144FPS begrenzung wobei die auch schon mal Richtung 110FPS rutschen.
Die Kernauslastung ist schon ziemlich hoch.
unknown_2023.05.06-15.47.png

RX6800..JPG
 
Aber immer noch schneller als ne 4070 und dabei deutlich sparsamer.
Ich mach knapp 18k punkte überhaupt wer redet hier von einer 4070? Was ist dein Problem das du mit einer midrange karte konkurruieren willst wie ein 5 jähriger? Ich wette das ich dich in jedem Spiel wegblase. Dlss sei Dank wir mögen auf dei selben fps kommen aber die Bildqualität ist besser bei mir. :) Lol ich sagte nur deine karte liefert weniger punkte als gewöhnlich dabei ist amd sehr start in timespy, sagen halt viele. get a life

Alles wird sofort als angriff gewertet geh mal ausser haus^^ obst dann auch noch so stark bist
 
Ich mach knapp 18k punkte überhaupt wer redet hier von einer 4070? Was ist dein Problem das du mit einer midrange karte konkurruieren willst wie ein 5 jähriger? Ich wette das ich dich in jedem Spiel wegblase. Dlss sei Dank wir mögen auf dei selben fps kommen aber die Bildqualität ist besser bei mir. :) Lol ich sagte nur deine karte liefert weniger punkte als gewöhnlich dabei ist amd sehr start in timespy, sagen halt viele. get a life

Alles wird sofort als angriff gewertet geh mal ausser haus^^ obst dann auch noch so stark bist
Das betrachtest DU mal wieder als Angriff, wenn Du aber wüsstest worum es geht,dann wüsstest auch das es um den 6700K und einer RX6800 geht.Hier geht es nun mal um Hilfestellung und da man in Destiny kein OSD hat muss man nun mal über Umwege gehen um Ursachen und Schwachstellen zu finden.
Und wenn es dir NUR um das Ergebnis geht warum kommt dann nicht dein 5950X hat auch nur knapp 5300P......
 
Das betrachtest DU mal wieder als Angriff, wenn Du aber wüsstest worum es geht,dann wüsstest auch das es um den 6700K und einer RX6800 geht.Hier geht es nun mal um Hilfestellung und da man in Destiny kein OSD hat muss man nun mal über Umwege gehen um Ursachen und Schwachstellen zu finden.

:ROFLMAO::ROFLMAO::ROFLMAO::ROFLMAO:
 
Mir gings hier nur um die gpu kenn mich da eh null aus nur die demo geladen aus steam :D bestimmt. glaub dran
 
Mir gings hier nur um die gpu kenn mich da eh null aus nur die demo geladen aus steam :D bestimmt. glaub dran
Eben und um zu sehen wie viel Punkte die RX6800 schafft und der 6700k.
Ich gehe mal davon aus das ich mit meiner gedrosselten RX6900XT in diesem Bereich liege.
 
Mit dem Stock Kühler geht da nicht viel beim Ryzen aber wie gesagt ich benutze das Ding bei 0.9 v @ 3900mhz. Reicht locker in Games selbst bei der Arbeit, keine 10% langsamer aka paar minuten länger warten. Dafür statt 80 Watt 57 Watt in CB23 :)

sag ich doch amd hat da 21k oder so...deswegen hat mich der geringe wert gewundert. Wobei ich überrascht war das ich 3ghz reinbekommen habe weil ich nichts vom oc halte eigentlich.
 
Junge, ihr habt Luxus Probleme !

Aber jedem das seine, ich finde Nvidia sexy.
Aber so richtig Hunger habe ich auf AMD + Samsung HDR10+ FreeSync Premium Pro !
 
Dass die 4070 eine topp Grafikkarte ist, die ihr Geld wert ist und super sparsam performt glaub ich ist unstrittig. Hätt ich heute keine 69LC wäre das aktuell garkeine schlechte Aufrüstoption.

Der 18.9er Grafikscore bei 200W hat mich jetzt aber neugierig gemacht, ob der einer 6900 XT das Fürchten lehrt. @Duality du kannst hier mal reinschaun, wir haben nen Wettbewerb laufen, wo wir die 6900 XT bei 200W fixieren und auch kontrollieren, 1. Beitrag, 3. Tabelle mit 200W:


Gut, was @ShirKhan immer an Vergleichsscores liefert ist schwer in nen Vergleich zu werfen, der hatte den 6er in der Chiplotterie und dann nochmal beim Löt-On Tuning die Zusatzzahl gezogen. Aber auch so sieht man, dass die 6900 XT was Effizienz angeht, gut mithalten kann. Klar, die Leistungsmessung ist hier anders, aber ich würd sagen, die 4070 und die 6900 XT sind so ziemlich gleichauf was sie bei 200W können und auch verbrauchen. Der Vorteil der AMD wird sein, dass man sie eben auch bei starkem Mehrverbrauch bis auf 400W oder 600W hoch jagen kann, wenn ein Wasserschlauch dranhängt. Und Auf der Habenseite der NVidia wird wohl das stärkere DLSS stehen.
 
Soll ich ehrlich sein…. Ich habe noch nie so etwas wie 3dmark benutzt….werde ich nachher mal machen.

Casi fein auf den Punkt gebracht….6700k z170 & rx6800 ist das Thema!!!

Mein Daddelgenosse war gestern da, der mit einem 3700er AMD , ner 570er mit 4 GB und nur Full HD auf 24zoll daddelt und hat mein Bild gesehen… und war erschrocken wie geil das Bild ist.
 
Zuletzt bearbeitet :
Der 18.9er Grafikscore bei 200W
Ich bin kein OC ler. Wie gesagt habe ich weder 20 Karten bestellt um einen Gold Chip zu haben weder habe ich noch irgendwas spezial gemacht. Ich hab nur 1050mv@ 3ghz eingegeben und hab den Timespy laufen lassen. 🤷🏻

Überhaupt was heist dort bei luxx 200 watt chippower oder gesamte karte. Wenn es nur chippower ist bist du dann bei 250 watt^^. Bei mir nämlich die gesamte karte ;)

Luxxler sind keine normalos lol. Die jagen Rekorde nach haben dementsprechend den ganzen Pc drauf optimiert.

Auch bezweifle ich weiterhin das eine 6900XT mit 200 Watt an eine 4070 kommt. Sagen wir so wenn Rdna 2 an ADA kommt. Dann haben wohl alle Reviewer lack gesoffen und Rdna 3 müsste dementsprechend viel besser sein….

Auch wird hier verkannt das du das Ding auf 200 Watt runterprügeln musst. Während die 4070 das quasi stock macht. Nimm paar punkte weg und das Ergebnis steht bei 150 Watt.🤷🏻

Zu sagen Rdna 2 ist auf Adas level hat was von Realitätsverlust.
 
Zuletzt bearbeitet von einem Moderator :
Oben Unten