Grafikkarten Testberichte VGA

AMD Radeon RX 6700XT im Test – Big Navi in mittelgroß aber mit ordentlich Biss und auch etwas Durst

Temperaturen und Boost-Takt

Die Karte boostet, wenn sie kühl genug ist und die GPU-Last die 20% nicht überschreitet bis fast 2.6 GHz Allerdings ist dies eine Art Schönwetter-Boost, der bei meinem sehr extrem fordernden Testspiel dann bei steigender Temperatur auf immer noch stolze 2.5 GHz und mehr bietet. Erstaunlich. Den Speicher kann man noch etwas übertakten. Die GPU ließ sich mit diesem Kühler bis fast 2.7 GHz stabil übertakten, auch nicht schlecht. Am Ende ist hier aber der auf silent getrimmte Kühler etwas im Weg.

 

Die Temperaturen sind durchaus akzeptabel, auch hier Chapeau für diesen Leisetreter!

Kommen wir nun zu der Aufzeichnung mit der hochauflösenden Infrarot-Kamera. Die PI640 von Optris besitzt ein echtes 640 x 480 Pixel Bolometer und zeichnet mit bis zu 30 FPS auf. Ich nutze hier die Normallinse und kalibrierte Folie mit einem bekannten Transmissionsgrad, damit ich de facto in das geschlossene Gehäuse hineinsehen kann. Die Backplate nehme ich ab, damit ich auch was messen kann. Lässt man Control mit DXR nun freien Lauf und etwas Luft, heizt sich alles nur sehr manierlich auf. Die Unterseite der VRM ist mit bis zu 65 °C warm, aber nicht heiß. Der Speicher zeigt 72,7 °C auf der Platine, im Chip sind es dann 80 °C.

Beim Furmark wird es dann etwas heißer, aber im Schnitt auch kaum mehr als 2 Grad.

137 Antworten

Kommentar

Lade neue Kommentare

thoemmi

Neuling

6 Kommentare 3 Likes

GeForce Radeon RX 6700XT, sehr schön 😂

Antwort 2 Likes

Blueline56

Mitglied

38 Kommentare 8 Likes

Wusste gar nicht, das es schon ne RTX 3070Ti gibt, da ist wohl ein Tippfehler passiert. Ansonsten ne nette Karte, sollte die jemals den Weg zu den Gamern finden und zu normalen Preisen geben.

Antwort Gefällt mir

Igor Wallossek

1

10,104 Kommentare 18,594 Likes

14 Seiten in 3 Stunden - das ist kein Spaß :D

Antwort 5 Likes

Blueline56

Mitglied

38 Kommentare 8 Likes

Ist schon klar und war ja auch nicht böse gemeint, nur als Hinweis gedacht....

Antwort Gefällt mir

Igor Wallossek

1

10,104 Kommentare 18,594 Likes

Hinweise bitte als PN :)
Das kommt schneller hier ins System

Antwort Gefällt mir

Blueline56

Mitglied

38 Kommentare 8 Likes
L
Launebaer

Mitglied

17 Kommentare 1 Likes

wahrscheinlich kommt nochmal ein MorePowerTool Review der 6700XT mit Sweetspot Analyse? Guter Test, gute Hardware, aber eben Marktbedingt wie alle Karten momentan sauteuer :/

Antwort Gefällt mir

E
Edenjung

Mitglied

15 Kommentare 4 Likes

Mega Karte.

Jetzt nur noch in passenden Mengen verfügbar (am besten über AMD direkt) und die lEute die von eine 980ti oder darunter aufrüsten wollen haben ihre Karte gefunden.

Was mich aber bei der ganzen 6000er Reihe begeistert ist das Referenzdesign. Da brauchts kein Custom-Modell mehr.
Einfach nur super.

Antwort 2 Likes

O
Opa_Hoppenstedt

Mitglied

29 Kommentare 8 Likes

Kommt noch ein Video, für die die nicht lesen können?

Antwort Gefällt mir

konkretor

Veteran

293 Kommentare 300 Likes

Schöne Karte aber nicht verfügbar :-(

Antwort Gefällt mir

R
RX Vega_1975

Urgestein

570 Kommentare 73 Likes

@Igor Wallossek

Auslieferung ab Morgen dann. ca. 14 bis 15 Uhr über AMD selbst ?

Antwort Gefällt mir

S
Satruma

Neuling

3 Kommentare 0 Likes

Einen groben Zeitpunkt zu wissen wäre echt nicht schlecht.

Antwort Gefällt mir

C
ChrischiHROHH

Mitglied

11 Kommentare 3 Likes

Moin Igor. Ich hab da mal ne fachliche Fachfrage, die ich mir schon die ganze Zeit stelle.
Die ganzen Grafikkarten Releases der letzten Monate hat mich auf den Gedanken gebracht, dass AMD EIGENTLICH deutlich besser abschneidet als Nvidia. Richtig? Denn: AMD setzt auf 256 bit Speicherinterface (bspw jetzt die 6900 XT halt) und diese ist quasi genauso schnell (RTX außen vor) wie eine RTX 3090 mit 384 bit Speicherinterface. Zudem verwendet die RTX 3080/3090 ja schnelleren GDDR6X Speicher, während AMD "nur" GDDR6 benutzt.

Liege ich mit meinem Gedanken richtig, dass wenn bspw. Eine 6900 XT mit 16 GB GDDR6X und 384 bit Speicherinterface + 128 MB Infinity Cache, DEUTLICH schneller wäre als eine 3090?

Antwort Gefällt mir

D
Denniss

Urgestein

1,496 Kommentare 543 Likes

größeres Speicherinterface = höhere Strombedarf, mehr Speicherchips + GDDR6X = höherer Strombedarf, dazu fetteres PCB mit mehr Spannungswandlern = mehr Strombedarf. Da gehen bestimmt 30W für drauf die dem Chip dann im Budget fehlen. Effekt wäre wohl weniger Leistungsabfall unter 4k dafür Rückkschritt bei kleineren Auflösungen

Antwort 1 Like

C
ChrischiHROHH

Mitglied

11 Kommentare 3 Likes

Aso ok. Trotzdem vermute ich, dass AMD in der nächsten Generation nvidia deutlich mehr wehtun wird. :o

Antwort Gefällt mir

Igor Wallossek

1

10,104 Kommentare 18,594 Likes

Auch ein Speicherinterface benötigt Chipfläche. Bei AMD ist es durch den Infinity-Cache möglich, ein kleineres Interface zu nutzen. Aber die schlechte Hitrate unter Ultra-HD bricht der 6900XT echt das Genick. Bei den kleineren karten und Auflösungen passt das hingegen.

Antwort 1 Like

X
XVI

Neuling

1 Kommentare 0 Likes

Danke für den Test (: Kannst du was bzgl. Undervolting sagen?

Antwort Gefällt mir

Igor Wallossek

1

10,104 Kommentare 18,594 Likes

Die Karten haben massig Potential nach unten - wenn Du im Boost ca. 100 bis 150 MHz wegnimmst. Die werden voll an der Kotzgrenze gefahren. Ich hatte in Full-HD fast 2.7 GHz out of the Box.

ich hatte ja die beiden BIOSe im November mal gezeigt. Du kommst am Ende auf 12 Volt locker um 30 bis 35 Watt runter.

Antwort 4 Likes

O
Oese72

Mitglied

38 Kommentare 11 Likes

Danke für den Test! Super Karte, aber schade das man die Platine und auch den Kühler so deutlich abgespeckt hat. Damit ist die Karte aus meiner Sicht etwas zu teuer im Vergleich zur 6800. Aber zur Zeit ist ja eh nix mit Aussuchen. Ich bin jedenfalls morgen dabei :D.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung