Grafikkarten Testberichte VGA

Palit GeForce RTX 3080 Ti GameRock 12GB im Test – Heimdisko auf der Überholspur

Zusammenfassung

Wirkliche Negativpunke gibt es bis auch die verfehlte Normeinhaltung am PCIe-Slot unter extremer Last und die Lüftergeräusche eigentlich nicht. Ohne OC bleibt man nämlich gerade noch so im Rahmen oder liegt nur marginal über den erlaubten 5.5 Ampere. Auch die Diskobeleuchtung der Eis-Front bekommt ihr Fett weg, denn die Abrissgeräusche der Lüfter an den etwas unglücklich gestalteten und zerklüfteten Lüfteröffnungen müssten so nicht sein. Der Rest der Karte passt und das Aussehen wird zumindest polarisieren.

Die Kühlperformance ist trotz der damit verbundene Geräuschentwicklung im Rahmen der Verlustleistung noch ganz gut, denn auch das Gewicht von über 1.5 Kilo trägt in Form von ausreichend Kühlfläche dazu bei. Der Silent-Mode ist gar nicht so silent (aber hörbar leiseer), aber ich ziehe den Performance-Modus trotz der Lüftergeräusche definitiv vor. Man muss die Komponenten einfach nicht so schwitzen lassen. Dann lieber etwas lauter, aber haltbarer. Genau aus diesen ganzen Gründen und auch wegen der Verfügbarkeit und dem Straßenpreis kann ich keinen expliziten Kauftipp vergeben wohl aber den Performance-Booster, denn schnell war die Karte ja.

Fazit

Der aktuelle Straßenpreis ab 1600  Euro ist sicher ein Brett, aber man bekommt zumindest die teuerste und bunteste Diskokugel im Grafikkatenbereich. Das mit der Verfügbarkeit und den tatsächlichen Straßenpreisen weit über der UVP sollte aber eher nicht an Palit liegen, hier hat sich wohl Samsung schlicht übernommen, NVIDIA etwas verspekuliert und der Handel schlägt dann auch noch fett obendrauf. Zumal man ja hört, dass diverse Dinge ebenfalls knapp sein sollen, die man sonst noch so zur Produktion braucht. Eine kausale Kette mit jeder Menge an Unbekannten also. Kaufen? Warum eigentlich nicht. Wenn nur das mit dem Preis nicht wäre…

Die Karte wurde igorsLAB von Palit leihweise unter NDA mit der Bedingung zum Testen zur Verfügung gestellt, den festgelegten Veröffentlichungstermin bis zum Fall des NVIDIA NDAs nicht zu unterschreiten. Eine mögliche Einflussnahme des Herstellers auf den Test und die Ergebnisse fand nicht statt, es bestand auch keine Verpflichtung zur Veröffentlichung.

Kommentar

Lade neue Kommentare

e
eastcoast_pete

Urgestein

1,642 Kommentare 971 Likes

Bei den 44 dB Lautstärke die das Ding bringt hätte Pallit die Karte auch gleich als Blower denn als Bling-Ding auslegen können. Dann könnte ich mir den (trotzdem zu hohen) Preis noch irgendwie rechtfertigen. Aber so wie es ist, also wirklich nicht.

Antwort Gefällt mir

Case39

Urgestein

2,543 Kommentare 962 Likes

Viel bringt viel und das gilt wohl ebenfalls fürs optische😁 💿💃🕺

Antwort 1 Like

J
Javeran

Mitglied

16 Kommentare 4 Likes

Wirklich schade, die GameRock Karten waren in der Vergangenheit sonst immer unter denen mit den besten Kühlern, warum man mit der 3000er Serie nun so einen Mist machen musste, ist mir nicht klar. Wirklich schade, Palit ist in der Serie leider kein "Gut und günstig" - Tipp mehr. :(

Antwort Gefällt mir

Igor Wallossek

1

10,408 Kommentare 19,387 Likes

Das Design wäre ganz nice ohne den Eis-Klimbim an der Front. Das allein kostet locker 2 dBA. Man bekommt die Karte mit den 350 Watt der FE und dem Silent-BIOS auch auf ca. 37 dBA, was dann wiederum sehr gut wäre. Das PCB machte einen soliden Eindruck, soweit man es so von außen beurteilen konnte. Es liegt also allein an der Disko-Plate und der etwas hohen TDP.

Antwort 6 Likes

RX480

Urgestein

1,885 Kommentare 874 Likes

Ich würde mir wünschen, das bei Custom-Reviews auch eine Custom-Graka der anderen Colour mit rein genommen wird.
Das hätte den Vorteil, das bei ähnlichen Watt eine Beurteilung gemacht werden kann.
(Damit würden 6900er auch net so in 4k limitiert, wo dann gern als Ursache auf den IFC getippt wird, aber eigentlich erstmal nur
12% Watt fehlen.)

Bei den Ti-Reviews würde Es sich anbieten, ne XTH vom P/L her mit zu zeigen.

Antwort Gefällt mir

Igor Wallossek

1

10,408 Kommentare 19,387 Likes

Die 6900XT limitiert immer, selbst mit 400 Watt ;)

Ich habe die Liquid Devil wieder aus dem Tisch genommen, da fehlten mit dem G9 fast 25% Performance zur 3090. Das merkt man dann allerdings schon.

Antwort Gefällt mir

RX480

Urgestein

1,885 Kommentare 874 Likes

Die 3090 ist auch ne Nr. größer. (von der Anzahl der Shader und P/L)
Muss net zwingend erreicht werden.

Ob die Devil XTU ab Werk sinnvoll eingestellt ist, who knows. Vom Takt her sicher net.
400W+ sind für die Pads auch schon echt viel, ... am Hotspot zu merken.
Da hat AMD halt ne kleinere Wärmeübertragungsfläche als NV.

Ich würde mir für die TopDogs gleich LM wünschen.(ala Asus-Notebooks)
Im Anhang mal z.Vgl. der User L!ME aus dem Luxx mit seiner XTU@LM: siehe Anhang
(dann sind auch mehr als 400W sinnvoll möglich)

edit:
Und man muss natürlich sagen, das Es unverständlich ist, warum AMD bzgl. HAGS so mauert.
NV hat Das schon seit Jahren.
Mal z.Vgl. Gurdi mit seiner 6800XT Strixx-LC@LM mit dem UWP-HAGS-Treiber und more Powerlimit:

Antwort 1 Like

Alexander Brose

Moderator

832 Kommentare 589 Likes

Naja, die Leistungsaufnahme muss halt auch erstmal weggekühlt werden. Und wenn dann mehr Priorität auf Optik, als auf Effizienz der Kühllösung gesetzt wird....

Grüße!

Antwort Gefällt mir

M
McFly_76

Veteran

396 Kommentare 136 Likes

@Igor Wallossek
Bei 3x 8-Pin hätte ich nicht gedacht dass die Karte über den Slot ( PEG ) mind. 5.5 A saugt.
Hab mir das Teardown der PALIT RTX 3080 Ti GameRock angeguckt und wie du geschrieben hast ist das PCB kürzer.
Das Design der Platine und die Kühlung gefallen mir überhaupt nicht ( wie die Founders Edition aber mit 3x 8-Pin ) :rolleyes:

Antwort Gefällt mir

Τimeo Danaos

Neuling

5 Kommentare 6 Likes

Hey Igor,

Sry I don't speak German.

I'd like to thank your personally for your review of the GTX 1080's at Tom's Hardware DE.

Based on your review and the temperatures you measured, I bought a used Palit GTX 1080 Game Rock non-premium from Amazon DE. I am happy to report that my Palit GTX 1080 still trucks along after, uh, 5 years daily gaming. The card never hit a temperature above 79 degrees and it only hit that temp when it was maxed out at 3440X1440 90 FPS.

I really hope that in the future you will write similar "roundup" reports and that you use the temp-measuring tools to report hotspot and max temps noted on each respective graphic card.

Now regarding this card, although I am now absolutely convinced of Palit's superior worksmanship on their top-of-the-line cards I don't like the design direction they took and I feel they added way too much useless bling-bling on the card. I am only interested in robust products with quality components, so I will not buy this card even though I wanted to.

Thanks again.

Antwort 3 Likes

Klicke zum Ausklappem
RedF

Urgestein

4,790 Kommentare 2,662 Likes

Ja das ist mal ein hässliches Teil. Aber es scheint ja seine Zielgruppe zu haben, giebt ja auch RAMs mit so Glitzerzeugs.

Hab ja nichts gegen RGB, aber model Eisprinzessin ist mir dann doch zu viel.

Antwort 1 Like

r
roryodonnell

Neuling

3 Kommentare 0 Likes

Typo, page 3
... The Palit RTX 3080 Ti GameRock 12GB is even slightly faster than the GeForce RTX 3090 Ti FE

Antwort Gefällt mir

Megaone

Urgestein

1,801 Kommentare 1,705 Likes

Hallo Igor,

mich würde deine Einschätzung 3080ti vs 3090 interessieren?. Neben der Leistung, die ja aktuell ziemlich ähnlich scheint, frage ich mich ob die 24 GB für Gamer zumindest mittelfristig möglicherweise einen Vorteil darstellen? Soweit liegen die Karten preislich ja nicht auseinander und wer dauerhaft mit 60 Frames in 4 K klarkommt, kann ja beide Karten lange nutzen. Ist eine 3090 langfristig die sichere Investition oder rausgeworfenes Geld?

Antwort Gefällt mir

grimm

Urgestein

3,132 Kommentare 2,063 Likes

Ist rausgeworfenes Geld. Die 3080 Ti ist etwa gleich schnell (manchmal schneller). Du fragst ja explizit nach Gaming-Leistung. Und wenn der Ram nicht mehr ausreicht, ist eh die nächste Generation da.

Antwort Gefällt mir

Megaone

Urgestein

1,801 Kommentare 1,705 Likes

Aber das ist ja genau die Frage über die nächste Generation hinaus. Ich komme mit 60 Frames gut zurecht und hab meine Karten immer 2 Generationen. Wenn ich das richtig verstanden habe, ist bei AMD der Cache bei 4 K das Nadelöhr. Gerade unter anbetracht der 16 GB von AMD Frage ich mich, wie knapp sind 12 GB bezogen auf die nächsten 2-4 Jahre? Möglicherweise stehen nicht wenige bei erscheinen der nächsten Generation vor der Frage, sich ggf. günstig mit einer 3080Ti/3090 einzudecken. Die Leute, die bei erscheinen der 3000er Serie sich mit einer 2080Ti/2080 super eingedeckt haben, haben je nach Anwendung ja auch nichts falsch gemacht.

Antwort Gefällt mir

grimm

Urgestein

3,132 Kommentare 2,063 Likes

Ich habe meine Karten auch immer mindestens für 2 Gens. Aktuell mit 2080S allerdings in WQHD. Man kann eigentlich ganz easy auslesen, wieviel Grafikspeicher welches Spiel "frisst". Ich komme selten über 5 GB. Schau dir auch die aktuelle Konsolen-Generation an. Da ist 4K @60FPS das Maximum. Und die wird noch ein paar Jahre laufen. Dann nimmst du noch DLSS dazu, das stetig weiter entwickelt wird. Am Ende wirst du mit der 3080 Ti genau so lange Freude haben, wie mit der 3090. Insofern bleibe ich dabei: 3080/Ti reicht erstmal aus.

Antwort 1 Like

RX480

Urgestein

1,885 Kommentare 874 Likes

So ein kurz gesprungenes Nachplappern aus 3.Hand, habe ich befürchtet, als Igor im Review von 4k schwächer bei AMD gesprochen hat.
Da habe ich nun versucht in Post#8 klarzustellen, das erstmal das Powerlimit in 4k entscheidend ist und net so ein "könnte evtl der IFC sein"
Geschwurbel.

Das der IFC sogar besser als erwartet funzt sieht man bei den minFps wenn man den Vgl. mit normiert 270W anschaut:

Antwort Gefällt mir

Megaone

Urgestein

1,801 Kommentare 1,705 Likes

Danke für den freundlichen Hinweis. Aus dem Grund habe ich ja auch geschrieben:" Wenn ich es richtig verstanden habe". Es geht doch nichts über ein höfliches Miteinander. (y)

Antwort 2 Likes

Megaone

Urgestein

1,801 Kommentare 1,705 Likes

Na denn warten wir mal die Preisentwicklung ab.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung