Reviews Palit GeForce RTX 3080 Ti GameRock 12GB im Test – Heimdisko auf der Überholspur

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.956
Bewertungspunkte
9.391
Punkte
1
Standort
Redaktion
Palit geht diesmal bei der neuen Palit RTX 3080 Ti GameRock 12GB rein optisch sehr eigene Wege. Ob die einem Eispanzer (Kristall-Design) nachempfundene RGB-Disko-Beleuchtung an der Front wirklich jedem gefällt, sei jetzt mal dahingestellt. Aber es ist ein sehr auffälliges Design, das polarisiert. Das allein ist ja schon eine Existenberechtigung. Die einzige Einschränkung für meinen […]

Hier den ganzen Artikel lesen
 
Bei den 44 dB Lautstärke die das Ding bringt hätte Pallit die Karte auch gleich als Blower denn als Bling-Ding auslegen können. Dann könnte ich mir den (trotzdem zu hohen) Preis noch irgendwie rechtfertigen. Aber so wie es ist, also wirklich nicht.
 
Viel bringt viel und das gilt wohl ebenfalls fürs optische😁 💿💃🕺
 
Wirklich schade, die GameRock Karten waren in der Vergangenheit sonst immer unter denen mit den besten Kühlern, warum man mit der 3000er Serie nun so einen Mist machen musste, ist mir nicht klar. Wirklich schade, Palit ist in der Serie leider kein "Gut und günstig" - Tipp mehr. :(
 
Das Design wäre ganz nice ohne den Eis-Klimbim an der Front. Das allein kostet locker 2 dBA. Man bekommt die Karte mit den 350 Watt der FE und dem Silent-BIOS auch auf ca. 37 dBA, was dann wiederum sehr gut wäre. Das PCB machte einen soliden Eindruck, soweit man es so von außen beurteilen konnte. Es liegt also allein an der Disko-Plate und der etwas hohen TDP.
 
Ich würde mir wünschen, das bei Custom-Reviews auch eine Custom-Graka der anderen Colour mit rein genommen wird.
Das hätte den Vorteil, das bei ähnlichen Watt eine Beurteilung gemacht werden kann.
(Damit würden 6900er auch net so in 4k limitiert, wo dann gern als Ursache auf den IFC getippt wird, aber eigentlich erstmal nur
12% Watt fehlen.)


Bei den Ti-Reviews würde Es sich anbieten, ne XTH vom P/L her mit zu zeigen.
 
Zuletzt bearbeitet :
Die 6900XT limitiert immer, selbst mit 400 Watt ;)

Ich habe die Liquid Devil wieder aus dem Tisch genommen, da fehlten mit dem G9 fast 25% Performance zur 3090. Das merkt man dann allerdings schon.
 
Die 3090 ist auch ne Nr. größer. (von der Anzahl der Shader und P/L)
Muss net zwingend erreicht werden.

Ob die Devil XTU ab Werk sinnvoll eingestellt ist, who knows. Vom Takt her sicher net.
400W+ sind für die Pads auch schon echt viel, ... am Hotspot zu merken.
Da hat AMD halt ne kleinere Wärmeübertragungsfläche als NV.

Ich würde mir für die TopDogs gleich LM wünschen.(ala Asus-Notebooks)
Im Anhang mal z.Vgl. der User L!ME aus dem Luxx mit seiner XTU@LM: siehe Anhang
(dann sind auch mehr als 400W sinnvoll möglich)


edit:
Und man muss natürlich sagen, das Es unverständlich ist, warum AMD bzgl. HAGS so mauert.
NV hat Das schon seit Jahren.
Mal z.Vgl. Gurdi mit seiner 6800XT Strixx-LC@LM mit dem UWP-HAGS-Treiber und more Powerlimit:
 

Anhänge

  • L!ME_sup4k.jpg
    L!ME_sup4k.jpg
    121,2 KB · Aufrufe : 12
  • Sup4k@Launch_6900XT.jpg
    Sup4k@Launch_6900XT.jpg
    285,7 KB · Aufrufe : 6
  • Gurdi@HAGS.jpg
    [email protected]
    139,4 KB · Aufrufe : 4
  • PCGH_Juni21.JPG
    PCGH_Juni21.JPG
    88,5 KB · Aufrufe : 11
Zuletzt bearbeitet :
Bei den 44 dB Lautstärke die das Ding bringt hätte Pallit die Karte auch gleich als Blower denn als Bling-Ding auslegen können. Dann könnte ich mir den (trotzdem zu hohen) Preis noch irgendwie rechtfertigen. Aber so wie es ist, also wirklich nicht.
Naja, die Leistungsaufnahme muss halt auch erstmal weggekühlt werden. Und wenn dann mehr Priorität auf Optik, als auf Effizienz der Kühllösung gesetzt wird....

Grüße!
 
@Igor Wallossek
Bei 3x 8-Pin hätte ich nicht gedacht dass die Karte über den Slot ( PEG ) mind. 5.5 A saugt.
Hab mir das Teardown der PALIT RTX 3080 Ti GameRock angeguckt und wie du geschrieben hast ist das PCB kürzer.
Das Design der Platine und die Kühlung gefallen mir überhaupt nicht ( wie die Founders Edition aber mit 3x 8-Pin ) :rolleyes:
 
Hey Igor,

Sry I don't speak German.

I'd like to thank your personally for your review of the GTX 1080's at Tom's Hardware DE.


Based on your review and the temperatures you measured, I bought a used Palit GTX 1080 Game Rock non-premium from Amazon DE. I am happy to report that my Palit GTX 1080 still trucks along after, uh, 5 years daily gaming. The card never hit a temperature above 79 degrees and it only hit that temp when it was maxed out at 3440X1440 90 FPS.

I really hope that in the future you will write similar "roundup" reports and that you use the temp-measuring tools to report hotspot and max temps noted on each respective graphic card.

Now regarding this card, although I am now absolutely convinced of Palit's superior worksmanship on their top-of-the-line cards I don't like the design direction they took and I feel they added way too much useless bling-bling on the card. I am only interested in robust products with quality components, so I will not buy this card even though I wanted to.

Thanks again.
 
Ja das ist mal ein hässliches Teil. Aber es scheint ja seine Zielgruppe zu haben, giebt ja auch RAMs mit so Glitzerzeugs.

Hab ja nichts gegen RGB, aber model Eisprinzessin ist mir dann doch zu viel.
 
Typo, page 3
... The Palit RTX 3080 Ti GameRock 12GB is even slightly faster than the GeForce RTX 3090 Ti FE
 
Hallo Igor,

mich würde deine Einschätzung 3080ti vs 3090 interessieren?. Neben der Leistung, die ja aktuell ziemlich ähnlich scheint, frage ich mich ob die 24 GB für Gamer zumindest mittelfristig möglicherweise einen Vorteil darstellen? Soweit liegen die Karten preislich ja nicht auseinander und wer dauerhaft mit 60 Frames in 4 K klarkommt, kann ja beide Karten lange nutzen. Ist eine 3090 langfristig die sichere Investition oder rausgeworfenes Geld?
 
Hallo Igor,

mich würde deine Einschätzung 3080ti vs 3090 interessieren?. Neben der Leistung, die ja aktuell ziemlich ähnlich scheint, frage ich mich ob die 24 GB für Gamer zumindest mittelfristig möglicherweise einen Vorteil darstellen? Soweit liegen die Karten preislich ja nicht auseinander und wer dauerhaft mit 60 Frames in 4 K klarkommt, kann ja beide Karten lange nutzen. Ist eine 3090 langfristig die sichere Investition oder rausgeworfenes Geld?
Ist rausgeworfenes Geld. Die 3080 Ti ist etwa gleich schnell (manchmal schneller). Du fragst ja explizit nach Gaming-Leistung. Und wenn der Ram nicht mehr ausreicht, ist eh die nächste Generation da.
 
Ist rausgeworfenes Geld. Die 3080 Ti ist etwa gleich schnell (manchmal schneller). Du fragst ja explizit nach Gaming-Leistung. Und wenn der Ram nicht mehr ausreicht, ist eh die nächste Generation da.
Aber das ist ja genau die Frage über die nächste Generation hinaus. Ich komme mit 60 Frames gut zurecht und hab meine Karten immer 2 Generationen. Wenn ich das richtig verstanden habe, ist bei AMD der Cache bei 4 K das Nadelöhr. Gerade unter anbetracht der 16 GB von AMD Frage ich mich, wie knapp sind 12 GB bezogen auf die nächsten 2-4 Jahre? Möglicherweise stehen nicht wenige bei erscheinen der nächsten Generation vor der Frage, sich ggf. günstig mit einer 3080Ti/3090 einzudecken. Die Leute, die bei erscheinen der 3000er Serie sich mit einer 2080Ti/2080 super eingedeckt haben, haben je nach Anwendung ja auch nichts falsch gemacht.
 
Ich habe meine Karten auch immer mindestens für 2 Gens. Aktuell mit 2080S allerdings in WQHD. Man kann eigentlich ganz easy auslesen, wieviel Grafikspeicher welches Spiel "frisst". Ich komme selten über 5 GB. Schau dir auch die aktuelle Konsolen-Generation an. Da ist 4K @60FPS das Maximum. Und die wird noch ein paar Jahre laufen. Dann nimmst du noch DLSS dazu, das stetig weiter entwickelt wird. Am Ende wirst du mit der 3080 Ti genau so lange Freude haben, wie mit der 3090. Insofern bleibe ich dabei: 3080/Ti reicht erstmal aus.
 
Wenn ich das richtig verstanden habe, ist bei AMD der Cache bei 4 K das Nadelöhr.
So ein kurz gesprungenes Nachplappern aus 3.Hand, habe ich befürchtet, als Igor im Review von 4k schwächer bei AMD gesprochen hat.
Da habe ich nun versucht in Post#8 klarzustellen, das erstmal das Powerlimit in 4k entscheidend ist und net so ein "könnte evtl der IFC sein"
Geschwurbel.

Das der IFC sogar besser als erwartet funzt sieht man bei den minFps wenn man den Vgl. mit normiert 270W anschaut:
 

Anhänge

  • 270W_minFps.JPG
    270W_minFps.JPG
    115,6 KB · Aufrufe : 9
So ein kurz gesprungenes Nachplappern aus 3.Hand, habe ich befürchtet, als Igor im Review von 4k schwächer bei AMD gesprochen hat.
Da habe ich nun versucht in Post#8 klarzustellen, das erstmal das Powerlimit in 4k entscheidend ist und net so ein "könnte evtl der IFC sein"
Geschwurbel.

Das der IFC sogar besser als erwartet funzt sieht man bei den minFps wenn man den Vgl. mit normiert 270W anschaut:
Danke für den freundlichen Hinweis. Aus dem Grund habe ich ja auch geschrieben:" Wenn ich es richtig verstanden habe". Es geht doch nichts über ein höfliches Miteinander. (y)
 
Ich habe meine Karten auch immer mindestens für 2 Gens. Aktuell mit 2080S allerdings in WQHD. Man kann eigentlich ganz easy auslesen, wieviel Grafikspeicher welches Spiel "frisst". Ich komme selten über 5 GB. Schau dir auch die aktuelle Konsolen-Generation an. Da ist 4K @60FPS das Maximum. Und die wird noch ein paar Jahre laufen. Dann nimmst du noch DLSS dazu, das stetig weiter entwickelt wird. Am Ende wirst du mit der 3080 Ti genau so lange Freude haben, wie mit der 3090. Insofern bleibe ich dabei: 3080/Ti reicht erstmal aus.
Na denn warten wir mal die Preisentwicklung ab.
 
Oben Unten