GPUs Graphics Reviews

Palit GeForce RTX 3080 Ti GameRock 12GB Review – Home Disco on the fast Lane

Palit goes its own way with the new Palit RTX 3080 Ti GameRock 12GB in terms of looks. Whether the RGB disco lighting on the front, which is based on an ice shell (crystal design), is really to everyone’s liking, remains to be seen. But it’s a very eye-catching design that polarizes. That in itself is a right to exist. The only restriction for my review: Since there are only a few rotating samples and I also want to leave the original card to the other colleagues, the teardown unfortunately has to be omitted for this card as well. That’s a shame, for sure, but an important part of the deal to get this card.

This graphics card has the usual GeForce feature set of the current Ampere generation. The heart of the GeForce RTX 3080 Ti is the GA102-225 graphics processor. It is based on Samsung’s 8nm process node developed specifically for NVIDIA and has a total of 28 billion transistors. We already know him from last year. It measures just under 628 mm², making it the second largest gaming GPU ever produced just below the Turing TU102 GPU.

For the GeForce RTX 3080 Ti, NVIDIA has after all enabled 80 SM units on its flagship, resulting in a total of 10240 CUDA cores. In addition to CUDA cores, NVIDIA’s GeForce RTX 3080 Ti is also equipped with next-generation RT (ray tracing) cores, Tensor cores, and the new SM or streaming multiprocessing units. As for memory, the GeForce RTX 3080 Ti is equipped with 12GB of GDDR6X memory that can deliver memory speeds of 19.0Gbps. Together with a 384-bit interface, this will deliver a cumulative bandwidth of 912.4 Gbps.

 

Optics and haptics

We’ve already been through the formal language. The light metal cover looks good, but you really have to like the one with the icy plastic planking complete with RGB stadium lighting. The Palit RTX 3080 Ti GameRock 12GB weighs 1552 grams and is thus significantly heavier than the reference card. It is also longer with its full 30 cm, stately 12.5 cm high (installation height from PEG) and in addition 5.5 cm thick (2.5 slot design), whereby a backplate and the PCB with altogether five additional millimeters are added.

What looks like a small switch for a dual BIOS on the top is actually a switch for a performance and a silent BIOS.  I will only test the performance BIOS today, but will point out the differences in the relevant places. That would clear that up, because the differences are not that extreme. I prefer it cooler and faster.

The graphic brick including illumination is supplied via three standard 8-pin sockets, so everything is as known and used, if a card has 400 watts (optionally up to 440 watts) power limit. We also see here the vertical orientation of the cooling fins and the board reinforcement in the form of a backplate and frame. Three 9 cm fans provide the necessary fresh wind for cooling, but the very irregularly shaped openings of the plastic ice shield don’t make sense aerodynamically, rather the opposite. But we’ll get to that later.

The slot bracket is honeycomb perforated, carries 1x HDMI 2.1 and three current DP 1.4 connectors. The USB Type C port, on the other hand, is missing. More about the construction, the cooler and the assembly I have to owe you this time, because the disassembly was unfortunately taboo. But you can see what works here (or not).

Technology

While the base clock is specified with 1365 MHz, the boost clock is 1725 MHz (FE at 1665 MHz), which is even reached. The card relies on 12GB of GDDR6X at 19Gbps, but we’ve been over that. For the rest of the key data, please refer to the GPU-Z screenshot…

… and the tabular overview (where the values of NVIDIA’s RTX 3080 Ti FE were put in brackets).

  GeForce RTX 3070 GeForce RTX 3080 GeForce RTX 3080 Ti
GeForce RTX 3090
GPU GA104-300 GA102-200 GA102-225
GA102-300
Process node Samsung 8 nm
The Size 395.2 mm2 628.4 mm2
Transistors 17.4 billion 28 billion
CUDA Cores 5888 8704   10496
TMUs/ROPs TBA 272 / 96 320/112
TBA
Tensor/RT 184 / 46 272 / 68 320 / 80 328 / 82
Base clock
1500 MHz 1440 MHz 1365 MHz
1400 MHz
Boost clock
1730 MHz 1710 MHz 1725 (1665) MHz
1700 MHz
Memory 8 GDDR6 10 GB GDDR6X 12 GB GDDR6X 24 GB GDDR6X
Interface 256-bit 320-bit 384-bit 384-bit
Throughput 14 Gbps 19 Gbps 19 Gbps
19.5 Gbps
Bandwidth 448 Gbps 760 Gbps 912.4 Gbps
936 Gbps
TGP 220W 320W 400 (350) W
350W
Launch 15.10.2020 17.09.2020 02.06.2021
24.09.2020

 

 

Kommentar

Lade neue Kommentare

e
eastcoast_pete

Urgestein

1,460 Kommentare 819 Likes

Bei den 44 dB Lautstärke die das Ding bringt hätte Pallit die Karte auch gleich als Blower denn als Bling-Ding auslegen können. Dann könnte ich mir den (trotzdem zu hohen) Preis noch irgendwie rechtfertigen. Aber so wie es ist, also wirklich nicht.

Antwort Gefällt mir

Case39

Urgestein

2,498 Kommentare 928 Likes

Viel bringt viel und das gilt wohl ebenfalls fürs optische😁 💿💃🕺

Antwort 1 Like

J
Javeran

Mitglied

16 Kommentare 4 Likes

Wirklich schade, die GameRock Karten waren in der Vergangenheit sonst immer unter denen mit den besten Kühlern, warum man mit der 3000er Serie nun so einen Mist machen musste, ist mir nicht klar. Wirklich schade, Palit ist in der Serie leider kein "Gut und günstig" - Tipp mehr. :(

Antwort Gefällt mir

Igor Wallossek

1

10,173 Kommentare 18,758 Likes

Das Design wäre ganz nice ohne den Eis-Klimbim an der Front. Das allein kostet locker 2 dBA. Man bekommt die Karte mit den 350 Watt der FE und dem Silent-BIOS auch auf ca. 37 dBA, was dann wiederum sehr gut wäre. Das PCB machte einen soliden Eindruck, soweit man es so von außen beurteilen konnte. Es liegt also allein an der Disko-Plate und der etwas hohen TDP.

Antwort 6 Likes

RX480

Urgestein

1,858 Kommentare 852 Likes

Ich würde mir wünschen, das bei Custom-Reviews auch eine Custom-Graka der anderen Colour mit rein genommen wird.
Das hätte den Vorteil, das bei ähnlichen Watt eine Beurteilung gemacht werden kann.
(Damit würden 6900er auch net so in 4k limitiert, wo dann gern als Ursache auf den IFC getippt wird, aber eigentlich erstmal nur
12% Watt fehlen.)

Bei den Ti-Reviews würde Es sich anbieten, ne XTH vom P/L her mit zu zeigen.

Antwort Gefällt mir

Igor Wallossek

1

10,173 Kommentare 18,758 Likes

Die 6900XT limitiert immer, selbst mit 400 Watt ;)

Ich habe die Liquid Devil wieder aus dem Tisch genommen, da fehlten mit dem G9 fast 25% Performance zur 3090. Das merkt man dann allerdings schon.

Antwort Gefällt mir

RX480

Urgestein

1,858 Kommentare 852 Likes

Die 3090 ist auch ne Nr. größer. (von der Anzahl der Shader und P/L)
Muss net zwingend erreicht werden.

Ob die Devil XTU ab Werk sinnvoll eingestellt ist, who knows. Vom Takt her sicher net.
400W+ sind für die Pads auch schon echt viel, ... am Hotspot zu merken.
Da hat AMD halt ne kleinere Wärmeübertragungsfläche als NV.

Ich würde mir für die TopDogs gleich LM wünschen.(ala Asus-Notebooks)
Im Anhang mal z.Vgl. der User L!ME aus dem Luxx mit seiner XTU@LM: siehe Anhang
(dann sind auch mehr als 400W sinnvoll möglich)

edit:
Und man muss natürlich sagen, das Es unverständlich ist, warum AMD bzgl. HAGS so mauert.
NV hat Das schon seit Jahren.
Mal z.Vgl. Gurdi mit seiner 6800XT Strixx-LC@LM mit dem UWP-HAGS-Treiber und more Powerlimit:

Antwort 1 Like

Alexander Brose

Moderator

818 Kommentare 572 Likes

Naja, die Leistungsaufnahme muss halt auch erstmal weggekühlt werden. Und wenn dann mehr Priorität auf Optik, als auf Effizienz der Kühllösung gesetzt wird....

Grüße!

Antwort Gefällt mir

M
McFly_76

Veteran

395 Kommentare 136 Likes

@Igor Wallossek
Bei 3x 8-Pin hätte ich nicht gedacht dass die Karte über den Slot ( PEG ) mind. 5.5 A saugt.
Hab mir das Teardown der PALIT RTX 3080 Ti GameRock angeguckt und wie du geschrieben hast ist das PCB kürzer.
Das Design der Platine und die Kühlung gefallen mir überhaupt nicht ( wie die Founders Edition aber mit 3x 8-Pin ) :rolleyes:

Antwort Gefällt mir

Τimeo Danaos

Neuling

4 Kommentare 5 Likes

Hey Igor,

Sry I don't speak German.

I'd like to thank your personally for your review of the GTX 1080's at Tom's Hardware DE.

Based on your review and the temperatures you measured, I bought a used Palit GTX 1080 Game Rock non-premium from Amazon DE. I am happy to report that my Palit GTX 1080 still trucks along after, uh, 5 years daily gaming. The card never hit a temperature above 79 degrees and it only hit that temp when it was maxed out at 3440X1440 90 FPS.

I really hope that in the future you will write similar "roundup" reports and that you use the temp-measuring tools to report hotspot and max temps noted on each respective graphic card.

Now regarding this card, although I am now absolutely convinced of Palit's superior worksmanship on their top-of-the-line cards I don't like the design direction they took and I feel they added way too much useless bling-bling on the card. I am only interested in robust products with quality components, so I will not buy this card even though I wanted to.

Thanks again.

Antwort 3 Likes

Klicke zum Ausklappem
RedF

Urgestein

4,651 Kommentare 2,549 Likes

Ja das ist mal ein hässliches Teil. Aber es scheint ja seine Zielgruppe zu haben, giebt ja auch RAMs mit so Glitzerzeugs.

Hab ja nichts gegen RGB, aber model Eisprinzessin ist mir dann doch zu viel.

Antwort 1 Like

r
roryodonnell

Neuling

3 Kommentare 0 Likes

Typo, page 3
... The Palit RTX 3080 Ti GameRock 12GB is even slightly faster than the GeForce RTX 3090 Ti FE

Antwort Gefällt mir

Megaone

Urgestein

1,742 Kommentare 1,643 Likes

Hallo Igor,

mich würde deine Einschätzung 3080ti vs 3090 interessieren?. Neben der Leistung, die ja aktuell ziemlich ähnlich scheint, frage ich mich ob die 24 GB für Gamer zumindest mittelfristig möglicherweise einen Vorteil darstellen? Soweit liegen die Karten preislich ja nicht auseinander und wer dauerhaft mit 60 Frames in 4 K klarkommt, kann ja beide Karten lange nutzen. Ist eine 3090 langfristig die sichere Investition oder rausgeworfenes Geld?

Antwort Gefällt mir

grimm

Urgestein

3,081 Kommentare 2,034 Likes

Ist rausgeworfenes Geld. Die 3080 Ti ist etwa gleich schnell (manchmal schneller). Du fragst ja explizit nach Gaming-Leistung. Und wenn der Ram nicht mehr ausreicht, ist eh die nächste Generation da.

Antwort Gefällt mir

Megaone

Urgestein

1,742 Kommentare 1,643 Likes

Aber das ist ja genau die Frage über die nächste Generation hinaus. Ich komme mit 60 Frames gut zurecht und hab meine Karten immer 2 Generationen. Wenn ich das richtig verstanden habe, ist bei AMD der Cache bei 4 K das Nadelöhr. Gerade unter anbetracht der 16 GB von AMD Frage ich mich, wie knapp sind 12 GB bezogen auf die nächsten 2-4 Jahre? Möglicherweise stehen nicht wenige bei erscheinen der nächsten Generation vor der Frage, sich ggf. günstig mit einer 3080Ti/3090 einzudecken. Die Leute, die bei erscheinen der 3000er Serie sich mit einer 2080Ti/2080 super eingedeckt haben, haben je nach Anwendung ja auch nichts falsch gemacht.

Antwort Gefällt mir

grimm

Urgestein

3,081 Kommentare 2,034 Likes

Ich habe meine Karten auch immer mindestens für 2 Gens. Aktuell mit 2080S allerdings in WQHD. Man kann eigentlich ganz easy auslesen, wieviel Grafikspeicher welches Spiel "frisst". Ich komme selten über 5 GB. Schau dir auch die aktuelle Konsolen-Generation an. Da ist 4K @60FPS das Maximum. Und die wird noch ein paar Jahre laufen. Dann nimmst du noch DLSS dazu, das stetig weiter entwickelt wird. Am Ende wirst du mit der 3080 Ti genau so lange Freude haben, wie mit der 3090. Insofern bleibe ich dabei: 3080/Ti reicht erstmal aus.

Antwort 1 Like

RX480

Urgestein

1,858 Kommentare 852 Likes

So ein kurz gesprungenes Nachplappern aus 3.Hand, habe ich befürchtet, als Igor im Review von 4k schwächer bei AMD gesprochen hat.
Da habe ich nun versucht in Post#8 klarzustellen, das erstmal das Powerlimit in 4k entscheidend ist und net so ein "könnte evtl der IFC sein"
Geschwurbel.

Das der IFC sogar besser als erwartet funzt sieht man bei den minFps wenn man den Vgl. mit normiert 270W anschaut:

Antwort Gefällt mir

Megaone

Urgestein

1,742 Kommentare 1,643 Likes

Danke für den freundlichen Hinweis. Aus dem Grund habe ich ja auch geschrieben:" Wenn ich es richtig verstanden habe". Es geht doch nichts über ein höfliches Miteinander. (y)

Antwort 2 Likes

Megaone

Urgestein

1,742 Kommentare 1,643 Likes

Na denn warten wir mal die Preisentwicklung ab.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung