Grafikkarten Testberichte VGA

Palit GeForce RTX 3080 Ti GameRock 12GB im Test – Heimdisko auf der Überholspur

Palit geht diesmal bei der neuen Palit RTX 3080 Ti GameRock 12GB rein optisch sehr eigene Wege. Ob die einem Eispanzer (Kristall-Design) nachempfundene RGB-Disko-Beleuchtung an der Front wirklich jedem gefällt, sei jetzt mal dahingestellt. Aber es ist ein sehr auffälliges Design, das polarisiert. Das allein ist ja schon eine Existenberechtigung. Die einzige Einschränkung für meinen neutigen Test: Da es nur wenige rotierende Muster gibt und ich auch den anderen Kollegen die Originalkarte überlassen möchte, muss der Teardown auch bei dieser Karte leider entfallen. Das ist sicher schade, aber wichtiger Bestandteil des Deals, um diese Karte zu bekommen.

Diese Grafikkarte besitzt das übliche GeForce Feature-Set der aktuellen Ampere-Generation. Das Herzstück der GeForce RTX 3080 Ti ist der GA102-225 Grafikprozessor. Er basiert auf Samsungs speziell für NVIDIA entwickeltem 8-nm-Prozessknoten und verfügt über insgesamt 28 Milliarden Transistoren. Den kennen wir ja schon vom letzten Jahr. Er misst knapp 628 mm², was ihn zum zweitgrößten jemals produzierten Gaming-Grafikprozessor direkt unter dem Turing TU102 Grafikprozessor macht.

Für die GeForce RTX 3080 Ti hat NVIDIA immerhin 80 SM-Einheiten auf seinem Flaggschiff aktiviert, was zu insgesamt 10240 CUDA-Kernen führt. Zusätzlich zu den CUDA-Kernen ist NVIDIAs GeForce RTX 3080 Ti auch mit RT-Kernen der nächsten Generation (Ray-Tracing), Tensor-Kernen und den neuen SM- oder Streaming-Multiprozessoreinheiten ausgestattet. Was den Speicher betrifft, so ist die GeForce RTX 3080 Ti mit 12 GB GDDR6X Speicher ausgerüstet, der Speichergeschwindigkeiten von 19,0 Gbps liefern kann. Zusammen mit einem 384 Bit Interface wird dies eine kumulative Bandbreite von 912,4 Gbps liefern.

 

Optik und Haptik

Die Formensprache hatten wir ja schon. Die Leichtmetallabdeckung sieht gut aus, aber das mit der eisigen Kunststoff-Beplankung samt RGB-Stadionbeleuchtung muss man wirklich mögen. Die Palit RTX 3080 Ti GameRock 12GB wiegt 1552 Gramm und ist damit deutlich schwerer als die Referenzkarte. Sie ist mit ihren satten 30 cm auch länger, stattliche 12,5 cm hoch (Einbauhöhe ab PEG) und dazu 5.5 cm dick (2.5-Slot-Design), wobei noch eine Backplate und das PCB mit insgesamt fünf weiteren Millimetern dazukommen.

Das, was an der Oberseite wie ein kleiner Switch für ein Dual-BIOS aussieht, ist auch einer und zwar für ein Performance und ein Silent-BIOS.  Ich werde heute ausschließlich das Performance-BIOS testen, jedoch an den relevanten Stellen auf die Unterschiede hinweisen. Damit wäre das dann auch geklärt, denn so extrem sind die Unterschiede gar nicht. Ich habe es lieber kühler und schneller.

Versorgt wird der grafische Ziegelstein samt Illumination gleich über drei standesübliche 8-Pin-Buchsen, also alles wie bekannt und gehabt, wenn eine Karte 400 Watt (optional bis 440 Watt) Power Limit besitzt. Wir sehen hier auch die vertikale Ausrichtung der Kühllamellen und die Platinenverstärkung in Form einer Backplate und eines Rahmens. Drei 9-cm-Lüfter sorgen für den nötigen frischen Wind bei der Kühlung, jedoch machen die sehr unregelmäßig geformten Öffnungen des plastischen Eispanzers aerodynamisch keinen Sinn, eher im Gegenteil. Aber dazu kommen wir später noch.

Die Slot-Blende ist wabenörmig gelöchert, trägt 1x HDMI 2.1 und drei aktuelle DP-1.4-Anschlüsse. Die USB Type C Buchse fehlt hingegen. Mehr zum Aufbau, dem Kühler und der Bestückung muss ich Euch diesmal leider schuldig bleiben, denn das Auseinandernehmen war ja leider tabu. Aber man sieht ja auch so, was hier geht (oder auch nicht).

Technik

Während der Basistakt mit 1365 MHz angegeben wird, liegt der Boost-Takt bei 1725 MHz (FE bei 1665 MHz), der sogar erreicht wird. Die Karte setzt auf 12 GB GDDR6X mit 19 Gbps, aber das hatten wir ja schon. Die restlichen Eckdaten entnehmen wir bitte dem GPU-Z Screenshot…

… und der tabellarischen Übersicht (wobei die Werte von NVIDIAs RTX 3080 Ti FE in Klammern gesetzt wurden).

  GeForce RTX 3070 GeForce RTX 3080 GeForce RTX 3080 Ti
GeForce RTX 3090
GPU GA104-300 GA102-200 GA102-225
GA102-300
Process Node Samsung 8 nm
Die Size 395.2 mm2 628.4 mm2
Transistoren 17.4 Mrd. 28 Mrd.
CUDA Cores 5888 8704   10496
TMUs/ROPs TBA 272 / 96 320/112
TBA
Tensor/RT 184 / 46 272 / 68 320 / 80 328 / 82
Basis-Takt
1500 MHz 1440 MHz 1365 MHz
1400 MHz
Boost-Takt
1730 MHz 1710 MHz 1725 (1665) MHz
1700 MHz
Speicher 8 GDDR6 10 GB GDDR6X 12 GB GDDR6X 24 GB GDDR6X
Interface 256-bit 320-bit 384-bit 384-bit
Durchsatz 14 Gbps 19 Gbps 19 Gbps
19.5 Gbps
Bandbreite 448 Gbps 760 Gbps 912.4 Gbps
936 Gbps
TGP 220W 320W 400 (350) W
350W
Launch 15.10.2020 17.09.2020 02.06.2021
24.09.2020

 

 

Kommentar

Lade neue Kommentare

e
eastcoast_pete

Urgestein

1,475 Kommentare 833 Likes

Bei den 44 dB Lautstärke die das Ding bringt hätte Pallit die Karte auch gleich als Blower denn als Bling-Ding auslegen können. Dann könnte ich mir den (trotzdem zu hohen) Preis noch irgendwie rechtfertigen. Aber so wie es ist, also wirklich nicht.

Antwort Gefällt mir

Case39

Urgestein

2,503 Kommentare 929 Likes

Viel bringt viel und das gilt wohl ebenfalls fürs optische😁 💿💃🕺

Antwort 1 Like

J
Javeran

Mitglied

16 Kommentare 4 Likes

Wirklich schade, die GameRock Karten waren in der Vergangenheit sonst immer unter denen mit den besten Kühlern, warum man mit der 3000er Serie nun so einen Mist machen musste, ist mir nicht klar. Wirklich schade, Palit ist in der Serie leider kein "Gut und günstig" - Tipp mehr. :(

Antwort Gefällt mir

Igor Wallossek

1

10,198 Kommentare 18,815 Likes

Das Design wäre ganz nice ohne den Eis-Klimbim an der Front. Das allein kostet locker 2 dBA. Man bekommt die Karte mit den 350 Watt der FE und dem Silent-BIOS auch auf ca. 37 dBA, was dann wiederum sehr gut wäre. Das PCB machte einen soliden Eindruck, soweit man es so von außen beurteilen konnte. Es liegt also allein an der Disko-Plate und der etwas hohen TDP.

Antwort 6 Likes

RX480

Urgestein

1,875 Kommentare 869 Likes

Ich würde mir wünschen, das bei Custom-Reviews auch eine Custom-Graka der anderen Colour mit rein genommen wird.
Das hätte den Vorteil, das bei ähnlichen Watt eine Beurteilung gemacht werden kann.
(Damit würden 6900er auch net so in 4k limitiert, wo dann gern als Ursache auf den IFC getippt wird, aber eigentlich erstmal nur
12% Watt fehlen.)

Bei den Ti-Reviews würde Es sich anbieten, ne XTH vom P/L her mit zu zeigen.

Antwort Gefällt mir

Igor Wallossek

1

10,198 Kommentare 18,815 Likes

Die 6900XT limitiert immer, selbst mit 400 Watt ;)

Ich habe die Liquid Devil wieder aus dem Tisch genommen, da fehlten mit dem G9 fast 25% Performance zur 3090. Das merkt man dann allerdings schon.

Antwort Gefällt mir

RX480

Urgestein

1,875 Kommentare 869 Likes

Die 3090 ist auch ne Nr. größer. (von der Anzahl der Shader und P/L)
Muss net zwingend erreicht werden.

Ob die Devil XTU ab Werk sinnvoll eingestellt ist, who knows. Vom Takt her sicher net.
400W+ sind für die Pads auch schon echt viel, ... am Hotspot zu merken.
Da hat AMD halt ne kleinere Wärmeübertragungsfläche als NV.

Ich würde mir für die TopDogs gleich LM wünschen.(ala Asus-Notebooks)
Im Anhang mal z.Vgl. der User L!ME aus dem Luxx mit seiner XTU@LM: siehe Anhang
(dann sind auch mehr als 400W sinnvoll möglich)

edit:
Und man muss natürlich sagen, das Es unverständlich ist, warum AMD bzgl. HAGS so mauert.
NV hat Das schon seit Jahren.
Mal z.Vgl. Gurdi mit seiner 6800XT Strixx-LC@LM mit dem UWP-HAGS-Treiber und more Powerlimit:

Antwort 1 Like

Alexander Brose

Moderator

819 Kommentare 574 Likes

Naja, die Leistungsaufnahme muss halt auch erstmal weggekühlt werden. Und wenn dann mehr Priorität auf Optik, als auf Effizienz der Kühllösung gesetzt wird....

Grüße!

Antwort Gefällt mir

M
McFly_76

Veteran

396 Kommentare 136 Likes

@Igor Wallossek
Bei 3x 8-Pin hätte ich nicht gedacht dass die Karte über den Slot ( PEG ) mind. 5.5 A saugt.
Hab mir das Teardown der PALIT RTX 3080 Ti GameRock angeguckt und wie du geschrieben hast ist das PCB kürzer.
Das Design der Platine und die Kühlung gefallen mir überhaupt nicht ( wie die Founders Edition aber mit 3x 8-Pin ) :rolleyes:

Antwort Gefällt mir

Τimeo Danaos

Neuling

4 Kommentare 5 Likes

Hey Igor,

Sry I don't speak German.

I'd like to thank your personally for your review of the GTX 1080's at Tom's Hardware DE.

Based on your review and the temperatures you measured, I bought a used Palit GTX 1080 Game Rock non-premium from Amazon DE. I am happy to report that my Palit GTX 1080 still trucks along after, uh, 5 years daily gaming. The card never hit a temperature above 79 degrees and it only hit that temp when it was maxed out at 3440X1440 90 FPS.

I really hope that in the future you will write similar "roundup" reports and that you use the temp-measuring tools to report hotspot and max temps noted on each respective graphic card.

Now regarding this card, although I am now absolutely convinced of Palit's superior worksmanship on their top-of-the-line cards I don't like the design direction they took and I feel they added way too much useless bling-bling on the card. I am only interested in robust products with quality components, so I will not buy this card even though I wanted to.

Thanks again.

Antwort 3 Likes

Klicke zum Ausklappem
RedF

Urgestein

4,665 Kommentare 2,553 Likes

Ja das ist mal ein hässliches Teil. Aber es scheint ja seine Zielgruppe zu haben, giebt ja auch RAMs mit so Glitzerzeugs.

Hab ja nichts gegen RGB, aber model Eisprinzessin ist mir dann doch zu viel.

Antwort 1 Like

r
roryodonnell

Neuling

3 Kommentare 0 Likes

Typo, page 3
... The Palit RTX 3080 Ti GameRock 12GB is even slightly faster than the GeForce RTX 3090 Ti FE

Antwort Gefällt mir

Megaone

Urgestein

1,746 Kommentare 1,645 Likes

Hallo Igor,

mich würde deine Einschätzung 3080ti vs 3090 interessieren?. Neben der Leistung, die ja aktuell ziemlich ähnlich scheint, frage ich mich ob die 24 GB für Gamer zumindest mittelfristig möglicherweise einen Vorteil darstellen? Soweit liegen die Karten preislich ja nicht auseinander und wer dauerhaft mit 60 Frames in 4 K klarkommt, kann ja beide Karten lange nutzen. Ist eine 3090 langfristig die sichere Investition oder rausgeworfenes Geld?

Antwort Gefällt mir

grimm

Urgestein

3,084 Kommentare 2,040 Likes

Ist rausgeworfenes Geld. Die 3080 Ti ist etwa gleich schnell (manchmal schneller). Du fragst ja explizit nach Gaming-Leistung. Und wenn der Ram nicht mehr ausreicht, ist eh die nächste Generation da.

Antwort Gefällt mir

Megaone

Urgestein

1,746 Kommentare 1,645 Likes

Aber das ist ja genau die Frage über die nächste Generation hinaus. Ich komme mit 60 Frames gut zurecht und hab meine Karten immer 2 Generationen. Wenn ich das richtig verstanden habe, ist bei AMD der Cache bei 4 K das Nadelöhr. Gerade unter anbetracht der 16 GB von AMD Frage ich mich, wie knapp sind 12 GB bezogen auf die nächsten 2-4 Jahre? Möglicherweise stehen nicht wenige bei erscheinen der nächsten Generation vor der Frage, sich ggf. günstig mit einer 3080Ti/3090 einzudecken. Die Leute, die bei erscheinen der 3000er Serie sich mit einer 2080Ti/2080 super eingedeckt haben, haben je nach Anwendung ja auch nichts falsch gemacht.

Antwort Gefällt mir

grimm

Urgestein

3,084 Kommentare 2,040 Likes

Ich habe meine Karten auch immer mindestens für 2 Gens. Aktuell mit 2080S allerdings in WQHD. Man kann eigentlich ganz easy auslesen, wieviel Grafikspeicher welches Spiel "frisst". Ich komme selten über 5 GB. Schau dir auch die aktuelle Konsolen-Generation an. Da ist 4K @60FPS das Maximum. Und die wird noch ein paar Jahre laufen. Dann nimmst du noch DLSS dazu, das stetig weiter entwickelt wird. Am Ende wirst du mit der 3080 Ti genau so lange Freude haben, wie mit der 3090. Insofern bleibe ich dabei: 3080/Ti reicht erstmal aus.

Antwort 1 Like

RX480

Urgestein

1,875 Kommentare 869 Likes

So ein kurz gesprungenes Nachplappern aus 3.Hand, habe ich befürchtet, als Igor im Review von 4k schwächer bei AMD gesprochen hat.
Da habe ich nun versucht in Post#8 klarzustellen, das erstmal das Powerlimit in 4k entscheidend ist und net so ein "könnte evtl der IFC sein"
Geschwurbel.

Das der IFC sogar besser als erwartet funzt sieht man bei den minFps wenn man den Vgl. mit normiert 270W anschaut:

Antwort Gefällt mir

Megaone

Urgestein

1,746 Kommentare 1,645 Likes

Danke für den freundlichen Hinweis. Aus dem Grund habe ich ja auch geschrieben:" Wenn ich es richtig verstanden habe". Es geht doch nichts über ein höfliches Miteinander. (y)

Antwort 2 Likes

Megaone

Urgestein

1,746 Kommentare 1,645 Likes

Na denn warten wir mal die Preisentwicklung ab.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung