Reviews KFA2 GeForce RTX 2080 Ti OC im Test - sattes 380 Watt Power Limit mit RGB-Beplankung

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
10.197
Bewertungspunkte
18.810
Punkte
114
Alter
59
Standort
Labor
KFA2 hat mit der sehr einfach gehaltenen GeForce RTX 2080 Ti OC eine aktuelle Turing-Karte konzipiert, die man als echten Januskopf betrachten könnte. Was die Karte für eine ganz spezielle Zielgruppe sicher sehr interessant macht, ist ihr erstes BIOS, auf das ich später noch genauer eingehen werde. Da diese Karte, so zynisch es vielleicht auch klingen mag, zu den eher "billigen" GeForce RTX 2080 Ti gehört, wird man natürlich mit einen eher kleinen und leichten Dual-Slot-Kühler, sowie den zwei 8,5-cm-Lüftern sehr schnell an thermische, akustische und nervliche Grenzen stoßen.

Die Physik ist eine sehr solide Wissenschaft, die sich nicht austricksen lässt. Aber, und da sollte man getrost diesen Artikel zu Ende lesen, sie hat auch Vorteile, die wir in einem weiteren Follow-Up zu einer bestimmten Kühlmethode noch herausstellen können. Doch dazu später an den betreffenden Stellen gleich mehr. Wichtig ist zudem als Vorbemerkung, dass ich mit KFA2 nach diesem Review in engem Kontakt stand und der Hersteller mittlerweile ein neues BIOS entwickelt hat, welches so auch in die Massenproduktion übernommen wird...



>>> Originalartikel lesen <<<
 
Wird denn KFA das „Ursprungsbios“ trotzdem zum Download für Wasserfreunde anbieten?
 
Nein, aber es kursiert ja im Netz :)
 
@Igor

Was erreicht eine RX Vega Limited welche Werte beim Lüftergeräusch
und ist jenes angenehmer als bei der KFA2 2080TI
 
Zuletzt bearbeitet :
Die RX Vega 64 limited edition ist mit einer GTX 1080 zu vergleichen. Eine RTX 2080ti ist um ca. 50 % stärker.
 
Wollt ich letztens schon gefragt haben, auch aus Gründen der Übersicht: besteht die Möglichkeit, alle Ergebnisse in der jeweiligen Auflösung nochmal in einem Diagramm zusammenzufassen?
 
Du meinst kumuliert?
 
Mein ich das? Moment, eben gurgeln...
Ja :)
Laß es bitte kumuliert kulminieren :p
 
Oh Män, die Karte sieht aus wie ein Billo-Klon einer EVGA. Muss sowas wirklich sein?
 
Das ist immer schwer zu sagen. Bleibt man im Limit, gibt es eigentlich kaum Gründe, warum eine CPU jemals ausfallen sollte. Bei Kondensatoren ist das einfacher, da gibt es Berechnungsmöglichkeiten anhand der Elektrolytalterung.

Grundsätzlich kann man sagen, es gibt 2 Komponenten, die die Lebensdauer eines Chips beeinflussen:

- Temperatur
- Stromspannung

Im Grundsatz sind 10 Jahre kein Alter für eine CPU, die in normalen Spezifikationen läuft, über diese hinaus geht die Lebensdauer drastisch zurück. Vor allem weiß man eben auch nicht, welche Verunreinigungen bei der Produktion entstanden sind - das heißt, jeder Chip ist individuell und kann von der Norm stark abweichen und eben unter extremeren Bedingungen schneller das zeitliche segnen.
 
Der Strom kann erst einmal in gewissem Rahmen vernachlässigt werden, denn bei der GPU zählt fast nur die Spannung (Elektromigration). Die Temperaturen besorgt sich die Karte selbst, denn es gibt einen sehr gut greifenden Schutzmechanismus. Deswegen eiert NV ja auch immer so mit der Voltage rum. Bei den Speichermodulen sind aktuel 95°C die Obergrenze in den Specs, wo der Hersteller den Betrieb innerhalb der garantierten MTBF als sicher ansieht.
 
@Igor Wallossek :
Ich hätte da mal eine Frage :)
Hat es einen speziellen Grund, warum du bei Rise of the Tomb Raider und Battlefield 1 DX12 verwendest?
Bei Battlefield 1 habe ich persönlich unter DX12 immer wieder starke Framedrops, was mir bei DX11 erspart bleibt.
Und bei Rise of the Tomb Raider kommt der Unterschied eher in FPS.
Hatte heute morgen DX12 gegen DX11 mit WQHD - SSA 4x und Very High laufen lassen.
DX12 waren 88.23 FPS.
DX11 waren 96.68 FPS.

Siehst du bei dir auch solche Unterschiede?
Du hast aber wahrscheinlich nicht den eingebauten Benchmark verwendet, oder?

Danke & viele Grüße
 
Man muss sich bei einer Benchmark-Suite immer überlegen, was man genau damit bezweckt. Zum einen benötigt man Spiele, die über einen längeren Zeitraum laufen können, um gut vergleichbar zu bleiben und andererseits in der Summe ausgewogen beiden Herstellern gerecht werden. Mangels echter DX12-Spiele haben wir uns damals für diese beiden Spiele entschieden und ich muss am Ende mit dieser Entscheidung erst mal leben, bis wir wieder umstellen. Da generell alle Karten gleichermaßen betroffen sind und DX12 weniger CPU-abhängig ist und trotz niedrigerer FPS konsistentere Ergebnisse liefert, kann ich damit leben. BF1 dropt bei mir auch mit DX12 nicht wirklich heftig, es ist also offensichtlich auch systemabhängig. Wo es einen Sinn ergibt, arbeite ich übrigens nicht mit den eingebauten Benches. Aber RoTR fliegt sowieso bald raus. :)

Ich knobele gerade an einer neuen Suite und auch an einem neuen Testsystem. Aber so etwas muss man gut planen, um langfristig damit mindestens 1-2 Jahre arbeiten zu können. :)
 
Mir ist im Zuge eigener Spielereien auch aufgefallen, dass PresenMon und die Spiel-eigenen Benchmarks zu teils sehr unterschiedlichen Ergebnissen durch die Bank bei min-, avg- und max-FPS kommen (sofern man die Info über Spiel-Benches bekommt). Gut, mag an meiner Mess-Inkompetenz liegen, aber mir ist das noch nicht verständlich und wenn das so ist, macht es die Ergebnisse halt nicht vergleichbar.
 
PersentMon ist so eine Sache...

Ich nutze diese Daten, jage sie aber erst einmal durch meine Software und kalkuliere die FPS sauber neu. Eines der Probleme ist es z.B., die Dezimalstellen richtig zu bewerten. Einfach die Summe Frames durch die Laufzeit zu teilen geht definitiv schief. Vor allem bei Drops und sonstigen Fehlern. In den PresentMon-Logs werden ab und an die sinnlosesten Values ausgegeben. Das kann zum Einen daran liegen, dass ja auch PresentMon an der CPU hängt und selbst ein Delay produziert, oder es kommen auch schon mal generell sinnlose Werte vor, die alles kräftig verfälschen. Ich betrachte bei jeder Zeile auch die anderen ausgegebenen Zeitwerte und vergleiche intern die Zeitstempel mit einer Plausibilitätsbewertung. Es tritt nicht in Massen auf, aber man findet es leider nur allzu oft. Solche Log-Zeilen muss man nun mal herausfiltern.

Und die Ingame-Benches, nun ja. Kann man bewerten, wie man will. Wo es geht (keine dynamischen Welten) nehme ich eigene Runs, die aber reproduzierbar sein MÜSSEN. Bekommt man da schon eine größere Toleranz durch wechselnde KI oder Umgebung hin, kann man das alles in die Tonne werfen. Dann sind Ingame-Benchmarks die bessere Wahl, auch wenn sie nicht immer das ganze Spiel im Worst-Case repräsentieren. Am Ende will ich ja die Karten untereinander vergleichen und da sind die Ausgangsbedingungen ja wieder für alle Karten gleich. Vergleicht man Grafikkarten also nur miteinander, macht dies sogar mehr Sinn. In der Theorie :)
 
Mir ist gerade ein vermutlicher Fehler in der Betitelung der Wärmebilder der Karte aufgefallen. Diese weisen sich selbst als Bilder der Gainward GeForce RTX 2080 Phantom GLH aus sind es aber augenscheinlich nicht.
 
Kurze Frage zur KFA:

EKWB für die Founders passt ja scheinbar?
Hat sie irgendwelche wärmeleitpads, die beim zerlegen kaputt gehen (wie die FE)?
 
Nein, wenn man es vorsichtig anstellt :)
 
Tolle sache. Hab zwar von Nvidia noch keinen RMA-Beleg bekommen, für meine schrottige FE, aber jetzt trotzdem mal bei der KFA zugeschlagen. Das Powerlimit ist einfach attraktiv.
 
Oben Unten