MSI GeForce RTX 4070 Ti Super Ventus 3X 16 GB im Test – Ersehntes Upgrade mit zeitgemäßem Speicherausbau und Preisdruck von AMD

Das hast Du jetzt wo genau gelesen? Geschrieben, geschweige denn gemeint, habe ich das jedenfalls nicht.
Steht doch alles gleich zweiten Absatz... Nur kann ich nichts nachtesten, wo es (für mich) nichts zu testen gibt. :(
Aber nicht wenige Posts hier verlinken auf irgendwelche Videos oder Seiten, die suggerieren, dass ich den Test so wohl besser nicht veröffentlicht hätte. Das wiederum ist Käse. Denn da lese ich nicht, dass es nicht alle betrifft.

Du musst Dich auch nicht gleich bei Raff ausheulen :D
Jedenfalls hält er einen Nachtest bei sich nicht für notwendig. Und auch sonst reagiert er "bekannt" auf meine Nachfragen ("Mir jetzt Schlampigkeit zu unterstellen, ist schon arg strange.", Zitat Igor).
Da ich "nachgetestet" habe und keinen Unterschied finde, muss ich das ja vielleicht auch nicht machen. Ich habe mittlerweile 3 BIOS-Versionen auf Plausibilität getestet. Das sollte eigentlich reichen.
 
Das MSI HQ hat meine Perf-Daten seit Mitte/Ende letzter Woche, dazu Taktraten, Wärmeentwicklung und Leistungsaufnahme. Der ganze Zinnober kam später über NVIDIA und den ersten Patch habe ich zu MSI geschickt. Man muss halt auch mal Glück haben. :D
 
Du musst Dich auch nicht gleich bei Raff ausheulen :D

Wie? Ich dachte Du bist nicht mehr in anderen Foren unterwegs? Inkonsequent geworden im Laufe der Zeit? Ich habe kein Problem damit zu äußern was ich von wem halte. Wäre dem nicht so, hätte ich das nicht eine IP-Adresse nebenan öffentlich geäußert.

Dein Verhalten gegenüber Kritik/Vorschlägen und Kollegen ist halt seit Jahrzehnten bekannt. Wer damit nicht umgehen kann, Pech und nicht mein/dein Problem.

Es hätte ja sein können, dass Du dies zum Anlass nimmst mehr Informationen zu veröffentlichen, die Dir im Zuge von Quellenbefragungen bekannt geworden sind bzw. dies nun zum Anlass nimmst das zu tun. Oder es ist ein Problem beim PCB oder der Bestückung, das Dir auffallen könnte. Wenn dann hätte ich das eher bei Dir vermutet, der besser vernetzt ist als andere und mit dem technischen Hintergrund eher Dinge im PCB/Layout auffallen.

Aber wenn nicht, dann eben nicht.
 
Du darfst davon ausgehen, dass es Leser und Kollegen gibt, die über solche Foreneinträge stolpern und das auch gern mal kommunizieren. Und nun kommt die Logik: Wenn ich hier etwas hätte herausfinden können, wäre ich sicher der Erste gewesen, der da eine Story draus gemacht hätte, Nur kann ich aus nichts auch nichts machen.

Es ist KEIN Hardware-Problem. Ich habe nicht nur einmal über das Green Light Programm von NV geschrieben, die schicken den Herstellern stets das finale BIOS. Das dürfen die gar nicht selbst scharf schalten.
 
Sag mal Igor, du bist doch ein erwachsener Mann, oder? Unter erwachsenen Menschen ist es eigentlich unüblich sich wie vierjährige aufzuführen. Es ist ja nachvollziehbar dass die letzten Wochen nicht spurlos an der vorbeigehen, aber das kann keine Entschuldigung dafür sein sich jetzt schon wieder wie die Axt im Walde aufzuführen. Gerade du solltest ja jetzt gelernt das Kritik das eine oder andere Mal vllt gar nicht so unangebracht ist ;)
 
Du darfst davon ausgehen, dass es Leser und Kollegen gibt, die über solche Foreneinträge stolpern und das auch gern mal kommunizieren.

Diese dürfen sich gerne bei mir melden, wenn sie ein Problem damit haben. Ich nehme mir die Zeit.

Und nun kommt die Logik: Wenn ich hier etwas hätte herausfinden können, wäre ich sicher der Erste gewesen, der da eine Story draus gemacht hätte, Nur kann ich aus nichts auch nichts machen.

Ggf. besteht ja die Möglichkeit von anderen Redaktionen dir ein betroffenes Samples zur Analyse bereitzustellen? Zur Not könnte ich eines aus dem Handel besorgen, auf die Gefaht hin ein besseres Samples zu bekommen...

Es ist KEIN Hardware-Problem. Ich habe nicht nur einmal über das Green Light Programm von NV geschrieben, die schicken den Herstellern stets das finale BIOS. Das dürfen die gar nicht selbst scharf schalten.

Eben deswegen wundert es mich wie das durchrutschen konnte.
 
Vielleicht sollten Dritte ja mal über ihren Umgang mit mir nachdenken und mir nicht ständig Dinge unterstellen, die sie nicht mal belegen können. Wäre durchaus mal ein Anfang. Es steht doch gut sichtbar zu lesen, warum ich keinen Nachtest machen muss bzw. nicht kann. Das habe ich mehrmals wiederholt. Aber irgendwann komme ich mir dann schon echt veralbert vor. Entweder, man hat das Review gelesen, dann stellt sich die Frage nicht, oder man hat es nicht gelesen. Dann muss man sowas auch nicht posten.

Das beste wird sein, die Kommentarfunktionen unter den Reviews abzuschalten. Dann habt Ihr Eure Ruhe vor mir und ich muss mich nicht ständig für meine Existenz rechtfertigen. Ich bin doch keine Schallplatte :(

@Pokerclock
Ich lasse gerade das BIOS analysieren. Meine Vermutung geht einfach in Richtung Voltage Frequency Engine bzw. CVB, da wird man wohl für miesere Chips etwas nachpulvern. Wer einen guten hat, ist fein raus, der Rest darf mehr nuckeln und bekommt leicht höhere Spannungen. Es ist aber leider ein geschlossenes Ökosystem. Ich vermute fast, MSI hat hier keine miesere oder durchwachsenere Batch bekommen sondern zwei Batches vermischt. Jetzt gibts halt den kleinsten gemeinsamen Nenner.

Zur Erinnerung:
 
Zuletzt bearbeitet :
@blautemple
Das ist ja wirklich der Gipfel der Unverschämtheit!
Wie kann man nur Igor dermaßen mit Scheiße bewerfen ohne dabei rot zu werden!?
Bin erschüttert :mad:
 
Vielleicht sollten Dritte ja mal über ihren Umgang mit mir nachdenken und mir nicht ständig Dinge unterstellen, die sie nicht mal belegen können.
Ich glaube nicht dass du die Kritik verstanden hast. Am besten einfach mal ein paar Nächte darüber schlafen und dann die eigenen Beiträge noch mal lesen :)
@blautemple
Das ist ja wirklich der Gipfel der Unverschämtheit!
Wie kann man nur Igor dermaßen mit Scheiße bewerfen ohne dabei rot zu werden!?
Bin erschüttert :mad:
Ich denke nicht dass er einen persönlichen Bodyguard im Forum braucht :D
 
Ich lasse gerade das BIOS analysieren. Meine Vermutung geht einfach in Richtung Voltage Frequency Engine bzw. CVB, da wird man wohl für miesere Chips etwas nachpulvern. Wer einen guten hat, ist fein raus, der Rest darf mehr nuckeln und bekommt leicht höhere Spannungen. Es ist aber leider ein geschlossenes Ökosystem. Ich vermute fast, MSI hat hier keine miesere oder durchwachsenere Batch bekommen sondern zwei Batches vermischt. Jetzt gibts halt den kleinsten gemeinsamen Nenner.

Das dürfte MSI durchaus interessieren. Ist jetzt kein totaler PR-GAU für MSI, aber blöd ist es trotzdem und ich kenne MSI jetzt schon so, dass denen solche Dinge nicht egal sind. Gut, dass Du dran bleibst. :)
 
Meine Karte rennt voll ins TBP-Limit bei 285 Watt:

1706039811889.png

Ich habe noch keine Ada-Karte gesehen, die im Gaming ohne OC echt die TBP knackt. Da sind hier die 271.5 Watt schon sehr weit dran.
 
So jetzt reicht es mir dir de Troll, ich pack deinen Hintern jetzt auf meine Liste.
 
Das dürfte MSI durchaus interessieren. Ist jetzt kein totaler PR-GAU für MSI, aber blöd ist es trotzdem und ich kenne MSI jetzt schon so, dass denen solche Dinge nicht egal sind. Gut, dass Du dran bleibst. :)
Ich kommuniziere mit denen seit letzter Woche. Nur ist es wirklich nervig, wenn abwechselnd MSI, NVIDIA und Foristen an meinen ohnehin stapazierten Nerven nagen. Mein Tag gestern hatte 18 Stunden, das WE habe ich mit 12 und 14 Stunden durchgearbeitet. Dann reagiere ich schon etwas allergisch auf lapidare Darbietungen wie "musst du noch mal nachtesten". Nein, muss ich nicht, weil es nichts gebracht hat und bringen wird. Das muss man dann aber doch bitte auch mal akzeptieren. Ich bin kein Angestellter, der nach 8 Stunden in den Feierabend radelt.

Andere MSRP-Karte, bei DLSS minimal anders Verhalten und im Torture geht mehr, weil die Karte kühler ist. Ansonsten gleicher Takt unter Last und fast identische Leistungsaufnahme über ALLE Spiele. Hier liegt der Unterschied z.B. im Schaltungsdesign und der Speisung der Phasen. Bei MSI laufen über 50 Watt über den PCIe, bei Gainward nur 30. Finde ich besser, aber es lässt sich auch mehr ziehen. Gaming-Performance fast auf den Punkt gleich.

1706040213480.png
 
Ein Unterschied von 0,5% über 10 Spiele liegt innerhalb der Messtoleranzen und keine 3-4% daneben. Die Gainward ist allerdings deutlich kühler.

22 UHD Index.png

22 UHD Index.png
 
@Igor Wallossek : lieber Igor - danke für den Test. Ich glaube aber, auf der ersten Seite sind Unterschiede in der technischen Beschreibung der 4070 TI Super. Im Text werden 48 MB Level 2 Cache erwähnt, in der Tabelle dann 64. Auch stehen im Text 12 GB VRAM, in der Tabelle 16.

vielleicht hat das aber auch alles seine Richtigkeit ….

hier die Textpassage von Seite 1:

Die 66 (statt 60) RT-Kerne der 3. Generation bieten bis zu 2-fache Raytracing-Leistung, Shader Execution Reordering (SER) verbessert die Raytracing-Operationen zudem um das Doppelte. Dazu kommen noch insgesamt 264 Texture Units (TU) und 96 ROPs. Der L2-Cache ist 48 MB groß und die Karte nutzt, wie auch die GeForce RTX 4070 Non-Super, die bekannten 12 GB GDDR6X mit 10500 MHz Takt, diesmal aber an einem passenden 256-bit Interface, was einer Datenrate von 21 Gbps und einer Bandbreite von 627 GB/s entspricht. Die Karte bietet in der Summe ebenfalls nur einen NVDEC (Decoder) statt vier, aber zumindest zwei NVENC (Encoder). Der AV1 Encoder soll bis zu 40% effizienter als H.264 arbeiten.
 
Die Tabelle habe ich korrigiert, die Speichergöße auch. Da habe ich in der Hektik nicht nochmal nachkorrigiert, denn der L2 war ja mal falsch im Umlauf. Das hat man mit Sicherheit gemacht, um die 4080 zu schützen :)
 
Schöner ausführlicher Test.
Fazit für mich, ich bleib bei meiner RX7900XT.
Morgen kommt der neue Treiber mit FSR 3 und dann schauen wir mal.
Gibt's zu dem morgigen FSR 3 Treiber vielleicht auch nen Test? So ne Art nachtest der RX7900XT bzw XTX?
Der neue Treiber 24.1.1 steht schon zum Download.
Mal schauen was er kann.😃
 
16-Gaming-Zoom-Current-1.png



Bei der Achsenbeschriftung wird mir schlecht.

Warum wird der elektrische Leitwert an der Y-Achse angegeben?
Bevor wer argumentiert wegen den elektrotechnischne Grundlagen. https://de.wikipedia.org/wiki/Elektrischer_Leitwert
Kennt wer den Herr Siemens?

In der X-Achse sind es Bohneneinheiten?

Grob geschätzt sind es 20 Divisions.
20 Divisions mal 10us gibt aber keine 20ms

Gibt es keine technische Möglichkeit die X Achsenbeschriftung und die Y Achsenbeschriftung halbwegs brauchbar zu machen?


Nur so als Weiterbildungsmaßnahme:

Wenn man mittels Stromzange etwas misst dann wird es vermutlich eine Einheit ? haben.
wenn man mit einem osziloskop / Oszi / Oszillosgraphen etwas misst mittels Taskkopf mit Faktr 1/10 oder 1/100 wird es eine Einheit ? haben.

Woher die ganzen Einheiten kommen und die Vorzeichen: https://en.wikipedia.org/wiki/International_System_of_Units
Man nehme einen Würfel und rate.
 
Ja, das mit den Charts muss ich bei Gelegenheit noch mal angehen. Die Voltage kann auch nach rechts auf eine separate Skala. Hier spart es einfach Platz, den ich nicht habe. Ein ein einzelner Messpunkt steht im Datensatz für 10 µs. In ein Kästchen mit 1 ms passen aber nur 10 davon, wenn man noch was sehen will, keine 100. Sonst hast Du eine Vollfläche. Deshalb interpoliert das der Intepreter bzw. bricht vorher das auf Excel-Pixel runter. Ich hatte das Ganze am Anfang mal im Breitbild, das war dann auch keinem recht. :(

Deine Weiterbildungsmaßnahme kannst Du Dir aber gern schenken. Stromzangen geben Spannungen aus, die man dann in Stromstärke umrechnet. Hier laufen jeweils 4 Zangen und 4 Tastköpfe, jede Zange ist kalibriert und im jeweiligen Eingang des Tastkopfes ist der Delay der Zange hinterlegt, um synchrom zum Tastkopf zu messen. Das geht mit Master/Slave und zwei Oszis ganz gut. Bis zum Interpreter sind das alles Spannungswerte. Das Excel Template ist noch eine Baustelle, da auch Excel grottenlahm ist. Rechne dir mal den Datenwust aus und versuche, mit einer solchen Füllung noch einermaßen zu arbeiten. Genau deshalb wird das alles vorher quasi "Excel-tauglich" gemacht.
 
Zuletzt bearbeitet :
Oben Unten