News Die GeForce RTX 3080 Ti kommt später, die RTX 3060 eher und die GTX 1060 3GB bekommt eine beschnittene Nachfolgerin | Exklusiv

„SAM wants you!“

Oder eher umgekehrt. Naja, habe leider noch nichts davon gehört, dass das auch auf TRX40 und Threadripper funktionieren könnte / kommt. Der Chipsatz sollte es ja eigentlich, ist ja nix anderes als ein umgelabelter X570. Nur vermutlich die 3000er TR CPUs nicht... misslich.

Und so eine richtig belastbare Erfolgsmeldung aus der funktionierenden Praxis zu Intel habe ich auch noch nicht gesehen. Sonst jemand vielleicht?
 
Spannend finde ich die RTX 3060 12GB. Dann hat die kleinere Karte mehr Speicher als 3060Ti, 3070 und 3080. Eigentlich sollte man meinen, dass dies Nvidia unter Zugzwang bringt auch die schnelleren Versionen mit mehr Speicher auszurüsten.
Für die 3080 wird das als Ti Version wohl kommen, von einer 3070Ti 16GB hört man ja auch immer mal wieder. Nur die 3060Ti wird dann vermutlich eine merkwürdige Position im Linup einnehmen.
 
Jo, und eben, für wen wird nvidia sam aktivieren, nur in Kombination mit intel, mit amd? Ab z490 oder doch schon z390? So viele Fragen...
Doof dass die 3080ti verschoben wird... auf die warte ich vermutlich... sofern sie dann lieferbar ist....
 
Wir sehen hier wunderschön, dass NV nur das tut, was sie machen müssen (logisch). AMD hätte noch etwas schneller sein müssen, um Jensen zu einem fetteren Move zu zwingen. So asber ist alles wie gehabt. Wundert ja auch nicht :(
 
Ich weiß, dass es wirtschaftlich nur logisch ist, aber ich finde es echt schade, dass marktführende Unternehmen fast immer nach dem Minimalprinzip handeln. Dazu dann noch zu versuchen, den Usern proprietäre Technologien aufzuzwingen und Reviewer zu manipulieren bzw. zu zwingen, jene Techniken über den grünen Klee zu loben... das ist schon ziemlich unsympathisch. Klar, alle Hersteller wollen nur das Geld der Kunden und da natürlich mit dem geringsten Aufwand ran kommen, aber wenn man die Kunden melkt und den Fortschritt ausbremst, wird sich das sicher irgendwann mal rächen.
Ich mag die Geforce Karten ja sehr gerne, hatte auch die letzten 20 Jahre bestimmt dreimal so viele Geforce, wie Radeon Grafikkarten. Weil die halt immer funktionieren und der Jensen meistens dafür gesorgt hat, dass die wichtigen Spiele am besten auf seinen Karten laufen. Aber die letzten Jahre fällt es mir immer schwieriger, zu den Produkten zu greifen... Ich werde einfach das Gefühl nicht los, dabei über den Tisch gezogen zu werden und bei weitem nicht das zu erhalten, was technisch fürs selbe Geld locker möglich wäre.

Grüße!
 
Also erst einmal wieder dankeschön an Igor für die interessanten Infos. Eine Sache ist mir bei deinen Tests mit SAM aufgefallen, die Percentile sind fast immer ein klein wenig schlechter und auch nie besser. Ich persönlich schaue dank VRR mittlerweile auf nichts anderes mehr, mich interessiert primär ob ich in meiner Sync range bleibe. Deckt sich das auch mit dem subjektiven empfinden? Wirkt spielen mit SAM überhaupt flüssiger? Ansonsten ist eher eine akademische Übung für Benchmarks...

Edit: Ich schaue mir eigentlich nur 4k Benches an, gerade noch mal geprüft. In niedrigeren Auflösung scheint es besser zu funktionieren.
 
Zuletzt bearbeitet :
Danke für die News und schade zu hören, dass sich TI verschiebt.

Auf der einen Seite "gutes Pferd und so..." und auf der anderen Seite geht es vielleicht gar nicht viel höher? Zumindest zeigt doch das geringe OC Potential, dass da bei nVidia diesmal wenig Luft nach oben war.

Auf jeden Fall gilt: Konkurrenz belebt das Geschäft! Es werden sich mindestens bei der nächsten Generation wieder beide Kontrahenten strecken... gucken wir, was bei raus kommt! 🤞


...zu zwingen, jene Techniken über den grünen Klee zu loben...
Das stimmt so ja wohl nicht.
 
Ich kann mir immer noch nicht vorstellen, dass primär die Bandbreite die AMD-Karten behindert. Gibt es Wege, das genauer zu untersuchen? Ein Special von Igor zu dem Thema? :sneaky:
Die immensen TFLOPS der RTX 3000 kann man am ehesten in 4K wiederfinden, da wundert es mich gar nicht, dass sie dort besser wegkommen ggü. den RX 6000 als in kleineren Auflösungen. Das zeigen auch die Benchmarks:
Bei gut mit GPU-Power skalierenden Spielen sehe ich die Radeons aber keineswegs limitiert in 4K. Mit SAM off ist eine 6900XT in Igors Launchreview in Borderlands bei WQHD 96,8% schneller als eine 5700XT. In 4K sind es 103,5%. In Wolfenstein ist es genauso: 109% schneller in WQHD, 114% in 4K. Das würde ich bei guter Skalierung so erwarten, zumal die Taktrate in 4K sogar niedriger liegen sollte als in WQHD.
Das spricht aus meiner Sicht also mehr für eine überproportional gute RTX 3080/3090 in 4K, als für ein Bandbreitenlimit der RX 6000.
 
@Capsaicin
Laut Computerbase liegt die Hitrate des Infinity Cache bei FHD bei 80% und bei UHD noch bei 58%, was wohl Informationen sind, welche von AMD kommen.
Auch das wäre ein Ansatz, warum die RX6000er Serie bei geringeren Auflösungen besser performt - relativ zur RTX 3000 Serie. Da eine RX5700 aber sowieso nur ein 256bit Interface hat, performt die RX6000 dann in höheren Auflösungen relativ zum Vorgänger trotzdem deutlich besser.
 
Schön, dass du die 12GB bestätigst.

Weißt du eig ob es wie bei AMD die 16Gbps Chips sind?

Oder machen das die NV Platinen nicht mit?
 
Wie sieht es denn dann mit dem X299 Chipsatz aus.
Letztlich hat Intel ja keine neue HEDT Plattform in der Pipeline und sich wohl auch proaktiv für die aktuelle 2066 Plattform als aktuelle Plattform bis auf Weiteres ausgesprochen. Ich hätte für meine Kombi aus 3090 und 9980xe (MSI Tomahawk x299) nämlich auch gerne SAM oder BAR oder mir Wurscht wie das heißt.
 
@Capsaicin
Laut Computerbase liegt die Hitrate des Infinity Cache bei FHD bei 80% und bei UHD noch bei 58%, was wohl Informationen sind, welche von AMD kommen.
Auch das wäre ein Ansatz, warum die RX6000er Serie bei geringeren Auflösungen besser performt - relativ zur RTX 3000 Serie. Da eine RX5700 aber sowieso nur ein 256bit Interface hat, performt die RX6000 dann in höheren Auflösungen relativ zum Vorgänger trotzdem deutlich besser.
Die 6000er-Serie skaliert auch im Verhältnis zu sich selbst in höheren Auflösungen passabel. Und das Ampere praktisch weit hinter dem zurückbleibt, was die theoretische TFLOPS-Angaben erwarten lassen, bedarf wohl auch keiner vertieften Diskussion. Es klingt marketingtechnisch natürlich besser, von 4k-Stärke schreiben zu lassen, als eine nur bedingt effiziente und auslastbare Architektur in der Presse zu haben.
 
Klar, dass die RTX3000er scheinbar nicht so gut in den niedrigeren Auflösungen skalieren haben die Tests zum Launch ja auch gezeigt, weil sie sich da weniger von Turing absetzen konnten.
Trotzdem hat der Infinity Cache wohl in höheren Auflösungen auch weniger positive Auswirkungen auf die Performance.

Die Medaille hat 2 Seiten.

Btw.: Die HUB-Sache war wirklich unter aller Kanone von NV.
 
hmm ja... also da fragt man sich ja wozu die 3080 TI eigentlich gut sein soll?

Der Unterschied in Performance - auch in 4K zur 3090 ist sehr gering. Angenommen man stattet die 3080 mit 20 GB aus (was nicht sooo viel bringen wird - wie man an den 24 GB der 3090 sieht) - wird diese nur im Minimini-Bereich schneller sein als die 3080 mit 10 GB. D.h. man müsste auch mehr aktive Kerne auf die Karte packen. Und dann wird sie verdammt eng an der 3090 liegen. Was wiederum ein nicht-kauf-Argument für die 3090 wäre. Am ende wird es aber wohl einfach eine 3080 Ti geben zu einem (UVP o_O 🤓 ) Preis von 1299 oder mindestens 999.

Ich würde mir eher wünschen, statt der "neuen" Karten mit "Ti"- oder "Super"-Suffix oder was auch immer - einfach mal MEHR KARTEN zu bauen! 😿(y)
 
@Capsaicin
Laut Computerbase liegt die Hitrate des Infinity Cache bei FHD bei 80% und bei UHD noch bei 58%, was wohl Informationen sind, welche von AMD kommen.
Auch das wäre ein Ansatz, warum die RX6000er Serie bei geringeren Auflösungen besser performt - relativ zur RTX 3000 Serie. Da eine RX5700 aber sowieso nur ein 256bit Interface hat, performt die RX6000 dann in höheren Auflösungen relativ zum Vorgänger trotzdem deutlich besser.
Bei Hitrates über 50% unter UHD kann die Bandbreite schon gar nicht mehr schlechter sein als ein hypothetisches (doppelt so großes) 512bit-Interface, außer der Cache wäre langsamer als der VRAM. Sprich, die Bandbreite dürfte eigentlich nicht der limitierende Faktor sein in UHD. Klar ist der Cache unter niedrigeren Auflösungen effektiver. Die hohe effektive Bandbreite unter FullHD nützt aber wohl nicht mehr viel, da dürften andere Sachen limitieren (CPU, Treiber-Overhead, Latenzen etc.).
Ob die RX 5700XT als Vergleich passend ist, weil sie in UHD bandbreitenlimitiert sein könnte, ist natürlich die Frage. Im Vergleich der 6900XT zur 6800 müsste die 6800 aber besser skalieren, falls ein Bandbreitenlimit unter UHD vorliegt, da beide die gleiche Bandbreite haben dürften und sich primär durch die Rechenleistung unterscheiden. Zwischen den beiden Karten ist aber die Skalierung in den genannten Spielen ziemlich exakt gleich (+- 1,3 Prozentpunkte).
Ich denke schon, dass der Cache unter WQHD ein klein wenig mehr hilft, als unter UHD, allerdings in beiden Fällen weniger Bandbreitenlimit vorliegt, als bei einer hypothetischen Variante ohne Cache und größerem Interface. Ich sehe nicht, dass die RX 6000 eine Schwäche bei UHD haben, sondern vielmehr, dass die RTX 3080/90 dort erst mit ihren TFLOPS etwas anfangen können.
 
Nachdem N. PR-Technisch so einige Probleme jetzt hatte, denke ich nicht, dass sie nur eine 60er mit 12GB ankündigen. Das wäre selten dämlich und würde Kunden erzürnen.
Ich kann mir eher vorstellen, dass alle Karten angekündigt werden und dies mit einem Launch-Plan grafisch dargestellt wird, dass die Ti dann eben mitte Feb./Anfang März kommt.
 
Oben Unten