NVidia Das Ende der A- und Non-A-Chips bei der GeForce RTX 2070 und 2080! Nvidia beendet die Zweiklassen-Gesellschaft mit neuen SKUs Ende Mai!

Wenn du dich da mal nicht irrst @geist4711 . Punkt1: Wer dieser Region von Preis/Leistung haben wollte hat sie schon mit einer RTX gekauft.
Das ist ja das schöne.. Auf Grund der Preise eben nicht. Nvidia hat es ja selber zugeben müssen.. Und wir sind uns eigentlich hier sowieso einig: Selbst wenn Navi ne 2080 Rasiert und dabei Strom produzieren würde, wird dennoch 8 :2 Nvidia gekauft..
 
Ich glaub ich bin da irgendwie altmodisch. Wenn AMD nicht an der Leistungsspitze - also am Niveau der 2080Ti - kratzen kann, warum sollen sie dann eine effiziente Version auf Niveau einer 2070 oder gar 2080 hinbekommen? Umgekehrt ausgedrückt: wer 2070/2080-Leistung gut hinbekommt, kann auch eine 2080Ti erreichen.

Wahrscheinlich spielt Navi dann also eher „easy“ auf Niveau einer 2060 und die Klasse drüber ist das Ende der Fahnenstange. Wegen 7nm vielleicht noch beim Stromverbrauch wettbewerbsfähig, aber mehr ist halt nicht drin.

Alles nur Gerüchteküche, wenn die mal da sind, schau‘mer mal, dann seh‘ma schon.

Ich will Wettbewerb in der Leistungsspitze, werde mich da aber wohl noch eine Weile gedulden müssen.
 
Ich glaube es müssen sich hier einige mal von dem Gedanken lösen, dass Navi auf RTX 2080 Niveau performt. Das wird nichts. Lisa Su meinte zu dem auch das Navi erst in Q3 erscheint. Laut Gerüchten sogar erst Ende Q3, was September wäre. Ab 7.7. wird wohl nur EPYC/Rome 7nm und Picasso in 12nm (mit Vega iGPU) zum Verkauf stehen. Matisse seh ich erst ab August in den Regalen.

Nvidia macht das schon geschickt. Es hat auch nichts mit Angst auf Navi zu tun, sondern mit Geld verdienen und Platzhirsch bleiben. Aktuelle Pallette ...GTX 1650, GTX 1660, GTX 1660Ti, RTX 2060, RTX 2070, ...
 
Zuletzt bearbeitet :
Du hast soeben bestätigt, dass mein Geldbeutel am 7.7 leerer wird. Dann darf die 50 Jahre Edition meines Ryzen ja nur 2 Monate arbeiten
Rein solidarisch eine tolle Sache, dass du hier AMD unterstützt kurz vor release der 3ten Generation. Was bringt die 50 Jahres Edition rein Performance technisch? Lässt sie sich besser als der normale 2700X übertakten?
 
Rein solidarisch eine tolle Sache, dass du hier AMD unterstützt kurz vor release der 3ten Generation. Was bringt die 50 Jahres Edition rein Performance technisch? Lässt sie sich besser als der normale 2700X übertakten?

Nein, rein technisch ist es ein stink normaler 2700X. Seit ich mich mit Computern beschäftige, habe ich meine tollsten Erinnerungen an AMD CPUs.
Für mich ist es ein etwas teueres Gimmick, ein Sammlerstück... dennoch braucht das Teil ja nicht sofort zu verstauben und so wird es bis zu Zen2 benutzt.
Was ich aber sagen kann, ist, dass ich es etwas bereue nicht schon sehr viel früher einen 2700X gekauft zu haben. Mein 1700 läuft zwar auch mit 4ghz und 3400mhz Ram, aber es ist schon etwas Brechstange. Ich habe es immer für ein Gerücht gehalten, dass XFR2 und PBO so gut funktionieren würde, jetzt erlebe ich es aber selbst, AMD hat hier einen hervorragenden Job gemacht. Naträgliches optimieren ist zwar teil noch möglich aber nicht wirklich nötig.

So noch etwas On-Topic:
Wäre es nicht schlicht und einfach so, dass die Turing Fertigung Anfangs nicht so perfekt lief und die Qualität sehr unterschiedlich war und deshalb A und non-A Chips getrennt wurden. Jetzt läuft es besser und eine SKU zu vermakten ist sicherlich auch auf ganzer Linie günstiger als 2.
Beim TU102, welcher deutlich grössser ist, ist die Fertigung noch nicht so konstant, deshalb noch immer A und non-A Chips.
Zudem, wenn die Non-A Chip mit einem Bios das PT freigeschaltet bekommen, bedeutet dies noch lange nicht, dass sie die gleichen Taktraten schaffen wie die A-Chips. Natürlich kann man Glückstreffer haben, wo ein non-A besser als ein A ist.

Dass Navi vor der Tür steht, ist sicher ein Beweggrund, dass Nvidia gerade jetzt so handelt, wäre es aber nicht sowieso früher oder später so gemacht worden.
 
Das ist doch einfach nur frech von NV die Käufer der alten RTX binning Karten sind verarscht worden.
 
Was ist daran verarsche, wenn jeder das bekommen hat wofür er gezahlt hat? Zahl wenig Geld -> schlechte Karte! Zahl mehr Geld -> gute Karte!

Wo genau ist die verarsche?
 
Für besseres Binning Geld zu verlangen ist schon fragwürdig und letztlich unseriös dazu noch die ganzen mehr oder weniger unter den Teppich gekehrten Defekte. Dazu kommt noch Failtracing. Dies ist mit die schlimmste GPU-Generation nach Fermi, die NV raus gebracht hat.

Die ganze Produktpolitik mit dem knappen V-Ram ist am Markt vorbei entwickelt worden, so nicht Nividia!

Die Karten haben in der Fachwelt nicht umsonst herbe Kritik einstecken müssen. Man kann nur hoffen, das diesem Treiben, welches in höchstem Maße den Markt schädigt durch AMD oder auch Intel demnächst Einhalt geboten wird. Als Monopolist hat Nvidia völlig versagt nicht nur gegenüber dem Kunden, sondern auch den Partner gegenüber! Nach einer Forsa-Umfrage ist NV mit einer der unbeliebtesten Firmen.
Die Lederjacke hätte längst zurücktreten müssen, ist dermaßen fällig, aber wahrscheinlich nur zu faul, um um zu fallen.
 
Also ich kann nur sagen, dass ich mit meiner RTX2080ti voll und ganz zufrieden bin.

Das Binning von Nvidia in Frage zu stellen ist zudem auch nur eine sehr kurzsichtig betrachtet und zeugt von Ahnungslosigkeit.

AMD macht das nicht sonderlich anders, Polaris20 gab es z.b. auch als XT und XTX, ohne dass die Basis Bezeichnung vom Produkt geändert wurde, es war und ist immer eine RX580.

Oder Ein Ryzen 7! der 1700, 1700X, 1800X alles vollwertige Zen gen1 Die's, kommen von den gleichen Wafern, werden zu 3 Verschienen Preisen verkauft: Verarscht AMD also auch ihre Kunden?
Noch krasser, bei wie vielen Die's für ein Ryzen 1600/2600 wurden funktionierende Kerne, abgeschaltet um genug CPU's dieser Klasse leifern zu können?
Es gab immer wieder Grafikkarten, wo man Shader durch ein simples Bios freischalten konnte, wurden hier die Kunden also auch verarscht?

Das Binning ist eignetlich das A und O um überhaupt von der Ausbeute eines Wafers profitieren zu können.
Sogar beim Ram ist Binning mehr als üblich, so gibt es keinen B-Die welcher von Samsung mit 3200mhz spezifisiert wurde (Samsung sagt maximal 2666mhz CL19!!!), G.Skill macht nicht nur Selektieren sondern regelrecht Binning, weil die Hohen Taktraten in Form von XMP Profilen an die Hardware gebunden werden. Ein 0815 User sollte diese Profile nicht ändern können.
Wird G.Skill beschimpft, weil sie dies tun? Nein sie werden sogar gefeiert und manche bezahlen den X-Fachen Wert, welcher der Ram eigentlich Kosten dürfte nur um eine Sicherheit zu haben, dass der Takt von den Chips möglich ist.

Nvidia hat ihre weniger guten Chip für billiger verkauft und sich die besseren auch besser bezahlen lassen, das ist eigentlich das Normalste in der Branche.

Kurz: wer schreit Nvidia würde in diesem Fall die Kunden betrügen, behauptet im gleichen Zug, AMD, Intel, fast jeder Ram-Anbietet... betrügen ihre Kunden.

Tut mir leid, aber mir ist bereitz schwindelig von Kopfschütteln. Ich dachte das Forum wäre "sauber" von Hatern....
 
Man wird ja noch über diesen üblen Verein seine Meinung sagen dürfen, das hat auch nichts mit "Haten" zu tun, denn ich habe mich klar an Fakten orientiert, die überall nach zu lesen sind.

Jeder Vergleich hingt sowieso weil es eben kein Vergleich gibt, die Geschäftspolitik von NV ist einzigartig in der Branche im negativen Sinne.
 
Ich denke, dass jeder Hersteller seine Dies nach Binning sortiert.
Alles andere macht aus meiner Sicht auch keinen Sinn.
 
IPC ist nicht alles.

Wenn AMD nicht noch ordentlich am Speichercontroller schraubt, also im Durchschnitt deutlich mehr Takt möglich wird und noch die Latenz signifikant gesenkt wird, hat man wieder "nur" ein gutes Arbeitsgerät. Zum Spielen aber nur zweite Wahl.

Aha, als ob Intel großartige Leistungsprünge hätte, wen man schnellen RAM mit guten Latenzen verbaut..
Wo der Ryzen doch gut zeigt das zwischen 2400MHz Speicher und 3200MHz Speicher mit niedrigen Latenzen bis zu 15% mehrleitung rausholen kann..
Wo liegt das noch gleich bei Intel? 1-2%? ...

Witzig ist vor allem.. als AMD eine schlechte IPC hatte, hat man das denen immer vorgeworfen.
Nun hat AMD aufgeschlossen und wird Intel recht wahrscheinlich damit überholen heist es "IPC" ist nicht alles..
 
Für besseres Binning Geld zu verlangen ist schon fragwürdig und letztlich unseriös dazu noch die ganzen mehr oder weniger unter den Teppich gekehrten Defekte. Dazu kommt noch Failtracing. Dies ist mit die schlimmste GPU-Generation nach Fermi, die NV raus gebracht hat.

Die ganze Produktpolitik mit dem knappen V-Ram ist am Markt vorbei entwickelt worden, so nicht Nividia!

Die Karten haben in der Fachwelt nicht umsonst herbe Kritik einstecken müssen. Man kann nur hoffen, das diesem Treiben, welches in höchstem Maße den Markt schädigt durch AMD oder auch Intel demnächst Einhalt geboten wird. Als Monopolist hat Nvidia völlig versagt nicht nur gegenüber dem Kunden, sondern auch den Partner gegenüber! Nach einer Forsa-Umfrage ist NV mit einer der unbeliebtesten Firmen.
Die Lederjacke hätte längst zurücktreten müssen, ist dermaßen fällig, aber wahrscheinlich nur zu faul, um um zu fallen.

Sorry, aber AMD verlangt für Binning doch genauso Geld! Sowohl im CPU als auch im GPU Markt. Das die Top Cores nur für Threadripper reserviert werden ging an dir vorbei? Nicht mal für Epyc, NEIN! Für ThreadRipper! XTX und XTR sagt dir etwas? Das sind keine AMD Kennzeichnungen, sondern von einigen Märkten gekennzeichnete Chips!

Unter den Teppich gekehrte defekte? So wie bei den HBM Speichern die niedriger waren als die Grafikchips und somit defekte Auslöste? Fehler passieren und keiner ist davon freigesprochen. Scheisse gelaufen! Ist halt so! Aber tu doch nicht so als sei nur eine Firma betroffen!

"Failtracing" ... Es ist ein cooles Feature, das wird dir jeder mit Ahnung bestätigen! Es ist halt noch nicht am Markt angekommen. Ist es deshalb ein Fail? Hat deshalb sowohl AMD als auch Intel bestätigt das sie es implementieren werden? Ja, die Beiden werden uns bestimmt vor den Nvidia Fails retten indem sie diese übernehmen ...

Kann es nicht eher sein, dass AMD mit dem übertriebenen V-Ram am Markt vorbei entwickelt? Es werden die Karten mit so unglaublich viel V-Ram und Speicherbandbreite vollgeballert, die sie niemals nutzen können! Das geht enorm auf Kosten der Karte und somit der Preis/Leistung. Rate mal wieso AMD seit JAHREN schon selbst bei der Preis/Leistung nicht gewinnen kann? Vielleicht weil man den Markt komplett falsch interpretiert? Dieses ganze V-Ram gewichse bei AMD führt sie gerade in den Abgrund! Was nützt mir eine Karte die V-Ram für 8k hat, aber von der Rechenleistung sogar an 1080p glorreich scheitert? Hört auf Karten für Benchmarks und Ausnahmefälle zu basteln! Scheiss auf V-Ram! Bringt endlich Karten die vom Preis auch rocken!

"Die Lederjacke" .... Da ist ja klar welches Lager hier mal wieder mitmischt. Fakten also! Was du hier runterquasselst sind blinde Fanboy "Fakten" ... und einfach fernab jeder Realität. Schau was deine eigene Firma macht und sei dabei einfach mal ehrlich! AMD ist nicht der Heilsbringer und will am Ende auch nur dein Geld.
 
Es soll ja nicht zu einem Streit hier ausarten, ich sehe nähmlich weder Nvidia als Betrüger noch AMD als an dem Markt vorbei, weiter gehe ich jetzt nicht darauf ein.

Seit euch nur bewusst, hinter all den Namen stecken Menschen, Hard- und Software Entwickler, welche ihr ganzes Herzblut in die Entwicklung stecken um klasse Sachen hervorbringen. Meist ist nur das Managment das Problem, hier steht die Gewinnmaximierung im Vordergrung.
Kein Entwickler wird freiwillig Zahnpaste auf seinen Chip, sein Baby schmieren!
 
Das is son Krieg der Sterne-Ding, oder? Am 4. Mai wird wo rumgetrollt? Muß ja.
 
Kusch und Licht aus! Bleibt bitte friedlich.
 
Bei Polaris XTX und XTR war es doch so, dass die XTR Karten aus den Samsung Fabs kamen und sich deswegen oft besser übertakten ließen (oder?).
Ich hab zwei XTR Polaris Karten da, davon schafft eine nichtmal den maximalen Boost stabil und die andere lässt sich übertakten wie blöd.

Zum Thema Navi bin ich gespannt, nicht mehr, nicht weniger.
Ich mache mir keine ernsthaften Hoffnungen dass die Chips NV ins schwitzen bringen.
Kaufen werde ich mir so ein ding aber sowieso, solange der Chip auch nur halbwegs interessant ist und sich gut tweaken lässt.
 
Binning ist schon in Ordnung, die Wahl der künstlichen Kastration darf man aber durchaus mit gesundem Menschenverstand hinterfragen, denn das es anders (=> besser) für den Verbraucher geht, steht außer Frage. Schließlich ist die Produktsegmentierung nicht vom Himmel gefallen.

Die neusten 'Leaks' zu Navi scheinen sich reichlich im Ton geändert zu haben, zumindest was Navis "midrange" und "enthusiast" Segmente betrifft.

Einstiegslevel schien recht unverändert und könnte den Markt nach wie vor ein wenig umwälzen was P/L angeht. Vermutlich wird es keinen 'Heilsbringer' geben, bis GCN stirbt.
 
Hoffen wir mal auf eine brauchbare Navi Performance, das ist definitiv am Markt nötig momentan. Nvidia wird zum neuen Intel mit der RTX-Generation. Intel hat auch mehr Leistung schon vor der Ryzen Generation geboten, nur wollten die für einen 8C 1000€ und für einen 10C 1700€. Die normalen Mainstream Käufer sind am ausgestrecken Arm mit 4-Kernern 7700K für 350€ verhungert.

12 Monate nach Ryzen Release lagen die Preise für 8C@500€ (-50%), 10C@1000€ (-35%) und die Prozessoren bieteten plötzlich 6C im Mainstream (+50%) und 18C im HEDT (+80%).

Nvidia wird sich erst bewegen, wenn von AMD irgendwas kommt, das der Rede wert ist. Der Wegfall der NonA OC-Beschränkungen dient lediglich dazu, den Markteinstieg von Navi zu erschweren. Ich erwarte vom schnellsten Navi-Produkt mit 250 Watt Verbrauch aber leider nur Leistung zwischen GTX1080 und RTX2070, nachdem nach wie vor GCN zum Einsatz kommt...
 
Oben Unten