News Neuigkeiten und Gerüchte zu RDNA2 (Sammelstrang)

Mich würde mal interessieren welchen Marketing Stunt AMD hingelegt haben soll, der in dieselbe Kerbe wie GPP geschlagen hat? Weil mir ist keiner bekannt aus der Kategorie von AMD. Aber vielleicht habe ich den ja nicht mit bekommen.
Ich kann durchaus verstehen, warum irgendwelche Marketing-Fuzzis bei NVidia dies oder das verhindern oder pushen wollen. Das gehört letztlich dazu. Und dass man seinen Brand schützen und pushen will, ist aus Marketing Sicht durchaus nachvollziehbar. Ich sehe also die GPP Sache zwar für unnötig, aber auch nicht so schlimm.

Wenn sich jemand darüber aufregen sollte, dann die Board-Partner. Mir als Kunde ist das reichlich wurscht.

AMD ist dagegen in der Vergangenheit immer sehr aggressiv mit Versprechungen gewesen, was kommende GPU Produkte angeht, ohne dann tatsächlich zu liefern. Das betrifft mich als Kunde sehr wohl. Man macht alles, um den Kunden davon abzuhalten, vorzeitig NVidia zu kaufen, in dem man den Eindruck erweckt, das nächste AMD Produkt würde alles in den Schatten stellen. Auch das sind Marketingstunts.

Und um das klarzustellen: Ich werfe das AMD nicht mal vor! Es ist ihr gutes Recht, ja geradezu ihre Pflicht so zu handeln. Alles andere wäre fahrlässig! In wie weit man als Kunde sich auf die Aussagen verlässt, muss jeder selber entscheiden.

Dass AMD dabei in der Vergangenheit auch ab und zu unter die Gürtellinie gezielt hat ("Poor Volta") sind alte Geschichten. Aber zu behaupten, AMD wären die Engel, ist sicher ein klein wenig einseitig.

Das machst du, wenn du eine andere Meinungen mit "Verschwörungstheorie" und "faseln" abqualifizieren willst. Man kann die Theorie von "Moores Law is dead" durchaus skeptisch sehen, bisher liegt er damit aber zumindest nicht grundsätzlich falsch: der Nachschub ist sehr begrenzt und die Preise sind stark gestiegen, Karten für 699 € sind kaum zu bekommen. Ob das jetzt Jensens Masterplan ist oder nicht, für den potentiellen Käufer ist das keine gute Situation.

Das sind keine Meinungen, die Moore's Law verbreitet, sondern BEHAUPTUNGEN ohne Quelle und auch, wenn man darüber nachdenkt, ohne rationale Basis. NVidia würde sich damit ins eigene Fleisch schneiden. Und solche Dinge werden m.E. nur in die Welt gesetzt, um der allgemeinen Abneigung (milde ausgedrückt) weiter Nachdruck zu verleihen.

So, ja, ich werde gegen solche Agitation anschreiben. Das ist nicht denunzieren, sondern Gegenhalten gegen klare Agitation.
 
Das sind keine Meinungen, die Moore's Law verbreitet...
Mir war bisher nicht bekannt, dass dieser Youtuber hier im Forum mitschreibt.

NVidia würde sich damit ins eigene Fleisch schneiden.
Inwiefern? Sie geben ihre "billige" 3080 nur in homöopathsichen Dosen ab und ermöglichen es so ihren Boardpartnern Preise mit gescheiten Gewinnmargen durchzusetzen.

Das ist nicht denunzieren, sondern Gegenhalten gegen klare Agitation.
Dazu noch ein paar Anmerkungen von mir:
  1. Hier ist nicht der Kommentarbereich des angesprochenen Youtube Kanals, also solltest du dort "Gegenhalten".
  2. Hast du denn Beweise oder Belege, dass es sich um "Agitation" handelt.
  3. Denunziation ist imho das falsche Wort, zumindest in dem mir gängigen Sprachgebrauch.
  4. Deine postings kommen bei mir ziemlich aggressiv an. Das ist MEIN Eindruck.
Hierzu auch noch eine Frage:
Man muss aber dennoch nicht um Teufel komm raus alles schlecht machen, was von NVidia kommt, und das machen bestimmte Leute ständig...
Wer macht das hier ständig?
 
Spart euch doch bitte die Grundsatzdiskussionen für andere Threads auf. Hier wird fast nur noch off-topic gepostet, was dem Thread schadet und Leser vergrault. Also bitte back-to-topic: Neuigkeiten und Gerüchte zu RDNA2
 
Heute machen wieder diverse Meldungen über AMDs Navi2 die Runde, es geht um den "Infinity Cache" - AMD hat ja nen Patent eingereicht welches so eine Technik beschreibt, könnte durchaus interessant werden denke ich. 👍
 
"NVIDIA jebaited AMD.
- Big Navi perf target was GA104.
- NVIDIA upgraded 3080 to GA102
- AMD now targets 3070
- NVIDIA announced Ampere at lower than expected price
- AMD announced Oct 28 event
- NVIDIA postponed the launch to Oct 29.

Just what we gathered this week from AIBs"





"TLDR:
Navi21 XTX 16GB (AMD exclusive?)
Navi21 XT 16GB (AIB - faster than 3070)
Navi21 XL 16GB (unknown)
Navi21 XE ?GB (2021)"

 
Das wäre ehrlich gesagt höchst uncool, wenn sich AMD so vor sich hertreiben lassen würde. Hoffen wir, dass das nur eine dumme Spekulation ist.
 
Jebaited?
 
ATi Technologies? Sind wir 15 Jahre in die Vergangenheit versetzt worden?
 
"NVIDIA jebaited AMD.
- Big Navi perf target was GA104.
- NVIDIA upgraded 3080 to GA102
- AMD now targets 3070
- NVIDIA announced Ampere at lower than expected price
- AMD announced Oct 28 event
- NVIDIA postponed the launch to Oct 29.

Just what we gathered this week from AIBs"
Für Navi 22 macht das sogar Sinn 😄
 
Musste ich auch erstmal googlen.
An der Nase herumführen, Verarschen, im Deutschen vermutlich am ehesten mit "Genatzt" zu übersetzen, wenn ich das richtig interpretier.
 
Yo, hab ich dann auch gefunden, macht die Verwendung aber auch nicht besser. Irgendein Internetmemehoschi erfindet ein Wort und der Rest ergibt sich und folgt? Heile Internetwelt, m-hmh. Und was ich ja vor ner Weile lernte: triggern paßt allemal gut genug, also warum extrakompliziert?
 
AMD hat mit dem Quatsch letztes Jahr angefangen und sich dabei eig selbst lächerlich gemacht

deshalb wird das im Zusammenhang mit AMD jetzt meist ironisch verwendet
 
Finde raus, was du gut kannst und dann bleib dabei oder wie?
 
Hier keine technischen Diskussionen um den Infinity Cache?
Ich finde den nämlich extrem Geil. Sofern die folgenden Veröffentlichungen dann wirklich den Infinity Cache beschreiben.
Im folgenden handelt es sich zunächst um rekonfigurierbare CU-Cluster, welche dadurch ihre L1 Caches zusammen fassen und alle geclusterten CUs auf die gleichen L1 Daten zugreifen können.
Nach Aussagen der Entwickler (Mohamed Assem Ibrahim, Onur Kayiran, Yasuko Eckert, Gabriel H. Loh, and Adwait Jog) soll er IPC Steigerungen von durchschnittlich 22%. In der Spitze sogar bis 52% ermöglichen können.
Video:
Whitepaper:

Ob dies jetzt schon alles ist, oder noch irgendwelche Verbindungen / Rekonfigurationen in Verbindung zum L2 Cache vorhanden sind, wäre dann noch die große aktuelle Frage.
Ein IPC Plus von ~20% fände ich allerdings schon sehr, sehr Stark. Dadurch wäre AMD jedenfalls vollständig in Schlagdistanz. (Wenn es denn so zutrifft).
Frage wäre noch, ob sich AMD mit der (möglichen) Beschneidung des Speicherbusses einen Gefallen getan hat, obwohl selbst für Milchmädchen absehbar wäre, das sich die Speicherzugriffe deutlich reduzieren dürften?
Auch wurde von verschiedenen Quellen behauptet, dies würde hauptsächlich nur Compute und RT (Rechen)Aufgaben unterstützen, was ich aber so noch nicht ganz glauben möchte.

Mich würde auch mal interessieren, ob @Igor Wallossek da auch eine Meinung zu hat? :)
 
Zuletzt bearbeitet :
Hier keine Diskussionen um den Infinity Cache?
Ich finde den nämlich extrem Geil. Sofern die folgenden Veröffentlichungen dann wirklich den Infinity Cache beschreiben.
Im folgenden handelt es sich zunächst um rekonfigurierbare CU-Cluster, welche dadurch ihre L1 Caches zusammen fassen und alle geclusterten CUs auf die gleichen L1 Daten zugreifen können.
Nach Aussagen der Entwickler (Mohamed Assem Ibrahim, Onur Kayiran, Yasuko Eckert, Gabriel H. Loh, and Adwait Jog) soll er IPC Steigerungen von durchschnittlich 22%. In der Spitze sogar bis 52% ermöglichen können.
Video:
Whitepaper:

Ob dies jetzt schon alles ist, oder noch irgendwelche Verbindungen / Rekonfigurationen in Verbindung zum L2 Cache vorhanden sind, wäre dann noch die große aktuelle Frage.
Ein IPC Plus von ~20% fände ich allerdings schon sehr, sehr Stark. Dadurch wäre AMD jedenfalls vollständig in Schlagdistanz. (Wenn es denn so zutrifft).
Frage wäre noch, ob sich AMD mit der (möglichen) Beschneidung des Speicherbusses einen Gefallen getan hat, obwohl selbst für Milchmädchen absehbar wäre, das sich die Speicherzugriffe deutlich reduzieren dürften?
Auch wurde von verschiedenen Quellen behauptet, dies würde hauptsächlich nur Compute und RT (Rechen)Aufgaben unterstützen, was ich aber so noch nicht ganz glauben möchte.

Mich würde auch mal interessieren, ob @Igor Wallossek da auch eine Meinung zu hat? :)
Das Video finde auch ich sehr vielversprechend. Ich bin mir aber nicht so sicher, ob das den Infinity Cache beschreibt. Möglich, dass das auch erst mit RDNA 3 kommt, wenn jetzt erst das Whitepaper veröffentlicht wurde.
Für "Private-friendly"-Berechnungen bringt das allerdings eine leichte IPC-Reduktion. Ich hoffe, dass nicht speziell für den neuen Cache programmiert werden muss.
Für mich hört sich das aber nach einer disruptiven Technologie an!
 
Für "Private-friendly"-Berechnungen bringt das allerdings eine leichte IPC-Reduktion. Ich hoffe, dass nicht speziell für den neuen Cache programmiert werden muss.
Das hoffe ich auch. Für die Entwickler muss so etwas optimalerweise Transparent durch die FW gesteuert ablaufen. Dann hätten sie einen ganz großen Wurf gemacht.
Dies macht auf mich auch schon den Eindruck, als wenn das automatisch abläuft.
Im Patent dazu steht u.a. das folgende:
Interessant ist vor allem der (hier) letzte Absatz.

DETAILLIERTE BESCHREIBUNG
Verarbeitungseinheiten wie Grafikverarbeitungseinheiten (GPUs) und Allzweck-Grafikverarbeitungseinheiten (GPGPUs) umfassen in der Regel eine große Anzahl von Recheneinheiten (CUs), die so konfiguriert sind, dass sie Anweisungen gleichzeitig oder parallel ausführen. GPUs sind auf Bandbreite angewiesen, um einen hohen Durchsatz zu erzielen. Zu den Quellen dieser Bandbreite gehören lokale (d. h. private) Caches, gemeinsam genutzte Last Level Caches (LLCs), Scratchpad und Speicher. Bei vielen High Performance Computing (HPC)-Anwendungen treten Leistungsprobleme aufgrund eines Bandbreitenengpasses bei den LLCs auf, der auf die viel zu geringe Kommunikation zwischen den CUs und den LLCs/L2s zurückzuführen ist. Außerdem hängt die Leistung verschiedener GPU-Anwendungen von der lokalen L1-Cache-Größe der Compute Units (CUs) ab. Die Erhöhung der physischen L1-Cache-Größe pro CU ist jedoch eine kostspielige Lösung, um die L1-Trefferraten zu erhöhen und den Datenverkehr zu den LLCs zu verringern.

Einige Anwendungen, die auf der GPU ausgeführt werden, weisen ein beträchtliches Volumen der gemeinsamen Nutzung durch ihre Arbeitsgruppen auf, was dazu führt, dass auf mehrere Kopien derselben Daten (d.h. der Cache-Zeile) über verschiedene CUs hinweg zugegriffen wird. GPU-L1-Caches sind in der Regel softwarekohärent, was eine einfache Lastverteilung ermöglicht, und GPUs weisen im Allgemeinen im Vergleich zu CPUs eine höhere Latenztoleranz auf. Dementsprechend kann der Gesamtdurchsatz von Anwendungen durch eine dynamische Anpassung des Replikationsgrads der Cache-Zeile über L1s hinweg auf der Grundlage des aktuellen Verhaltens der laufenden Anwendung verbessert werden.

Um die GPU-Systemleistung zu verbessern, veranschaulichen die Abbildungen 1-10 Methoden und Systeme zur Steuerung der Replikationsebenen über GPU-Caches hinweg durch dynamisches Clustering von Compute-Units und den zugehörigen Caches. In verschiedenen Ausführungsformen wird durch Verringerung der Replikationsebene über L1s hinweg die gesamte effektive L1-Cache-Kapazität im GPU-System erhöht, ohne die L1-Cache-Größe pro CU zu erhöhen, wodurch die L1-Trefferrate erhöht und die L2-Zugriffe verringert werden.

In verschiedenen Ausführungsformen umfasst eine Methode für eine erste Clustering-Konfiguration von CUs die Bestimmung, ob eine aktuelle Cache-Fehltrefferrate eine Fehltrefferratenschwelle überschreitet. Auf der Grundlage der aktuellen Cache-Fehltrefferrate, die den Schwellenwert für die Fehltrefferrate überschreitet, werden die CUs in einer zweiten Mehrzahl von Recheneinheiten-Clustern geclustert, die kleiner als die erste Mehrzahl ist. Durch die Bildung von Clustern mit erhöhter Anzahl von CUs (und damit L1-Caches) und die Verschachtelung des Speicheradressbereichs zwischen den CUs innerhalb eines Clusters werden die Replikationsebenen der Cache-Zeilen verringert. Diese resultierende CU/L1-Konfiguration mit weniger Clustern und mehr CUs pro Cluster sorgt für höhere Trefferraten und verringert den Druck auf die LLC-Caches.

Übersetzt mit www.DeepL.com/Translator (kostenlose Version)
 
Was meinst Du damit? Ich kann mich jetzt an nichts konkret erinnern...

Da gabs ein Tweet zum 5000er Release, als Nvidia ihre Super-Modelle aus dem Ärmel zog und das Preis-Standoff herrschte. Wer der Tweeter(er) (?) war, weiß ich allerdings nicht.

Die Ironie an der Sache: Die 5500XT und 5600XT sind mMn. selbst heute noch viel zu überpreist, wenn man ihre Chipgrößen und Leistung betrachtet.

Immerhin waren die 5700(XT) Karten kein kompletter Reinfall ;)

Polaris ist einfach nicht tot zu kriegen 🤷‍♂️
 
Oben Unten