AMD Radeon RX 7900XT - Mögliche Platine und neue Erkenntnisse | Exklusiv

Das geht nicht. Entweder oder.

Die Spikes, um die es ja primär geht, kommen von der GPU, die ja auch bei AMD abgeregelt wird. Da ist es Wurst, wo man misst und regelt. Bei NV zählen ja sogar die Lüfter mit im Budget. NV's Falle ist das schleichende Runtertakten nach Erwärmung der VRM, weil auch deren Verluste im Budget signifikant sind. Und ATX 3.0, selten so einen Dünnschiss gelesen. Dagegen helfen auch keine Shunts sondern zweckmäßige Schaltungsdesigns und gute Filter (siehe Zeichnung). Da reicht auch ein simpler LC-Pass 1. Ordnung :D
 
Das würde auch bedeuten dass man sich ein neues Netzteil kaufen müsste um auf der sicheren Seite zu bleiben, da die PCI-SIG vor den PCI 5.0 auf PCIe Adaptern warnt https://wccftech.com/atx-3-0-12vhpw...r-safety-risk-using-adapter-confirms-pci-sig/
Na, ich glaube das kommt einigen - meine Wenigkeit inbegriffen - nicht in die Tuete (ein neues Netzteil oder PCIe 5.0 Boards), nur weil nVidia das gerne so haette (zum Glueck gibt es ja (noch) kein Monopol bei dGPUs, auch wenn mir die aktuelle Preisentwicklung -und koordinierung bei den Chip-Entwicklern und der durchwachsene Marktstart bei Intel - der von einigen schon als Anfang vom Ende interpretiert wird - Sorgen macht).

Ausserdem steht ja noch nicht fest, ob nVidia den 12-Pin-Stecker nicht nur bei den High-End-Modellen (ab RTX 4080 oder gar noch darueber) vorsieht, weil es darunter unnoetig ist? Zudem weiss ich nicht, ob man sich einen Heckmeck mit (hoffentlich bei RTX dGPUs im Lieferumfang beiligenden) Adaptern bei nVidia leisten kann/will.

Wenn sich AMD/RTG und Boardpartner die Kosten fuer solche Adapter sparen koennen und diese nicht noetig sind, wieso nicht (den Kostenvorteil nutzen) ;).
Ich hoffe ich komme mit 2 (6+2 Pin) Kabeln insgesamt/maximal aus, also maximal einer RX 7800XT oder RTX 4080, wenn diese denn preis-leistungstechnisch (noch) passen sollten.
 
Zuletzt bearbeitet :
und so ändert sich die Betrachtungsweise der Leser, vor nem Jahr waren 400 oder 450W total böse und nun sind 450W in Ordnung
 
Es geht auch per Adapter perfekt. Ich habs bis 600 Watt getestet. Läuft problemlos. Dass ich die 8-pin drauf habe, ist auch kein Zufall :D
Ich dachte das neben der höheren übertragen Leistung, mit dem neuen Stecker auch mehr Kommunikation zwischen Netzteil und Verbraucher stattfindet, also nicht nur Power-Good-Signal...
 
Ja, aber das ist abwärtskompatibel. :D
 

Und schon bei TPU😉
 
Moin Igor, danke für die interessante Morgenlektüre. Mir ist aufgefallen, dass du im Text von sechs Chiplets sprichst, aber sieben abgebildet sind. Auch alle Gerüchte der jüngeren Vergangenheit sprechen von sieben Chiplets (1xGCD + 6xMCD).

Die TBP könnte durch den PCIE Steckplatz ja auch nochmal ca. 70W höher liegen oder?

Der Hinweis, dass die tatsächliche TBP selbst bei den Partnerdesigns nochmal weit unter dem theoretischen Maximum liegt ist eine sehr positive Neuigkeit. Das nimmt in der Branche ja sonst schon beängstigende Dimensionen an.
 
Ohh das sind ja mal interessante Infos von dir @Igor Wallossek
Der Verbauch für eine Bordpartnerkarte ist ja fast schon gemäßigt. Damit dürfte das Referenzdesign ja noch deutlich unter 400 Watt bleiben. Mit der Konfig wäre dass evtl.doch noch interessant für mich, zumindest mit UV. Ich bau mir bestimmt keine 500Watt Schleuder in die Kiste. 24 GB klingen auch interessant,wobei das aber auch schon fast too much ist wie ich finde. 16GB tun es derzeit.
 
Ohh das sind ja mal interessante Infos von dir @Igor Wallossek
Der Verbauch für eine Bordpartnerkarte ist ja fast schon gemäßigt. Damit dürfte das Referenzdesign ja noch deutlich unter 400 Watt bleiben. Mit der Konfig wäre dass evtl.doch noch interessant für mich, zumindest mit UV. Ich bau mir bestimmt keine 500Watt Schleuder in die Kiste. 24 GB klingen auch interessant,wobei das aber auch schon fast too much ist wie ich finde. 16GB tun es derzeit.
Ref soll 2x 8PIN haben
 
Jaaaaaaa :D
 
Wie immer saubere Arbeit Igor, vielen Dank für die Einblicke!
 
Ich sehe nur 6 Chiplets und einen Chip ;)
Guten Morgen Igor,

ich möchte jetzt nicht impertinent erscheinen, aber du hast doch bestimmt Top-Info`s zur aktuellen 4000 Serie, die du uns nicht länger vorenthalten willst.;)

Ich ertrag das Geschreibsel unserer Qualitätsjournalisten von den gängigen Käseblättern nicht mehr. Von dem Geschwätz der ganzen Influencern mal ganz zu schweigen.

Also bitte bitte.

Raus mit den Infos. Die Welt dürsten nach Zahlen, Daten, Fakten von kompetenter Stelle.
 
Ich nehme an, dass die Infos zur RTX40xx kommen, wenn die Zeit reif ist.

Hier gibt es zum Glück nicht den Spekulatius aus Massenproduktion mit billigsten Zutaten und Geschmacksverstärkern, der stets einen faden Beigeschmack hat, sondern den Spekulatius aus besten Zutaten und von Meisterhand gebacken.
 
Ich mag mich täuschen, aber wenn ich alles, was so im Raum herumgeistert, zusammen nehme und es kumuliere, läuft es für mich als wahrscheinlichstes Szenario auf folgendes raus: nVidia holt die Brechstange raus und liefert eine äußerst perfomante Kartengeneration, die aber auch völlig absurde Verbrauchswerte mit sich bringt. AMD scheint sich seiner Sache irgendwie recht sicher zu sein, von daher könnte es auf Leistungsgleichstand oder nur geringen Rückstand bei deutlich geringerem Verbrauch hinauslaufen. Preislich wird nVidia vermutlich den Vogel abschießen, da muss man dann sehen, was AMD macht.

Ich bin weiterhin gespannt ;-)
 
Guten Morgen Igor,

ich möchte jetzt nicht impertinent erscheinen, aber du hast doch bestimmt Top-Info`s zur aktuellen 4000 Serie, die du uns nicht länger vorenthalten willst.;)

Ich ertrag das Geschreibsel unserer Qualitätsjournalisten von den gängigen Käseblättern nicht mehr. Von dem Geschwätz der ganzen Influencern mal ganz zu schweigen.

Also bitte bitte.

Raus mit den Infos. Die Welt dürsten nach Zahlen, Daten, Fakten von kompetenter Stelle.
Würde mich nicht wundern, wenn er schon eine Karte hat und damit sein Haus heizt😉😄
 
Ich mag mich täuschen, aber wenn ich alles, was so im Raum herumgeistert, zusammen nehme und es kumuliere, läuft es für mich als wahrscheinlichstes Szenario auf folgendes raus: nVidia holt die Brechstange raus und liefert eine äußerst perfomante Kartengeneration, die aber auch völlig absurde Verbrauchswerte mit sich bringt. AMD scheint sich seiner Sache irgendwie recht sicher zu sein, von daher könnte es auf Leistungsgleichstand oder nur geringen Rückstand bei deutlich geringerem Verbrauch hinauslaufen. Preislich wird nVidia vermutlich den Vogel abschießen, da muss man dann sehen, was AMD macht.

Ich bin weiterhin gespannt ;-)
Naja, für mich ist AMD eigentlich im Grakabereich eine einzige Enttäuschung und sie hinken ewig hinterher und haben erst mit den letzten FSR Versionen wieder was an Boden gewonnen. Aber insgesamt hat NVIDIA für mich immer noch das bessere Konzept. Wobei ich ehrlicherweise gerne wiedermal eine AMD Karte kaufen würde. Aber ich glaube nicht, das sich AMD sicher ist. Die sind nur langsamer.

Der Verbrauch der NVIDIA Karten ist für mich persönlich unproblematisch. Dank Framelimiter, DLSS und Untervolting finde ich ihn relativ überschaubar. Gerade letzteres hat den Verbrauch meiner 3090 und 3080TI ohne nennenswerten Leistungsverlust sehr reduziert. Das wird bei der 4090 kaum anders sein.
 
Oben Unten