Grafikkarten News VGA

AMDs Radeon RX 6500XT kommt im Januar 2022 und die RX 6400 dann Ende Q1 2022 nach CNY

Es sind gerade mal wieder nue Details zu AMDs Einsteiger-Grafikkarten Radeon RX 6500XT und auch der kleineren RX 6400 mit RDNA2 GPU sind durchgesickert. Die neuesten Informationen zu Navi24 stammen von Citizen aus dem sozialen Netzwerk Bilibili und sie könnten durchaus stimmen, wenn man die ganzen Puzzlesteinchen zusammensetzt und auch AMDs Ankündigung über Grafikhardware zur CES richtig einordnet. Was wir wissen ist, dass AMD mindestens zwei neue Grafikkarten auf Basis des Navi24 Grafikprozessors vorbereitet, die Radeon RX 6500XT und die Radeon RX 6400.

Beide Grafikkarten zielen natürlich auf das Einsteigersegment ab. Die größere der beiden Karten, dieRX 6500XT, wird  dann sicher direkt mit der kommenden GeForce RTX 3050 TI und Intels ARC A380 konkurrieren, während die RX 6400 gegen die kleinere GeForce RTX 3050 und Intels ARC A350 Grafikkarten antreten muss.

Die AMD Radeon RX 6500 T wird dabei den Vollausbau in Form der Navi24 XT GPU verwenden, den wir bereits als „Beige Goby“ kennen. Es ist die kleinste AMD-GPU aus der RDNA 2-Reihe und wird sie wird lediglich eine einzelne SDMA-Engine besitzen. Der Chip soll über 2 Shader-Arrays für insgesamt 8 WGPs und maximal 16 Compute Units verfügen. AMD nutzt 64 Stream-Prozessoren pro Compute Unit, so dass die Gesamtzahl der Kerne auf der Navi 24 GPU bei 1024 liegt, was (wen wundert es) exakt der Hälfte der Navi 23 GPU entspricht, die 2048 Stream-Prozessoren in 32 Compute Units bietet.

Zusätzlich zur Anzahl der Kerne soll jedes Shader-Array über 128 KB L1-Cache, 1 MB L2-Cache und 16 MB Infinity-Cache (LLC) verfügen. Die GPUs werden wie erwartet über eine 64-Bit-Busschnittstelle verfügen und in Low-End-Teilen der Radeon RX 6500- oder RX 6400-Serie eingesetzt werden. Man darf davon ausgehen, dass AMDs Navi 24 sehr hohe Taktraten erreicht und vielleicht sogar die 2,8 GHz-Grenze ab Werk überschreiten könnte. Was die reinen Spezifikationen angeht, so wird die Radeon RX 6500 XT Grafikkarte 1024 Kerne besitzen und über 4 GB GDDR6 Speicher verfügen.

Glaubt man den aktuellen Informationen, dann soll die Karte auch nicht in der Lage sein, mit irgendeinem Mining-Algorithmus, insbesondere ETH, zu arbeiten. Das Topmodell wird eine TDP von etwas mehr als 75W aufweisen und daher auch noch einen externen Stromanschluss benötigen. Das deckt sich dann auch vollumfänglich mit den Dingen, die ich bereits vor Monaten berichtet habe. Die Karte soll nach der Ankündigung auf der CES voraussichtlich noch Mitte Januar auf den Markt kommen, was durchaus Sinn machen würde.

Die zweite Karte im Navi24-Lineup ist die Radeon RX 6400, die auf einem leicht abgespeckten ‚XL‘-Chip mit 768 Kernen basieren dürfte. Die Karte wird die 4 GB GDDR6-Speicher sicher beibehalten, dafür aber etwas niedrigere Taktraten aufweisen, die aber immer noch im Bereich von 2,5 GHz oder darüber liegen könnten. Man könnte vermuten, dass die RX 6400 dank ihres TDP-Wertes von unter 75 Watt dann direkt aus dem PCIe-Slot gespeist werden könnte. Man kolportiert den März 2022, da man damit dann Intels ARC Alchemist GPU in diesem Segment kontern kann.

Über die Preise will ich nicht spekulieren, aber man wird sich wohl bei beiden Karten nicht unterhalb der 200 Euro Grenze bewegen (eher im Gegenteil) und die RX 6500XT könnte sogar mit einer führenden Drei auf den markt kommen. Keine gute Vorahnung, aber allein mir fehlt der Glaube an eine signifikante Besserung der angespannten Preis-Situation.

Source: Bilibili, eigene

 

 

 

Lade neue Kommentare

konkretor

Veteran

218 Kommentare 173 Likes

Kanns nicht nachvollziehen wertvolles Silizium für diese kleinen Karten zu opfern.

Eine Mining Bremse ist mir nicht bekannt von AMD. Wieso gerade so etwas in die kleinsten Modelle einbauen mit der kleinsten hashrate.

Geschürft wird überall wo Rechenkapazität zur Verfügung steht.

Antwort 1 Like

Klicke zum Ausklappem
DrWandel

Mitglied

47 Kommentare 43 Likes

Irgendwann muss dann doch mal der Punkt erreicht sein, wo eine Mini-Grafikkarte keinen Vorteil mehr bietet gegenüber einer Ryzen-APU (5700G oder so).

Antwort Gefällt mir

Martin Gut

Urgestein

5,577 Kommentare 2,186 Likes

Schon eine GTX 1650 Super hat etwa die 4 bis 5-fache Leistung einer internen Grafik. Eine interne Grafik ist geeignet als Bildschirmanschluss, für Video, Office und sehr anspruchslose Games. Was darüber hinaus geht, braucht eine richtige Grafikkarte.

Antwort 1 Like

DrWandel

Mitglied

47 Kommentare 43 Likes

Danke für die Antwort. Ich habe gerade etwas gestöbert und eine schönen Vergleich bei Tom's Hardware gesehen (zeiht den 5700G zwischen GTX 1030 und 1050), der auch in die Richtung geht. Offenbar gibt es da noch keine Ansätze die in die Richtung wie der M1 von Apple gehen.

Auf der anderen Seite konnte ich bereits vor vielen Jahren auf meinem 'Office-PC' mit AMD A10 (ohne Grafikkarte!) recht schön TES IV Oblivion auf Full-HD mit mittleren Einstellungen spielen, aber das ist natürlich, zumindest nach heutigem Maßstab, ein 'anspruchsloses' Spiel.

Antwort Gefällt mir

Martin Gut

Urgestein

5,577 Kommentare 2,186 Likes

Für viele Leute reicht eine interne Grafik natürlich aus. Gerade bei Laptops verstehe ich auch nicht, warum oft neben der internen Grafik noch eine schwacher Mobile-Grafikchip verbaut wurde (vor 5 bis 10 Jahren). Ich habe schon viele Laptops gesehen, bei denen der Grafikchip nur etwa 1.5 mal mehr Leistung geboten hat als die interne Grafik. Da merkt man nicht, ob er aktiv ist oder nicht. Das ist dann nur etwas fürs Marketing.

Seit der 1000er-Generation verbaut Nvidia in den Laptops die selben Chips, wie in den PC-Grafikkarten. Dann stellen sie die auf etwa 80 % des Taktes, wodurch sie noch etwa die Hälfte des Stromverbrauchs haben. Dann sind sie sehr effizient und doch leistungsstark.

Antwort 1 Like

D
Denniss

Urgestein

1,083 Kommentare 314 Likes

gerade die großen chips von nvidia haben in mobile nur den Namen mit der Desktopkarte gemein, haben intern aber ganz andere (kleinere) chips.
die kleinen 1050/1650 sind vermutlich die runtergetakteten Versionen

Antwort Gefällt mir

g
genervt

Mitglied

39 Kommentare 5 Likes

Danke. Exakt meine Meinung. Verschwendung von Silizium.

Antwort Gefällt mir

D
Denniss

Urgestein

1,083 Kommentare 314 Likes

Nö eben nicht. Die Karten sind wahrscheinlich/hoffentlich unnütz für Miner daher sollten die ihren Preispunkt bei ausreichender Liefermenge halbwegs halten können. Auch wenn dieser erstmal recht hoch gehalten ist. Besser einen Spatz für ~200€ in der Hand als darauf zu hoffen das die Taube aufm Dach von ihren 1500€ runterkommt

Antwort 1 Like

ipat66

Veteran

412 Kommentare 347 Likes

Bleib doch mal locker....
Die Chips stammen bestimmt aus irgend einer Resteverwertung...
Manche brauchen einfach ein wenig mehr als eine IGPU und dennoch keine
gehobene Mittelklasse.
Jedem Tierchen sein Plaisierchen.....:)
Diese GPU's treiben die Preise bestimmt nicht nach oben.
Da kann man sich eher über das Mining-Übel aufregen...

Antwort 1 Like

M
McFly_76

Veteran

364 Kommentare 113 Likes

Normalerweise hätte jetzt die Zielgruppe ( HTPC und Casual Gamer ) wieder Grund zum Jubeln weil neue Grafikkarten im Einsteigersegment erscheinen die noch effizienter arbeiten und den neuesten Stand der Technik bieten.
Leider kosten aktuell Low-End-Grafikkarten ( bis 75 W TDP/TGP ) mit 4 GB VRAM so viel wie eine vor 2 Jahren veröffentlichte RTX 2060 und deshalb werden sich die meisten gegen ein GPU Upgrade ( eigtl. Sidegrade ) entscheiden und beten dass ihre Hardware noch weitere Jahre hält :D

Antwort 1 Like

LeovonBastler

Mitglied

39 Kommentare 12 Likes

Gedankenspiel: Was wäre, wenn AMD diesen Grafikchip (bzw. einen in der Preisklasse) nimmt und neben einem CCD bei den Prozessoren packt?
Ich denke, dass das erst bei AM5, wo die dann auch DDR5 verbauen können Sinn machen würde (Andererseits ist RDNA 2 vergleichsweise ziemlich genügsam, was Bandbreite angeht. Das muss man aber erst mal testen).
Van Goch macht ja das auch, nur halt alles in einem Moniolythischen Design (Ja, dort sind 16 CUs verbaut). Allerdings scheint das wohl eher für den Steam Deck reserviert zu sein, wenn ich auf dem richtigen Stand der Info bin.

APUs sollen ja bald die Low-end Grafikkarten obsolet machen und ich halte es auch für durchaus vorstellbar. APUs sind zwar momentan nicht besonders potent, allerdings geht Intel auch nicht wirklich drauf und AMD verbaut halt nicht gerade das Beste, was sie haben. (ich sag nur GCN. Die Version in Renoir und Cèzanne haben zwar einige Verbesserungen, trotzdem basiert es am Ende auf GCN)

Antwort Gefällt mir

Klicke zum Ausklappem
g
genervt

Mitglied

39 Kommentare 5 Likes

@ipat66
Woher sollen denn die Reste kommen? Die Ausbeute von N23 dürften ordentlich sein. Dafür wären die Chips zu sehr beschnitten.
Selbst wenn es Produktion bei Samsung wäre, dann hätten wir dennoch andere Bauteile auf der Platine, die derzeit auch Mangelware sind.
Die kleinste Karte hat gerade mal soviel Shader wie die Xbox One

Antwort Gefällt mir

ipat66

Veteran

412 Kommentare 347 Likes

Trotzdem gibt es genug Leute,welche aufbauend auf einer Ryzen Plattform, eine kleine Karte
brauchen....
Sollten diese kein Anrecht auf eine dieser GPU's haben?

Antwort 1 Like

S
Sternengucker80

Veteran

165 Kommentare 30 Likes

Ich suche einfach nur ne Karte, für meinen HTPC, die h.265, Playready 3 kann, für meinen 1700x. Das ganze für max. 150€. Bildausgabe und Unterstützung für die Codecs. Wie früher die HD3450. Nicht mehr, aber auch nicht weniger. Ob die von AMD, NV, Intel oder von den Chineschen Hersteller kommt, wo PowerVR nutzt, ist mir mittlerweile völlig egal, von mir aus aus gerne von VIA. Hauptsache, es gibt mal endlich wieder mal was.

Antwort Gefällt mir

S
Samweis

Mitglied

18 Kommentare 3 Likes

Ich kann nicht verstehen, wer sich sowas kauft. Entweder ich benutze meinen PC für Office Anwendungen, dann benötige ich so eine Karte nicht, oder ich benutze ihn zum Spielen, dann taugt so eine Karte nichts. Wer sowas zum Spielen haben will, ist mit einer Konsole deutlich besser und günstiger beraten.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung