YouTube

AMD Radeon RX 6600 XT 8 GB – Exklusive Details, interne Folien und für wen passt die Karte (nicht)?

Lade neue Kommentare

RX480

Mitglied

84 Kommentare 35 Likes

Das ist ne Lumperei = 1050mV GFX.

Haben will für die 6800 nonXT.(+ open Takt)
(Das war kein schöner Zug von AMD die 6800 nonXT soo zu beschneiden, Da wären sicher unter Teillast auch mal >2,6 Gig drin)

Gerade wenn die 3070Ti um die Ecke lunzt, sollte AMD bitteschön im Treiber mehr OCen freigeben.

Antwort 3 Likes

ipat66

Veteran

159 Kommentare 137 Likes

Danke für den Test Igor.
Deine Entscheidung die Hashrate nicht anzugeben finde ich vernünftig.
Diese Zahlen findet man zu genüge auf anderen Seiten....
Es ist und bleibt eine sehr energiehungrige und unökologische Art und Weise
Coins und Geld zu generieren.

Eine andere Frage meinerseits wäre,was AMD mit seinen Treibern im Produktivbereich
so alles auf die Beine stellt.
Passiert da etwas?

In Deinen AMD-Benchmarks findet der Produktivbereich nicht statt...
Da hat Nvidea ja immer noch die Nase vorne....
Vielleicht auch ein Grund für viele Käufer sich weiterhin für Nvidea zu entscheiden?

Antwort 1 Like

RX480

Mitglied

84 Kommentare 35 Likes

Vllt. ... interessiert Das 99% der Schleppikäufer überhaupt net.(die Mehrzahl macht neben YT+Facebook nur mal nen Spielchen)
und
Den ganzen Hash-Mist bitteschön auch net noch unterstützen.

Antwort Gefällt mir

Igor Wallossek

Format©

5,447 Kommentare 8,420 Likes

Nein, weil es aktuell keine gescheiten Karten gibt. Big Navi als Workstation ist irgendwie nicht existent. Ich denke mal, AMD setzt seine Ressourcen woanders ein. Zertifizierungen für z.B. Solidworks kosten für die Grafikkarten Unsummen, jede Treibervesion muss aufwändig neu getestet und zertifiziert werden, nicht nur die Hardware. Bei so vielen relevanten Anwendungen und Iterationen der Treiber kommt da ordentlich was zusammen. Und ich verweigere mich, professionelle Anwendungen mit unzertifizierten Dangen zu testen. Das ist für die Praxis, schon aus Haftungsgründen, eher nicht relevant. Ich wäre froh, es gäbe was Wettbewerbsfähigeres.

Antwort 5 Likes

B
Besterino

Urgestein

5,044 Kommentare 2,020 Likes

Danke wieder einmal dafür @Igor Wallossek!

Antwort Gefällt mir

C
Cyco

Neuling

7 Kommentare 6 Likes

Mal ein simples Beispiel, welches ich erlebt habe. Ich habe eine RX6800 gedropt und in meinen neuen Rechner eingebaut (5900X, 32 GB Speicher). Vorher hatte ich eine GTX1070 OC von Gigabyte drin. Ich fotografiere gerne und habe Kameras mit MFT-Sensoren. Diese Sensoren sind etwas kleiner als die meisten gängigen anderen Sensoren. Nachteil dieser MFT-Sensoren ist, dass sie relativ schnell rauschen, wenn man die ISO-Zahl hoch stellt. Dafür gibt es aber Programme, die die Bilder nachträglich entrauschen können. Ich nutze dafür Topaz DenoiseAI. Das arbeitet mit GPU-Unterstützung. Die 1070 braucht ca. 22 Sek. für mein Vergleichsbild, die RX6800 34 Sek. :oops:

Ich vermute, dass viele Programme anscheinend massiv CUDA nutzen, ohne das explizit anzugeben.

Antwort Gefällt mir

Igor Wallossek

Format©

5,447 Kommentare 8,420 Likes

OpenCL ist CUDA beim Einsatz in Standardsoftware in fast allen Belangen unterlegen. TopaZ nutzt sogar die Tensor Cores, falls vorhanden, ich habe ja fast alle TopaZ Programme im Einsatz. Allerdings wird das auch auf der HP sehr klar kommuniziert und es war ja auch Teil meines Studio-Artikels. Man muss nur mal Blender mit OpenCL vs. CUDA laufen lassen...

Antwort 3 Likes

C
Cyco

Neuling

7 Kommentare 6 Likes

Den kenne ich noch nicht. Ich suche mal.

Antwort Gefällt mir

Gurdi

Urgestein

1,020 Kommentare 524 Likes

Interessante Details, primär sehe ich diesen Chip auch in den Notebooks. Hier könnte er aber wirklich aufgrund des besseren Schedulers von AMD sehr interessant sein da gerade Ultrabooks meist recht schwache CPU´s besitzen,

Antwort 2 Likes

h
hotmob

Mitglied

19 Kommentare 1 Likes

Also, dass dieser doch nicht allzu schnelle Grafikchip von PCIe3 eingeschränkt werden soll, selbst wenn er nur 8x hat, kann ich mir echt nicht vorstellen, da ja auch ne 3090 in PCIe3 kaum eingeschränkt wird.

Außerdem werden alle Hersteller schon aus Kosten und Verbrauchsgründen 16Gb-Chips verbauen, man wird da einfach auf die bisher immer verbauten Samsung Chip zurückgreifen und fertig. Man muss die Dinger ja nicht mit 16Gbps betreiben. Das geht auch im 12 und 14Gbps.
Bei 128Bit sind das halt nur 4 Chips und nicht 8, die man mit 8Gb-Chips verbauen müsste für 8GB.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung