Grafikkarten Professional Testberichte VGA Workstation

AMD Radeon Pro W7700 im Test – Wo steht AMDs Mittelklasse-Workstation-Grafikkarte im Arbeitsalltag? Mit Teardown und Materialanalyse

Testsoftware und Workstation

Im Softwarepaket befinden sich 4 große Softwaresuiten von PTC Inc., Dassault Systèmes, Autodesk sowie Adobe und natürlich auch die übliche Standardsoftware wie z.B. Blender. Ich verwende professionelle bzw. standardisiere Workloads und verzichte dafür auf synthetische Benchmarks. Die einzige Ausnahme ist hier der SPECviewperf 2020, den ich bewusst mit aufgenommen habe, weil er zwei Dinge ermöglicht: Erstens sieht man im direkten Vergleich zu den Vollversionen, wo die Grafikkartenhersteller ggf. bei den Treibern gechaetet optimiert haben, um besonders gut dazustehen. Und zweitens kann das jeder auch gern selbst benchmarken, um den direkten Vergleich ziehen zu können.

Auch wenn NVIDIA es sicher gern anders gesehen hätte, hier geht es heute nur bedingt um KI und Computer (aber auch). Wichtig war für mich, dass es Programme im Test sind, die auf allen Architekturen laufen und damit auch einen direkten Vergleich ermöglichen. Außerdem werden wir sehen, dass für manche Aufgaben gar keine ultra-teure High-End-Karte nötig ist. Auch diese Erkenntnisse sind wichtig, wenn es um eine Investitions-Entscheidung geht. Zweckmäßigkeit ist das neue Zauberwort.

Als Workstation dient ein PC mit einem Intel Core i9-13900K auf einem MSI Z790 Godlike (ich weiß, es ist ein Gaming-Board) und 64 GB DDR5 PC6000 CL30, wobei ich den Speicher mit Absicht nur als DDR5 5200 laufen lasse. Der Performance-Unterschied zu DDR5 6000+ ist in diesem Anwendungsbereich bei den meisten Applikationen nur marginal, zumal ich einen Fall hatte, wo nach einem längeren Creo-Run mit 5 Iterationen bei DDR5 6000 kurz vorm Schluss das System freezte. Das ist übrigens auch der Grund, warum ich dem Core i9-13900K nur ein PL1 und PL2 von 125 Watt zugestehe. Es ist kein Gaming-PC und die Stabilität steht wie immer an erster Stelle. Zeit ist pures Geld und ein potentieller Datenverlust ist mit nichts zu entschuldigen. Gekühlt wird das alles mit einer einfachen 360er Silent-Loop 2 AiO von be quiet! und verfrachtet habe ich die Workstation in ein Fractal Meshify XL, so wie die VGA-Teststation auch.

Beim Monitor habe ich mich bewusst für eine Profi-Lösung entschieden. Der fast rahmenlose BenQ PD322020U ist mit seinen 31,5 Zoll Diagonale und 3840 x 2160 Pixeln groß genug, verfügt über ein vorzügliches AHVA-Panel von AU Optronics und deckt mit 10 Bit Farbtiefe (1.07 Mrd. Farben) die benötigten Farbräume fast vollständig ab. Die Ergonomie ist nahezu perfekt und man kann es (bis hin zur Pivot-Funktion) drehen und wenden wie man will – eine Einstellung passt immer. Nicht ganz taufrisch, aber bewährt.

Die Materialprüfung und Vermessung der Karten übernimmt mein neues Keyence VHX 7000 samt EA-300. Damit sind sowohl exakte Messungen als auch recht genaue Massenermittlungen der chemischen Elemente möglich. Die von mir nun genutzte Laser-induzierte Breakdown-Spektroskopie (LIBS) ist eine Art von Atomemissions-Spektroskopie, bei der ein gepulster Laser auf eine Probe gerichtet wird, um einen kleinen Teil davon zu verdampfen und so ein Plasma zu erzeugen. Die emittierte Strahlung aus diesem Plasma wird dann analysiert, um die Elementzusammensetzung der Probe zu bestimmen. LIBS hat viele Vorteile gegenüber anderen analytischen Techniken. Da nur eine winzige Menge der Probe für die Analyse benötigt wird, ist der Schaden an der Probe minimal. Diese Technik erfordert im Allgemeinen keine spezielle Vorbereitung der Proben. Sogar Feststoffe, Flüssigkeiten und Gase können direkt analysiert werden.

LIBS kann mehrere Elemente gleichzeitig in einer Probe detektieren und kann für eine Vielzahl von Proben verwendet werden, einschließlich biologischer, metallischer, mineralischer und anderer Materialien. Und man erhält eine wirkliche Echtzeit-Analyse, was enorm Zeit spart. Da LIBS im Allgemeinen keine Verbrauchsmaterialien oder gefährlichen Reagenzien benötigt, ist es eine natürlich relativ sichere Technik, die auch kein Vakuum benötigt. Wie bei jeder Analysetechnik gibt es auch bei LIBS Einschränkungen und Herausforderungen, aber in vielen meiner Anwendungen, insbesondere wenn Geschwindigkeit, Vielseitigkeit und minimalinvasive Probenentnahme von Vorteil sind, bietet es deutliche Vorteile.

Test System
CPU Intel Core i9-13900K @ 125W (PL2 = PL1)
RAM 64 (2x 32) GB Corsair Dominator Platinum DDR5 PC6000 CL30 @ DDR5 5200
Mainboard MSI MEG Z790 Godlike
Cooler Be Quiet! Silent Loop 2, 360 mm
PSU Be Quiet! Dark Power 1000 Watt
SSD 2x 2 GB Netac NI7000-t NVMe
Case Fractal Meshify XL
Monitor BenQ PD322020U
OS Windows 11 Professional (all Updates)
Drivers NVIDIA Branch/Studio:
R535 U8 (537.70) WHQL

AMD Software Pro Edition:
23.Q3.1 (W7000 series), 23.30.02 (W7700)
23.Q3.1 (W6000 series)

Benchmarks

Hier verlinke ich jetzt der Einfachheit halber auf die aktualisierte Version der Sammlung aller meiner Workstation-Grafikkarten für 2023, die ich natürlich vorab auch um die Radeon Pro W7700 ergänzt habe. Der Grund dafür, die Charts nicht direkt in diesen Artikel einzubinden, liegt klar auf der Hand: Der Link führt auch nach dem aktuell geplanten Einpflegen von vier weiteren Workstation-Karten auf die dann auch wieder aktualisierten Benchmarks:

Die besten Workstation-Grafikkarten von AMD und NVIDIA 2023 – Wie schlägt sich die Radeon Pro W7000 Reihe gegen Ada und Ampere in Benchmarks?

Trotzdem möchte ich die Werbeaussagen natürlich auch noch separat überprüfen. Beginnen wir mit Solidworks 2022, wo ich zunächst die Vollversion in einem standardisierten Workload ohne FSAA getestet habe. Die Radeon Pro W7700 ist hier rund 15.5 Prozentpunkte langsamer als die ältere Radeon Pro W6800.  Sie ist jedoch 27.2 Prozentpunkte schneller als die Radeon Pro W6600 und auch 5 Prozentpunkte schneller als eine RTX 5000 mit Turing-Chip und fast 7 Prozentpunkte schneller als eine RTX A4000 mit Ampere Chip.

Doch wie sieht es bei SPECviewperf aus, der kostenlosen Suite mit implementierten, älteren Softwareversionen und vorgefertigten Workloads? SPECviewperf ist stets ein leichtes Opfer für spezielle, Anwendungs-bezogene Optimierungen der Treiber durch Grafikkartenhersteller fürs Marketing. Die Radeon Pro W7700 ist hier nur noch rund 5 (statt 15.5) Prozentpunkte langsamer als die ältere Radeon Pro W6800. Was für ein Zufall. Sie ist plötzlich 92 (statt 27.2) Prozentpunkte schneller als die Radeon Pro W6600 und auch statte 43 (statt nur 5) Prozentpunkte schneller als eine RTX 5000 mit Turing-Chip und sie überflügelt plötzlich sogar noch die RTX 6000!  Und zum Schluss: sie ist hier fast 36 (statt nur 7) Prozentpunkte schneller als eine RTX A4000 mit Ampere Chip.

Diese kurze Stichprobe zeigt deutlich, warum man solche synthetischen, freien Benchmarks mit der nötigen Vorsicht genießen sollte, zumal sich der Abstand zwischen NVIDIA und AMD bei aktiviertem FSAA weiter zugunsten der grünen Karten verschiebt. Ja, AMD performt mit der Radeon Pro W7000 Reihe nicht schlecht, aber man muss wirklich vollwertige Benchmarks hernehmen.

Kommentar

Lade neue Kommentare

echolot

Urgestein

941 Kommentare 725 Likes

Wie schlägt sich so eine Karte unabhängig von Haftung und Garantie gegen eine "normale" Grafikkarte?

Antwort Gefällt mir

P
Phoenixxl

Veteran

160 Kommentare 124 Likes

"Aggressive Preisgestaltung."
Darf ich lachen?
Für Nvidia "durchaus schmerzlich"?

Nvidia hat Zahlen vorgelegt.
13,5 Mrd Umsatz UND 9,2 MRD GEWINN.
Das ist eine Marge von knapp 70%.

Das heißt, bei einer Karte für 1000€ verdient Nvidia nach Abzug aller Kosten und Steuern noch immer 700€.

"Durchaus schmerzlich" hahahahahahahaha hahahahahahahaha.

Eine 4090 für 1799€ (derzeit nicht lieferbar, lol) kostet 540€ alles inklusive.
Bei 25% Marge, etwas was man Ackermann bei der Deutschen Bank als unredlich angekreidet hat läge man bei 720€.
Sie kostet aber 1799€.
Das sind schnuckelige 1099€ GEWINN oben drauf auf die unanständigen 25%.

Ich zitiere es nochmal, weil es so lustig ist: "durchaus schmerzlich".
Loooool.

So, jetzt erstmal Nvidia Aktien kaufen.

Antwort Gefällt mir

P
Pokerclock

Veteran

441 Kommentare 371 Likes

Es ist lange her, dass ein Kunde von mir eine AMD-Workstation-Karte haben wollte (Radeon Pro SSG). Die hatte noch zusätzlich 2 TB als zusätzlichen VRAM draufgelötet. Die machten hauptsächlich Live-Bühnenprogramme mit Lasershows etc. Das wurde alles in Echtzeit berechnet und fraß offensichtlich extrem viel VRAM.

Davor und danach wollte keiner mehr AMD-Workstation-Grafikarten haben...

Das ist einfach ein absolutes Nvidia-Land und ich bzweifle, dass eine andere Preispolitik hier zum Umdenken bewegt. Mit den Karten wird ein Vielfaches an Umsätzen generiert als die in der Anschaffung kosten. Dazu kommt Software, die ebenso wesentlich teurer ist.

Ob die Dinger nun 1000 € oder 2500 € kosten. Das juckt die meisten in dem Bereich kaum. Was sie aber juckt sind Treiberprobleme, Anwendungsfehler und kaputte Projekte.

AMD muss einfach enger mit den Softwareentwicklern zusammenarbeiten bzw. Geld rüberschießen. Dann wird das auch was, wenn die Softwareentwickler Features für AMD-Karten vorbehalten und sich auf die Treiber von AMD konzentrieren.

Antwort Gefällt mir

Y
Yumiko

Veteran

494 Kommentare 214 Likes

Komisch das gerade AMD in diesem Bereich Rekordumsätze meldet.
Wenn man die sonstige Hardware für Workstations und Großrechner liefert, kann man häufiger gleich die Profi-Karten mitverkaufen. Solides Geschäftsmodell. Wer natürlich seine dicken Berechnungen auf Intels e-cores ausführt, den juckt auch der Preis der Nvidia Karten nicht - der ist Schmerz gewohnt :p

Antwort Gefällt mir

echolot

Urgestein

941 Kommentare 725 Likes

Ich halte es, als CAD-Planer und FEM-Kalkulator für ein Gerücht, dass der Anschaffungspreis die meisten nicht jucken würde. Gerne auch mal den Einkauf fragen. Die gucken nämlich nur auf den Preis.

Antwort 1 Like

P
Pokerclock

Veteran

441 Kommentare 371 Likes

EDIT

So, nun mit vernünftiger Quelle: https://ir.amd.com/financial-information

Puh, OK. In einer der Folien werden die Workstation-Karten im Bereich "Gaming" verortet. Aber da passiert ansonsten keine Trennung. Vielleicht hast DU mehr Infos?

PS Der Umsatz in diesem Bereich ist im Verleich zum Vojahresquartal gesunken...

Seite 22: https://d1io3yog0oux5.cloudfront.net/_8123b11d11e8f9b2f1f08af5c326c360/amd/db/778/6935/file/AMD+Q3'23+Earnings+Slides.pdf

In dem Bereich sind auch die Spielekonsolen zu finden. Also ich lasse mir von Dir gerne erklären wo genau die Workstation-Grafikkarten Rekordumsätze generieren. Danke!

Antwort Gefällt mir

HerrRossi

Urgestein

6,782 Kommentare 2,244 Likes

Wo steht das? Der Preis für das grüne Konkurrenzprodukt ist für den Kunden "durchaus schmerzhaft", nicht für Nvidia.

Meine Güte...

Antwort 1 Like

g
goch

Veteran

475 Kommentare 181 Likes

Schuster bleib bei deinen Leisten.... Das ist ja kompletter Quatsch.

Unternehmensweit hat Nvidia eine brutto Marge von gut 50%. Da fehlen die kompletten SG&A wie R&D & Co was bei Tech Unternehmen der Löwenanteil ist (COGS fast = SG&A)

EBIT liegt dann ca bei 20% vom Umsatz, das entspricht eher deiner "Marge"

Nicht falsch verstehen, die verdienen schon nicht schlecht - aber das o.g. passt nicht.

Antwort 4 Likes

Y
Yumiko

Veteran

494 Kommentare 214 Likes

Hier mal ein Artikel außerhalb einer Paywall:

Antwort Gefällt mir

Telaran

Mitglied

16 Kommentare 10 Likes

Erfahrungsgemäss: Durchwachsen

Workstation Karten sind nicht auf hohe FPS Leistung ausgelegt, sondern stabile und verifizierbare Qualität.

  • Sie haben eingeschaltete ECC Speicher welche schnell 10-15% Performance Einbusse bedeuten (Nvidia hat die 4090 hat anscheinend ECC welche man explizit im Treiber einschalten kann, bei anderen Karten müsste man es genauer ansehen)
  • Es gibt regelmässig Treiber, aber die durchlaufen (normalerweise) mehrere (zeitintensive) Testreihen. Also Day-One Treiber, wenn ein AAA Titel veröffentlicht wurde, gibts nicht.
  • Man hat durchaus auf dem Papier mehr Rohleistung als "vergleichbare" Consumer Modelle, die aber eben via Treiber explizit "anders" genutzt werden
  • Ja, man kann theoretisch die Consumer Treiber verwenden, aber das führt oft zu Blackscreens oder anderen unerwünschten Nebeneffekten

Fazit: Man kann mit Workstation Karten zocken, nur wird man damit nicht glücklich.

Und Thema Nvidia vs AMD:
CUDA ist in der Workstation Welt das, was bei Games aktuell DLSS ist.
Ich kann mir vorstellen, dass die Softwarehersteller CUDA gegenüber OpenCL bevorzugen, weil Nvidia Manpower/Unterstützung anbietet (vergleichbar wie bei den Spieleentwicklern). Bleibt halt ein Teufelskreis.

Antwort 2 Likes

Klicke zum Ausklappem
echolot

Urgestein

941 Kommentare 725 Likes

Ehrlich gesagt hat keiner von den Zeichnern bei uns eine verifizierte Karte. Es gibt noch ein paar Rechner mit Quadros. Die sind aber maximal mit 8GB bestückt. Also eher was für zwischendurch zum reinviewen. Aber selbst da stottert es gewaltig bei größeren 3D-Modellen in stp oder nwd
-Format. Aber trotzdem danke für die ausführliche Erklärung.

Antwort Gefällt mir

G
Guest

Es gibt off. unterschiedliche Sauerstoffsättigungsgrößen in Europa, Deutschland.!

Und hättest was gesagt dann wäre die 4090 die ich gebraucht um 1700 Euro vertscheppert habe zu.. [ geben Sie hier Name Adresse an]
gelaufen.
Ein anderer User sagt den übliche froschblöden Satz, das es eh egal ist ob selbiges teil x nun 1000 oder 2500 Euro kostet.
A Ha..

Im Übrigen danke für den Test. Morgen ist SCHWARZ FREITAG.. des wird wieder lol peace :)

Ps ich habe derzeit 12 in Worten ZWÖLF PYN A-6000 im Einsatz. das sind bei uvp: 4900.- 12 x 4900.- Euro =?
oder bei uvp: 5900.- 12 x 5900.- Euro = ? da schmerzen die Eier im Gemächt.

na ja. zum Glück gibts den Schdabl Difusor damit MALEN NACH ZAHLEN AUCH MIT 80% ANTEIL KOHLENMONOXID noch lauft.. :)

Antwort Gefällt mir

Igor Wallossek

1

10,222 Kommentare 18,926 Likes

Ohne zertifizierte Hardware und Treiber laufen in den großen Suiten viele Dinge nicht, noch nicht einmal Real View in Solidworks. Und ich würde mir als Firma, die sicherheitsrelevante Dinge entwickelt oder herstellt, den Schuh mit gekippten Bits oder nicht zertifizierten Arbeitsmitteln im Streit- und Schadensfall nicht anziehen wollen. Aber es gibt auch ein Aber:

Sagen wir es mal salopp: Im Tiefbau mit card_1 einen Graben zu berechnen mag auch mit Cosmumer-Karten genauso gut gehen, weil vieles bis alles eh noch auf der CPU berechnet wird, meistens sogar noch auf einem Kern. Auch in AutoCAD hat man wenig bis keine Hardware-Beschleunigung, wo so etwas essentiell werden könnte. Kommt es zu Simulationen und Berechnungen, wo auch die Grafikkarte fest mit einbezogen ist, wird es hingegen schon kritischer. Hinderlich ist es auch, wenn es zu Dingen wie SNX kommt, wo eine zertifizierte Karte eine Consumerkarte um mehrere Faktoren schlägt, weil die Grafikausgabe nur für solche Karten optimiert wurde. Falsche Karte, falscher Treiber -> Ruckelkino.

Für den gewerblichen Normalanwender lohnt sich so eine Karte nur, wenn er den größeren Speicherausbau benötigt, eine garantierte Standfestigkeit haben will, mit bestimmten Bildausgaben (Farbtiefe, Kompression) arbeiten will oder muss und ansonsten den Support in Anspruch nehmen möchte. Zertifizierungen durch Softwareanbieter kosten heftig Geld und genau deshalb sind die Karten auch teurer, denn es werden wesentlich mehr Ressourcen benötigt und gebunden.

Die Karten sind auch technisch und was die Haltbarkeit betrifft, auf einem komplett anderen Niveau. Die Radeon Pro W7700 hat mich auch durch die Konstruktion bis hin zum vermuteten Graphan-Pad sehr angenehm überrascht. Gute Pads, generell dickere Schrauben am PCB, ordenliche Solids und sogar bessere Videoausgänge (anderer Supplier) als auf der Consumer 7700XT / 7800XT. Sie ist im Detail anders und dafür legt man als Kunde dann leider drauf. Man schreibt die Workstation-Grafikkarte über 3 Jahre ab, so wie die Consumer-Varianten auch. Selbst das rechnet sich am Ende dann doch.

Antwort 3 Likes

Klicke zum Ausklappem
echolot

Urgestein

941 Kommentare 725 Likes

Gebe Dir zu 100 % Recht. Aber sag das mal dem Admin, der keine Ahnung hat. Der grinst und verschwindet wieder in seine Höhle. Teilweise laufen die Rechner über Nacht um Modelle einzulesen. Das macht dann keinen Spaß mehr. Gerade Solidworks ist extrem ressourcenhungrig. Acad 3d auch nicht prickelnd. Revit läuft sehr gut, da nur der sichtbare Bereich generiert wird. FEM ist in der Tat eine CPU-Geschichte. Die neuen Programme können auch mehrere Kerne gleichzeitig nutzen. Aufgabenteilung hinsichtlich Lastfällen und -kombinationen.
Schön, dass auch so eine Nische hier behandelt wird.

Antwort Gefällt mir

G
Guest

Jo das ist richtig!
Ich hab versuchsweise den Testballon Saphire 20gbt 7900 XT genommen weil die, erstens schon 20 gbt hat, zweitens mit 800 Euro schon gut da steht.
Und diese AMD-pro karte is net schlecht. die wird sich bei 799.- einpendeln. Das ist gut.
Tensorflow/Pytorch rennt flott die HIP/HCC/OpenCLR + ROCr + ROCt und die ganzen Libs (Blas, MIOpen .wenn Ubutu 18.04 oder Linux. Dort dann zb Maya/ renderclient und etz..( the Return of the CPU = wenn ARNOLD 64 cor Tr 2024 wieder im Spiel) ( wenn Redshift = GPU = NIVEA = AMD)( wenn du mit Corona
den Rechner abfackeln willst bitte nimm es..lol) ADOBEEEEEE. Die Papenheimer brauchen wir ja auch. Des geht!
Das ROCm ab Version 5.6 und die Ray Accelerators sind beim Rendern nun schon ansprechen nutzenbar. Das läuft über die GPU als Zwischenschritt, die Accelerator werden nicht direkt angesprochen..im Efekt ist so eine AMD 7900 XT ( 20 gbt) HIP um 41 % langsamer wie NIVEA 4090( optix) beim rendern mit Cycles.--und so weiter und so fort--wenn man nun unter OSX die AMD im hackintosh hat wirds zb in der UNREAL interessant, weil dann... ( ofpassen OSX reisst etwa den doppelten RAM am Board) es gibt keine logische ERklärung..oder?
kann man recht fesch sehr sehr gut knapp an gewisse Ergebnisse kommen.
Dazu ist noch, das sagen wir, es geht noch was, diese Karte ( wie von Dir besprochen) saumäßig besser gebaut ist, als die Weißblechrakete rtx-4090ger-- die
eine A-6000 im singe-shhootout um 35-40% versenkt, aber auch das Problem hat , das ZU WENIG RAM. Die theoretischen Marke von 70% nicht, nie.
Die alte A-6000 Gurke is in dem Bereich bösartig gut. Ich erwarte von NIVEA 2025 eine H-1000 X als 5090 mit 98 gbt RAM ( rabbithole..)
( nimmst du zwei A-6000 dann ist eh final= $$$$$$ = das sit beim Auftrag billiger als 20 CPU-gurken.
Des weiteren robben die AMD-entwickler klein aber fein ran.
Wenn also ein Resume ist, das eine 2024er-bis 2025er Workstation ( Der Unterbau jetziger neuer Threadripper7970 is grad beim evaluieren- der 32 Core--weil da Preis und Leistung am ASUS-halb-Board einigermaßen passt ) mit oder auch den AMD-s gut angespitzt ist. Das die A-6000 sowieso alle von den 5 2021er THRs wechseln werden können. liegt noch an INTEL was wird das ( i steh ja so auf kleine Körner = 2H22 schaukelt gut aber was ist wenn des neue 11-- der deskmodder-Brüder dann im Feb24 als gut erachtet sein könnte, ich auch die Intel GROSS-Klein-kernschüsseln neu am Radar habe. ( der i7 12700 is als 8 core gut. als voll core HEIZUNG)
Und so weiter.. Ich sehe mal bis März 2024 null INVEST und sehen was rennt da.
Das war ein unformatierter Text, weil Stress. Plötzlich wollen alle bis 12.12. fertig werden.
am 13. 12 Apophis oder was?

STABILE BILDAUSGABE
DICKE PADS = WENIGER STRESS
SOLIDS die SOLIDS sind net PLASTIKMischMetalldreivates das so tut als ob ( Zwischenfrage sind die Propeller auf der RTX- 4090 ZOTAC leicht verbogen oder sind die Kernspinachsen
der Lüfter aus dem LOT? Ich soll darso eine tschecken und kenn mi mit ZOTAC / Trinity oC nix aus) ( des kommt da von wenn regional es sich spricht, das du nen Bezeee hast.. sht) bevor ich da was abreiße und es ist kaputt) ( danke falls wer was weiß) ( und danke falls ich net angemessen reagiere--weil der DOC am Fluxkompensator würgt und dann alles vergiss. schwere RENDERNÄCHTE schwere. 1.) Alter 2.) Enthusiasmus 3.) was wollte ich? :) :)

Genau. Der Test war super. Was glaubts wie die drüben des in PGH wieder formatiern ( leichter Schwindel..) lool :)

Antwort Gefällt mir

Klicke zum Ausklappem
R
RazielNoir

Veteran

348 Kommentare 116 Likes

UNd das ist genau das, was ich mir von einer RTX wünschen würde. Zumindest ein Modell ohne BlingBling, einem Silent/Stromsparmodus per Switch, der den Namen auch wert ist und eine Gute Verarbeitung. Ich bin mit meinen gebraucht gekauften A2000 happy, eine 3060 wäre mich genauso teuer gekommen. Und für meine Zwecke mehr als ausreichend. Spielen geht, aber Ultra-Settings sind da nicht drin. Aber für eine Runde Diablo oder Path of Exile reichts

Antwort Gefällt mir

echolot

Urgestein

941 Kommentare 725 Likes

Sinngemäß gehört das vor einen solchen Artikel als Vorwort weil sich die meisten schwertun mit der Preisgestaltung.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung