Grafikkarten Testberichte VGA

PowerColor RX 6900XT Liquid Devil im Test – Gut gekühlt ist halb gewonnen

Mittlerweile gibt es neben den bereits ausführlich getesteten Referenzkarten der RX-6000-Serie von AMD auch diverse Boardpartnerkarten – nicht zu kaufen – zu denen auch die wirklich außergewöhnliche PowerColor RX 6900XT Liquid Devil gehört. Nach einigem Hin und Her durch die Verschiebung des Release-Termins ist es nun endlich soweit und ich kann Euch dieses Spitzenmodell endlich auch einmal in echt präsentieren. Das Besondere daran ist übrigens das Besondere darauf, nämlich ein echter Fullcover-Wasserblock für die Kühlung und keine simple AiO-Wasserkühlung oder gar ein Luftkühler. Hier muss Wasser laufen und das nicht zu knapp! Schaun‘ wir mal, was geht…

Mit der (Achtung! Offiziell vorgeschriebener Name) „PowerColor Liquid Devil AMD Radeon™ RX 6900 XT Gaming Graphics Card with 16GB GDDR6, AMD RDNA™ 2“, die ich im Artikel der Einfachheit halber wieder „PowerColor RX 6900 XT Liquid Devil“ nennen werde, da sonst die Charts und Legenden explodieren würden, liegt hier ein besonders schnelles, gut gekühltes und damit auch etwas durstigeres RDNA2-Exemplar auf meinen Tisch der guten Taten und wartete nur darauf, einmal unter Wasser gesetzt zu werden.

Im Lieferumfang befinden sie neben der Karte und den zwei benötigten Stopfen für das Terminal noch drei bunte Fläschchen mit Farbe für die Kühlflüssigkeit. Und anhand der Verpackung dieser Dreingabe und dem Logo auf dem Kühler sieht man auch, dass selbiger von EKWB gefertigt wurde. Assembliert wird die Karte jedoch bei TUL, also PowerColor. Doch dazu später mehr.

Diese Grafikkarte kommt, wie alle RX6000-Karten  mit dem neuen Videocodec AV1 zurecht, sie unterstützt erstmals auch DirectX 12 Ultimate und damit eben auch DirectX Raytracing (DXR). Mit AMD FidelityFX bietet sie zudem ein Feature, das Entwicklern zudem mehr Spielraum bei der Auswahl der Effekte ermöglichen soll. Ebenfalls dabei ist Variable Rate Shading (VRS), was immens Rechenleistung sparen kann, wenn Bildbereiche, die ohnehin nicht im Auge des Spielers liegen, in der Darstellungsqualität smart reduziert werden. Soviel zum Feature-Set aller neuen Radeon-Karten.

Optik und Haptik

Die PowerColor Radeon RX 6900 XT Liquid Devil wiegt trocken und ohne weitere Anschlüsse am Terminal, jedoch einschließlich der Stopfen, satte 1654 Gramm und ist damit nicht gerade ein Leichtgewicht! Sie ist mit ihren ca. 27 cm eher mittel-lang, dafür stolze 16 cm hoch (13,5 cm Einbauhöhe ab PEG) und aufgrund der Blende 3,8 cm dick (2-Slot-Design), wobei noch eine Backplate und das PCB mit insgesamt vier weiteren Millimetern dazukommen. Der Kühler ist aus vernickeltem Kupfer mit einer Aluminiumauflage samt Logo. Das Terminal ist massiv und aus Acetal. Die bunte Kraft erstreckt sich als Lichtleiste mit internem aRGB-Anschluss am PCB.

Die Slot-Blende ist nett verziert, trägt 1x HDMI 2.1 und zwei statt drei DP-Anschlüsse. Dafür gibt es allerdings alternativ die USB Type C Buchse. Mehr zum Aufbau, dem Kühler und der Bestückung dann auch noch auf der nächsten Seite beim Teardown.

Technik und Dual-BIOS

Mit den 80 Compute Units (CU) besitzt die RX 6900 XT 5120 Shader. Während der Basistakt des Primary-BIOS (BIOS 1 Normal) mit 2135 MHz und der Boost-Takt mit 2365 MHz angegeben wird, muss das Secondary-BIOS mit 1499 MHz Basistakt (warum eigentlich?) auskommen und darf dafür im Boost bis zu 2499 MHz sprinten, was auch oft genug erreicht und sogar übertroffen wird. Die Karte setzet auf 16 GB GDDR6 mit 16 Gbps, die sich aus jeweils 8 Modulen mit 2 GB Größe ergeben. Dazu gehört auch das 256-Bit Speicherinterface und der 128 MB große Infinity Cache, der das Bandbreitenproblem lösen soll, aber ab Ultra-GD etwas mit der Hitrate zu kämpfen hat.

Die beiden Screenshots aus GPU-Z geben erst einmal Auskunft über die Eck-Daten der beiden BIOSe – links seht Ihr das Normal-BIOS (1), rechts das OC BIOS (2):

 

Doch wo liegen nun die weiteren, viel wichtigeren Unterschiede zwischen den beiden BIOS-Varianten? Die Details sehen wir, wenn man das BIOS ausliest. Schauen wir vor allem mal bei der „Thermal Graphics Power“ nach, denn hier begegnen sich 289 Watt und 301 Watt.

  

Raytracing / DXR

Spätestens seit der Präsentation der neuen Radeon-Karten ist klar, dass auch AMD Raytracing unterstützen wird. Hier geht man einen zu NVIDIA deutlich abweichenden Weg und implementiert einen sogenannten „Ray Accelerator“ pro Compute Unit (CU). Da die Radeon RX 6800 insgesamt 72 CUs besitzt, ergeben sich somit auch 72 solcher Beschleuniger für die Radeon RX 6800XT, bei der kleineren Radeon RX 6800 sind es noch 60. Eine GeForce RTX 3080 kommt auf 68 RT Cores, also nominell erst einmal weniger. Beim Vergleich der kleineren Karten steht es dann 62 für die RX 6800 und 46 für die GeForce RTX 3070. Allerdings sind die RT-Cores anders organisiert und man wird abwarten müssen, was hier Menge gegen Spezialisierung ausrichten kann. Es ist am Ende also erst einmal ein Äpfel und Birnen Vergleich.

Doch was hat sich AMD hier ausgedacht? Jeder dieser Beschleuniger ist erst einmal in der Lage, gleichzeitig bis zu 4 Strahl-/Box-Schnittpunkte oder einen einzigen Strahl-/Dreieckschnitt pro Takt zu berechnen. So berechnet man die Schnittpunkte der Strahlen mit der Szenengeometrie (analog zur Bounding Volume Hierarchy), sortiert sie zunächst vor und gibt diese Informationen dann an die Shader zur weiteren Bearbeitung innerhalb der Szene zurück bzw. gibt das finale Shading-Resultat aus. NVIDIAs RT-Cores scheinen da allerdings deutlich komplexer vorzugehen, wie ich es beim Turing-Launch bereits ausführlich erläutert habe. Was zählt, ist allein das Ergebnis und genau dafür haben wir auch passende Benchmarks.

Smart Access Memory (SAM)

AMD zeigte auf der Präsentation der neuen Radeon-Karten bereits SAM, also Smart Access Memory – ein Feature, das ich heute zusätzlich auch zu den normalen Benchmarks aktiviert habe, womit auch ein direkter Vergleich möglich wird. Doch eigentlich ist SAM nicht Neuers, nur verbal schöner verpackt. Dahinter verbirgt sich nämlich nichts anderes als der clevere Umgang mit dem Base Address Register (BAR) und genau dieser Support muss zwingend auch im Unterbau aktiviert sein. Bei moderner AMD-Grafikhardware spielen größenveränderbare PCI-Bars (siehe auch PCI SIG vom 24.0.4.2008) schon länger eine wichtige Rolle, da die eigentlichen PCI BARs normalerweise ja nur auf 256 MB begrenzt sind, während man bei den neuen Radeon Grafikkarten nun bis zu 16 GB VRAM vorfindet.

Die Folge ist, dass nur ein Bruchteil des VRAM für die CPU direkt zugänglich ist, was ohne SAM eine ganze Reihe von Umgehungslösungen im sogenannten Treiber-Stack erfordert. Das kostet natürlich stets Performance und sollte demzufolge vermieden werden. AMD setzt bei SAM also genau dort an. Neu ist das nicht, muss aber sauber im UEFI implementiert und später auch aktiviert werden. Das wiederum geht nur, wenn das System im UEFI Modus läuft und CSM/Legacy deaktiviert sind.

CSM steht dabei für das Compatibility Support Module. Das Compatibility Support Module gibt es ausschließlich unter UEFI und es sorgt dafür, dass ältere Hardware und Software auch mit UEFI funktioniert. Das CSM ist immer dann hilfreich, wenn nicht alle Hardware-Komponenten zu UEFI kompatibel sind. Einige ältere Betriebssysteme sowie die 32-Bit-Versionen von Windows lassen sich auch nicht auf UEFI-Hardware installieren. Genau diese Kompatibilitätseinstellung verhindert jedoch die saubere und für die neuen AMD-Komponenten benötigte Windows-Variante oft schon bei der Installation.

Zunächst muss man im BIOS nachsehen, ob UEFI oder CSM/Legacy aktiv ist und falls nicht, diesen Schritt unbedingt machen. Erst dann kann man die größenveränderbaren PCI-BARs überhaupt aktivieren und nutzen, doch Stopp – bootet Euer Windows dann überhaupt noch? Wie man einen (älteren) Datenträger von MBR zu GPT konvertiert, damit er unter UEFI sauber erkannt wird, könnte Ihr unter anderem auch im Forum nachlesen, falls es diesbezüglich Fragen gibt, das führt hier jetzt zu weit.
 
Fakt ist, dass AMD hier die Hürden für die Nutzung von SAM recht hoch anlegt und das bisher auch nur spärlich kommuniziert hat. Man setzt eine aktuelle Zen3-CPU voraus, dazu ein B550- oder X570-Motherboard samt aktualisiertem BIOS. Das mit dem UEFI ist dann wiederum eine kleine, aber ungemein wichtige Randnotiz. Man sollte auch anmerken, dass NVIDIA und Intel bereits eigene Lösungen angekündigt haben bzw. in Zukunft nutzen wollen. Einer legt vor, die anderen ziehen nach, wobei man es längst hätte tun können. Hat man aber nicht, warum auch immer. Über 12 Jahre Schublade sind reichlich vertane Zeit. Aber lieber spät als nie.
 

Benchmarks und Auswertung

Für die Benchmarks habe ich, analog zum Launchartikel, die gleichen 10 Spiele gewählt und dabei zwischen alt und neu, sowie AMD- oder NVIDIA-speziell gewichtet. Da sich alles sehr ähnlich zum Launchartikel der Radeon-Karten verhält, gibt es diesmal nur eine kumulierte Zusammenfassung aller Spiele mit einer ausführlichen Erklärung für jede Auflösung. Die Leistungsaufnahme gibt es ebenfalls sehr ausführlich, so wie Ihr es ja auch gewohnt seid.

Testsystem und Auswertungssoftware

Das Benchmarksystem ist neu und setzt nun komplett auf AMD. PCIe 4.0 ist natürlich Pflicht. Dazu gehören das passende X570 Motherboard in Form eines MSI MEG X570 Godlike und der Ryzen 9 5950X, der wassergekühlt betrieben und leicht übertaktet wird. Dazu kommen der passende DDR4 4000 RAM von Corsair in Form des Vengeance RGB, sowie mehrere schnelle NVMe SSDs. Für das direkte Loggen während aller Spiele und Anwendungen nutze ich sowohl NVIDIAs PCAT, als auch mein eigenes Shunt-Mess-System, was den Komfort ungemein erhöht. Die Messung der detaillierten Leistungsaufnahme und anderer etwas komplizierterer Dinge erfolgt im Speziallabor zweigleisig mittels hochauflösender Oszillographen-Technik…

…und dem selbst erschaffenen, MCU-basierten Messaufbau für Motherboards Grafikkarten (Bilder unten), wo am Ende im klimatisierten Raum auch die thermografischen Infrarot-Aufnahmen mit einer hochauflösenden Industrie-Kamera erstellt werden. Die Audio-Messungen erfolgen dann außerhalb in meiner Chamber (Raum-im-Raum).

Die verwendete Software setzt auf meinen eigenen Interpreter samt Auswertungssoftware sowie ein sehr umfangreiches und flexibles Excel-Sheet für die grafische Umsetzung. Die einzelnen Komponenten des Testsystems habe ich auch noch einmal tabellarisch zusammengefasst:

Test System and Equipment
Hardware:
AMD Ryzen 9 5950X OC
MSI MEG X570 Godlike
2x 16 GB Corsair DDR4 4000 Vengeance RGB Pro
1x 2 TByte Aorus (NVMe System SSD, PCIe Gen. 4)
1x 2 TB Corsair MP400 (Data)
1x Seagate FastSSD Portable USB-C
Be Quiet! Dark Power Pro 12 1200 Watt
Cooling:
Alphacool Eisblock XPX Pro
Alphacool Eiswolf (modified)
Thermal Grizzly Kryonaut
Case:
Raijintek Paean
Monitor: BenQ PD3220U
Power Consumption:
Oscilloscope-based system:
Non-contact direct current measurement on PCIe slot (riser card)
Non-contact direct current measurement at the external PCIe power supply
Direct voltage measurement at the respective connectors and at the power supply unit
2x Rohde & Schwarz HMO 3054, 500 MHz multichannel oscilloscope with memory function
4x Rohde & Schwarz HZO50, current clamp adapter (1 mA to 30 A, 100 KHz, DC)
4x Rohde & Schwarz HZ355, probe (10:1, 500 MHz)
1x Rohde & Schwarz HMC 8012, HiRes digital multimeter with memory function

MCU-based shunt measuring (own build, Powenetics software)
Up to 10 channels (max. 100 values per second)
Special riser card with shunts for the PCIe x16 Slot (PEG)

NVIDIA PCAT and FrameView 1.1

Thermal Imager:
1x Optris PI640 + 2x Xi400 Thermal Imagers
Pix Connect Software
Type K Class 1 thermal sensors (up to 4 channels)
Acoustics:
NTI Audio M2211 (with calibration file)
Steinberg UR12 (with phantom power for the microphones)
Creative X7, Smaart v.7
Own anechoic chamber, 3.5 x 1.8 x 2.2 m (LxTxH)
Axial measurements, perpendicular to the centre of the sound source(s), measuring distance 50 cm
Noise emission in dBA (slow) as RTA measurement
Frequency spectrum as graphic
OS: Windows 10 Pro (all updates, current certified or press drivers)

 

Kommentar

Lade neue Kommentare

RedF

Urgestein

4,663 Kommentare 2,552 Likes

Schöne Karte. Das mit den 1499-2499 muss ich auch mal Testen.

Da ich auf einen Kühler von Alphacool warte, stellt sich mir jetzt die frage was ich für WLPads kaufen soll, wenn die mitgelieferten nicht so dolle sind.

Antwort 1 Like

Igor Wallossek

1

10,193 Kommentare 18,807 Likes

Alphacool packt demnächst den heißen Scheiß mit rein. Bröselfaktor garantiert. :D
Die 7 W/mK Pads solten dort auch bald im Shop auftauchen ;)

Antwort 3 Likes

RedF

Urgestein

4,663 Kommentare 2,552 Likes

Na vielleicht habe ich ja glück und mitte April sind schon die neuen Pads mit bei.

Antwort Gefällt mir

Ben87

Veteran

149 Kommentare 34 Likes

Kleiner Hinweis Igor,
Beim voll ausgeschriebenen Namen der Karte steht die Bezeichnung „9800“ ;-) das war doch mal eine ganz alte Radeon oder :-D

Ansonsten wie immer ein super Test!
Grüße

Antwort Gefällt mir

c
cunhell

Urgestein

549 Kommentare 503 Likes

Hallo Igor,
die in der ersten Seite erwähnten Einschränkungen bezüglich SAM gelten nicht mehr, zumindest für die Boards für die es Bios-Updates gibt.
SAM läuft jetzt auch auf Ryzen 3000er Modellen und soweit ich mich erinnere auch auf diversen intel-CPUs. Sollte man ggf anpassen.

Du erwähnst auch die zu dicke WLP und verweist auf später im Artikel. Wenn ich nichts überlesen habe, gehst Du dann aber nicht darauf ein.
Ist nicht dramatisch, aber ich hätte da einen Vergleich des Werkszustands mit einer optimierten WLP-Bestückung erwartet.

Ansonsten wie immer, toller Artikel/Test

Cunhell

Antwort 1 Like

Nerevar

Mitglied

22 Kommentare 12 Likes

@Igor Wallossek
an paar kurze Anmerkungen:

  • auf Seite 2 im Test (Abschnitt über Speichermodule) steht an einer Stelle Sapphire statt Powercolor. Wohl ein kleiner C&P Fehler ;-)
  • im Test gibt es leider keine Test der Akustik. Du schreibst zwar auf Seite 2, dass die Spulen zum Schnarren neigen. Im Video sagst Du aber, die Karte ist lautlos. Genau darum wäre eine Messung einer Karte ohne überlagernde Lüfter-Geräusche sehr interessant gewesen.
  • Sehe ich das richtig, dass die Spulen keinen direkten Kontakt mit dem Kühler haben? Im Teardown sehe ich weder WL-Pads auf dem Block noch der Platine im Bereich der Spulen. Finde ich gut, Du hattest ja mal erklärt, dass Spulen eher eine hohe Betriebstemperatur benötigen statt zu kalter Temps.
  • mit Deiner Anmerkung zu dem Terminal aus Acetal statt Acryl sprichst Du mir aus der Seele. Auch wenn ich selbst noch nie Acryl kaputt bekommen habe, drehe ich G1/4" Gewinde doch nur sehr ungern in Acryl.

Übrigens war die Karte am Donnerstag bei MF auf Lager für 1650€, was in Relation zum bisherigen "Best"-Preis der RedDevil (ca. 1400€) gar nicht so schlecht ist. Da ich keine Lust mehr hatte auf einen Bykski Kühler für eine Nitro zu warten, habe ich eine gekauft.

Antwort 2 Likes

Klicke zum Ausklappem
M
Mausmaki

Mitglied

15 Kommentare 4 Likes

Hallo Igor,

vielen Dank für diesen super Test!

Das mit den Zweit- und Drittbios auf den Radeon Customkarten, die irgendwie keinen Unterschied zum "Standard" bieten, zieht sich jetzt auch schon wie ein roter Faden durch, oder? :D

Schalter für "boost" umlegen, verhaltene 10 watt mehr Leistung für 1 FPS im Schnitt.
Da müssen die Leute wirklich besser per Hand Einstellungen vornehmen.

Nichtsdestotrotz eine schöne, gut gekühlte Karte.

Antwort Gefällt mir

CallistoJaro

Veteran

174 Kommentare 59 Likes

Mit der (Achtung! Offiziell vorgeschriebener Name) “PowerColor Liquid Devil AMD Radeon™ RX 9800 XT Gaming Graphics Card with 16GB GDDR6, AMD RDNA™ 2”

RX 9800 XT 🤔🤔🤔🤔

Antwort 2 Likes

hitzestau

Neuling

4 Kommentare 1 Likes

Ist der Waterblock eigentlich eine Eigenentwicklung oder nur eingekauft?

Antwort Gefällt mir

Nerevar

Mitglied

22 Kommentare 12 Likes

ist doch dick ein EKWB Logo drauf ;-)

Antwort 3 Likes

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Hammer Karte. Brutal, mit manueller Optimierung sicher ein Biest.

Antwort 2 Likes

turbogear

Mitglied

50 Kommentare 22 Likes

Ich würde mich interessieren mit die Ergebnisse von deine manueller Optimierung. :giggle:
Ich habe immer noch Interesse an eine 6900XT Variante die sich gut übertakten last.
Der Standard 6900XT Red Devil die ich gekauft habe war nicht so gut. Ich habe es zurück geschickt.

Ich habe aber ein sehr gute Wassergekühlt 6800XT (EK waterblock) die im spiele wie Cyberpunk auf 2699MHz durchschnittliches takt laufen kann.
Time Spy score 20608 und Port Royal 10466. :giggle:
Ich weiss nicht ob eine 6900XT Karte wie Liquid Devil viel bessere Ergebnisse haben kann. Deswegen ich bin sehr interessiert was du erreichen kann. Official reviewers leider versuchen keine special Optimierungen wie undervolting und MPT. ;)

Hier sind Ergebnisse von meine tests bei Englisch Guru3D forum für die 6800XT reference karte mit Waku.
Leider mein Deutsch ist nicht perfekt. 😌

Antwort 1 Like

Klicke zum Ausklappem
big-maec

Urgestein

828 Kommentare 476 Likes

Hi,
ich nehme den Test mal als Vorschau, wenn ich die Powercolor RX 6900XT Red Devil umbauen würde auf Wasser. Ich denke mal nicht das die das PCB gegenüber einer Red Devil im Großen und Ganzen anders bestückt haben.

Antwort 1 Like

Nerevar

Mitglied

22 Kommentare 12 Likes

die RedDevil und LiquidDevil sind vom PCB identisch. Jedoch kann man den EKWB Kühler nicht einzeln kaufen. Ich kenne ansonsten nur den Alphacool Block für die RedDevil, welcher aber wie alle Alphacool Kühler den Nachteil hat, dass der Durchflusswiderstand sehr hoch ist. Leider bietet Bykski aktuell keinen Kühler für die RedDevil an. Darum ist die LiquidDevil aktuell gar keine schlechte Wahl, wenn man noch keine RedDevil hat oder diese parallel verkauft.

Antwort 2 Likes

Alkbert

Urgestein

931 Kommentare 707 Likes

Ich finde die ganzen Tests der jeweiligen Gegenseite mit Vergleichen zum Referenzmodell - wahlweise und je nach Test - der Nvidia Founders Edition oder der AMD Referenzkarten ja eher lustig und muss da schon mal die Frage in den Raum werfen: Wer zum Teufel hat denn eine Founders Edition ? Fast jede Custom Karte taktet mindestens 4-5 % höher, mal völlig abgesehen von den i.d.R. besseren Kühlkonzepten und ist damit im Schnitt auch um diesen Betrag schneller. Es ist mir schon klar, dass man das nicht in einen Test "einpreisen" kann, wenn man nicht jedes Zeitbudget der Welt sprengen will, aber ich würde hier eher einen "Durchschnitt" der bislang getesteten Karten nehmen, als das langsamste Modell, welches der Markt zu bieten hat.
Das wirft sonst immer ein etwas schräges Bild und provoziert das Fanboy Gejohle auf beiden Seiten.

Antwort Gefällt mir

Homerclon

Mitglied

79 Kommentare 36 Likes

Etwas irritierend, das die 6800 XT / 6900 XT mit SAM als "Referenz" gekennzeichnet ist, während die ohne SAM auf jegliches Suffix verzichtet.
Hab das nun erst bemerkt, nachdem ich mit den Werten im Toxic-Test verglichen habe - dort wird es passend als SAM On gekennzeichnet. Vorher hab ich mich gefragt, was mit "Referenz" gemeint ist. Das im Text auch nicht klar hervor, oder ich habs überlesen.

Ich finde die 6900 XT auch in dieser Variante ziemlich ... fraglich, da kaum nennenswert schneller als die 6800 XT, aber selbst die UVP liegt deutlich höher - die Marktpreise brauchen wir erst gar nicht zu berücksichtigen.

Antwort 1 Like

RedF

Urgestein

4,663 Kommentare 2,552 Likes

Inzwischen kann ja jede aktuelle Platform reBAR. Also kann man SAM on auch als Standard nehmen. Man testet ja auch nicht im z.b. pcie 8x Modus .

Antwort 1 Like

Kurbalaganta

Mitglied

35 Kommentare 14 Likes

@Igor Wallosek: Du schreibst immer von "Brösel-Pads" usw., aber ne richtige Bezeichnung, so dass man nach den Dingern suchen und sie kaufen kann, fehlt irgendwie immer. Ich würde damit nämlich gerne meine 3090 GPX etwas verbessern (bekanntes Problem mit Package-Dicke und dem rückseitigem RAM/Backplate). Aber wonach zum Geier muss ich denn suchen 😝?

Antwort Gefällt mir

Igor Wallossek

1

10,193 Kommentare 18,807 Likes

Ich habe das Zeug direkt aus der Fabrik, der Import ist aber bald durch und ich hoffe mal, dass es auch die guten Oads dann mal im Einzelhandel zu kaufen geben wird. Bissl Geduld noch. :)

Antwort 2 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung