Grafikkarten Testberichte VGA

MSI RX 6800XT Gaming X Trio 16 GB im Test – Vernunft auf leisen Sohlen mit ordentlich Reserven für Übermütige

Nach den bereits ausführlich getesteten Referenzkarten der RX-6000-Serie von AMD hat nun auch die MSI RX 6800XT Gaming X Trio 16 GB als weitere Boardpartnerkarte den weiten Weg zu mir ins Labor gefunden. Die anhaltende Nichtverfügbarkeit dieser ganzen Grafikkarten für die breite Masse ist eigentlich peinlich und umso ärgerlicher, als dass es sich bei diesen Produkten um wirklich gute und konkurrenzfähige Grafikkarten handelt, die es verdient hätten, auch die breite Masse der Kaufwilligen zu beglücken. Eine wirkliche Besserung ist leider noch nicht in Sicht und so teste ich heute ein Produkt, das man hätte kaufen können, wenn es denn dieses auch gegeben hätte oder gibt. Doch immer schön der Reihe nach, denn angucken und Appetit holen ist ja auch eine Lösung. Fies ist und bleibt es aber trotzdem.

Mit der (Achtung! Offiziell vorgeschriebener Name laut AMDs Nomenklatur) “MSI Gaming X Trio AMD Radeon™ RX 6800 XT Gaming Graphics Card with 16GB GDDR6, AMD RDNA™ 2”, die ich im Artikel der Einfachheit halber wieder MSI RX 6800XT Gaming X Trio 16 GB nennen werde, da sonst die Charts und Legenden explodieren würden, liegt hier ein durchaus interessantes RDNA2-Exemplar bereit, bei dem man schon zweimal hinhören muss, um es zu hören. Und MSI hat den Werkstakt nicht allzu hoch angesetzt und lässt damit viel Raum für eigene OC-Experimente. Dass dies geht, werde ich noch zeigen.

Diese Grafikkarte kommt, wie alle RX 6000 Modelle, mit dem neuen Videocodec AV1 zurecht, sie unterstützen erstmals auch DirectX 12 Ultimate und damit eben auch DirectX Raytracing (DXR). Mit AMD FidelityFX bieten sie zudem ein Feature, das Entwicklern zudem mehr Spielraum bei der Auswahl der Effekte ermöglichen soll. Ebenfalls dabei ist Variable Rate Shading (VRS), was immens Rechenleistung sparen kann, wenn Bildbereiche, die ohnehin nicht im Auge des Spielers liegen, in der Darstellungsqualität smart reduziert werden. Soviel zum Feature-Set aller neuen Radeon-Karten.

Mit einem aktuellen Straßenpreis von über 1200 Euro hat der deutsche Handel einen fetten Aufschlag generiert, an den man sich später bei besserer Verfügbarkeit durchaus erinnern sollte. Besonders forsche Shops sollte man wohl in Zukunft besser meiden. Die UVP von etwas über 800 USD liegt gar nicht so weit über der UVP der Referenzkarten, wie es manch anderer Mitbewerber angekündigt hat, ist aber in Anbetracht der aktuellen Scalper-Preise fast schon günstig. Denn wo früher die Straßenpreise als Balsam für die UVP-geplagte Käuferseele galten, muss man sich mittlerweile geradezu vor ihnen (und den Händlern) fürchten.

Optik und Haptik

Die MSI RX 6800XT Gaming X Trio 16 GB wiegt 1552 Gramm und ist damit natürlich schwerer als die Referenzkarte. Sie ist mit ihren satten 32 cm auch länger, stattliche 13,5 cm hoch (Einbauhöhe ab PEG) und dazu 5.4 cm dick (2.5-Slot-Design), wobei noch eine Backplate und das PCB mit insgesamt fünf weiteren Millimetern dazukommen. Der Korpus ist aus zweifarbigem Kunststoff, der MSI-Schriftzug und das Leuchtband auf der Oberseite sind LED-beleuchtet.

 

Versorgt wird der grafische Ziegelstein samt Illumination über zwei standesübliche 8-Pin-Buchsen, also alles wie bekannt und gehabt. Wir sehen hier auch die vertikale Ausrichtung der Kühllamellen und die Platinenverstärkung in Form einer Backplate und eines zur Hälfte reichenden Rahmens.

Die Slot-Blende ist geschlossen, trägt 1x HDMI 2.1 und drei aktuelle DP-Anschlüsse. Die USB Type C Buchse fehlt hingegen. Mehr zum Aufbau, dem Kühler und der Bestückung dann auch noch auf der nächsten Seite beim Teardown.

Technik

Mit den 72 Compute Units (CU) besitzt die MSI RX 6800XT Gaming X Trio 16 GB insgesamt 4608 Shader. Während der Basistakt mit 2045 MHz angegeben wird, liegt der Boost-Takt bei 2285 MHz, der auch erreicht wird. Karte setzet auf 16 GB GDDR6 mit 16 Gbps, die sich aus jeweils 8 Modulen mit 2 GB Größe ergeben. Dazu gehört auch das 256-Bit Speicherinterface und der 128 MB große Infinity Cache, der das Bandbreitenproblem lösen soll. Die Karte verfügt über kein umschaltbares Dual-BIOS, was eigentlich schade ist.

Raytracing / DXR

Spätestens seit der Präsentation der neuen Radeon-Karten ist klar, dass auch AMD Raytracing unterstützen wird. Hier geht man einen zu NVIDIA deutlich abweichenden Weg und implementiert einen sogenannten “Ray Accelerator” pro Compute Unit (CU). Da die Radeon RX 6800 insgesamt 72 CUs besitzt, ergeben sich somit auch 72 solcher Beschleuniger für die Radeon RX 6800XT, bei der kleineren Radeon RX 6800 sind es noch 60. Eine GeForce RTX 3080 kommt auf 68 RT Cores, also nominell erst einmal weniger. Beim Vergleich der kleineren Karten steht es dann 62 für die RX 6800 und 46 für die GeForce RTX 3070. Allerdings sind die RT-Cores anders organisiert und man wird abwarten müssen, was hier Menge gegen Spezialisierung ausrichten kann. Es ist am Ende also erst einmal ein Äpfel und Birnen Vergleich.

Doch was hat sich AMD hier ausgedacht? Jeder dieser Beschleuniger ist erst einmal in der Lage, gleichzeitig bis zu 4 Strahl-/Box-Schnittpunkte oder einen einzigen Strahl-/Dreieckschnitt pro Takt zu berechnen. So berechnet man die Schnittpunkte der Strahlen mit der Szenengeometrie (analog zur Bounding Volume Hierarchy), sortiert sie zunächst vor und gibt diese Informationen dann an die Shader zur weiteren Bearbeitung innerhalb der Szene zurück bzw. gibt das finale Shading-Resultat aus. NVIDIAs RT-Cores scheinen da allerdings deutlich komplexer vorzugehen, wie ich es beim Turing-Launch bereits ausführlich erläutert habe. Was zählt, ist allein das Ergebnis und genau dafür haben wir auch passende Benchmarks.

Smart Access Memory (SAM)

AMD zeigte auf der Präsentation der neuen Radeon-Karten bereits SAM, also Smart Access Memory – ein Feature, das ich heute zusätzlich auch zu den normalen Benchmarks aktiviert habe, womit auch ein direkter Vergleich möglich wird. Doch eigentlich ist SAM nicht Neuers, nur verbal schöner verpackt. Dahinter verbirgt sich nämlich nichts anderes als der clevere Umgang mit dem Base Address Register (BAR) und genau dieser Support muss zwingend auch im Unterbau aktiviert sein. Bei moderner AMD-Grafikhardware spielen größenveränderbare PCI-Bars (siehe auch PCI SIG vom 24.0.4.2008) schon länger eine wichtige Rolle, da die eigentlichen PCI BARs normalerweise ja nur auf 256 MB begrenzt sind, während man bei den neuen Radeon Grafikkarten nun bis zu 16 GB VRAM vorfindet.

Die Folge ist, dass nur ein Bruchteil des VRAM für die CPU direkt zugänglich ist, was ohne SAM eine ganze Reihe von Umgehungslösungen im sogenannten Treiber-Stack erfordert. Das kostet natürlich stets Performance und sollte demzufolge vermieden werden. AMD setzt bei SAM also genau dort an. Neu ist das nicht, muss aber sauber im UEFI implementiert und später auch aktiviert werden. Das wiederum geht nur, wenn das System im UEFI Modus läuft und CSM/Legacy deaktiviert sind.

CSM steht dabei für das Compatibility Support Module. Das Compatibility Support Module gibt es ausschließlich unter UEFI und es sorgt dafür, dass ältere Hardware und Software auch mit UEFI funktioniert. Das CSM ist immer dann hilfreich, wenn nicht alle Hardware-Komponenten zu UEFI kompatibel sind. Einige ältere Betriebssysteme sowie die 32-Bit-Versionen von Windows lassen sich auch nicht auf UEFI-Hardware installieren. Genau diese Kompatibilitätseinstellung verhindert jedoch die saubere und für die neuen AMD-Komponenten benötigte Windows-Variante oft schon bei der Installation.

Zunächst muss man im BIOS des Motherboards nachsehen, ob UEFI oder CSM/Legacy aktiv ist und falls nicht, diesen Schritt unbedingt machen. Erst dann kann man die größenveränderbaren PCI-BARs überhaupt aktivieren und nutzen, doch Stopp – bootet Euer Windows dann überhaupt noch? Wie man einen (älteren) Datenträger von MBR zu GPT konvertiert, damit er unter UEFI sauber erkannt wird, könnte Ihr unter anderem auch im Forum nachlesen, falls es diesbezüglich Fragen gibt, das führt hier jetzt zu weit.
 
Fakt ist, dass AMD hier die Hürden für die Nutzung von SAM recht hoch anlegt und das bisher auch nur spärlich kommuniziert hat. Man setzt eine aktuelle Zen3-CPU voraus, dazu ein B550- oder X570-Motherboard samt aktualisiertem BIOS. Das mit dem UEFI ist dann wiederum eine kleine, aber ungemein wichtige Randnotiz. Man sollte auch anmerken, dass NVIDIA und Intel bereits eigene Lösungen angekündigt haben bzw. in Zukunft nutzen wollen. Einer legt vor, die anderen ziehen nach, wobei man es längst hätte tun können. Hat man aber nicht, warum auch immer. Über 12 Jahre Schublade sind reichlich vertane Zeit. Aber lieber spät als nie.
 

Benchmarks, Testsystem und Auswertungssoftware

Für die Benchmarks habe ich, analog zum Launchartikel, die gleichen 10 Spiele gewählt und dabei zwischen alt und neu, sowie AMD- oder NVIDIA-speziell gewichtet. Da sich alles sehr ähnlich zum Launchartikel der Radeon-Karten verhält, gibt es diesmal nur leine kumulierte Zusammenfassung aller Spiele mit einer ausführlichen Erklärung für jede Auflösung. Die Leistungsaufnahme gibt es ebenfalls sehr ausführlich, so wie Ihr es ja auch gewohnt seid.

Das Benchmarksystem ist neu und ich setze nunmehr auch auf PCIe 4.0, passende X570 Motherboards in Form der MSI MEG X570 Godlike und einen selektierten Ryzen 9 5950X, der wassergekühlt übertaktet wurde (PBO + 500 MHz). Dazu kommen der passende DDR4 4000 RAM von Corsair, sowie mehrere schnelle NVMe SSDs. Für das direkte Loggen während aller Spiele und Anwendungen nutze ich meine eigene Messstation mit Shunts und Riser-Karte, sowie NVIDIAs PCAT in Spielen, was den Komfort ungemein erhöht.

Die Messung der detaillierten Leistungsaufnahme und anderer, tiefergehender Dinge erfolgt hier im Speziallabor auf einem redundanten und bis ins Detail identischem Testsystem dann zweigleisig mittels hochauflösender Oszillographen-Technik…

…und dem selbst erschaffenen, MCU-basierten Messaufbau für Motherboards und Grafikkarten (Bilder unten), wo am Ende im klimatisierten Raum auch die thermografischen Infrarot-Aufnahmen mit einer hochauflösenden Industrie-Kamera erstellt werden. Die Audio-Messungen erfolgen außerhalb in meiner Chamber (Raum im Raum).

Die einzelnen Komponenten des Testsystems habe ich auch noch einmal tabellarisch zusammengefasst:

Test System and Equipment
Hardware:
AMD Ryzen 9 5950X OC
MSI MEG X570 Godlike
2x 16 GB Corsair DDR4 4000 Vengeance RGB Pro
1x 2 TByte Aorus (NVMe System SSD, PCIe Gen. 4)
1x 2 TB Corsair MP400 (Data)
1x Seagate FastSSD Portable USB-C
Be Quiet! Dark Power Pro 12 1200 Watt
Cooling:
Alphacool Eisblock XPX Pro
Alphacool Eiswolf (modified)
Thermal Grizzly Kryonaut
Case:
Raijintek Paean
Monitor: BenQ PD3220U
Power Consumption:
Oscilloscope-based system:
Non-contact direct current measurement on PCIe slot (riser card)
Non-contact direct current measurement at the external PCIe power supply
Direct voltage measurement at the respective connectors and at the power supply unit
2x Rohde & Schwarz HMO 3054, 500 MHz multichannel oscilloscope with memory function
4x Rohde & Schwarz HZO50, current clamp adapter (1 mA to 30 A, 100 KHz, DC)
4x Rohde & Schwarz HZ355, probe (10:1, 500 MHz)
1x Rohde & Schwarz HMC 8012, HiRes digital multimeter with memory function

MCU-based shunt measuring (own build, Powenetics software)
Up to 10 channels (max. 100 values per second)
Special riser card with shunts for the PCIe x16 Slot (PEG)

NVIDIA PCAT and FrameView 1.1

Thermal Imager:
1x Optris PI640 + 2x Xi400 Thermal Imagers
Pix Connect Software
Type K Class 1 thermal sensors (up to 4 channels)
Acoustics:
NTI Audio M2211 (with calibration file)
Steinberg UR12 (with phantom power for the microphones)
Creative X7, Smaart v.7
Own anechoic chamber, 3.5 x 1.8 x 2.2 m (LxTxH)
Axial measurements, perpendicular to the centre of the sound source(s), measuring distance 50 cm
Noise emission in dBA (slow) as RTA measurement
Frequency spectrum as graphic
OS: Windows 10 Pro (all updates, current certified or press drivers)

Lade neue Kommentare

Jicaraen

Mitglied

35 Kommentare 13 Likes

Gerade bei den 6800er XT Karten ist es wirklich schade. Klar ich bin froh um die 3070 die ich ergattern konnte, allerdings wäre mir eine 6800er XT bedeutend lieber gewesen. Danke für den Test!

Antwort Gefällt mir

Igor Wallossek

Format©

5,173 Kommentare 7,982 Likes
T
TRX

Mitglied

24 Kommentare 15 Likes

"Mit einem aktuellen Straßenpreis von über 1200 Euro hat der deutsche Handel einen fetten Aufschlag generiert, an den man sich später bei besserer Verfügbarkeit durchaus erinnern sollte. Besonders forsche Shops sollte man wohl in Zukunft besser meiden."

Sehe ich anders. Ich zähle zu denen, die sich auch zu dem Preis problemlos vom monatlichen Überschuss ein solches Kärtchen kaufen können. Und mir ist es lieber, die Karte teuer als gar nicht erwerben zu können. Ich habe keine Zeit, stundenlang auf der F5-Taste herum zu drücken. Aber ich habe das Geld, mir die überteuerte Karte zu kaufen. Und dann doch noch lieber von einem Seriösen Online-Shop als von Ebay...
Außerdem haben wir eine freie Markwirtschaft. Ist die Resource knapp, ist sie teuer.

"Die Backplate aus Graphen..."
@Igor: Hast du dazu noch ein paar Infos? Reines Graphen ist es ja sicher nicht, sonst wäre die Backplate technisch nicht machbar. Es wird sich schlicht um Spritzguss mit Graphen/Graphit-Zusatz zur Verbesserung der Wärmeleitfähigkeit handeln. Ich wäre aber an der vollständigen Material-Bezeichnung zwecks Recherche der Materialeigenschaften (oder im Idealfall direkt einem Datasheet) interessiert.

Antwort Gefällt mir

Klicke zum Ausklappem
Chismon

Mitglied

16 Kommentare 10 Likes

Naja, mehr als 150 Euro Aufpreis gegenueber der UVP der (dieses Mal) sehr gelungenen (RX 6800XT) Referenzkarte von AMD/RTG ist zumindest fuer meinen Geschmack zu hoch angesetzt und aus meiner Sicht zweifelhaft angemessen, zumal es ja keine wassergekuehlte Karte ist und auch kein MSI Lightning (oder Suprim?) Top-Modell, auch wenn die MSI Gaming X Modelle i.d.R. seit langem schon ueberdurchschnittlich solide bis sehr gut abschneiden in Tests (egal ob bei nVidia oder AMD/RTG GPUs).

Natuerlich ist mir bewusst, dass die Konkurrenz von XFX etwa (mit 799 Euro UVP fuer die Merc 319 RX 6800XT, wenn ich mich richtig erinnere) und die noch deutlich teurer angesetzten Gigabyte Custom-Modelle der RX 6800XT in aehnlichen Preisgefilden anzutreffen sind wie die im Artikel vorgestelle MSI Karte, so dass MSI da preislich bestenfalls nachzieht bzw. sich an der Konkurrenz orientiert.

Nun gut, man muss selbst wissen, wo man die Grenze fuer sich zieht, Preise fuer eine nicht gerade sparsame und massiv Abwaerme generierende Karte mit RT-Raytracing Faehigkeiten leicht ueber dem Level des Flaggschiffs der nVidia Vorseriengeneration (das Nischen-Feature DLSS 2.0 nicht eingerechnet) sind mir keine 800+ Euro wert (auch nicht, falls AMD/RTG mit einem Pendant zu DLSS 2.0 irgendwann aus den Poetten kommen sollte), bei 600+ Euro koennte ich schwach werden, aber bis diese Preisbereiche irgendwann einmal von Custom-Modellen erreicht werden (wenn die GPUs dann nicht aktuellen Trends nach vorher EOL gehen/die Chips nicht mehr hergestellt werden) duerfte es noch eine sehr lange Weile hin sein (so ein Krypto-Mining-Boom kann sich gefuehlt ewig ziehen, laenger noch als Pandemieauslaufeffekte).

Es kursieren ja mittlerweile schon wieder neue Geruechte zu RDNA3 als angeblichem (Dual-)MCM-Design mit 2x80 CUs in der (Navi31 Chip) Flaggschiffversion, was - auch in kolportierter TSMC 5nm Fertigung - schon maechtig gegen einen Trend zu besserer Effizienz, weniger Abwaerme und kleineren Netzteile sprechen wuerde (auch wenn das Marketing da wohl wieder mit Performance/Watt Benchmarks einem versuchen wird den womoeglich insgesamt noch hoeheren Verbrauch schmackhaft zu machen ... gut, das Topmodell wird sowieso kein Vernunftskauf werden, davon sind ja RTX 3090 und RX 6900XT aktuell eigentlich auch schon etwas entfernt).
Dagegen sind von der kolportierten, naechsten nVidia Lovelace 102er GPU angeblich nur 144 SMs (kommend von den 84SMs beim GA102 Grosschip) zu erwarten, was vergleichsweise zierlich waere und den Anschein hat, dass AMD/RTG sich doch maechtig nach der Gaming-GPU-Krone mit RDNA3 strecken wird.

Next-Gen GPU architectures
AMD NAVI 21 AMD NAVI 31 NVIDIA GA102 NVIDIA AD102
Architecture RDNA2 RDNA3 Ampere Lovelace
Fabrication Node 7nm TSMC 5nm TSMC TBC 8nm SAMSUNG TBC
GPU Clusters 80 CU 2x 80 CU 84 SM 144 SM
Max Total Cores

5120

10240

10752

18432

Memory GDDR6 TBC GDDR6X TBC
Launch Date 2020 2021-2022 2020 2022+

Ueber (evt. interessantere) Navi33 Grafikkarten wird bei RedGaming Tech auch schon ansatzweise spekuliert:

Antwort 1 Like

Klicke zum Ausklappem
Jicaraen

Mitglied

35 Kommentare 13 Likes

Das freut mich sehr für dich und das meine ich wirklich ernst, die Frage ist allerdings, ob man sich trotzdem jeden Händleraufschlag gefallen lassen muss oder nicht einfach mal nein sagt, völlig unabhängig davon ob man sich die Karte leisten kann oder nicht.

Antwort 2 Likes

Plugie

Mitglied

11 Kommentare 4 Likes

Also ich selbst habe mir die Karte gegönnt. Aber 1.200€ wäre auch mir zu viel des Guten. 1.049€ bei Mindfactory waren schon 49€ über meiner Schmerzgrenze aber was macht man nicht alles fürs schön sein...zumindest auf dem Monitor und die Verfügbarkeit wird in den nächsten Monaten ja auch nicht besser.

2 Anmerkungen noch zu der Karte:

1. Es gibt noch einen Stützarm dazu. Ich kann ihn nicht nutzen da er nur für den "normalen" Einbau gedacht ist. Da ich aber ein reversed Case hab klappt das nicht

2. Der LED Streifen an der Backplate ist jetzt alles nur nicht hübsch. Man sieht die einzelnen LED durch das Plaste leuchten. Das hätte man besser lösen können

Antwort Gefällt mir

Klicke zum Ausklappem
R
RX Vega_1975

Veteran

440 Kommentare 42 Likes

Dan hat Igor aber ganze Andere Werte als ein End-User bei 3D Center.

Antwort Gefällt mir

M
Megaone

Mitglied

11 Kommentare 4 Likes

Ich bin ehrlicherweise ein bekennender Fan von Igorslab und war auch mal sowas wie ein AMD Fanboy, aber gerade die neue Grafikkartenserie hat mich bewogen das ganze zu überdenken. Die Karte ist sicher Top und AMD kann das erstemal einigemaßen mit NVDIA mithalten, aber unterm Strich wird sie sehr positiv dargestellt. Gerade die hohen Hürden für Sam finde ich Seitens AMD extrem fragwürdig. Natürlich kann und muss man die Leistung der Karte mit Sam berücksichtigen, aber dann gehört in so einen Vergleich meiner Meinung nach auch die RT Leistung und der Vergleich mit DLSS. Entscheiden wie relevant das individuell ist, kann ja jeder selbst. Für mich ist die aktuelle AMD Serie technich doch eher auf 2000er Niveau. Sicher, übertaktet bis zum Anschlag mit Sam in NON 4K Auflösungen kann Sie den Nvdia Karten Paroli bieten. Aber spätetstens in 4 K und zugeschaltetem RT sieht es wieder anders aus. Von DLSS Games mal ganz abgesehen. Betrachtet man die empfohlenen VK`s ist die Diskussion sicher wieder eine andere, aber bei den aktuellen Preisen wird eine 3090er immer attraktiver.

Antwort Gefällt mir

Klicke zum Ausklappem
l
lokalhorsty

Neuling

9 Kommentare 6 Likes

das hat nichts mehr mit Marktwirtschaft zu tun.
Der Markt ist in allen Bereichen leer gefegt. Der Grafikkartenmarkt ist wie zu DDR Zeiten in der DDR der Auto Gebrauchtwagenmarkt, ein Mangelmarkt.
Es partipizieren zu Viele von dem Mangel siehe. Igors Infos
Im Moment brauch ich eine neue Karte zu diesem Kaliber, aber ich werde die momentanen Preise nicht bezahlen. Man muss diesen ganzen Wahnsinn der Profitgeilheit nicht auch noch befeuern. Auch wenn man das zahlen könnte ist es in meinen Augen nicht wert!

Antwort 3 Likes

M
Megaone

Mitglied

11 Kommentare 4 Likes

Es ist an dieser Stelle eine Frage der Einstellung. Die Karten sind deutlich Leistungsfähiger wie die Vorgängergeneration. Wären sie mit einer anderen UVP rausgekommen, würde keiner meckern. Ausserdem werden Vorgängerkarten ebenfalls gebraucht sehr hoch gehandelt. Ich will das nicht schön reden, aber thats live. Ich habe mir vor Monaten eine 3090er gegönnt und es ist Kübelweise Hohn und Spott über mich gegossen worden, als man noch glaubte, die AMD Karten gäbe es zu den UVP`s. Mittlerweile Spiele ich knapp 4 Monate damit und bin happy.

Ausserdem kann man auch davon profitieren. In meinem Zweítrechner werkelt eine relativ junge 2080 Super. Gelingt es mir eine 3080 zum Listenpreis zu ergattern, was immer mal wieder möglich ist, liegt der Aufpreis gerade mal um die 300 Euro.

Am Ende eines langen Tages weiss niemand wann die Preise wieder ein erträgliches Niveau erreichen und ich bin einfach zu Alt um darauf zu warten das irgendwann irgendwas billiger wird wenn ich es wirklich haben will.

Ein Raucher, der täglich eine Schachtel Zigaretten raucht, zieht sich eine 3090er in 9 Monaten durch die Lunge und hat deutlich weniger Rechfertigungsdruck.

Antwort Gefällt mir

Klicke zum Ausklappem

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter