Grafikkarten Grundlagenartikel Motherboard Netzteile Prozessor System Testberichte

Einblicke in ATX v3.0, ATX12VO v2.0 und PCIe 5.0 – Wenn Ressourcenverschwendung zum neuen Standard wird | Investigativ

Kommen wir nun zum neuen ATX-Standard 3.0 und dem, was da gerade im Spezifikations-Hinterzimmer unter Einbeziehung der CPU- und GPU-Hersteller heimlich ausgeknobelt wird. Das Ganze hat es wirklich in sich und genau hier setzt auch mein Kritikpunkt an. Zum Einen können derart konstruierte Netzteile durchaus Probleme mit ältere Systemen verursachen (was z.B. aus Sicht eines bestimmten CPU-Herstellers ein zu duldender Kollateralschaden wäre) und zum Anderen verkompliziert es die Herstellung (und Kosten) wirklich effizienter Netzteile und Gesamtsysteme nur unnötig. Womit ich danach auch noch ein Wort zum von Intel propagierten ATX12VO v2.0 loswerden muss, der gegen jegliche Logik der Nachhaltigkeit und Sinnhaftigkeit verstößt und damit nur dem Interesse des Protagonisten dient. Doch dazu gleich mehr.

Leistungsaufnahme und Lastspitzen als extremer Mix

Kommen wir nun zu dem, was Intel den Herstellern für 2022 mit auf den Weg gegeben hat und staunen erst einmal über die Zahlen. Wer es nicht weiß: Mit CEM meint die PCI SIG Card Electromechanical, also die eingesteckten Add-In Karten. Der CPU-Hersteller veranschlagt für die CPU zwischen 275 und 300 Watt, was allerdings reichlich großzügig ist. Allerdings ist es auch mir schon gelungen, in einen Core i9-12900KF weit über 300 Watt hineinzupressen, was dann die großzügige Bemessung schnell wieder relativiert.

Die Leistungsaufnahmewerte der Grafikkarten sind auch alles andere als utopisch, denn auch ohne OC kolportiert man für AMDs und NVIDIAs neue Flaggschiffe um die 500 bis 550 Watt echte Board-Power. Wehe, wenn dann noch Übertaktungsspielraum besteht. Die Veranschlagung für den Rest des Systems ist ziemlich inkonsequent, denn der Ansatz mit 100 Watt ist bei Mainboard-Leistungsaufnahmen von bis zu 50 Watt auch im unteren Bereich schon etwas eng, während die 300 Watt beim größten System etwas übertrieben sind. In der Summe dürfte das aber trotz allem irgendwie hinkommen.

Die veranschlagten Werte für die PSU-Bemessung  („PSU Size“)  sind damit geklärt, doch was hat es bitte schön mit der Total Power auf sich? Genau darüber müssen wir jetzt einmal reden, denn es ist genau der Part, der mir (und den Netzteilherstellern) die meisten Sorgen bereitet! Auch dafür gibt es von Intel eine definierte Vorstellung und gleichzeitige Ansage an die Produzenten der Stromversorger. Schauen wir uns das jetzt einmal an und bekommen große Augen. Auch wenn die Länge der höchsten Lastspitzen-Intervalle auf jeweils 100 μS begrenzt ist, ist der zulässige Gesamtanteil von bis zu 10% am Gesamtaufkommen geradezu abstrus. Das heißt, das Netzteil muss über 10% der Betriebsdauer eigentlich 200% der Leistung abliefern.

Damit wird aus dem 1,2 kW-Netzteil eigentlich ein verkapptes 2,4 kW-Netzteil. Denn man definiert so auch, dass der Normalbetrieb ohne Aufschlag bei gerade mal 50% liegen kann und die restliche Zeit munter überlastet werden darf. Natürlich wird dies alles mehr oder weniger auch auf eine reine Single-Rail-Lösung hinauslaufen, aber rein elektrotechnisch ist dies glatter Wahnsinn. Welche Supervisor-Chip soll hier noch in einem fest definierten Intervall eine zuverlässige Schutzschaltung für OCP/OPP realisieren können? Was ist dann noch eine zulässige Last und wo beginnt der Notfall?

ATX v3.0 – Grenzwerte aufweichen, Augen zu und irgendwie durch!

Und als wäre das alles noch nicht genug ökologischer und schaltungstechnischer Unsinn, setzt man gleich noch einen drauf. Denn auch wenn vielleicht einige der Hersteller mit entsprechend aufzubringenden Kosten in der Lage wären, solche Netzteile auch unter den aktuell geltenden ATX-Spezifikationen zu realisieren, liegt die Messlatte an die Qualität der Netzteile und die einzuhaltenden Grenzwerte für die meisten der Billigproduzenten doch viel zu hoch. Oder die Produkte wären dann zumindest wieder so teuer, dass die Akzeptanz komplett gegen null ginge. Also biegt man sich das Ganze etwas zurecht und riskiert damit sogar noch die Abwärtskompatibilität. Beginnen wir aber wieder bei der PCI SIG und schauen, was man dort vorgibt:

Soweit, so klar. Und nun kommen die Lastspitzen („Transienten“) ins Spiel. Das wiederum betrifft das Netzteil und die sogenannte DC-Ausgangsspannungsregelung, die man zur Bewältigung von Leistungsschwankungen benötigt. Ihr kennt ja mein Hobby mit dem Aufspüren und Dokumentieren solcher Transienten und glaubt man dem, was aus den R&D der Grafikkartenhersteller an Informationen so herauströpfelt, dann wird es in nicht allzu weiter Zukunft recht ordentlich zur Sache gehen.

Den aktuellen Stand mit einer GeForce RTX 3090 FE, dem Core i9-12900KF und einem MSI MAG Z690 Unify habe ich einmal gegengetestet und es sind bereits jetzt und ohne OC, sowie ohne weitere Komponenten (außer den beiden SSDs) fast 800 Watt, die hier als Lastspitzen zuschlagen können. Mit einer gut gekühlten GeForce RTX 3090 und einem 450 Watt BIOS lägen wir dann heute schon mit etwas Pech bei 1000 Watt und darüber, denn die Spikes steigen ja nicht linear, sondern fast schon exponentiell.

Wir sehen ja, dass die Vorgaben mit den Toleranzwerten für die Grafikkarten von +5% bzw. -8 Prozent von den 12 Volt Nominalspannung durch die PCI SIG zwar bereits jetzt nicht sonderlich eng gesetzt wurde, aber die Gefahr einer Unterspannung durch noch schnellere und häufiger auftretende Lastwechsel (wir erinnern uns jetzt bitte an die bis zu 50% der Betriebsdauer) damit leider noch realer geworden ist. Wir rechnen einmal: Die -8% von 12 Volt sind -0,96 Volt und damit 11.04 Volt. die nicht unterschritten werden dürfen. Das ist deutlich großzügiger ausgelegt als die aktuellen ATX-Spezifikationen, die lediglich 11.4 Volt gestatten.

Dieser untere Wert soll bei ATX 3.0 aber nun auf 11.2 Volt abgesenkt werden, um die Lastspitzen großzügiger behandeln zu können. Da das in der Realität allein aber sicher immer noch nicht reicht und man ja auch den Spagat der Abwärtskompatibilität hinbekommen muss, will man bei ATX 3.0 bzw. ATX12VO v2.0 die 12 Volt Nominalspannung zusätzlich moderat auf 12.2 Volt anheben. So dass aus den 0.6 Volt der alten Spezifikation ein sattes Volt würde, das man nun als Schwankung zulässt. Das klingt erst einmal smart, ist aber gefährlich für andere Hardware, die empfindlich gegen Übervoltung ist. Dazu gehören auch Verbraucher mit diversen Kleinspannungen, die durch mehrere kaskadierte Step-Down-Konverter gewonnen wird und deren Endprodukt dann bereits deutlich vom geplanten und benötigten Spannungsfenster abweichen kann.

ATX12VO v2.0

Die von Intel propagierte Reduzierung der Netzteile auf pure 12,2-Volt-Lieferanten ist nicht nur schaltungstechnisch höchst unsinnig, sondern auch reichlich ineffizient. Ich kenne mehrere diesbezügliche Motherboard-Layouts, wo das Erzeugen der weiteren Teilspannungen bis hin zu den leistungshungrigen 5-Volt-Anschlüssen (USB 4 / TB 4) eine echte Herausforderung darstellt. Würde man das wirklich konsequent umsetzen wollen, dann gäbe es kein Motherboard ohne aktive Kühlung mehr und bereits das Micro-ATX Format wäre obsolet. Was man im ITX-Bereich aktuell mit den Kleinstplatinen und niedriger Leistungsaufnahme noch einigermaßen effizient hinbekommt, wird in den Leistungsbereichen aktueller PCs dann schnell zur Farce.

Gute Netzteile halten über mehrere Jahre und Garantiezeiten von 5 bis 10 Jahren sind auch keine Seltenheit. Statistisch gesehen werden aber jetzt schon Motherboards deutlich häufiger ersetzt als Netzteile. Verfrachtet man dann noch die ganzen DC-DC-Regler mit aufs Motherboard, würde dieses nicht nur signifikant teurer, sondern es würden bei jedem Ausfall oder Austausch auch wertvolle Ressourcen sinnlos verschwendet. Dann wird schnell mit entsorgt, was vielleicht noch funktioniert. Und dann sind ja auch noch die Schutzschaltungen, die es zu implementieren gilt.

Die Fehlerquote eines Motherboards würde zudem ebenfalls steigen, das haben erste statistische Erhebungen und MTBF-Tests an den Platinen ergeben. Auch das ist einer der Gründe, warum die komplette Netzteil- und Motherboard-Industrie gegen diesen überflüssigen Anschluss ist und lautstark rebelliert. Es ist zumindest erstaunlich, dass es Intel im Gegensatz zu anderen Normierungsversuchen nicht geschafft hat, sich trotz erdrückender Marktpräsenz und Einflussmöglichkeiten irgendwie damit durchzusetzen. Das will schon etwas heißen. Nichtsdestotrotz wird auch der ATX12VO v2.0 mit auf 12.2 Volt angehoben.

Zusammenfassung und Fazit

Ich halte den Ansatz, immer mehr an Leistung zuzuführen, nur um immer mehr Performance zu generieren, für den komplett falschen Weg, zumindest im Consumer-Bereich. Diese Spirale zu durchbrechen und das Know-How samt technischem Fertigungsfortschritt stattdessen für mehr Umweltverträglichkeit und Nachhaltigkeit einzusetzen, wäre mit Sicherheit das eigentliche Gebot der Stunde. Nur sind AMD, Intel und NVIDIA leider Firmen, an deren Hauptsitz elektrische Energie keine Rolle zu spielen scheint, weil auch alles, das wenig kostet, nicht die nötige Wertschätzung erfährt.

Aktuell muss man zwar an keinen explizit appellieren, derartige Produkte zu meiden, da es sie eh nicht zu kaufen gibt (bzw. die Verfügbarkeit der Nachfolger noch komplett in den Sternen steht), aber es wäre durchaus an der Zeit, darüber nachzudenken, wo das alles noch hinführen soll und ob man sich diesem Konsumzwang widerstandlos unterwerfen möchte. Das möchte ich den Lesern mal mit auf den Weg geben, wobei es ja am Ende jeder selbst in der Hand hat. Mit dem unsäglichen Mining will ich hier gar nicht erst anfangen, das ist aus meiner Position heraus eh sinnlos.

 

109 Antworten

Kommentar

Lade neue Kommentare

Blubbie

Urgestein

808 Kommentare 275 Likes

Schlimm und dumm.
Für mich wäre das ein Rückschritt und kein Fortschritt in der Technik.

Was verbraucht eigentlich eine PS5 oder Xbox - x unter last?

Die haben doch beide keine wakü/AiO und müssen Wohnzimmer verträglich sein.

Wenn zukünftige GPUs 500-600 Watt schlucken kann e die doch nur noch mit vorinstallierter wakü geben oder?

Eigentlich sollte der Energieverbrauch doch mit immer kleinerer Fertigung und besseerer, effizienter Architektur immer geringer und nicht größer werden. :unsure:o_O

Antwort 4 Likes

DaBo87

Mitglied

74 Kommentare 49 Likes

Strom ist andernorts wohl immer noch zu billig und wächst auf Bäumen, anders kann ich mir so etwas nicht erklären.
Wo bleibt eine CPU- bzw. GPU Produktlinie, die die Chips am Sweetspot, maximal effizient konfiguriert (Chipgüte außen vor) auf den Markt wirft? DAS wäre mal Fortschritt.

Antwort 5 Likes

Martin Gut

Urgestein

7,718 Kommentare 3,537 Likes

Ja und nein. Ein kleinerer Transistor und kürzere Leitungen brauchen weniger Strom um zu schalten. Die Isolationsschichten zwischen den Leistungen sind aber schon so dünn, dass Kriechströme ein immer grösseres Problem werden. Das ist so zu sagen ein teilweiser Kurzschluss zwischen den Leitungen und das verbraucht dann mehr Strom je dünner die Isolationsschicht ist.

Genau, vor etwa 300 Mio. Jahren. :rolleyes: Und jetzt verheizen wir in 300 Jahren, was in 30 Mio Jahren entstanden ist.

Antwort 5 Likes

grimm

Urgestein

3,066 Kommentare 2,023 Likes

Bevor ich weiterlese - schon das Bild ist der Knaller :ROFLMAO:

Antwort 7 Likes

LEIV

Urgestein

1,542 Kommentare 620 Likes

Ganz deiner Meinung:

Mehr solcher Tabellen, auch für die CPUs, vielleicht sogar für Mainboards?

Antwort 1 Like

Igor Wallossek

1

10,103 Kommentare 18,586 Likes

Das gibts sogar noch als Greta-Edition mit getuntem Diesel-Truck als Version 2.0 :D
Alle Bosheiten der Welt in einem Bild, ok - die Grafikkarte fehlt. :P

View image at the forums

Antwort 14 Likes

Thy

Urgestein

1,843 Kommentare 744 Likes

Ich hatte mir letztes Jahr eine Xbox Series X gekauft, um die Konsole mal auszuprobieren und um einer nötigen Aufrüstung meines bestehenden PC-Systems mit einer neuen und überteuerten Grafikkarte vorzubeugen. Von der Grafik her war das schon nicht schlecht und die Konsole hat auch nie mehr als 200 W aus der Dose gezogen, aber da ich einfach kein Konsolenspieler bin, habe ich das Teil dann nach einem halben Jahr zum Einkaufspreis weiterverscherbelt. Im Sommer hatte ich eh anderes zu tun. Mal sehen, wie und wann ich nun aufrüsten werde.

Antwort 2 Likes

grimm

Urgestein

3,066 Kommentare 2,023 Likes

Meine erste eigene Plattform war zwar eine Amiga, aber danach bin ich komplett Nintendo in die Hände gefallen. Sieht so aus, als ob es das dann auch wieder wird.
Mir erschließt sich der Sinn nicht: Werden das dann die ultimativen Mining-Boliden?
Wenn ich mir den sonstigen Markt (Nachfrage) anschaue: Im Vergleich zu Streaming-Angeboten (Geforce Now, Stadia, ...) in Kombi mit schnellem Internet werden diese Blockheizkraftwerke noch unattraktiver.
Davon ab: China hat letzten Monat zwei Dienstleistern den Strom abgedreht und damit faktisch die Fabriken lahmgelegt - einfach, weil sie ihr CO2-Ziel zu verfehlen drohten. Gerade in den größten Märkten (=Industrienationen) wird es darum gehen Energie-effizienter zu werden. Die hier skizzierten Produkt-Entwicklungen sind Totgeburten.
Und: Ich persönlich habe bzgl. der Spielegrafik keine weiteren Anforderungen nach oben. Wenn 4K@90/120Hz flüssig läuft - was soll noch kommen? 8K? Ich hab ja für RT schon kaum Zeit, wenn ich das durch Mexiko rase... Ich steh sogar drauf, wenn ich sehe, dass es ein Spiel ist und nicht die Realität. Oder ist das schon die System-Anforderung für Zuckerbergs "Metaverse" in 4K?!

@Igor Wallossek Lass doch das schwedische Kind in Frieden. Sie mag nerven, aber in der Sache hat sie Recht. Und zum Volvo: Hätten die damals nen Benziner gehabt, wäre ein Schwedenpanzer auch meine erste Wahl gewesen... (y)

Edit: Verpixel mal lieber dein Nummernschild - wenn es echt ist.

Antwort 7 Likes

Klicke zum Ausklappem
Thy

Urgestein

1,843 Kommentare 744 Likes

Hach, mein Amiga, das waren noch Zeiten. Mein erster richtiger Einstieg in die Computerwelt 1987. Alle Spiele liefen problemlos, da direkt auf die verfügbaren Ressourcen optimiert. 1990 habe ich ihm dann noch die Speichererweiterung auf 1 MB spendiert und habe das Teil noch bis 1993 mit Freude betrieben. Danach wurden die PCs mächtiger.

Antwort 1 Like

Igor Wallossek

1

10,103 Kommentare 18,586 Likes

Das "Kind" ist mittlerweile eine Erwachsene mit leicht anti-semitischem Einschlag und einer eher undurchsichtigen Finanzierung. Die muss das einfach abkönnen, die Präsenz ist doch selbst so gewählt. Etwas Ironie ist immer drin, solange es nicht persönlich wird.

Warum soll ich das Schild verpixeln? Ist eh bekannt. Die Leute sprechen einen auch so an :D

Meine Karriere ging vom ZX80 (1983), über einen Schneider CPC und Olivetti M20 direkt zum 086er PC :)

Antwort 9 Likes

v
vonXanten

Urgestein

801 Kommentare 334 Likes

Das eine ist der Verbrauch der Komponenten selber, die setzen die schön in Wärme um... Im Winter ist das ja noch relativ egal, aber im Sommer wird das dann ein Spaß. Da hilft dann auch keine Wakü mehr, wenn die Raumtemperatur zu hoch wird. Dann gibt es noch eine Klimaanlage dazu.

Und die Anhebung der Spannungen, so sorgt man für mehr Absatz bei Neugeräten. Und braucht dann nicht die alten Geräte Supporten. Also eine Win Win Situation

Antwort Gefällt mir

Thy

Urgestein

1,843 Kommentare 744 Likes

Oder nur noch im Sommer spielen, wenn meine Solaranlage 5 kW liefert. Aber ich bin eher ein Winter-Höhlen-Nacht-Spieler.

Antwort Gefällt mir

S
Schakar

Veteran

177 Kommentare 90 Likes

Ob denen klar ist, dass da bald schon ne eigene 230V Leitung gebraucht wird weil sonst die Sicherungen durchknallen?
2,4Kw der PC + 1Kw für die 8k Monitore + Kleinkram wie HiFi Sound, Drucker, Router, vieleicht unverschämter weise noch Licht? Ich seh schon reihen weise die 8er Mehrfachstecker abfackeln ^^.

@Igor, gibt es nicht irgend wo nen Herrsteller, der Mobil CPUs (25-45W) und Mobil GPUs in nen normalen PC mit Sockel verbaut?

Hab echt null Bock nur noch kalt zu Duschen nur um den PC laufen zu lassen :/.

Uh, ein Pro-Nerd. ZX80 und CPC waren die, denen C16/64 zu ordinär waren ^^.

PS: C16 -> C116 -> Amiga500 -> Amiga 1500 -> 486DX(?)33

Antwort Gefällt mir

P
Phelan

Veteran

189 Kommentare 171 Likes

jo, technisches Hockrüsten ohne Rücksicht auf Verluste, getreiben von Gier.

Wobei ich da glaube das sie sich alle damit zukünftig gehörigt ins Knie schießen.
Wie laufen grade in ein Globalen Energie und Resourcennotstand hinein.

In vielen Staaten wird Energie stark subventioniert , das so wohl absehbar nicht haltbar ist.
China schaltet gerade 50% des Landes, wohl noch über Monate, in langanhaltende Brownouts. In der EU drohen ebenfalls welche, weil mit Gas gezockt wird statt es für den Winter zu bunkern. Und unsern wichtigsten Energielieferant pisst die EU seit Jahren ans Bein und droht ihm mittlerweile mit richtig Krieg.

Mit Crypto gibt es ein Verdiehstmodell wo man mit reinen verbrennen von Energie Geld verdiehnen kann. Auch so ein letzes Aufzucken vor dem Crash.

Will Sagen , Energie wird Weltweit, teils erheblich, teuerer werden. Und strom ist die reinste und edelste Form der Energie.
Vieleicht kommt dann auch der Kundenwunsch nach sparsamer Hardware eine höhere Priorität.
Der Ja bis jetzt eher keine Prio hatte.

PS: ich werden keine CPUs kaufen die mehr als 100W verbrauchen und keine Grafikkarten die mehr als 150W verbrauchen. Der kompromiss ist das ich sie sinnvoll mit eigenen Settings so betreiben kann. So hochgezüchteten Ineffizienten Schrott wie er in der nächsten Gen geplant ist will ich nicht geschenkt haben.

Der 12900K hat mit 50W bereits 50% und mit 125W 90% der Performance wie er mit 241W erreicht.
Wie gesagt bisher waren 90% der Leuten der Verbrauch egal, das wird sich halt ändern, leider ebend erst durch preislichen Zwang hohrenter Energiekosten.

Aktueller Film Tip: Die Menschheit: Auch mit dem letzen Tropfen Öl kann man noch beschleunigen, Live und in Farbe.

Antwort 3 Likes

Klicke zum Ausklappem
grimm

Urgestein

3,066 Kommentare 2,023 Likes

Das stellt mich dann wirklich vor zahlreiche Herausforderungen - ich find ja immer, wahrer Luxus ist, am sonnigen Sommertag vorm PC zu vergammeln :cool:
Aber im Ernst: Bei der Entwicklung bin ich raus. Auf der anderen Seite: Vielleicht greift man dann eher zur "Mittelklasse", wenn die für WQHD outmaxed ausreicht.

Antwort Gefällt mir

Thy

Urgestein

1,843 Kommentare 744 Likes

Solange die Mittelklasse zu vernünftigen Preisen erhältlich ist, ja. Aber darauf können wir wohl noch etwas länger warten, bis Mittelklassegrafikkarten wieder für Preise unter einer Konsole zu haben sind. Vielleicht gibt es das nie wieder. Wer weiß.

Antwort Gefällt mir

Göran

Veteran

152 Kommentare 60 Likes

Ich versteh die Politik von Intel nicht. Das neue Big-Little-Design dient doch der Reduktion der Leistungsaufnahme oder geht es da nur um den Mobilbereich ? Ich meine wie effizient kann ein Netzteil noch sein, wenn der Computer idle ist, bei diesen Anforderungen an Maximalleistung ?

Wie sieht das eigentlich mit dem Sweet-Spot zwischen Leistungsaufnahme und Taktrate sowohl für CPU als auch GPU aus.
Wäre da nicht Potential ? Also niedrigere Taktraten, aber dafür mehr Transistoren. Oder ist das eine Milchmädchenrechnung, weil dann die Produktionskosten zu stark steigen ?
Mir geht der Energieverbrauch schon ganz schön auf den Keks. Einmal wenn man sieht wie aufwendig es ist aktuelle Hardware gut zu kühlen und dann welche Abwärme dabei entsteht. In meinem "recht kleinen" (Spiel-)Arbeitszimmer geht im Winter so nach einer Stunde die Heizung aus, weil der Rechner inkl. 3er Bildschirme zum heizen reicht und wenn ich noch was grafisch anspruchsvolles Zocke mach ich ab und zu das Fenster auf weil es mir zu warm wird.

Antwort Gefällt mir

grimm

Urgestein

3,066 Kommentare 2,023 Likes

Die Frage ist halt, ob das überhaupt so kommt und für wen. Siehe Apple: Deren neue Chipgeneration ist eine Ausgeburt an Effizienz. Wäre schon grob fahrlässig, Konkurrenzprodukte zu bauen, die das konterkarieren. Mit Blick auf die Energiepreise kann es für diverse Unternehmen sehr schnell günstiger sein, die IT-Landschaft auf Apple umzustellen. Ein Mac mini kostet ab 700 € und Office läuft da auch...

Antwort 2 Likes

D
Denniss

Urgestein

1,496 Kommentare 543 Likes

Ich denke mal viele dieser Standards sind auch mal mit etwas Weitblick entwickelt worden und beziehen den Einsatz von spezieller Hardware z.B. in Workstations mit ein. Eher dort sehe ich das Gebiet wo stromsaufende Komponenten geballt zum Einsatz kommen.
Otto Normalnutzer wird einen Teufel tun sich da 1kW-schluckende Rechner zum Spielen oder Arbeiten unter den Tisch zu setzen. Das wäre wie stundenlang neben einem laufenden Staubsauger zu spielen.

Antwort 2 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung