Reviews Office und Gaming in Einem? Wir bauen einen Gaming-tauglichen Arbeits-Computer und staunen über Ryzen und Radeon | PC-Praxis

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
10.204
Bewertungspunkte
18.837
Punkte
114
Alter
59
Standort
Labor
Wer gerade zwingend einen neuen Rechner benötigt, der muss zum einen die extremen Preise und zum anderen die nur bedingte Verfügbarkeit der Komponenten in Kauf nehmen. Das ist ärgerlich, aber es wird sich auch so schnell wohl nicht ändern. Denn da man sich den Zeitpunkt eines Upgrades nun mal nicht immer aussuchen kann, oder die Bedingungen ja eh nie wirklich zu 100 % passen, ist es jetzt nun einmal so, wie es eben ist. Die Welt dreht sich weiter, die Händler am Sender und wir als Endverbraucher am tröpfelnden Geldhahn des eigenen Kohle-Speichers...

>>> Hier den ganzen Test lesen <<<
 
Schöner Luxus-Build!
Ich vermisse aber die zweiten Gewinner bei der Auswahl der einzelnen (auch Klein-)Komponenten. So sieht das nach ausschließlichem Griff ins be quiet-Regal aus.
Aber ich bin schon still...
 
Das 850 Watt Netzteil hört sich erstmal nach overkill an...

Rechnen wir mal:

105 Watt CPU
300 Watt GPU
Ca. 60 Watt Mainboard, SSDs, Lüfter usw.

465 Watt ohne jegliche Lastspitzen!

Die CPU zieht unter Last mit PBO bis 140 Watt (keine Begrenzung der CPU seitens Mobo)

Cpu-Lastspitzen im 10 ms Bereich = ca 200 Watt
GPU Lastspitzen 400 Watt
= 600 Watt
+ das Gedöns 60 Watt
——————————
660 Watt

Wer jetzt ein 700 Watt 80+ Gold hat, der wird diese Effizienz nicht mehr haben... die Berechnung der Effizienz wird bei 50% Auslastung gemacht und auch gemessen!

Vor allem aber solltet ihr immer an die nächste Generation GPUs denken... sollte hier wirklich ein Multi-Chiplet Design kommen, dann wird der Stromverbrauch nicht weniger werden... 300 Watt und mehr könnte hier die Zukunft sein...

Leute, 4K mit 144 FPS oder 8K und mehr... wo soll das herkommen? Aus einer GTX 1660 ganz sicher nicht...
 
Schöner Luxus-Build!
Ich vermisse aber die zweiten Gewinner bei der Auswahl der einzelnen (auch Klein-)Komponenten. So sieht das nach ausschließlichem Griff ins be quiet-Regal aus.
Aber ich bin schon still...
Hast du recht, es war mein Ansinnen, hier mal ausschließlich ins Regal von be quiet! zu greifen... die Preise sind ok

Hier gibt es aber definitiv alternative Hersteller
 
Schöner Buildvorschlag.

Bin gerade erstaunt am Feststellen, wie gut meine Rx580 Ultra-Wide 1440p gemeistert kriegt, da hab ich keinen Schmerz mit der Grafikkarte zu warten. Nur im Flightsimulator 2020 würd ich mir ein bischen mehr Power wünschen.
 
Das Thema Stromverbrauch war hier nicht auf der Agenda gestanden.
Die meisten, die einen Office-Rechner bauen, haben das automatisch auf der Agenda. Das gehört sich sowohl ökonomisch als auch ökologisch so. Bei 8 Stunden am Tag ist da der Fokus anders als bei 1 Stunde Gaming pro Tag. Ich würde mir das jedenfalls nicht so bauen. Muss natürlich jeder selbst wissen.

Leute, 4K mit 144 FPS
Mit aktuellen Spielen wirst du diese FPS Zahl vielleicht in 10 Jahren bei Ultra und Raytracing sehen. Dazu muss man ja nur das aktuelle 50 bis 60 FPS Maximum vieler grafisch anspruchsvoller Spiele mit der Leistungssteigerung der GPU-Generationen vergleichen (grob dürften das + 30% alle 3 Jahre sein). 8K und 144 FPS dürften sogar noch >20 Jahre dauern. Bis dahin ist das Netzteil aber in jedem Fall hinüber bzw durch ATX12VO eh veraltet.

Wer jetzt ein 700 Watt 80+ Gold hat, der wird diese Effizienz nicht mehr haben... die Berechnung der Effizienz wird bei 50% Auslastung gemacht und auch gemessen!
Als ob beim Gaming 700W anliegen würden. Du solltest mal dein System beim Gaming messen oder einfach mal Tests dazu lesen. Kein Spiel lastet alle Komponenten vollständig aus. Und die Effizienzkurve eines Netzteils, solltest du dir auch mal anschauen:
eff230v.png
Von 50% und 100% fällt die Effizienz gerade mal um 2%.

Was da schon eher interessant ist, ist die Effizienz bei 10% (und darunter). Also das was bei Office 8 Stunden am Tag anliegt:
eff230v100.png


Daher hätte ich ein ATX12VO konformes Netzteil genommen. Also zB ein Seasonic Titanium oder wenn es günstiger sein muss, dann ein Corsair RM:

Die sind nämlich nicht nur oben, sondern auch unten rum effizient. Also eben genau richtig für Office und Gaming.
 
Laut Computerbase zieht die GPU beim Schauen von YouTube Videos alleine schon 50W,
Die Tests kannst bei solchen Angaben eh meistens vergessen. Die haben da ein 1500W Netzteil dran hängen, was diese Werte schon mal Ad Absurdum führt. Nebenbei haben die je nach Redakteur nicht selten auch mal ein "Geschmäckle".
Erinnert mich gerade daran, wie z.B. damals das Digifanless 550 Netzteil "kaputt geschrieben" worden ist. Das zieht sich bei denen oft wie ein roter Faden.
Rechnen wir mal:

Cpu-Lastspitzen im 10 ms Bereich = ca 200 Watt
GPU Lastspitzen 400 Watt
= 600 Watt
+ das Gedöns 60 Watt
——————————
660 Watt
Finde ich jetzt mal ein bisschen hoch kalkuliert. Insbesondere Mainboard, SSD Lüfter etc.
Wenn man das ganze noch frisiert OK, könnte man vielleicht so Rechnen, wenn das auf X570 Basis wäre.
Ich lote meine Sachen da etwas feiner aus.
Ist aber auch persönliche Geschmackssache.

@Igor Wallossek
Wäre es eigentlich nicht mal ein schönes Bauprojekt den Spannungsspitzen der Grakas mittels zwischengeschalteter Elkos den Zahn zu ziehen?
Oft sind es doch nur wirklich kurze Spitzenpegel. Könnte man die damit nicht wegpuffern?

Ich frage, weil ich ungern in der näheren Zukunft (wenn ich Pech habe) mein Digifanless weg schmeißen möchte. Das ist zwar ein verkapptes ~650W Netzteil, könnte in Zukunft mit einer 6800XT und anderer CPU aber evtl. durchaus mal knapp werden.

Ich könnte mir das, wenn Du keine Zeit und oder Lust hast zuviel Zeit da rein zu stecken zumindest teilweise, falls das irgendwie realistisch ist, auch in irgendeiner Form als Community Projekt vorstellen, sofern überhaupt techn. machbar. Nicht weil es unbedingt sehr viel Sinn macht, sondern weil man es (vielleicht) machen kann!
Die techn. Auslegung von dir, Platinendesign zum Ätzen meinetwegen von jmd anderem, der das auch kann. Gehäuse zum ausdrucken wiederum von anderen?
Und Du mit hoheitlichem Blick über das Ganze, damit sich niemand damit umbringen kann. ;)
Nur mal so als Idee.
Jetzt in der Coronazeit ist man ja eh die meiste Zeit zuhause eingesperrt.
Wenn das Unrealistisch ist, oder gab es das gar schon mal?, dann bitte auch sofort den Zahn ziehen.

Kurz und Schmerzlos :eek:
 
Mit Caps allein änderst Du nicht viel. Man muss noch mindestens eine weitere Induktivität längsseits einplanen. Ein T-Glied wäre dann wohl das Mindeste. Das aber geht bös auf die Effizienz. Einen Versuch wäre es natürlich schon Wert. Nur braucht man das dann für 2-3 Rails, wobei die Spitzen am PEG nicht pufferbar sind.

Ich sehe das 850 Watt im Office Workstation-PC mit dieser Karte absolut unkritisch. Netzteile fährt man nicht über 90%. Erstens gehen dann die Lüfter an, zweitens werden wohl auch die Sekundärcaps vom Ripple irgendwann aufgefressen, wenn es zu knapp bemessen ist. Die höheren Wattklassen sind da meist zweckmäßiger bestückt.

Ich habe so ein Digifanless, das ist schon beim 7960X mit 1080 Ti beim Videoencodieren ausgestiegen. Das wird sicher nix.
 
Die Tests kannst bei solchen Angaben eh meistens vergessen. Die haben da ein 1500W Netzteil dran hängen, was diese Werte schon mal Ad Absurdum führt.
Titanium-Netzteile sind auch unten rum sehr effizient:
eff230v.png
Wobei das jetzt ein 1600W Netzteil ist, aber das sollte keinen großen Unterschied machen.

Davon abgesehen ist das auch irrelevant, weil die ja mit dem selben Netzteil auch die Nvidia GPUs getestet haben und zB eine RTX 3070 verbraucht bei alltäglichen Aufgaben nur die Hälfte:
2021-02-02 12_29_13.png
2021-02-02 12_29_43.png

Wobei die Effizienz bei geringerem Verbrauch ja sogar fällt, was den Messwert der Nvidia GPU sogar noch negativ beeinflusst.
 
@Genie_??? Mit dicken Elkos alein ist das nicht gelöst. Im Gegenteil: Mit entsprechend fetten Elkos kann man unter Umständen sogar das Netzteil im Einschaltmoment zum Aussteigen bringen. Ein LC Filter wäre da aus meiner Sicht das absolut Mindeste. Ein Pi-Filter macht da auch fast Sinn. Eventuell auch mit entsprechenden Ferritperlen erweitert. Wobei ich nicht nachgesehen habe, ob es da passende gibt.

Müsste aus meiner Sicht obendrein pro Leitung realisiert werden.
 
Titanium-Netzteile sind auch unten rum sehr effizient:
Anhang anzeigen 10715
Wobei das jetzt ein 1600W Netzteil ist, aber das sollte keinen großen Unterschied machen.

Davon abgesehen ist das auch irrelevant, weil die ja mit dem selben Netzteil auch die Nvidia GPUs getestet haben und zB eine RTX 3070 verbraucht bei alltäglichen Aufgaben nur die Hälfte:
Anhang anzeigen 10718
Anhang anzeigen 10719

Wobei die Effizienz bei geringerem Verbrauch ja sogar fällt, was den Messwert der Nvidia GPU sogar noch negativ beeinflusst.
Ok dann rechnen wir mal in ZDF... Zahlen Daten Fakten:

13,2 € im Jahr für die RTX 3070
26,4 € im Jahr für die RX 6800

25 W = 0,025 kW

0,025 x 8 Stunden x 220 Arbeitstag x 0,3 Cent/kW Stunde

Wir streiten hier wegen 13 €/Jahr = 0,06 €/Tag??

Zumal der PC kein Rechner zur ausschließlichen Verwendung von Excel, Skype und Co ist. Dazu reicht ein billiges Tablet von Medion!

Video, Bildverarbeitung, Office und Gaming geht auf einer APU auch aber das was da rauskommt, wird einem nicht gefallen!

Jeder hat seinen Standpunkt und jeder kann seinen Rechner so gestalten, wie er es für richtig hält.

Die Auslegung eines Netzteils sollte man nicht an den Durchschnittswerten machen, sondern auf die Lastspitzen auslegen. Das ist meine Meinung...
 
Zuletzt bearbeitet :
Also bin jetzt leicht irritiert was aber durchaus an meiner Unwissenheit liegen kann/wird. Vier Ram-Riegel mit 3600, also Vollbestückung, und dann auch single ranked Ram. Ist das nicht genau das wovon alle bei AMD Systemen abraten da die Board den Ram sonst nicht voll takten? Es sagen doch immer aller am besten dual rankted und lieber größere Riegel und dann nur einen Pro Kanal? Jetzt bin ich verwirrt.

2x16 GB dual rank (vier lanes) = 4x8 GB single rank (vier lanes)

Stimmt, aber. Aufs gesamte System gerechnet ist Fritz' Rechnung korrekt, doch Ranks sollte man nur pro Speicherkanal betrachten.

Es ist theoretisch egal, ob man 2x single ranked Module verbaut oder 1x dual ranked Modul. Bei 3600 MHz, einem B550-Board und Ryzen 5000 wird das laufen.

Einen praktischen Unterschied wird der Bruder nur merken, wenn er versucht den Speicher auf 3800+ MHz zu übertakten. Da wird sich der IMC des Ryzen "beklagen", dass beide DIMM-Slots pro Kanal bestückt sind. Die Hintergründe hierzu suche man sich per Google (Stichwort: Speicher-Layout/Topologie des Mainboards).
Mit den G.Skill F4-3200C14D-32 hätte man für den gleichen Preis sicherlich etwas mehr Leistung bekommen können, aber dann brauchte es noch ein paar Tage länger wegen der Stresstests, ob 16-16-16@3800MHz laufen.
 
Zuletzt bearbeitet :
Wer gerade zwingend einen neuen Rechner benötigt, der muss zum einen die extremen Preise und zum anderen die nur bedingte Verfügbarkeit der Komponenten in Kauf nehmen. Das ist ärgerlich, aber es wird sich auch so schnell wohl nicht ändern. Denn da man sich den Zeitpunkt eines Upgrades nun mal nicht immer aussuchen kann, oder die Bedingungen ja eh nie wirklich zu 100 % passen, ist es jetzt nun einmal so, wie es eben ist. Die Welt dreht sich weiter, die Händler am Sender und wir als Endverbraucher am tröpfelnden Geldhahn des eigenen Kohle-Speichers...

>>> Hier den ganzen Test lesen <<<
Geile Kiste
 
Mensch ist ja fast mein System.
Dient auch als homeoffice System und Gelegenheits-Daddelkiste. Die 6800 nonxt habe ich auch auserkoren, nur bin ich nicht bereit die Preise zu zahlen.

eine frage hätte ich noch?
wieso hat igor Fritzhunter die AIO nicht gedreht?
sammeln sich so nicht die Luftblasen am Ein- und Ausgang des Radiators und werden dann zur cpu transportiert?
hatte es der Optik wegen, erst auch so. nachdem ich bei gamersnexus aber auf diesen hinwies gestoßen bin, der total logisch ist, habe ich meine aio gedreht (Ein- und Ausgang sind jetzt unten im Gehäuse) und die Temperaturen des 5800x sind jetzt deutlich besser unter Last. Man muss nur schauen, das die Schläuche lang genug sind und dass sie noch an der graka vorbei passen.
Bild-8-1024x768.jpg
 
Zuletzt bearbeitet :
Mensch ist ja fast mein System.
Dient auch als homeoffice System und Gelegenheits dattelkiste. Die6800 nonxt habe ich auch auserkoren, nur bin ich nicht bereit die Preise zu zahlen.

eine frage hätte ich noch?
wieso hat igor die AIO nicht gedreht?
sammeln sich so nicht die luftblasen am ein- und Ausgang des Radiators und werden dann zur cpu transportiert?
hatte es der Optik wegen, erst auch so. nachdem ich bei gamersnexus aber auf diesen hinwies gestoßen bin, der total logisch ist, habe ich meine aio gedreht (ein und ausgang unten im gehäuse) und die temperaturen sind jetzt deutlich besser.
man muss nur schauen, das die schläuche lang genug sind und dass sie noch an der graka vorbeipassen.
Bild-8-1024x768.jpg
Igor kann die AIO nicht drehen, wenn ich den PC gebaut habe... bitte immer prüfen, wer der Autor ist!!!

Die Information habe ich erst im Nachgang erfahren... ich werde das noch anpassen...
 

Anhänge

  • 8D9397A0-914D-4CB2-AD51-A29A5B77D009.jpeg
    8D9397A0-914D-4CB2-AD51-A29A5B77D009.jpeg
    250,2 KB · Aufrufe : 13
das kann ich heute abend reinstellen. wobei ich auch mit kleinen gewindeschrauben die lüfter um etwa 20mm versetzt habe (die sitzen passend zu den löchern im Gehäuse (ein cooler master nr600 – habe ich genommen wegen dem optischen laufwerk) der raditator sitzt 20mm höher als vorgesehen. nur so habe ich genug "schlauch" bei der nzxt x63
 
Das Thema Stromverbrauch war hier nicht auf der Agenda gestanden. Es ging, wie schon beschrieben, um die Eierlegende-Wollmilchsau... vor allem aber um 1440p mit 144 Hz... und Video/Fotobearbeitung
Vielleicht passt einfach die Artikel Überschrift nicht so ganz.
Der hier beschriebene Rechner ist ein "alles außer Office" Rechner. Bei Desktop mit vielleicht etwas Videowiedergabe Szenarien ist die komplett AMD Plattform nämlich leider nach wie vor ein Nachteil. Sowohl CPU(bzw. deren IO-Die) als auch GPU ziehen da spürbar mehr als die Konkurrenz.
Natürlich kann man den Rechner dafür trotzdem benutzen, aber sonderlich geeignet ist er dafür nicht.
 
Wer jetzt ein 700 Watt 80+ Gold hat, der wird diese Effizienz nicht mehr haben... die Berechnung der Effizienz wird bei 50% Auslastung gemacht und auch gemessen!

Das stimmt nicht. Für ein 80 Gold Plus Zertifikat zum Beispiel muss die Effizienz bei 20/50/100 % gemessen werden und da bei 82/85/82 % liegen.
 
Oben Unten