Grundlagenartikel Crazy “New World” – Chaos in der Hardware- und Gaming-Branche (mal wieder) | Editorial

back in the days when i was playing assassins creed, the menu was the most stressful scenario. even furmark 0xaa 1080p cant do that.
the more recent one is pubg.
 
@Martin Gut:

Nicht jede Graka testen ist ok; aber alle Chip und Speicher Kombinationen der aktuellen und vorherigen Generation sollte drin sein.

Nö. Compute-Hardware hat so beschaffen zu sein, dass Software sie nicht zerstören kann, zumindest nicht aus dem Userland. Über Randfälle wie Firmware-Updates oder Flash-Verschleiß können wir diskutieren, aber selbst hierfür sollte es vernünftige Sicherungsmaßnahmen geben.

Ein Problem ist mittlerweile die enorme Leistungsdichte. Die ~40Ampere bei 500 Watt/12V ist halt auch schon ein kleines Lichtbogenschweißgerät oder bei rund 0,8Watt/mm² in etwa auf der Größenordnung von einem Uran-Brennstab (der liegt so bei 0,65 W/mm²).
 
AC Unity - absolute madness in the startmenu. Only around 40-60 fps but reaching 380W on my 980 Ti (manual BIOS limit).
Klar trifft nicht unbedingt die Software Entwickler die Schuld wenn die Grafikkarte abfackelt die Schuld wenn sie einfach die DX API verwenden.

Aber bisschen nachdenken was sie da tun, oder einen Profiler mal nutzen, das sollten sie schon. Es ist pure Verschwendung ein Menü mit 1000fps unter GPU Volllast anzuzeigen, open Beta hin oder her.

Aber es gibt noch andere Kandidaten die es hinbekommen die GPU nahezu voll auszulasten, bei einem fast statisches Menu.
Nur bleiben da die fps sogar noch in einem zweistelligen Bereich.

Das finde ich genauso ein Unding, aber wahrscheinlich liegt es an der Unreal Engine.
 
Zuletzt bearbeitet :
es müssen sich meiner ansicht nach beide den schuh anziehen.

einerseits ist es ein unding, das ein programm das nur dafür vorgesehene software-wege geht, eine grafikkarte
abfackeln kann,

zum anderen ist es nicht nachvollziehbar, warum ein programm im menue/startbildschirm, fps jenseits 100hz darstellen muss.

wozu das bitte? weil man dann den mauszeiger flüssig durch die menue-einstellungen gleiten sieht?!
wozu? warum? ausser, weil man zu faul ist , selbst nachdem auffällt das dann die grafikkarte da ausgelastet wird, dann einen limiter zu setzen.
sind die ca. 3 zeilen code da eine bremse zu setzen zuviel programmierarbeit?!

zusammengenommen kein wunder wenn dann mal was wegbrennt, ärgerlich nur für den kunden und der dürfte noch so seine probleme bekommen da dann berechtigter weise ersatz zu bekommen....
 
wozu das bitte? weil man dann den mauszeiger flüssig durch die menue-einstellungen gleiten sieht?!
wozu? warum? ausser, weil man zu faul ist , selbst nachdem auffällt das dann die grafikkarte da ausgelastet wird, dann einen limiter zu setzen.
sind die ca. 3 zeilen code da eine bremse zu setzen zuviel programmierarbeit?!
Sehe ich anders. Damit hat sich ein Spieleentwickler nicht auseinandersetzen zu müssen, das ist Sache der Frameworks, Treibers, Spiel-Engine oder irgend einer anderen Zwischen-Schicht, hat aber nichts mit der Tätigkeit des Spieleentwicklers zu tun - der soll Spiele entwickeln. Man kann noch darüber diskutieren, ob man z.B. in Mobile-Umgebungen etwas mehr an die Ressourcen und den Energieverbrauch denken muss, aber im Desktop-Bereich sollte das keine Problemstellung sein, mit der sich ein Anwendungsentwickler befassen muss. Eventuell ist das noch etwas, mit dem sich die Entwickler von Lumberyard auseinandersetzen sollen / können / müssen, aber nicht die Spieleentwickler.
zusammengenommen kein wunder wenn dann mal was wegbrennt, ärgerlich nur für den kunden und der dürfte noch so seine probleme bekommen da dann berechtigter weise ersatz zu bekommen....

Eine Graphikkarte die beim Ausführen einer beliebigen Applikation abbrennt ist einfach mal funktional kaputt. EVGA führt in ihren Garantiebedingungen eine abschließende Liste mit Dingen auf, die man mit der Karte nicht tun sollte (Ertränken, fallen lassen, drauf rumlöten oder ein falsches VBIOS flashen). Vom Rendern von Standbildern mit über 1000 FPS steht da nix, also hat die Karte das zu können. Genau so hat die Karte es 3 Jahre lang zu überleben, 24/7 Ether zu berechnen, permanent Furmark auszuführen oder Machine-Learning Modelle zu trainieren.
 
Wer wäre denn schuld, wenn beim Folding @ Home eine CPU oder ein VRM wegen Überhitzung abraucht?

Der Programmierer des Rechenprogrammes?

Der User, der alles im Serienzustand betrieben hatte?

(x) Oder der Prozessor- respektive Mainboardhersteller, der bei der Programmierung des beim Verkauf beworbenen Übertemperaturschutzes geschludert hat?
 
naja also 4 stellige FPS in Spiele Menus gibt es seit 20 Jahren und Grafikkarten dürfen sich niemals selber grillen solange sie default betrieben werden.

Mass Effeckt 1 hatte im Startmenu bis zu 5000 FPS und wurde gerne mal als "Last-Test" benutzt weil es 100% Last erzeugte. Und damals ist keine einzige Graka dabei hochgegangen ... Aufhängen / crashen ist ja was anders.

Klar wäre es schön wenn Spiele standardmäßig mit FPS Limiter kommen würden, viele haben ja sowas wo man dann ein Limit z.b. 60 oder 144 einstellen kann. Ich kann totzdem keine Schuld bei dem Spiel sehen. Wiegesagt die Hardware muss sich selber schützen im Zweifel mit harten abbschalten.


PS: Ich sehe den Grund eher in der maßlosen Werksübertaktung und VCore Erhöhung.
 
Zuletzt bearbeitet :
Nö. Compute-Hardware hat so beschaffen zu sein, dass Software sie nicht zerstören kann, zumindest nicht aus dem Userland. Über Randfälle wie Firmware-Updates oder Flash-Verschleiß können wir diskutieren, aber selbst hierfür sollte es vernünftige Sicherungsmaßnahmen geben.

Ich bezog mich auf: (Was auch SW betrifft)

Es ist auch nicht die Aufgabe der Gameprogrammierer zu testen ob alle Grafikkarten mit ihren Games klar kommen.
....
 
Die Problematik mit irren FPS Zahlen im Menü hatten wir doch auch schon zum Launch von StarCraft 2.
Das hatte damals schon manch Grafikkarte gegrillt.
 
JayzTwoCents hier anzuführen...
Der ist bekannter EVGA-Fanboy (um nicht zu sagen angestellter Werber von denen)
 
Sehe ich anders. Damit hat sich ein Spieleentwickler nicht auseinandersetzen zu müssen, das ist Sache der Frameworks, Treibers, Spiel-Engine oder irgend einer anderen Zwischen-Schicht, hat aber nichts mit der Tätigkeit des Spieleentwicklers zu tun - der soll Spiele entwickeln. Man kann noch darüber diskutieren, ob man z.B. in Mobile-Umgebungen etwas mehr an die Ressourcen und den Energieverbrauch denken muss, aber im Desktop-Bereich sollte das keine Problemstellung sein, mit der sich ein Anwendungsentwickler befassen muss. Eventuell ist das noch etwas, mit dem sich die Entwickler von Lumberyard auseinandersetzen sollen / können / müssen, aber nicht die Spieleentwickler.


Eine Graphikkarte die beim Ausführen einer beliebigen Applikation abbrennt ist einfach mal funktional kaputt. EVGA führt in ihren Garantiebedingungen eine abschließende Liste mit Dingen auf, die man mit der Karte nicht tun sollte (Ertränken, fallen lassen, drauf rumlöten oder ein falsches VBIOS flashen). Vom Rendern von Standbildern mit über 1000 FPS steht da nix, also hat die Karte das zu können. Genau so hat die Karte es 3 Jahre lang zu überleben, 24/7 Ether zu berechnen, permanent Furmark auszuführen oder Machine-Learning Modelle zu trainieren.

bitte nicht übersehen, das ich geschrieben hatte, das sich beide den schuh anziehen müssen,

die einen weil statt drosselung der hardware diese über ihre grenzen kommt,

und zum anderen die programierer die ohne rücksicht in menues alles an fps rausholen was geht, nur dort eben stellt sich dann die frage wozu das gut sein soll und was das bringen soll?!
 
JayzTwoCents hier anzuführen...

Der Artikel ist nicht von JayzTwoCents ….
Das ist nur ein angehängtes Video von diesem Typen.

Der Autor ist ein gewisser Aaron Klotz .
Habe auf anderen Seiten auch nach dieser Info gesucht,um einen anderen Link zu finden,war aber nichts....


Nichts desto trotz ist dieses Spulenfiepen in vielen Game Menüs ein absolutes NoGo!
 
Aus meiner Sicht hat Amazon zwar unsauber programmiert, aber dass der Hardwarehersteller EVGA schlechte Entscheidungen getroffen hat, dafür können sie nichts. Andere Karten haben ja anscheinend nur ein temporäres Problem, wegen Crashes, Blackscreens, etc., lassen sich aber jedes Mal durch einen Neustart wiederbeleben. Amazon hat da vielleicht ein wenig die Sorgfaltspflicht verletzt.

Denn wie bereits angemerkt wurde, ist das Problem ja nicht neu. Ich meine sogar schon zu Zeiten der 8800GTX gab es Spiele, die die Hardware einfach durch extrem hohe FPS in Menüs zum Platzen gebracht hat, sei es, dass sich die Stromversorgung in Rauch aufgelöst oder der RAM/Chip selbst entlötet hat. Daher sollte es eigentlich jedem Spieleprogrammierer klar sein, dass man in einem Menü keine 1000+ FPS braucht und einen Limiter einbaut, das hätte die Karten gerettet.

Das behandelt aber auch nur die Symptome, denn auch EVGA hat ihre Karten für diese Eventualität nicht gewappnet. Der Grund, warum ausgerechnet überwiegend EVGA FTW³ 3090er Karten durchbrennen wird sicher noch interessant.
 
Kein Limiter == mMn Bremsversagen
Nein, die Bremse ist der Limiter/vSync, damit hat der Hersteller erst mal so weit nix zu tun (und defacto hat vSync auch vor dem Patch im Menu limitiert! Und die Karten gingen nicht von 3min im Menu kaputt, sondern von einer Stunde+ in der Warteschlange... unlimitiert). Die Nutzer sind einfach zu **** zum bremsen.
 
@k0k0k0
Nur, weil man die letzten 100.000km unfallfrei gefahren ist, ist das doch auch kein Grund, den Sicherheitsgurt nicht anzulegen ;) So sehe ich einen implementierten Limiter in Spielemenüs. Er sollte nicht notwendig sein, wenn alle sinnig fahren/ihre Karte nicht bis zur Weißglut aufdrehen, aber falls dann eben doch mal einer aus der Reihe tanzt, ist er da und hilft, größeren Schaden zu bewahren.

Es ist nicht Amazons Schuld, dass die Karten kaputt gehen, aber sie hatten auch vor dem Patch schon die Möglichkeit, dem entgegen zu wirken, diese Chance haben sie verpasst.
 
Oben Unten