News Weitere Spurensuche zum Ampere Massensterben in New World – Youtuber erklärt mögliche Ursachen

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.748
Bewertungspunkte
8.477
Punkte
1
Standort
Redaktion
Wir hatten ja bereits vor kurzem über buildzoid und die von ihm wiederbelebte RTX 3090 GPU berichtet, die zuvor bei einem seiner Twitter Follower beim Spielen des MMOs New World den Dienst eingestellt hatte. Nun hat der Youtuber ein über 1-stündiges Video veröffentlicht, indem er mit Messergebnissen dieser Grafikkarte und diversen Datenblättern über mögliche Ursachen...
Hier den ganzen Artikel lesen
 
Ampere macht von Anfang an den Eindruck, überhastet auf den Markt gebracht worden zu sein.
 
Huhu Xaver :)

Na, da hab' ich ja was angerichtet :) mit meinem Hinweis zum indirekten Zitat letzthin – ich wollte dich damit nicht verunsichern, Du hast eine angenhem flüssig lesbare Schreibe schon bisher.

Erstmal Danke, daß Du das so konsequent umgesetzt hast. Als Hinweis dazu, weil ich mit meinen Hinweis auf den Konjunktiv bei der indirekten Rede mich etwas in der Schuld für die wahrscheinlich daraus resultierende, leichte Holprigkeit im Artikel sehe:

Du kannst leicht "leseunterbrechend" wirkende "würde" und "wäre" ganz oft "wegvereinfachen" (muss nicht zwanghaft sein, aber am Konjunktiv II anzeigenden "würde" und "wäre" neigen Texte zu stocken, sie sind oft etwas fehl am Platze), so wie Du es in den ersten Absätzen wahrscheinlich auch intuitiv schon getan hast, also etwa

"Effektiv bedeute das [/dieses] aber auch [...]"
statt
"Effektiv würde dies aber auch bedeuten [...]"

oder

"Die Folge dessen sei [...]"
statt
"Die Folge dessen wäre [...]"

Auch ist in anderen Situationen meist der Konjunktiv I bei der indirekten Rede erste Wahl, also (beispielhaft) "gebe" statt "gäbe" oder "geben würde", was Du auch wieder zu Beginn intuitiv besser gemacht, im Verlauf deines Artikels dann aber hast schleifen lassen.

Vielen Dank für den Artikel davon ab aber natürlich auch inhaltlich, ich freue mich schon darauf, später am Tag Buildzoids Video zu schauen.

Viele Grüße
Thomas
 
Zuletzt bearbeitet :
Klingt für mich als wollte Nvidia dahinter einen höheren verbrauch verstecken ( überrascht von AMDs Karten bzw deren leistung ).
Haben aber nicht mit dummen zufällen bei New World gerechnet.

Aber bin da nur Laie.
 
Danke für den Artikel. Die Hersteller sollten dem Herren von sich aus Test-Karten zur Verfügung stellen. Oder man setzt sich mal mit einem der Hardware-Versender hin und holt sich einen Rückläufer. Wird wohl niemand ein Interesse dran haben... Die Amperes überspringe ich.
 
Ampere macht von Anfang an den Eindruck, überhastet auf den Markt gebracht worden zu sein.

IMO eher das sie die Karten bis zur maximalen Grenze ausgereizt haben ... Also Werks OC bereits im Referenzdesinge.

Bei den Amper Karten kann man einfach mal 50W runter gehen und hat nur 1-3% FPS Verlust, sie laufen also weit oberhalb des Sweetspots.


Die Herstellen wollten nun aber selber noch OCn da sie die Karten von Anfang an nicht zum UVP anbieten konnten, da dieser Preis für sie niemals zu machen war. Im Glaube da wird schon wie immer Reserve trinne sein, haben sie also noch ein bischen rausgekitzelt.

Im Gegensatz zu früher war aber keine Reserve mehr trinne.



Den Trend hat man aktuell allgemein. Auch die CPUs kommen defakto Werks OC't und werden mit teils abartigen Vcore und TPDs hochgeprügelt um irgendwo noch 1% mehr rauszuquetschen.
 
Zuletzt bearbeitet :
Den Trend hat man aktuell allgemein. Auch die CPUs kommen defakto Werks OC und werden mit teils abartigen Vcore und TPDs hochgeprügelt um irgendwo noch 1% mehr rauszuquetschen.

Hose runter, Schw....vergleich halt


Da kommt mir, warum auch immer, wieder die Szene in Tomorrow Never Dies in den Sinn, wo ein Admiral zu M sagt sie habe nicht das was es für solche Handlungen braucht, und sie antwortet mit Wenigstens muss ich nicht mit dem was mir fehlt denken.
 
Zuletzt bearbeitet :
@Phelan Ja, das beinhaltet der Eindruck ebenfalls.
 
Der Czechische Kollege hat eben nochmal nachgelegt. Im Video von heute zeigt er, dass sich eine RTX 3090 mit default 350 W TDP je nach Anwendung bereits 412 W genehmigen könne! 👀
 
Buildzoids Videos schau ich mir ziemlich regelmäßig an. Der Junge hat was drauf und macht, worauf er Bock hat, ohne irgendwas großartig zu bewerben (y). Wie es mir zum Launch schon erschien, scheint bei den Ampere Karten der Performancezuwachs rein über die erhöhte Leistungsaufnahme erkauft worden zu sein und wie es aussieht, haben die AICs das wohl etwas unterschätzt. Genau dasselbe Bild wie damals, als die AMD/ATI Karten so viel Strom gebraucht haben und häufiger mal ausgefallen sind. AIBs wie Sapphire haben daraus gelernt und später stabilere Stromversorgungen auf ihre Karten gepackt. Ich fänd es aber besser, wenn die Chip-Entwickler sich darauf besinnen würden, auch mal an der Effizienz zu arbeiten, statt als weiter die Anzahl der Kerne und die Frequenz zu erhöhen. Vielleicht gäbe es dann auch mal wieder attraktivere MSRPs und weniger abgerauchte Spannungswandler.

Grüße!
 
oder mehr Chips pro Wafer und somit insgesamt mehr Karten....
 
Erschreckend wie wenig gute Elektrotechnik man für so einen Preis bekommt.
Igor kann den Eingangsfilter bei den 6000er Karten ja gar nicht genug loben.
Dagegen scheint man hier einfach nur ein Chaos von Schutzschaltungen, Mess(Versuchen) und so weiter zu haben.
Da drängt sich der Verdacht auf, dass man am alten Layout für die RTX 2000ee möglichst wenig ändern wollte und nur Flickwerk betrieben hat.
Und dann Preise weit jenseits der 2000€. Richtig, richtig bitter.
 
Man darf ja sowas nicht schreiben, aber mir war das von Anfang an ein bisschen zu unsicher mit den Ampere Karten, deshalb habe ich die RTX 3090 wieder abgegeben. Habe in diesem Jahr aus mehreren Gründen mal auf AMD gesetzt, sonst Intel und Nvidia. Scheint ja bis jetzt die bessere Wahl gewesen zu sein. Werde es auch weiter verfolgen, schon allein deswegen, weil ich nach dem Launch schon woanders meine Bedenken zu dieser Generation geäußert hatte.
 
Ich positioniere mich mal gegen den Trend: ich will mehr Leistung bei GPUs. Wenn ich dafür mehr Strom verbrauchen muss, bitte sehr. Besser wäre anders, aber wenn’s nur so geht, dann sperre ich mich nicht.


Nur stabil soll es bitte sein und die Leistung eben nur abgerufen werden, wenn es sein „muss“. Was sein muss, gibt meines Erachtens der Monitor vor: ich plädiere dafür, die Sync-Technologien noch mehr in den Vordergrund zu rücken und dann kann man die GPU auch in 99% der Fälle auf das Maximum der Monitorfrequenz begrenzen. Dann fährt die GPU ansonsten ganz entspannt weit unter ihren Möglichkeiten und säuft halt nur, wenn erforderlich. Wer dann noch mehr FPS jenseits der Hz-Grenze will, kann das ja freigeben und denjenigen ist der Verbrauch vermutlich „noch egaler“ als mir.

Nicht falsch verstehen: Ich bin aus Umweltbewusstsein (und bissi Gesundheit/Bewegung) von Auto auf Fahrrad für den täglichen Weg ins Büro umgestiegen - bei Wind und Wetter. Heizung wird gespart, Strom ansonsten auch wo geht und beim Einkauf der Fressalien wird auch auf Region und Nachhaltig geachtet.

Aber. Bei. Meinem. PC. Ist. Schluss.

Ein Laster gönne ich mir (noch). :p

Back to topic: stutzig macht mich, dass angeblich das Sterben jetzt bei Gigabyte so häufig sein soll? Was ist denn aus dem ehemaligen schwarzen Schaf EVGA geworden?

Für mich sind das immer noch alles Einzelfälle, die Äußerungen dazu von egal welcher Seite allenfalls Mutmaßungen. Schade, aber was da genau bei der GPU und Stromversorgung passiert und warum, sind und bleiben offenbar gut gehütete Geheimnisse.
 
Ampere scheint in der Tat mit der sprichwörtlichen heißen Nadel gestrickt worden zu sein - die Hinweise mehren sich. Gut möglich das man von der der AMD RX6000er Reihe bei der Rasterleistung kalt erwischt wurde und dann auf Kante nähen musste. Da geht mir dann aber der eigentlich begrüßenswerte Wettbewerb eindeutig in die falsche Richtung. Zu Lasten des Kunden ist nicht so dolle.
 
Ich fänd es aber besser, wenn die Chip-Entwickler sich darauf besinnen würden, auch mal an der Effizienz zu arbeiten, statt als weiter die Anzahl der Kerne und die Frequenz zu erhöhen. Vielleicht gäbe es dann auch mal wieder attraktivere MSRPs und weniger abgerauchte Spannungswandler.
Da gibt es halt das Problem, das (zu) oft nach Benchmarkbalken gekauft wird.
Der zweite ist halt der erste Verlierer.
Dem Anschein nach war hier die Maxime: Wo wir sind ist vorne und wir bleiben vorne. Koste es was es wolle?
Als Anfangs die Runde machte, dass die mit 50W weniger nur geringe Prozentwerte an FPS verlieren, habe ich schon kein gutes Gefühl gehabt.
Ich finde es jedenfalls gut, das AMD das Spiel nicht so weit mitgegangen ist.
Mit den MCM´s nächstes? Jahr dürften die 400W zumindest in der Spitze aber wohl fallen.
 
Ich positioniere mich mal gegen den Trend: ich will mehr Leistung bei GPUs. Wenn ich dafür mehr Strom verbrauchen muss, bitte sehr. Besser wäre anders, aber wenn’s nur so geht, dann sperre ich mich nicht.


Nur stabil soll es bitte sein und die Leistung eben nur abgerufen werden, wenn es sein „muss“. Was sein muss, gibt meines Erachtens der Monitor vor: ich plädiere dafür, die Sync-Technologien noch mehr in den Vordergrund zu rücken und dann kann man die GPU auch in 99% der Fälle auf das Maximum der Monitorfrequenz begrenzen. Dann fährt die GPU ansonsten ganz entspannt weit unter ihren Möglichkeiten und säuft halt nur, wenn erforderlich. Wer dann noch mehr FPS jenseits der Hz-Grenze will, kann das ja freigeben und denjenigen ist der Verbrauch vermutlich „noch egaler“ als mir.

Nicht falsch verstehen: Ich bin aus Umweltbewusstsein (und bissi Gesundheit/Bewegung) von Auto auf Fahrrad für den täglichen Weg ins Büro umgestiegen - bei Wind und Wetter. Heizung wird gespart, Strom ansonsten auch wo geht und beim Einkauf der Fressalien wird auch auf Region und Nachhaltig geachtet.

Aber. Bei. Meinem. PC. Ist. Schluss.

Ein Laster gönne ich mir (noch). :p

Back to topic: stutzig macht mich, dass angeblich das Sterben jetzt bei Gigabyte so häufig sein soll? Was ist denn aus dem ehemaligen schwarzen Schaf EVGA geworden?

Für mich sind das immer noch alles Einzelfälle, die Äußerungen dazu von egal welcher Seite allenfalls Mutmaßungen. Schade, aber was da genau bei der GPU und Stromversorgung passiert und warum, sind und bleiben offenbar gut gehütete Geheimnisse.
Gilt für mich ebenfalls. Ich habe nur dieses "energieintensives" Hobby und das betreibe ich ebenfalls nicht mal so oft.
Dazu betreibe ich aus Prinzip UV oder Stock.
 
Der Czechische Kollege hat eben nochmal nachgelegt. Im Video von heute zeigt er, dass sich eine RTX 3090 mit default 350 W TDP je nach Anwendung bereits 412 W genehmigen könne! 👀
Ich habe meine 3090 auf 90% powerlimit und -124 Coretakt stehen und trotzdem genehmigt die sich bis zu 370 Watt^^

Ist eine einfache Vision OC, zwei Kabelchen.
 
@Morgrain Da wäre UV das Mittel der Wahl.
 
Zuletzt bearbeitet :
Bei mir ist es bis jetzt letztlich auch "ein" Ampere geblieben. Mehr wird da wohl auch nicht mehr kommen. Ich warte für meine weiteren Rechner auf die Nachfolgegeneration.
 
Oben Unten