GeForce RTX 4090 und 2x RTX 4080 - Ada Lovelace startet ab Oktober

Ehm, also nach meinen bescheidenen Kenntnissen ist eine Umsatzrendite etwas ganz anderes als eine Marge.
Die Marge ist Verkaufspreis minus Einkaufspreis sprich Rohertrag.
Ja, korrekt. Ich wusste nicht, dass hier etwas anderes geschrieben wurde. Wenn über die Marge gesprochen wird, werden die Betriebs- und Entwicklungskosten gerne unterschlagen. Aber NVidia geht's schon sehr gut, sie haben eine Umsatzrendite von um die 40% (https://de.marketscreener.com/kurs/aktie/NVIDIA-CORPORATION-57355629/fundamentals/), AMD kommt dieses Jahr gerade mal auf 30% (https://de.marketscreener.com/kurs/aktie/ADVANCED-MICRO-DEVICES-I-19475876/fundamentals/) und Intel auf 15% (https://de.marketscreener.com/kurs/aktie/INTEL-CORPORATION-4829/fundamentals/).

Wenn ich mir das so ansehe, und insbesondere auch Apple (30%), dann frage ich mich, ob bei der Umsatzrendite die diversen Tricks, Gewinne ins Ausland zu verlagern um die Inlandssteuern zu mindern, eingerechnet sind oder ob das - als reine Aktionärszahlen - hier mit "ehrlichen" Werten gerechnet wird.

Vielleicht weißt Du genug, um mir diese Frage zu beantworten...?
 
Meine Aussage war auf Megaone gemünzt.

Natürlich, viele Unternehmen arbeiten mit deutlich höheren Margen. Alle nehmen, was der Markt hergibt. Das liegt in unserem Wirtschaftssystem begründet. Du siehst doch wie sich die "Grünen Stromproduzenten" gerade die Taschen vollmachen. Da sind 30 % nichts.

Ich muss das nicht mögen, aber ich kann es nicht ändern!

@Gaymer
Wenn ich mir das so ansehe, und insbesondere auch Apple (30%), dann frage ich mich, ob bei der Umsatzrendite die diversen Tricks, Gewinne ins Ausland zu verlagern um die Inlandssteuern zu mindern, eingerechnet sind oder ob das - als reine Aktionärszahlen - hier mit "ehrlichen" Werten gerechnet wird.

Ich muss da glaube ich passen. Die Zeiten, dass ich mich damit wirklich intensiv auseinander gesetzt habe sind 20 Jahre her.
Aber im angelsächsischen Raum wird mit dem EBIT gerechnet iirc. Earnings before interest and taxes. Wenn man dann den Konzern nimmt, ist das das Konzernergebnis. Wo und wie das gesteuert über interne Verrechnungssätze und ähnliches versteuert wird dürfte bei dieser Größe keine Rolle spielen. Sprich: Amazon kann riesige Gewinne machen (EBIT) und damit eine Umsatzrendite x fahren, aber der (Teil-) Konzern zahlt in Luxenburg trotzdem (so gut wie) keine Steuern.

Aber wie schon geschrieben. Sicher bin ich mir nicht (mehr), zumal ich mich mit den genauen nVidia Zahlen in der Tiefe auch nicht beschäftigt habe, sondern ohne große Recherche die geposteten Zahlen als gegeben angenommen habe.

Mir sprang nur die Aussage ins Auge, das eine Umsatzrendite von 30% nichts sind. Diese Zahl ist für vielen normal wirtschaftende Unternehmen vollkommen illusorisch. Ich hätte die mit meinem kleinen Betrieb sehr gerne :)

Vielleicht erinnert sich der/die eine oder andere noch an Herrn Ackermann. Dieser freundliche Zeitgenosse hat mal viel Kritik dafür einstecken müssen, dass er eine Eigenkapitalrendite (roe/return on equity) von 25% gefordert hat. Diese Zahl war obszön hoch. Bei nVidia soll diese bei 51% für 2022 liegen. Diese Zahl besagt mit welchem Zinssatz sich das investierte Eigenkapital einer Firma verzinst. Also so ähnlich wie Zinsen auf der Bank für eingelegtes Geld. Bitte, das ist nicht gleich (Risiko etc pp), sondern nur ein die Realität leicht verkürzt dastellender Hinweis.

Und nein AMD ist nicht besser. Bitte, das ist keine Kritik an einem einzelnem Hersteller, sondern Kritik an allen Firmen, die sich so die Taschen dick machen.
 
Zuletzt bearbeitet :
Also wenn ich mal den Preis für die 4090 nehme, dann sind Apple Computer schon fast ein Schnäppchen.

Für 2kEUR bekommt man dort einen
Apple Mac Studio, M1 Max - 10 Core CPU / 24 Core GPU, 32GB RAM, 512GB SSD oder ein
Apple MacBook Pro 14.2" silber, M1 Pro - 8 Core CPU / 14 Core GPU, 16GB RAM, 512GB SSD oder einen
Apple iMac 24" (4480x2520, IPS, 500cd/m²) silber, M1 - 8 Core CPU / 7 Core GPU, 16GB RAM, 1TB SSD, Gb LAN inkl. Maus und Tastatur.
 
Das Händchen sind sicher die unzähligen Spione. Diese Abteilung hat bei Grün bisher fast immer goldrichtig gelegen. :D
Genau das und deine Aussage lassen ja wenig Raum für Hoffnung. Da werden beim Release der 7000er Serie sich wieder viele Hoffnungen in Luft auflösen. Ehrlicherweise erwarte ich aber auch nichts anderes von AMD. NVIDIA hat einfach seit vielen Jahren die besseren Rahmenbedingungen und kann mehr Geld in die Entwicklung pumpen. Das merkt halt an allen Ecken und Enden. Ich wünschte mit auch, es wäre anders.
 
Zuletzt bearbeitet :
Das Händchen sind sicher die unzähligen Spione. Diese Abteilung hat bei Grün bisher fast immer goldrichtig gelegen. :D
uhh das lässt mich dann doch etwas um die Leistung von RDNA3 bangen, kann das wirklich sein das Amd hier nach der super Rasterleistung von RDNA2 wieder den Anschluss verliert und Nvidia es sich leisten kann uns den 4060ti Chip als 4080 12GB anzudrehen, weil das für eine 7800XT reicht ?:(

ich hoffe doch das Amd zumindest von der Rasterleistung wieder dicht dran ist und man wenn schon, nur in RT weiterhin etwas zurück hängt (was mir persönlich aber glücklicherweise vollkommen egal wäre, da RT irgendwie für mich bis jetzt komplett uninteressant ist....)
 
Zuletzt bearbeitet :
Meine Aussage war auf Megaone gemünzt.



@Gaymer


Ich muss da glaube ich passen. Die Zeiten, dass ich mich damit wirklich intensiv auseinander gesetzt habe sind 20 Jahre her.
Aber im angelsächsischen Raum wird mit dem EBIT gerechnet iirc. Earnings before interest and taxes. Wenn man dann den Konzern nimmt, ist das das Konzernergebnis. Wo und wie das gesteuert über interne Verrechnungssätze und ähnliches versteuert wird dürfte bei dieser Größe keine Rolle spielen. Sprich: Amazon kann riesige Gewinne machen (EBIT) und damit eine Umsatzrendite x fahren, aber der (Teil-) Konzern zahlt in Luxenburg trotzdem (so gut wie) keine Steuern.

Aber wie schon geschrieben. Sicher bin ich mir nicht (mehr), zumal ich mich mit den genauen nVidia Zahlen in der Tiefe auch nicht beschäftigt habe, sondern ohne große Recherche die geposteten Zahlen als gegeben angenommen habe.

Mir sprang nur die Aussage ins Auge, das eine Umsatzrendite von 30% nichts sind. Diese Zahl ist für vielen normal wirtschaftende Unternehmen vollkommen illusorisch. Ich hätte die mit meinem kleinen Betrieb sehr gerne :)

Vielleicht erinnert sich der/die eine oder andere noch an Herrn Ackermann. Dieser freundliche Zeitgenosse hat mal viel Kritik dafür einstecken müssen, dass er eine Eigenkapitalrendite (roe/return on equity) von 25% gefordert hat. Diese Zahl war obszön hoch. Bei nVidia soll diese bei 51% für 2022 liegen. Diese Zahl besagt mit welchem Zinssatz sich das investierte Eigenkapital einer Firma verzinst. Also so ähnlich wie Zinsen auf der Bank für eingelegtes Geld. Bitte, das ist nicht gleich (Risiko etc pp), sondern nur ein die Realität leicht verkürzt dastellender Hinweis.

Und nein AMD ist nicht besser. Bitte, das ist keine Kritik an einem einzelnem Hersteller, sondern Kritik an allen Firmen, die sich so die Taschen dick machen.
Wenn wir uns in einer Sache einig sein sollten, dann darin, das die Zeit des ehrlich kalkulierenden Kaufmannes doch seit vielen Jahren vorbei ist. Es gab mal eine Zeit, da wurde alle Kosten zusammen gezogen und darauf einen Marge gepackt und gut wars.

Irgendwann kam ein schlauer Kopf auf den Begriff des Kundennutzen. Ich glaub, es waren die Amerikaner und es fing an mit dem Kopierer. Ich hab mal bei Xerox gearbeitet, die haben das Ding erfunden. Wir haben Produkte zu aberwitzigen Preisen verleast (Verkaufen wollten wir nicht, verleasen war lukrativer, weil wir so den Preis besser verschleiern und am Ende sogar das Produkt zurück bekamen, es somit mehrfach verleasen konnten), es gab ja eine Weile einfach keine Konkurrenz.

Das Ganze kann man sich auch gut in der High-End-Branche anschauen. Die Margen von z.b 2 oder 3 Weg Lautsprechern im mittleren oder oberen 5-stelligen Bereich lassen sich nichtmal im Drogenhandel erzielen. Von diversen Kabelpreisen mal ganz zu schweigen. Begründet wird das ganze über ein vermeintlich besseres Klangerlebnis (da wären Drogen wahrscheinlich hilfreicher :)).

Wir könnten an dieser Stelle auch über Tintenpatronen in den 90ern, reden deren Füllmenge man sich nahe am Goldpreis hat bezahlen lassen.

Oder über diverse Medikamente deren Gewicht in Gold ein Schnäppchen wäre, oder, oder oder.

Von den Energieunternehmen ganz zu schweigen.

Die grenzenlose Raffgier hat einfach überall Einzug gehalten. Sieht man auch jetzt in der Inflation. Nahezu jeder, egal ob Betroffen oder nicht, versucht noch schnell einen großen Schluck aus der Pulle abzubekommen und die gesellschaftlichen Konsequenzen sind ihm in Grunde völlig egal.

Aber wie ich immer sage. Am Ende ist das wirklich schlimme an der Korruption, das niemand versucht mich zu bestechen:cool:. Genau da sind wir leider angekommen.

Kundennutzen, oder Gold gegen Glasperlen. Damit sind wir wieder da, wo es mal angefangen hat. Und ob die, die sich darüber aufregen es nicht genauso machen würden, wenn sie es denn nur könnten, lassen wir besser mal dahingestellt. Möglicherweise entspringt Moral nur einem Mangel an Möglichkeiten.
 
Zuletzt bearbeitet :
2x 4080 mit unterschiedlicher leistung nur ausmachbar über die RAM ausstattung?
Wers nicht weiss wird hier ganz schön an der Nase herumgeführt würde ich sagen.
Eigentlich wäre die mit 16GB eine TI.

Eher wäre die "kleine" eine 4070. Zwischen der grossen 4080 und der 4090 gibt es noch genug Platz für eine 4080 TI, keine Sorge.
 
Und Hochmut kommt vor dem Fall.
So wie es aussieht, wird vielleicht alles unterhalb der 4080 mit 8GB RAM abgefrühstückt. Das ist dann vermutlich nicht mehr sehr hilfreich In 2 Jahren.

Andererseits sieht man jetzt schon eine gewisse Stagnation des RAM Verbrauchs bei der Spieleentwicklung. Der Abstand Mainstream zu Enthusiast wird mit der 4000er Serie noch größer. Da die Entwickler aber die Masse erreichen müssen, wird man den Sweetspot wieder bei 8GB legen müssen.
D.h. Nvidia wird zum Bremsklotz der Spieleindustrie und alles oberhalb 12GB wird quasi nutzlos (auf breiter Basis, vereinzelte Ausnahmen wird es immer geben).

Ich würde sofort die 3070 mit 16GB GDDR6 kaufen, zu sinnvollen Preisen und ohne Leistungsirrsinn...
Ach Nvidia, die wollt ihr immer noch nicht liefern, na dann geb ich mein Geld woanders aus. Ich kann warten, eure Quartalsbilanzen auch?
 
Also so wie ich das verstanden habe wenn man ein "Altes" NT hat und benutzt einen adapter ob 3x8pin oder 4x8pin merkt die karte das doch eh nicht weil es keine data pins gibt oder verstehe ich das falsch? Und somit gibt das Netzteil alles was die Gpu möchte so wie bisher auch?
 
@Megaone Den Grenznutzen eines jeden Kunden monetär einzufangen ist mit Sicherheit eine ganz tolle Idee und klappt in einem vollinformierten Monopol bei desinformierten Abnehmern wunderbar. In einem funktionierendem Markt wäre dieser Anbieter aber über kürzere Zeit aus eben jenem irgendwann verschwunden oder durch günstigere Konkurrenten verdrängt. Eben weil sich Abnehmer informieren etc.

Das Problem beginnt dann, wenn die Kunden keine Auswahlmöglichkeit haben und sich nicht "solidarisieren" und/oder die Markteintrittsschranken so hoch sind, dass es für einen Newcomer unglaublich schwer wird. Sprich: Scheinbar haben wir derzeit die Herausforderung, dass der Markt gestört ist.

ODER: Es gibt einfach Möglichkeiten mit dem Werkzeug GPU so viel Geld zu verdienen, dass der Anschaffungspreis beinahe belanglos ist und damit der Markt der "Gamer-GPUs" eher ein Abfallprodukt ist. Ich hoffe von daher, dass nicht nur aus diesem Grund die Kryptowährungen verschwinden werden oder von mir aus auf ein anderes Konzept umsteigen. s. Ethereum.

Losgelöst davon ist nicht immer alles erlaubt was nicht ausdrücklich verboten ist. Das was nVidia da abzieht und was sich Energiekonzerne auf Grund der derzeitigen Preisfindungsart (Merit System) erlauben ist einfach liederlich.

Wenn dann kein allgemeines Wertesystem mehr greift, dann bekommen wir Strukturen, die auf Dauer nicht hinnehmnbar sind. Aber das ist mit Sicherheit eine ganz andere Diskussion, die hier wohlmöglich auch nicht sinnvoll stattfinden kann und sollte. Neoliberaler Kapitalismus, Friedmann und trickle-down-theory sind dafür tolle Einstiegsstichpunkte. Dazu kommen Politiker, naja sagen wir eher kurzfristige Gewinnmaximierer, die nicht mehr in der Lage sind, sich soweit von finanziellen Zwängen oder finanzieller Gier zu lösen, dass sie Entscheidungen treffen, die über die Wahlperiode hinaus für das Land richtig sind. Natürlich sind sie kurzfristig oft hart und sorgen für negative Stimmung, auf längere Sicht aber wohlmöglich richtig. Nur werden sie dann nicht mehr wiedergewählt und scheinbar reicht eine normale Pension eines Bundesministers nicht mehr aus, um davon vernünftig leben zu können.

Stellt sich natürlich die Frage ob der GPU Markt irgendwann so wichtig sein könnte, als dass sich dort eine Kartelluntersuchung lohnte. Wenn wir das bei Datenduo- oder Datenoligopolen je nach Betrachtungsweise gesellschaftlich auch nicht hinbekommen. Von der Seite ist also auch nichts zu erwarten. Bleibt allein Boykott durch die Endverbraucher.. Wenn sich alle dran halten funktioniert dieser. Das Problem ist nur: Das funktioniert (noch) nicht. Es geht allen noch zu gut. Jetzt will ich nicht hoffen, dass sich das ändert, aber ich darf darauf hoffen, dass man vielleicht zu Einsicht kommt, dass es nur über den Endverbraucher geht.

Tut mir leid, ich schweife gerade sehr stark ab und bitte dies zu entschuldigen. Sowas liegt mir auf der Seele und ich habe erst jetzt bemerkt wie weit ich vom eigentlichen Thema entfernt bin. Aber mir war es beinahe zu schade den Text wieder zu löschen.

In diesem Sinne....

Achso: Ich kalkuliere übrigens wirdlich so. Kosten (Einzel- und Gemeinkosten) Risiko, Gewinn, MwSt. Von daher gibt es zumindest im Kleinen noch die normal kalkulierenden Anbieter. Ob diese auch immer so als solche erkannt werden, ist nochmal eine ganz andere Geschichte.
 
Ach Nvidia, die wollt ihr immer noch nicht liefern, na dann geb ich mein Geld woanders aus. Ich kann warten, eure Quartalsbilanzen auch?
Würde mich doch sehr wundern, wenn es einen Zusammenhang zwischen den Quartalsbilanzen von NVDIA und deiner kaufentscheidung geben würde. Wobei sich der Nutzen von leistungsschwachen Grafikkarten, die nur maximal für WQHD geeignet sind und großer Ram, sich mir beim besten Willen nicht erschließt.
@Megaone Den Grenznutzen eines jeden Kunden monetär einzufangen ist mit Sicherheit eine ganz tolle Idee und klappt in einem vollinformierten Monopol bei desinformierten Abnehmern wunderbar. In einem funktionierendem Markt wäre dieser Anbieter aber über kürzere Zeit aus eben jenem irgendwann verschwunden oder durch günstigere Konkurrenten verdrängt. Eben weil sich Abnehmer informieren etc.

Das Problem beginnt dann, wenn die Kunden keine Auswahlmöglichkeit haben und sich nicht "solidarisieren" und/oder die Markteintrittsschranken so hoch sind, dass es für einen Newcomer unglaublich schwer wird. Sprich: Scheinbar haben wir derzeit die Herausforderung, dass der Markt gestört ist.

ODER: Es gibt einfach Möglichkeiten mit dem Werkzeug GPU so viel Geld zu verdienen, dass der Anschaffungspreis beinahe belanglos ist und damit der Markt der "Gamer-GPUs" eher ein Abfallprodukt ist. Ich hoffe von daher, dass nicht nur aus diesem Grund die Kryptowährungen verschwinden werden oder von mir aus auf ein anderes Konzept umsteigen. s. Ethereum.

Losgelöst davon ist nicht immer alles erlaubt was nicht ausdrücklich verboten ist. Das was nVidia da abzieht und was sich Energiekonzerne auf Grund der derzeitigen Preisfindungsart (Merit System) erlauben ist einfach liederlich.

Wenn dann kein allgemeines Wertesystem mehr greift, dann bekommen wir Strukturen, die auf Dauer nicht hinnehmnbar sind. Aber das ist mit Sicherheit eine ganz andere Diskussion, die hier wohlmöglich auch nicht sinnvoll stattfinden kann und sollte. Neoliberaler Kapitalismus, Friedmann und trickle-down-theory sind dafür tolle Einstiegsstichpunkte. Dazu kommen Politiker, naja sagen wir eher kurzfristige Gewinnmaximierer, die nicht mehr in der Lage sind, sich soweit von finanziellen Zwängen oder finanzieller Gier zu lösen, dass sie Entscheidungen treffen, die über die Wahlperiode hinaus für das Land richtig sind. Natürlich sind sie kurzfristig oft hart und sorgen für negative Stimmung, auf längere Sicht aber wohlmöglich richtig. Nur werden sie dann nicht mehr wiedergewählt und scheinbar reicht eine normale Pension eines Bundesministers nicht mehr aus, um davon vernünftig leben zu können.

Stellt sich natürlich die Frage ob der GPU Markt irgendwann so wichtig sein könnte, als dass sich dort eine Kartelluntersuchung lohnte. Wenn wir das bei Datenduo- oder Datenoligopolen je nach Betrachtungsweise gesellschaftlich auch nicht hinbekommen. Von der Seite ist also auch nichts zu erwarten. Bleibt allein Boykott durch die Endverbraucher.. Wenn sich alle dran halten funktioniert dieser. Das Problem ist nur: Das funktioniert (noch) nicht. Es geht allen noch zu gut. Jetzt will ich nicht hoffen, dass sich das ändert, aber ich darf darauf hoffen, dass man vielleicht zu Einsicht kommt, dass es nur über den Endverbraucher geht.

Tut mir leid, ich schweife gerade sehr stark ab und bitte dies zu entschuldigen. Sowas liegt mir auf der Seele und ich habe erst jetzt bemerkt wie weit ich vom eigentlichen Thema entfernt bin. Aber mir war es beinahe zu schade den Text wieder zu löschen.

In diesem Sinne....

Achso: Ich kalkuliere übrigens wirdlich so. Kosten (Einzel- und Gemeinkosten) Risiko, Gewinn, MwSt. Von daher gibt es zumindest im Kleinen noch die normal kalkulierenden Anbieter. Ob diese auch immer so als solche erkannt werden, ist nochmal eine ganz andere Geschichte.
Ich bin 1 zu 1 bei dir und Unterschreibe jedes Wort von deinem Text.

Leider ist heute der desinformierte Abnehmer zunehmend der Standard.

Die meisten sind doch Intellektuell gar nicht mehr in der Lage sich in der Breite zu informieren.

Schau dir doch nur die ganzen Influencer mal an. Da musst du den IQ mehrerer addieren um eine 3 stellige Zahl zu erreichen. Von den Konsumenten ganz zu schweigen.

Wieviele arbeiten den auf dem Niveau von Igor? Und warum sind es so wenige?

Weil es die wenigsten könnten, selbst wenn sie wollten! Und ein großteil der Konsumenten die Botschaft eh nicht raffen würde.

Und die Ernte dessen, was unsere politische Kaste quer durch alle Parteien in den letzten 20 Jahren gesäät oder besser versaubeutelt hat, fahren wir doch gerade ein.

Inflation, Abhängigkeiten, sowie die aktuellen Energiesituation und der Zusammenbruch von Lieferketten sind doch dem Murks der letzten 20 Jahre zu verdanken. Und erzähl mir keiner, das hätte man nicht wissen können. Warnungen hat es in jedem Bereich genug geben. Und wer glaubt, wir befänden uns mitten in der Krise, irrt sich gewaltig. Sie hat noch nichtmal richtig begonnen.

NVIDIA ist da unser geringstes Problem. Wir sollten mal über Blackrock reden. Strukturen, die auf Dauer nicht hinnehmbar sind, haben wir doch in vielen Bereichen schon viel zu lange. Es wird doch allenthalben ignoriert. Worüber wollen wir reden? Energie? Gesundheitswesen? Rente? Vermögensverteilung? Bildungswesen? Altenpflege?

Ich schweife auch ab. Aber mir lag es ebenfalls auf der Seele.

Ebenfalls in diesem Sinne.
 
Zuletzt bearbeitet :
Die Frage ist doch, ob AMD auch in Masse, will sagen: Gewicht/Größe macht. Guckt euch doch die Karten an: 600 Watt, 4 Slots. The bigger, the better?
Bei aller Leistung, ich denke, das wird ein Flop. Einfach nicht zeitgemäß. Zu groß, zu schwer, zu heiß, zu viel Energie - Neues NT, neues Gehäuse?
Wo hier grade Apple erwähnt wurde: die zeigen, wie das geht. M1 Chip: erschreckend performant, sparsam - die komplett andere Strategie.
Davon ab: ich merke von einem AMD Rückstand herzlich wenig. RDNA 2 ist komplett auf Augenhöhe. Ja: RT, aber das zahlt man auch.
 
Die Frage ist doch, ob AMD auch in Masse, will sagen: Gewicht/Größe macht. Guckt euch doch die Karten an: 600 Watt, 4 Slots. The bigger, the better?
Bei aller Leistung, ich denke, das wird ein Flop. Einfach nicht zeitgemäß. Zu groß, zu schwer, zu heiß, zu viel Energie - Neues NT, neues Gehäuse?
Wo hier grade Apple erwähnt wurde: die zeigen, wie das geht. M1 Chip: erschreckend performant, sparsam - die komplett andere Strategie.
Davon ab: ich merke von einem AMD Rückstand herzlich wenig. RDNA 2 ist komplett auf Augenhöhe. Ja: RT, aber das zahlt man auch.
Soviel günstiger ist AMD aktuell wirklich nicht. Zumal sie langsameren Ram (wenn auch durch einen schnellen Cache kaschiert) haben. Eine 6950 und eine 3900er nehmen sich nicht viel und da hat für mich eine 3090 nicht nur mehr Ram, sondern auch das eindeutig bessere Gesamtpaket. Kleiner und leichter ist die Karte auch nicht und Stromverbrauchstechnich gibt es hier kaum Unterschiede.

Das das insgesamt alles in die falsche Richtung geht, ist ja unbestritten, aber ich erwarte von AMD eine Karte, die kaum billiger ist, Verbrauchstechnich auf einem ähnlichem Niveau liegt und bestenfalls in der Rasterizierung auf Augenhöhe ist. Preislich wird sich das ähnlich darstellen wie aktuell.

Beide sind Meilenweit von einer möglichen innovativen M1 GPU entfernt. Wenn sowas in dem Bereich überhaupt machbar ist. Da wird wahrscheinlich eher irgendwann eine Monster GPU den Teil einer CPU einfach mit übernehmen.

Ich versteh jedenfalls nicht, warum alle immer irgendwelche irrationalen Hoffnungen mit AMD verbinden.
Das hat in der Vergangenheit schon nicht funktioniert und aktuell gibt es dafür auch keinerlei Hinweise.

Und wenn AMD ein wirklich gutes Produkt auf den Markt gebracht hat, haben sie es sich genauso bezahlen lassen, wie der Wettbewerb.

Das der Bau eines PC`s so teuer geworden ist, liegt ja zumindest in Bereich Board und CPU nicht an Intel allein und die AMD Karten werden und wurden auch nicht verschenkt.
 
Zuletzt bearbeitet :
  • Like
Bewertungen: ***
Mich nervt die ganze Situation an. Sitze hier mit einem UWQHD Display und einer RTX 2070. Mit der Performance bin ich grundsätzlich zufrieden - schneller geht natürlich immer, aber ich hab auch kein Problem damit die Darstellungsqualität etwas zu reduzieren.

Wer allerdings wirklich eine neue Karte bräuchte, ist mein Bruderherz, dessen R9 390 sein CAD nur leidlich beschleunigt. Das läuft tatsächlich signifikant besser auf nVidia.

Jetzt sind meine finanziellen Möglichkeiten erheblich besser als seine und ich würde mir einfach eine neue Karte kaufen und ihm die RTX 2070 überlassen. Geld ist jetzt bei mir auch nicht so das Thema, weil man ja irgendwann doch gelernt hat damit umzugehen. Genau aus dem Grund sehe ich's aber auch nicht ein für eine Grafikkarte vierstellige Beträge hinzublättern.

nVidia ist für mich aktuell raus, weil die erhöhte Leistungsaufnahme im Boostverhalten schon bei den RTX 30er-Karten nicht innerhalb eines durch ATX 2.xx spezifizierten Rahmens geschieht. Für viele Netzteile scheint das kein Problem zu sein und die können das ab. Manche gehen aber in die Notabschaltung und ich hab nur leidlich Lust das für mein Netzteil rauszufinden.

Bleibt also nur AMD. Die Karten werden ja auch zunehmend günstiger. Aktuell bekommt man eine Radeon RX 6900 XT von XFX für 769,00 EUR, was imho ein recht annehmbarer Kurs ist. Was mir an der Karte dagegen nicht gefällt, sind die 340 mm Kartenlänge und die Leistungsaufnahme. XFX empfiehlt hier ein 850 Watt Netzteil - verbaut habe ich aber lediglich eines mit 750 Watt. Ob das vielleicht nicht doch reicht? Da habe ich wieder nur leidlich Lust dazu, das rauszufinden.

Bleibt also noch die RX 6800 XT übrig. Tolle Karte und AMD empfiehlt ein 750 Watt Netzteil. Da gibt's aktuell auch bei MF eine XFX für 679,00 EUR. Leider ist die immer noch mit 340 mm übertrieben lang, was ich wirklich nicht möchte. Die Karten anderer Hersteller sind entweder auch über 300mm lang (ASRock RX 6800 XT Phantom Gaming D, ASRock RX 6800 XT Taichi X, ASUS RX 6800 XT TUF Gaming OC, Gigabyte RX 6800 XT AORUS Master (TYPE C), MSI RX 6800 XT Gaming Trio, MSI RX 6800 XT Gaming X Trio, Powercolor RX 6800 XT Red Devil, Powercolor RX 6800 XT Red Dragon, Sapphire RX 6800 XT Nitro+, Sapphire Radeon RX 6800 XT Nitro+ OC SE, Sapphire RX 6800 XT Pulse) oder wassergekühlt (ASUS RX 6800XT ROG Strix LC OC), was ich nach ner leckenden AIO kategorisch ausschließe.

Bleiben genau nur noch zwei Karten übrig. Entweder eine Gigabyte RX 6800 XT GAMING OC oder das Referenzdesign von AMD, das mit lediglich 267 mm auskommt. Die Gigabyte sieht sehr nach Plastik aus und ob da mein "GPU-Holder" an dem Tarnkappendesign ordentlich zu halten vermag? Gut, dann also das Referenzdesign vom Hersteller! Wenn es denn irgendwo außerhalb von eBay zu kaufen wäre...
 
@emulbetsup Wieso stört dich denn die Länge einer Grafikkarte? Wenn sie dann nicht in dein Gehäuse passt, dann wäre das ein Grund für mich.
 
merkt die karte das doch eh nicht weil es keine data pins gibt oder verstehe ich das falsch? Und somit gibt das Netzteil alles was die Gpu möchte so wie bisher auch?
Ohne Pin sieht die Karte, dass kein Pin verbunden ist. Das bedeutet für die Karte, dass sie 450 Watt ziehen darf und keine 600 W. Nur wenn der Pin da ist und verbunden ist, darf die Karte mehr ziehen als 450 Watt.
 
XFX empfiehlt hier ein 850 Watt Netzteil - verbaut habe ich aber lediglich eines mit 750 Watt. Ob das vielleicht nicht doch reicht?
Die maximale Leistungsgrenze ist, ohne allzu großen fps-Verlust, einfach im Treiber einzustellen, da machst du dir unnötige Sorgen.
Ob die Karte von der Länge her in dein Gehäuse passt, musst du halt ausmessen. Lediglich eine einfache, magnetische Grafikkartenstütze sollte man einbauen, die Karte ist schwer und braucht Unterstützung. Von der XFX bin ich lautstärkemäßig angenehm überrascht.
 
Und egal wie sehr die Kritik auch sachlich begründet wird
Nur wird es eben, was den Preis angeht, nicht sachlich begründet sondern es ist immer das selbe Gerede von "Früher war alles besser/billiger" etc.

Sachlich argumentiert:
NVidia hat herausgefunden, dass sie ihre Produkte mit mehr Profit für den preislichen Faktor 2-3x an den Mann/Miner bringen können. Solange das der Fall ist, wären die als kapitalistische Firma selten dämlich, wenn die das nicht ausnutzen würden.
Das ist eine Corporation und kein Wohlfahrtsverein.

Da AMD preislich mitzuziehen scheint (ist ja auch an Profit interessiert und kein philanthropischer Ritter und güldner Rüstung :'D ) gibts auch von Seiten der Konkurrenz das Signal "Ey, eure Preise sind schon o.k. so.

BTW: bezweifel ich es mal ganz stark, dass Megacorps wie NVidia oder Intel sich sonderlich für Foren und Social media interessieren wenn dort vorm Zücken der Kreditkarte erstmal eine Runde "Kritik" an der Preisstruktur geübt wird, solange die Produkte dennoch in Scharen gekauft werden.

Es geht nicht nur um die Preise, sondern auch das Verhalten in Sachen 4080.
Du meinst weil es zwei verschiedene Varianten gibt und Nvidia zwischen 4070 und 4080 Vollausbau noch eine Stufe mit quasi gleichem Namen dazwischen schiebt?

Ist letztenendes völlig egal, ergibt nur kleinere Abstände zwischen den Produkten und mehr Preispunkte aus denen die Leute wählen können.
Unterm Strich werden via Benchmarks die Preis/Leistungsverhältnise ausgerechnet und die Mehrheit wird sich den P/L Sieger rauspicken.

Ich mein in der 3080er Serie wars doch auch so, mit dem (IMHO) noch nervigeren Faktor, dass die verbesserte Variante erst später released wurde. Diesmal ist sie immerhin seit Anfang dabei und man kauft nicht erst eine 3080 mit 10Gig nur um ein Jahr (?) später eine leistungsfähigere mit 12 Gig vorgesetzt zu bekommen.

Die Namensgebung bei Grakas war schon immer ein Minenfeld. :'D
Was mich aktuell viel mehr umtreibt - welche Spiele spiele ich denn mit dieser Leistung?
4K jenseits der 60Hz braucht selbst bei älteren Spielen eine 4080+ wenn man mit "Ultra" details daddeln will.
Stabile 4K 60Hz schafft meine 3080 auch nur bedingt.

Ich bin letztendlich davon ab 4K 60Hz haben zu wollen, weil ich die Abwärme nicht ertragen kann. 400W für ein paar Stunden neben sich zu haben ist nicht lustig.

Ich werde erst dann wieder darüber nachdenken, wenn die Effizienz der Hardware soweit gestiegen ist, dass der Wärmefaktor vertretbar ist.
Vielleicht mit der 6000er Generation. Bis dahin begnüge ich mich in Titeln die die Karte ausreizen mit 30Hz.

Also wenn ich mal den Preis für die 4090 nehme, dann sind Apple Computer schon fast ein Schnäppchen.

Für 2kEUR bekommt man dort einen
Apple Mac Studio, M1 Max - 10 Core CPU / 24 Core GPU, 32GB RAM, 512GB SSD oder ein
Apple MacBook Pro 14.2" silber, M1 Pro - 8 Core CPU / 14 Core GPU, 16GB RAM, 512GB SSD oder einen
Apple iMac 24" (4480x2520, IPS, 500cd/m²) silber, M1 - 8 Core CPU / 7 Core GPU, 16GB RAM, 1TB SSD, Gb LAN inkl. Maus und Tastatur.
But .... can it run Crysis?!
*duck*

Naja, bleiben wir mal auf dem Teppich: ich denke jeder hier weiß, dass man für das "top of the line" Halo Produkt
a) eine R&D Tax
b) eine "Idiot" Tax
mitbezahlt. Diese Produkte richten sich NICHT an den normalen Gamer sondern an professionals, die mit dem Produkt ihren Lebensunterhalt verdienen und bei denen sich der Preis dann halt amortisiert wenn sie dadurch besseren/mehr Content produzieren können und natürlich Leute die die Knete einfach herumschimmeln haben und nichts besseres damit anzufangen wissen.

Den Preis einer 4090 zu kritisieren ist in etwa so als wenn ich den Preis eines Luxusautos mit allen erdenklichen Extras kritisiere. Kann man kaufen, muss man aber nicht um gemütlich den Allerwertesten zur Arbeit zu fahren.
 
Zuletzt bearbeitet :
4K jenseits der 60Hz braucht selbst bei älteren Spielen eine 4080+ wenn man mit "Ultra" details daddeln will.
Stabile 4K 60Hz schafft meine 3080 auch nur bedingt.
Bisschen pauschal, deine Aussage. Ich hatte hier zuletzt „Stray“ am Start, das rannte ganz gut. Musst halt auch die Sync-Funktionen am Display aktivieren.
Apropos ältere Titel: SoTR oder Horizon: ZD laufen in 4K@60Hz stabil.

Edit: Weiß nicht, welche 3080 du hast, könnte aber am zu kleinen Speicher liegen.
 
Nur wird es eben, was den Preis angeht, nicht sachlich begründet sondern es ist immer das selbe Gerede von "Früher war alles besser/billiger" etc.
Nicht von mir. Ich hatte meine Kritik bereits komprimiert wie folgt geschrieben: "Nein, es geht um das Preisleistungsverhältnis im Kontext der von Nvidia aufgestellten Hierarchie und Nomenklatur."

Ist letztenendes völlig egal
Das scheint die Quintessenz zu sein.
 
Oben Unten