AMD komplettiert mit der Radeon RX 7800XT und 7700XT das Lineup, NVIDIA chillt und Intel sucht noch - Eure Meinung gegen meine

Verstehe den Satz nicht ganz. Eventuell kann Igor ja eine Umfrage dazu machen, dann wissen wir genaueres.

Die Umfrage macht er doch gerade....
Bei den möglichen Antworten, können „Hardcorefans“ jeweils antworten:
NVIDIA / AMD interessiert mich sowieso nicht, also was soll's?

Nvidea: Abstimmungen insgesamt: 2146 davon NVIDIA interessiert mich sowieso nicht, also was soll's? 49 Votes entspricht 2,28% der votes.
Es haben 1007 Personen abgestimmt: Für 49 existiert Grün nicht. Das entspricht 4,86 % die Nvidea komplett ablehnen....


AMD: Abstimmungen insgesamt: 1718 davon AMD interessiert mich sowieso nicht, also was soll's? 15 Votes entspricht 0,873% der votes.
Es haben 842 Personen abgestimmt: Fuer 15 existiert Rot nicht. Das entspricht 1,78 % die AMD komplett ablehnen.

4,86 geteilt durch 1,78 ist: 2,73
Relativ gesehen sind also bei dieser Umfrage (bis heute 16,15 Uhr) AMD Afine 2,73 mal radikaler gegenüber Nvidea als umgekehrt.
Bei uns sind also Nvidea-Afine weniger radikal gegenüber AMD.
 
Die 7700 XT hat mit 40 (6700 XT) zu 54 (7700 XT) CU's ordentlich zugelegt, leider ist sie mit 489€ viel zu teuer.
Ich würde da lieber zur 7800 XT greifen und die plus 6 CU's, 4GB Speicher, 16 MIB Cache sowie die größere Speicheranbindung für gerade mal +60€ (549€) mitnehmen.
Einer 7800 XT geht auf jeden Fall später die Luft aus als einer 7700 XT.

AMD sollte schnellstens eine 7700 mit 48 CU's und 10 oder 12 GB Speicher für um die 400€ nachreichen, denn die macht mehr Sinn.
 
Nebenbei gibt es auch Gelb-Blau Farbenblindheit.

Ist sowohl in der Ukraine als auch in Niederösterreich ungünstig.
Würde aber in letzterem die schwarz-blau Landesregierung erklären, nachdem die schwarzen ja vor Rot-Blau gewarnt haben im Wahlkampf, aber was will man von Politikern in einer Landeshauptstadt, die von einem Bezirk (==Kreis) mit dem Kennzeichenkürzel PL umgeben ist? :p
 
Upscaling würde ich eher als "Lebensverlängerung" sehen - wenn man es jetzt schon nutzt, wird es bei der nächsten Generation von Spielen bereits kritisch.
Das ist für mich die sinnigste Aussage die ich hier gelesen habe. So sollte es sein! Erst werden Generationen an Grafikkarten so verhackstückelt, dass es schon fast keinen Sinn ergibt und dann heißt es: "Hey, wir haben hier ein Tool für dich, damit kannst du und dein umgebautes Feuerzeug Cyberpunk spielen!"
 
Das ist für mich die sinnigste Aussage die ich hier gelesen habe. So sollte es sein! Erst werden Generationen an Grafikkarten so verhackstückelt, dass es schon fast keinen Sinn ergibt und dann heißt es: "Hey, wir haben hier ein Tool für dich, damit kannst du und dein umgebautes Feuerzeug Cyberpunk spielen!"

Man kann auch alles madig machen....
Ohne jetzt auf die FSR / DLSS Polemik eingehen zu wollen:

Ich kann beispielsweise mit meiner popeligen RTX 2070 MS Flightsimulator 2020
flüssig und mit ansehnlichem Detailreichtum auf 4K spielen.

Was ist also an diesen softwareseitigen Ansätzen so schlecht ?
Ich bin darüber sehr erfreut und kann so einfach abwarten, bis mir die passende GPU über den Weg läuft :)
 
Ich bin darüber sehr erfreut und kann so einfach abwarten, bis mir die passende GPU über den Weg läuft :)
Stimme ich dir zu!
Bei mir hat FSR geholfen die Zeit zu überbrücken bis RDNA2 bezahlbar geworden ist. So war ich nicht gezwungen eine neue Karte zu kaufen als der Crypto Hype am Höhepunkt war.
Bei einigen Spielen profitiert sogar die Qualität wenn FSR aktiv ist, zumindest ist das mein Eindruck.
Und gerade beim FSR3 wird es nur Gewinner geben! Mehr Leistung für lau nimmt man doch gerne mit!
Mir gefällt der offene Ansatz bei AMD jedenfalls. Gut Hypr-rx läuft nur auf RDNA3,
mit dem Bömbchen kann man leben!
 
Was ist also an diesen softwareseitigen Ansätzen so schlecht ?
Erstmal nichts, aber...

Remnant 2: Spiel darauf ausgerichtet, dass Upscaling verpflichtend ist. Das, was man visuell erhält, ob nativ oder via upscaling rechtfertigt die Performance dennoch nicht.

Problem: Man zieht Krücken ran, um sich Arbeit zu sparen.

4060: Sidegrade, wenn nicht sogar Regression zu dem, was sie eigentlich ersetzen soll. Ausrede/Verkaufsargument: DLSS 3.

Upscalingtechnologien haben durchaus ihre Daseinsberechtigung, allerdings sind bereits jetzt an einem Scheidepunkt und möglicherweise Trendetablierung, an dem man probiert damit weiter Marge zu treiben, statt tatsächlich besser Baselines abzuliefern.

Demnächst dann stagnierende Leistung durchweg, mit Upscaling Tech Support als Generations Gating ;)
 
Das mit der stagnierenden Leistung scheint mir langsam eine Sache der Produktplanung zu werden / geworden zu sein.
Ein Schelm wer böses dabei denkt, daß man seitens der Hersteller genannt bekommt: "Das hier ist eine 1080p-Karte, jene eine 1080p-high-refresh, dann hätten wir noch ein Pärchen für 1440p und als topper noch was für die uhd/4k-Fraktion"...
...und sich dann parallel ansieht, welche Preise nach und nach mit jeder neuen Generation für diese "label" dann auch aufgerufen werden.

Und jetzt wo die aktuelle Konsolengeneration in etwa Halbzeit erreicht hat und endlich für die aktuelle Technik von 2020 optimierte Spiele erscheinen wundern wir uns über immer kleinere Speicherbusbreite und immer höhere Preise trotz Crypto-Crash. Nun, das aktuelle aufgescheute Pferd, das durch das Dorf getrieben wird ist klar "KI" und maschinelles Lernen im Rechenzentrum. Da wollen alle mitmischen und jeder Quadratmillimeter Waverfläche der kostbaren 5nm und (bald) 3nm Nodes für gaming-GPUs ist einer mehr, der für die aktuelle Cash-Cow nicht verfügbar ist und eben nicht diese himmlischen, Crypto-ähnlichen Margen einfährt.

Entweder das oder (vor allen anderen) nvidia hoffte bei der Planung von Ada-Lovelace auf frühzeitige Verfügbarkeit von GDDR7 (?). Die Bandbreitenreduzierung gerade im unteren Segment ist bei den 40ern ja schon extrem - auch wenn sie dort mit rdna2 als Vorbild ihren last-level on-die Cache reichlich ausgebaut haben. Mag bei älteren Spielen einen schönen Boost bringen, aber auch bei den jetzt kommenden Neuerscheinungen?

Oder anders ausgedrückt: Kommen jetzt bald die erschwinglichen Monster-APUs, die den Einstiegsbereich der diskreten Pixelbeschleuniger vollends unrentabel machen, nachdem den letzten beiden Generationen bereits im Einstiegssegment massiv die PCIe-lanes beschnitten wurden und vor allem Nutzern von PCIe 3.0 und älteren Plattformen die gut+günstig-Option versäuert wurde?
 
Gerüchte (Wccftech) sagen, die 7700 XT ist fast so schnell wie eine 6800 XT, vielleicht weiß Mindfactory und indirekt PowerColor mehr, warum sollten sie sonst die 6800 XT für 449 Euro verschenken. Ich behaupte jetzt mal, wenn das oben gesagte so kommt, liegt die alte Serie zu den aktuellen Preisen wie Blei im Lager. Igor weiß es schon und wir zappeln.
 
Ganz nebenbei kann man bei unserem Forum bisher feststellen, dass es relativ gesehen gut doppelt so viele Rote mit grün-Farbenblindheit als Grüne mit rot-Farbenblindheit gibt :D

Die Umfrage macht er doch gerade....
Bei den möglichen Antworten, können „Hardcorefans“ jeweils antworten:
NVIDIA / AMD interessiert mich sowieso nicht, also was soll's?

Nvidea: Abstimmungen insgesamt: 2146 davon NVIDIA interessiert mich sowieso nicht, also was soll's? 49 Votes entspricht 2,28% der votes.
Es haben 1007 Personen abgestimmt: Für 49 existiert Grün nicht. Das entspricht 4,86 % die Nvidea komplett ablehnen....


AMD: Abstimmungen insgesamt: 1718 davon AMD interessiert mich sowieso nicht, also was soll's? 15 Votes entspricht 0,873% der votes.
Es haben 842 Personen abgestimmt: Fuer 15 existiert Rot nicht. Das entspricht 1,78 % die AMD komplett ablehnen.

4,86 geteilt durch 1,78 ist: 2,73
Relativ gesehen sind also bei dieser Umfrage (bis heute 16,15 Uhr) AMD Afine 2,73 mal radikaler gegenüber Nvidea als umgekehrt.
Bei uns sind also Nvidea-Afine weniger radikal gegenüber AMD.
Ich hatte mich bei deiner ursprünglichen Aussage auch erst erschrocken, weil ich dieses Gefühl für Rot- oder Grünbrillenträger hier so nicht wahr nehme.

Aber wenn die Masse, auf die du dich beziehst, die 5%-Hürde nicht packt, dann passt das ja wieder ins Weltbild. 😉
 
Die Umfrage macht er doch gerade....
Bei den möglichen Antworten, können „Hardcorefans“ jeweils antworten:
NVIDIA / AMD interessiert mich sowieso nicht, also was soll's?
Wieso "Hardcorefans"?
Gerade die Laptop oder IGP/APU Nutzer interessieren dedizierte GPUs nicht.
Auch notorisch hohe Preise können dazu führen dass man einen Hersteller grundsätzlich ausschließt.
Beispielsweise interessieren mich Apple Produkte nicht, da sie in (für mich) unrealistischen Preisbereichen mit überhöhten Preien im walled Garden unattraktiv sind. Das macht mich aber nicht zu einem "Hardcorefan" von Samsung/Sony/Huawei/Xiaomi/...

Nvidea: Abstimmungen insgesamt: 2146 davon NVIDIA interessiert mich sowieso nicht, also was soll's? 49 Votes entspricht 2,28% der votes.
Es haben 1007 Personen abgestimmt: Für 49 existiert Grün nicht. Das entspricht 4,86 % die Nvidea komplett ablehnen....
AMD: Abstimmungen insgesamt: 1718 davon AMD interessiert mich sowieso nicht, also was soll's? 15 Votes entspricht 0,873% der votes.
Es haben 842 Personen abgestimmt: Fuer 15 existiert Rot nicht. Das entspricht 1,78 % die AMD komplett ablehnen.
4,86 geteilt durch 1,78 ist: 2,73
Relativ gesehen sind also bei dieser Umfrage (bis heute 16,15 Uhr) AMD Afine 2,73 mal radikaler gegenüber Nvidea als umgekehrt.
Bei uns sind also Nvidea-Afine weniger radikal gegenüber AMD.
"radikal gegenüber" - wie oben dagelegt steht das in der Abstimmung nicht und kann man offensichtlich nicht herauslesen. Auch hast du Intel z.B. "vergessen" (passte vermutlich nicht in dein Weltbild). Vermutlich bist du einer dieser "radikalen Kultisten", oder warum machst du hier einen Kreuzzug gegen AMD mit offensichtlich aus den Fingern gezogenen "Argumenten"?
 
Zuletzt bearbeitet :
Wieso "Hardcorefans"?

Weil meines Erachtens nur "Hardcorefans" so eine sinnlose und kategorische Antwort geben können !

Zu Intel habe ich nichts geschrieben,weil diese Frage nicht angeboten wurde.

Und nein,ich freue mich über einen dritten Anbieter ( Intel ) bei den GPU's.

Von Apple war nie die Rede...

Bei Deinen Kommentaren habe ich allerdings schon oft den Eindruck gehabt, das es für Dich nur AMD gibt.

Wenn ich einen Kreuzzug gegen AMD führen würde,frage ich warum ich bei meinem letzten Build für einen Freund, mich für eine 7900xt entschieden habe... ?


Edit: Meine Analyse,sollte auch nicht bierernst sein. Mancher eins nimmt es aber scheinbar schon persönlich.. :)
 
Zuletzt bearbeitet :
@Umfragediskussion: Das " Firma xyz interessiert mich nicht" kann man unterschiedlich lesen.

Die Extrempunkte wären mMn:
I) Ist mir egal weil zu teuer/passt nicht ins Gehäuse/etc; kommt aber wieder in Betracht wenn sich da was ändert.
II) VERBRENNT SIE !!! einseinself
 
Weil meines Erachtens nur "Hardcorefans" so eine sinnlose und kategorische Antwort geben können !

Zu Intel habe ich nichts geschrieben,weil diese Frage nicht angeboten wurde.
Aber das ist ja der aufgezeigte Fehler: Es könnten genauso Leute sein, die "Hardcorefans" von Intel sind, oder einfach überteuertes "Premium" Zeugs nicht mögen oder auch dedizierte GPUs nicht interesiert (Beispiel Apple-Kosmos - was interessiert die ein GPU Hersteller, bei denen ist alles verlötet).
Edit: Meine Analyse,sollte auch nicht bierernst sein. Mancher eins nimmt es aber scheinbar schon persönlich.. :)
Typische "Schutzaussage": War ja alles gaaanz anders gemeint. Hört man von vielen Populisten :p
 
Hört man von vielen Populisten :p

Sag mal, geht’s noch?

Du bist mir ja ein ganz Netter.

Mit Deinen andauernden Aussagen und Deinem Auffassungsvermögen,hörst Du Dich an wie ein spät pubertierender Bengel.

Diskutiere mit wem Du willst, bei mir bist Du auf ignore.
 
Sag mal, geht’s noch?

Du bist mir ja ein ganz Netter.

Mit Deinen andauernden Aussagen und Deinem Auffassungsvermögen,hörst Du Dich an wie ein spät pubertierender Bengel.

Diskutiere mit wem Du willst, bei mir bist Du auf ignore.
Ich zitiere mal als Antwort: "Meine Analyse, sollte auch nicht bierernst sein. Mancher eins nimmt es aber scheinbar schon persönlich.. :)"
Da misst wohl einer mit zweierlei Maß XD
 
Aber das ist ja der aufgezeigte Fehler: Es könnten genauso Leute sein, die "Hardcorefans" von Intel sind, oder einfach überteuertes "Premium" Zeugs nicht mögen oder auch dedizierte GPUs nicht interesiert (Beispiel Apple-Kosmos - was interessiert die ein GPU Hersteller, bei denen ist alles verlötet).

Typische "Schutzaussage": War ja alles gaaanz anders gemeint. Hört man von vielen Populisten :p

@Apple: Lüg nicht.


Verstehe @ipat66 , du bist immer wieder auf Krawall gebürstet, wenn man deinen Fantasien gegenhält, manche geben sich das nicht.
 
Ja den habe ich ganz vergessen. Gibt es da inzwichen überhaupt Treiber für aktuelle nvidia GPUs?
Verstehe @ipat66 , du bist immer wieder auf Krawall gebürstet, wenn man deinen Fantasien gegenhält, manche geben sich das nicht.
Eher andersherum. Wenn er aggressives Zeug postet "war es hinterher nicht so gemeint" und wenn man ihn drauf aufmerksam macht packt er den intolleranten Polterer raus - siehe seinen letzen Post.
 
Oben Unten