AMD Der Tag danach: Vega VII ist angekommen, Jensen lästert, Lisa kontert und wir kommentieren | Editorial

Für jene die sich preislich für eine RTX 2060 entscheiden, die spielen auch in 1080p und dafür reicht die Leistung der Karte sowie der verbaute VRam über Jahre hinweg. Mit einer RTX 2060, oder einer GTX 1070, ja sogar mit einer GTX 1060 oder auch GTX 970 lässt sich jeder AAA+ Titel in very high details mit ausreichenden FPS spielen und auch genießen.

lg

spiele wo 6/8GB nichtmal in FHD langen: call to arms 10GB(1440p), world of war 11GB(1080p), fallout 76 11GB(1440p), black ops 4 14GB(2160p), FFXV 12GB(1440p)... und gibt noch einige mehr, dazu einfach mal in CB den passenden vram thread aufsuchen...

und bevors ruckelt wird erstmal das LOD runtergeschraubt vom treiber, wenn das dann auch nicht mehr langt ist sense und ruckelt...

immer dieses "das langt" ja klar, wenn man konsolen texturen will die aussehen wie hingekotzt...

@Igor Wallossek FFXV in max out inkl. treiber ist extrem eyecandy... allerdings sollte man das TAA weglassen, sonst wirds blurrig.
 
spiele wo 6/8GB nichtmal in FHD langen:
- Beispiel in WQHD
- Beispiel in FHD
- Beispiel in WQHD
- Beispiel in 4K
- Beispiel in WQHD

Irgendwie ist die Liste der Beispiele recht kurz und umfaßt nur einen gültigen Eintrag...
 
Moin :)

spiele wo 6/8GB nichtmal in FHD langen: call to arms 10GB(1440p), world of war 11GB(1080p), fallout 76 11GB(1440p), black ops 4 14GB(2160p), FFXV 12GB(1440p)... und gibt noch einige mehr, dazu einfach mal in CB den passenden vram thread aufsuchen...

Also du listest hier Auflösungen auf welche, bis auf eine, alle über HD liegen.

Wie dem auch sei...
du kannst ja mal jene Spiele, auch gerne nur AAA+ Titel, auflisten bei denen 6GB VRam für 1080p ausreichen.
Ich glaube das ist wohl die Mehrheit an Games?

Natürlich gibt es immer mal wieder Ausreißer, aber ich weis auch nicht wo du diese "Werte" her hast?

  • Fallout 76 bei maxed out settings läuft auf einer MSI GTX 970 Gaming 4GB mit 54 FPS.
  • Auf einer Zotac GTX 1060 AMP 6GB mit 63.7 FPS.

Quellen:
http://www.pcgameshardware.de/Fallout-76-Spiel-61712/Specials/Benchmark-Test-1270209/2/
https://www.pcgamesn.com/fallout-76-performance-analysis-pc

  • Auch Black Ops 4 läuft in 1080p auf einer GTX 970 mit 4GB Vram mit 68 FPS:
  • Eine GTX 1060 mit 6GB VRam schafft in 1440p immer noch 53 FPS.
http://www.pcgameshardware.de/Call-...586/Specials/Blackout-Technik-Test-1267404/2/

Auch Call to Arms läuft auf low specs butter weich:


Und FF15 läuft bei Maximum preset + NVIDIA effects off auf
  • MSI GTX 970 Gaming/3,5+0,5G mit 42FPS
  • auf Palit GTX 1060 Dual/3G mit 43 FPS
  • und auf Zotac GTX 1060 AMP/6G mit 48 FPS
Quelle: http://www.pcgameshardware.de/Final-Fantasy-15-Spiel-118/Specials/Technik-Test-1251681/

Selbst ein Assasins Creed Odyssey, was sich ja bekannter Maßen ordentlich gönnt, läuft bei Ultra High settings (!) auf einer
  • Zotac GTX 1060 AMP/6G mit 36,5 FPS.
  • und sogar eine MSI GTX 970 Gaming/3,5+0,5G schiebt da mit 25,6 FPS noch eine ruhige Kugel.
Quelle: http://www.pcgameshardware.de/Assas...Assassins-Creed-Odyssey-Benchmarks-1266222/2/

Diese letzten beiden Beispiele sind zwar von den FPS her wirklich nicht mehr das Gelbe vom Ei, aber da muss man halt runter stellen.
Hey, eine der Karten ist über 4 Jahre alt und wir sprechen hier über ULTRA HIGH Settings eines AAA+ Titels auf sehr alten 250-300€ Karten...

Und das ist ja auch nur logisch, das 6GB VRam ausreichen müssen oder?
Dein Post kommt so rüber als ob 6GB und sogar 8GB VRam zum zocken jetzt schon problematisch wäre?!

Dir ist aber schon klar das so gut wie niemand eine 8GB VRam Grafikkarte besitzt?!
Quelle: https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam

Da wäre es ja völlig albern, ein Game zu entwickeln wofür eine 8GB Grafikkarte nicht mehr wirklich ausreichen würde.
Mit 6GB VRam auf Low Settings und bei 8GB VRam auf Medium zocken oder wie?

8GB VRam Karten besitzen laut Steam ca. 4,5% der Gamer.
Macht ja gar keinen Sinn ein Game zu entwickeln, was dann auf 8GB VRam nur noch auf Mittel mit ein bissle High bei 40 FPS läuft oder?
Das wäre ja entweder eine "Show off" Engine (wie damals Crytek mit Crysis), eine Machbarkeits-Studie wie Star Citizen, oder ähnliches.

Es ist klar, das es "seltsam" war/ist von Nvidia mit "nur" 6GB VRam bis maximal 11GB VRam zu releasen, aber schaut man sich an, was selbst noch mit 4GB VRam möglich ist (bzw mit den 6GB VRam einer 1060), dann gibt es jetzt nicht unbedingt einen Grund für eine Anhebung von 6 auf 8 und die 11 auf 16.

Und nein, es braucht nicht 60+ (besser 90) FPS auf Ultra-/High-Settings um ein PC Spiel vernünftig spielen und genießen zu können. Es schmeißen ja auch morgen nicht alle ihre Konsolen in den Müll, weil Spiele mit 40-45 FPS ja unspielbar/ungenießbar wären.

Mit 4k Monitoren spielen übrigens laut Steam, nur 1,42%, und selbst 1440p machen nur 3.89% aus.
Und diese Umfrage ist äußerst repräsentativ. Gut bei uns in Deutschland kannst du da noch ordentlich ein paar Prozente oben drauf hauen, weil wir eine deluxe Industrie-Nation sind, aber NVIDIA & AMD entwickeln jetzt nicht "Deutschland-Exklusiv".

Wie im letzten Post angemerkt:
Ein 1080p Monitor gepaart mit einer günstigen 2-4 Jahre alten Grafikkarte, welche 4-6GB VRam besitzt, reicht aus um ein PC Gaming Erlebnis auf Ultra-/High-Grafik mit über 40-45 FPS von AAA+ Titeln selbst heutzutage genießen zu dürfen. Deswegen hab ich nicht ganz verstanden, warum 6, respektive 8, Gigabyte VRam plötzlich nicht mehr ausreichend oder "zukunftssicher" sein sollten. Kein normal denkender Game-Entwickler käme auf die Idee morgen ein Spiel zu releasen was 8GB VRam obsolet machen würde. Das Resultat wäre halt, das das Game keiner spielt "und die ihren Laden dicht machen könnten".

Es ist dennoch sehr zu begrüßen das von AMD ein Lebenszeichen kommt, und man dort einfach mal RTX 2080 performance mit 16GB HBM2 Speicher auf dem gleichen preislichen Niveau anbietet.

Was dann wiederum seltsam zu beobachten ist, das AMD ja nicht mit einer RTX 2080 Ti mithalten könnte.
Da wird sich drüber beschwert, das könne ja nicht sein!
Also laut Steam besitzen eine NVIDIA GeForce GTX 1080 Ti gerade mal 1.62%. Und eine RTX 2080 besitzen gerade mal 0.21% wobei eine RTX 2080 Ti wiederum unter "sonstige Grafikkarten" fällt, da sie nicht mal 0.15% ausmachen. Da gibt es gar keinen wirklichen Markt für AMD, in den die rein wollen. Es beschwert sich auch keiner darüber, das VW/Skoda, BMW und Mercedes keine Antwort auf Maserati, Ferrari, Bugatti oder Lamborghini haben, oder?!

Die viel interessante Frage bezüglich der VegaVII ist folgende:
Wenn AMD jetzt eine Konkurrenz zur RTX 2080 released, was wird dann in 6-8 Monaten mit Navi kommen?
Sie machen ja dann ihre eigene Grafikkarte obsolet.
Oder wird Navi nur eine Konferenzplattform für RTX 250, 2060 und 2070 darstellen?

lg
 
Zuletzt bearbeitet :
@paperknight
Ich bin mit dir zu 10000% auf einer Linie und rege mich desshalb auch allzuoft unnötig auf.

Von einem anderen Forum kann ich dir sagen, dasd AMD oft gelobt wird weil sie in der gleichen Leistungsklasse mehr VRam boten/bieten. Für die gleichen Leute war aber weder Fiji noch Vega64/56 ein problem.

Das reicht mir um zu wissen, dass es eigentlich gar nicht um das thema geet ob z. B. 6gb bei einer 2060 reichen, sondern nur mit welchem Arrgumenten man "seine" Fahne höher heben kann.
 
Die Anzahl der Leute, die sich Karten aus dem Enthusiast Bereich kaufen ist sehr gering. Das sollten wir bei der Diskussion nicht vergessen. Wer also es sich leisten möchte/kann, kauft sich alle zwei Jahre ne neue Karte...ah wait! Die 2080ti wird da wohl eine Ausnahme machen? Vergessen wir nicht, das viele die aktuelle Preisgestaltung für überzogen halten...was sie ja auch ist! Also könnte der Kreis der willigen Zahler durchaus schrumpfen.
Thema Stromkosten sollte in diesem Bereich kein großes Thema sein, es ist aber wie immer: Hab ich ein neues Produkt mit einem fortschrittlichen Fertigungsverfahren, soll sich das auch gefälligst auch auf den Verbrauch auswirken.

@paperknight
Stimme dir da größtenteils zu.
 
Zuletzt bearbeitet :
Ich bitte aber auch zu bedenken, dass oft genug Zeug im Voraus geladen wird, das gar nicht benötigt wird, aber es vielleicht könnte. D.h. viele Spiele schaufeln den Speicher auch zu, wenn er da ist. Ob es zur aktuellen Szene gehört oder nicht. Black Ops ist so ein Kandidat, der auf einer 24 GB Karte auch schon mal 14 GB in UHD reserviert. Was da dann drin ist - keine Ahnung. :D
 
Ich hatte eine Zeit zwei GTX680 in SLI, hier wurde auch die nur 2gb VRam bemängelt. Was war aber der Fall, Spiele in denen der VRam wirklich ausging und die Modelle mit 4gb einenvor teil hatte, sprachen wir von einer Verbesserung (genaue Daten nicht mehr im Kopf) von 8fps auf 12fps.

Also von nicht Spielbar auf nicht Spielbar.

Als dann die 700er als Kepler Refresh kamen, und die 780 mit 3gb Ram kam, sprach niemand mehr von der GTX680 und die GTX770 war auch nie wirklich ein Thema. Zu dieser Zeit kam das Thema erst mit der Titan wieder auf und man konnte tatsächlich mit extrem MODs in Skyrim einen Vorteil feststellen.

Mir Persönlich ist kein Spiel (ohne MODs) bekannt, welches bei gleicher GPU Leistung aber mehr VRam eine signifikant bessere Spielleistung ermöglicht und auch keins, wo über das LOD so stark abgeregelt wird, dass es einen Sichtbaren Unterschied macht oder überhaupt einen Unterschied.

Ich möchte auch in den Raum werfen, dass es nicht immer die Grösse ist, sondern auch die Geschwindigkeit.

Batman AK auf den Konsolen z.b. hat auf der normalen XBox One Probleme die Texturen schnell genug zu laden, die PS4 hat hier keine Probleme. Die Speichergrösse ist die Gleiche, nur dass die PS4 GDDR5 nutzt und die Xbox One DDR3.

Selbstverständlich wird Vega 7, weder Probleme mit der Vram Grösse noch mit der Geschwindigkeit haben, dennoch ändert dies nicht an der eigentlichen Leistung.

Es muss sich zuerst noch zeigen, ob dies gegenüber einer 2080 überhaupt einen Vorteil bei Spielen hat und dabei meine ich mit der Leistung entsprechen angepassten Einstellungen.

Da komme ich wieder an den Anfang von meinem jetzigen Text. Wenn ich möchte kann ich die RTX2080 mit 5K, Ulra Settings, MODs.... locker in die Knie zwingen, aber dann reicht die GPU Leistung auch nicht mehr. Wenn die GPU Leistung hier nicht mehr Reicht, reicht sie auch nicht bei der Vega7.
Man kann dann zwar behaupten, dass die Vega7 einen Flaschenhals weniger hat, solange aber irgendein Flaschenhalt (GPU Leistung) vorhanden ist, nutzt dies auch nicht. Es bleibt unspielbar.

Dann kommen noch die Texturen bei den Spielen mit meinem aktuellen WQHD kann ich selten unter sehr hohen und ultra Texturen unterscheiden. Es ist nun mal so, dass mittlerweile Entwickler einfach die Rohtexturen als 4K Texturen liefern ohne grossartige Optimierungen, da hat gerne mal bei einem RPG ein kleiner Krug, die gleiche Texturgrösse wie sonst sämtliche Texturen von einem Charackter.
Manchmal ist es sogar so schlim, dass das Gesamtbild nicht mehr homogen wirk, weil manche Texturen zu scharf sind und beim Zusammenkommen mit anderen, sehr stark "abschneiden". Ich bin mal neugierig wie es Ende des Monats auf dem 4K schirm wirkt.
 
Hallo zusammen.
Ich habe bisher hier immer nur mitgelesen und mich jetzt mal angemeldet, da ich noch einen anderen Gedankengang zur Vega II einbringen möchte.

Ich denke, das es AMD bei dieser Karte hauptsächlich darum gehen könnte, überhaupt in der Top Ten vertreten zu sein. Auch wenn sie ~5% weniger Leistung "auf die Straße" bringen sollte, so ist das doch eine ganz andere Hausnummer als ~ -30% beim Vergleich RXVega64 vs. RTX2080. Von den Ti Versionen mal ganz zu schweigen. Es hat ja scheinbar bei AMD auch genügend Diskussionen um diese Karte gegeben. Insbesondere, das sie damit kein Geld verdienen könnten. Wenn sie jetzt aber den Ausschuss der MI60 Fertigung noch verkaufen können, warum nicht?

Wenn unbedarfte User nach einer neuen Karte suchen, so schauen sie doch erst einmal in die Bestenlisten. Und wenn da auf den ersten 10 Plätzen nur Nvidia vertreten ist, dann wird auch Nvidia gekauft. Auch wenn das Preis- Leistungsverhältnis oder gar der direkte Vergleich in der dann tatsächlich gekauften Klasse für AMD sprechen sollte, so setzt es sich halt in den Köpfen fest: AMD kann eh nix (mehr), dann kann ich auch sofort die anderen kaufen.
Nur die wenigsten machen sich die Arbeit und schauen, was wirklich zu der vorhandenen Hard- und Software passt und vergleicht dann evtl. noch Service und Preis.
So lande ich jetzt seit einigen Jahren immer wieder bei den AMD Karten, da die Fire- bzw. Radeonpro für mich (und meine Software) sehr guten Service + konkurrenzfähige Leistung bei ~30 - 50% weniger Geld als Nvidia bieten.

Sehr schade finde ich übrigens den anscheinend gekappten PCI-E 4.0 Support von Vega II. Das reduziert die, wenn auch nur theoretischen, Zukunftsfähigkeiten in meinen Augen dann doch sehr.
Gerade in der 4K Oberklasse dürfte der PCIE 3 dann doch zunehmend zum Flaschenhals werden. aber das muss ja jeder selber entscheiden.

Und Mr. Lederjacke dürfte auch deshalb so angepisst sein, da er sich schon mindestens auf ein weiteres halbes, praktisch Konkurrenzfreies Jahr eingestellt hatte.
 
Ich persönlich sehe das eher aus der pragmatischen Sicht: Ich habe kein Problem damit, mal die Texturen von Ultra auf High herunterzuschrauben. Ausgenommen davon, wäre beimir lediglich das Highend (das ich eh nicht kaufe), da ich da schon das Maximum erwarten würde.

Mir ist die Grafik prinzipiell nicht so wichtig.
 
Bei mir ist die Graik teil wichtig. Ich mag kein Flimmern (ich versuche es bestmöglich zu vermeiden). In der Regel möchte ich zuerst mal alles aux max stellen. Wenn es dann nicht sauber läuft, fange ich mit optimieren der Settings an.

Ich mag z.b. eine leichte Unschärfe weshalb FXAA für mich oft in Ordnung geht. Schatten sind in der höchsten Einstellung oft unrealistich Scharf gezeichnet, eine Stufe drunter wirken sie oft etwas weicher und realistischer, koster zudem deutlich weniger Leistung (manchmal gehen bei mir aus diesem Grund sogar die Schatten runter, wenn die Leistung ausreicht)...

Man hat in der Regel genug Stellschrauben um so zu optimieren, dass der Optische unterschied gar nicht so gross ist.

Ich glaube es war Ion aus dem PCGH Forum welche/welcher einen Artikel verfasst hat, dass es nicht immer Ultra sein muss. Und hier wurde Screenshots gezeigt, wo man in der Tat keinen wirklichen Unterschied bemerkt.
 
Wir dürfen auch nicht vergessen, dass „ernsthafte Spieler“ doch in den Multiplayer-Titeln die Auflösung drastisch runterschrauben, einfach weil es dann übersichtlicher wird. Da kann man dann schon einen Euro sparen, wenn man hinsichtlich des eigenen Nutzungsverhaltens ehrlich zu sich selbst ist (bin ich aber auch nicht...jedenfalls nicht immer).

Ich muss das mit dem Runterschrauben vielleicht auch mal ausprobieren: bei BF5 auf Max-Settings sehr ich tolles Licht, geile Reflexionen, hübsche Häuser, coole Fahrzeuge, verdammt viel Vegetation und beeindruckende Explosionen... nur die Gegner im Multiplayer, die seh ich irgendwie verdammt schlecht... :D

Meine 1080Ti ist jedenfalls bei allem was ich spiele bei WQHD und Max Settings nicht ins VRAM-Limit gerannt (alle Tom Clancy Spiele, Far Crys, bissi Strategie usw.). Und selbst mit Supersampling bei 4K war da bei meinem Games immer noch massig Luft.
 
Ich persönlich sehe das eher aus der pragmatischen Sicht: Ich habe kein Problem damit, mal die Texturen von Ultra auf High herunterzuschrauben. Ausgenommen davon, wäre beimir lediglich das Highend (das ich eh nicht kaufe), da ich da schon das Maximum erwarten würde.

Mir ist die Grafik prinzipiell nicht so wichtig.
Die absolute Spitze brauche ich auch nicht. Richtung Oberklasse darf es mittlerweile aber durchaus gehen.
Der Appetit kommt halt beim essen. :)
Für mich ist 4K sowieso erst mit den aktuellen Karten wirklich greifbar geworden. In ein - zwei Jahren ist das dann (endlich) der Normalzustand. Eine große Bildfläche hat schon was.
 
...und dann rennen wir 8K hinterher. Ist doch immer das gleiche Spiel.. ;)
 
...und dann rennen wir 8K hinterher. Ist doch immer das gleiche Spiel.. ;)

Bin immer noch bei 1440p (seit gut 4 Jahren), trotz 4K Hype. 8K, bedarf noch mehr Leistung. Einfach irre. Statt mal die Games, effizient zu programmieren?

@Genie_???: Jensen ist aus vielen Gründen sauer...ihn ärgert wohl, das er viel Arbeit in die RTX Karten gesteckt hat und AMD jetzt mit nem warmen Aufguss daherkommt...AMD und die Kunden sollen gefälligst seiner Mühe danken und die aufgerufenen Preise bezahlen.
 
Ich denke man sollte nicht unbedingt 4K oder 8K betrachten.

Wenn wir richtung 8K schielen und nehmen einen 27Zoll Monitor haben wir eine PPI von 326. Wer da bei einem normalen Abstand zum Schirm einzelne Pixel erkennen kann...

Also diese PPI würde mir gefallen, aber danach? Man sollte auch bedenken, je grösser der Schirm, dest grösser der Abstand um das Bild noch im Blickfeld zu haben. Je grösser der Abstand je geringer die PPI sein darf.

Also mein iPhone 7 hatte eine PPI von 326 und meine S9 jetzt eine von 570 und ich kann beim besten willen keinen Unterschied bei der Qualität der Schriften oder sonst was erkennen...

Also geht es nach 4K sicher noch weiter, allerdings ab 8K wird es dann doch sehr Absurd. Klar wenn man ein 16K Bild vergrössert, sieht man auch mehr Details als bei 8K, sicher, aber in normaler Grösse, bei normalen Abstand?

Bei 720p, 1080p, 1440p... habe ich mir immer sofort mehr gewüncht, bin mal gespannt wie es danach bei 4K ausschaut, hier habe ich bei 27zoll eine fast 50% höhere PPI als jetzt mit WQHD.

Deshalb denke ich, dass der, immer höhere Auflösungen, Wahnsinn doch irgendwann ein Ende hat und andere Bildverbesserungen in den Vordergrund geraten, welche vielleicht dennoch nicht weniger Leistung kosten werden.
 
Bei so einer hohen ppi Dichte muss dann aber das OS und die Software gut skalieren, sonst brauchst du eine fette Lupe. Ich habe jetzt ca. 140 ppi, damit bin ich schon sehr zufrieden, einzelne Pixel erkenne ich da nicht mehr.
 
Moin Forum,

die Masse der Spieler hat sowieso nur 4GB oder gar weniger, da die Spieleentwickler ihre Spiele auch (möglichst oft) verkaufen möchten, werden auf absehbare Zeit 4GB mindestens mal ausreichen, mit 8GB wird man gut dabei sein. ZZt. gibt es nur sehr exotische Grakas mit mehr als 8GB, warum sollte ein Spieleentwickler dafür entwickeln? Sicherlich wird es das eine oder andere Prestigeprojekt geben, aber 8GB werden für die nächsten Jahre ok sein. Und in sagen wir vier bis sechs Jahren mag es anders aussehen, aber dann sind die jetzigen High End Karten auch veraltet,.
Und Speicher macht einen nicht unerheblichen Teil der Kosten aus, mit 16GB wären die Turings ja noch mal ein gutes Stück teurer.

16GB sind zur Zeit einfach unnötig oder einfach unnütz, verbrauchen nur Platz und Strom und können nicht genutzt werden. Ich denke, AMD hat der VII nur deswegen 16GB mitgegeben, da Bandbreite gefehlt hat und eine Erhöhung derselben bei HBM zwangsweise nur mit mehr Speicherchips und damit verbunden mit mehr Speicher zu bewerkstelligen ist. Zumindest hab ich das so in Erinnerung, korrigiert mich, falls das nicht so ist. Abgesehen davon hat AMD, wie von Genie_?? bereits angemerkt, dann wenigstens ein Alleinstellungsmerkmal für Vega, was sich positiv auf das Marketing auswirkt.


Edit: Auch das allseits beliebte Stromkosten Rechen-Beispiel finde ich doch etwas zu sehr an den Haaren herbeigezogen. Als ob jemand der 650+ € in eine Grafikkarte investiert, wirklich interessiert an seinem Stromverbrauch ist. Ob das nun 40€ pro Jahr mehr oder weniger sind, ist dann doch komplett egal.

Wahrscheinlich schon, aber trotzdem, warum sollte man sich eine ineffizientere Karte kaufen, wenn diese keine Vorteile verspricht? Z.B. bei einem Auto (juhu, mein Autobeispiel) machtg ein Liter Mehrverbrauch auf hundert Kilometer bei hundertausend Kilometer Laufleistung auch "nur" eintausend Liter, also etwa zweitausend Euro aus, ein Klacks verglichen mit Anschaffungskosten/Werteverfall und Unterhaltskosten. Trotzdem ist der Verbrauch für viele ein wichtiges Argument bei der Anschaffung.

Von einem anderen Forum kann ich dir sagen, dasd AMD oft gelobt wird weil sie in der gleichen Leistungsklasse mehr VRam boten/bieten. Für die gleichen Leute war aber weder Fiji noch Vega64/56 ein problem.

Foren sind nicht der Weisheit letzter Schluss, gerade in den stärker frequentierten sind oft viele eifrige und laute Fanboys unterwegs, denen geht es mehr um Ideologie oder um das "gewinnen" einer Diskussion als um irgendeinen Erkenntnisgewinn.
 
Dein Autobeispiel funktioniert genausogut in die andere Richtung: wer sich ein SUV von den Premiumherstellern holt oder einen Sportwagen oder auch nur so‘ne gepimpte Version einer normalo-Karre (AMG, M usw.), den interessiert der Verbrauch auch nicht mehr - zumindest nicht so sehr, dass man ein Auto wählen würde, das einfach deutlich weniger schluckt.
 
Warum schafft es AMD eigentlich nicht, ihre Rohleistung auf die Strasse zu bringen? Treiber?!
 
Oben Unten