AMD Der Tag danach: Vega VII ist angekommen, Jensen lästert, Lisa kontert und wir kommentieren | Editorial

Es würde mich SEHR überraschen, wenn heutzutage die Aussagen zu irgendeinem Produkt bei der ersten Vorstellung eher „konservativ“ getroffen werden und nicht das Produkt im besten - gerade noch vertretbaren - Licht dargestellt wird... völlig Hersteller- und Branchenunabhängig.
 
Fakt ist, es wird am 7 Februar die Radeon VII kommen, wird werden dann in Tests sehen was sie leistet.
Fakt ist auch, wer sich eine Turing Grafikkarte gekauft hat, der kann ihre "normale" Leistung nutzen und RT nur in BFV und DLSS in FFXV, stand jetzt.

immerhin kann der User es nutzen, nicht wie bei der Vega 7, die nur 8GB HBM mehr spendiert bekommen hat, damit sie letztendlich nicht an Bandbreite verhungert

Ansonsten ist das Vega 1.0 copy paste in 7nm , und dann nicht mal mit akzeptablen Verbrauch @ 2x8 Pin.
Und für den geringen R&D Aufwand ,verlangt man nun auch noch das selbe wie Turing, weil man ja gönnerhaft 16GB HBM drauf geklatscht hat.

Jensen hat da vollends recht Vega 7 ist so innovativ wie sein langweiliger Vorgänger, und muss sich dafür neben der größten Ausbaustufe schon 7nm bedienen, um mit einem "16nm" Chip mitzuhalten der einen Teil der Chipfläche nicht mal für Rasterisierung reserviert,ja sich nicht einmal am obersten Ende des 16nm Portfolios befindet, denn da thronen weiterhin die 2080Ti u Titan RTX

Wie hätte AMD wohl dagestanden wenn Nvidia das selbe Muster gefahren hätte, und nur den Rastergrafikpart ausgebaut,anstatt Tensor u RT Cores mit einzupflanzen, das ganze Cachesystem umzukrempeln ,und die Texturkompression nochmals zu verbessern,neben hier auch funktionierenden "primitiven" Shadern ?

Man hätte sich Millionen R&D erspart ohne diese architektonischen Änderungen , und Amd trotz allem alt aussehen lassen ,älter noch wie jetzt schon trotz des "RTX Handicaps"

Sei lieber froh das sich das teure 300 Watt Vega Ding "nur" mit der 2080 vergleichen muss(obwohl das ja noch nichtmal gesichert ist ,bei den selektierten Benchmarks), und nicht wenn es anders gekommen wäre gar mit der "RTX" 2070

In dem Fall hätten ihr nicht einmal mehr die 16GB Vram geholfen noch irgendwas abzusetzen
 
Zuletzt bearbeitet :
Du schreibst einfach wirres Zeug:
1. Den 16GB HBM2 Speicher kann man sofort nutzen und wenn es nur irgendwelche High-Res Mods sind die den Speicher vollknallen. Da muss nichts erst von den Entwicklern in ihre Spiele integriert werden. Ebenso wenig muss man da erst optimieren für. Der Speicher ist da und kann genutzt werden.
2. Es wird sicher keine Vega 1.0 C&P Sache sein. So wie es auch bei nVidia nicht einfach nur ein C&P aus der Quadro GPU ist. Es gibt immer Verbesserungen die vorgenommen werden, wenn man ein Produkt nimmt und es für einen anderen Kernbereich ummünzt. Und wo ist der Verbrauch nicht vernünftig? Er ist genauso vernünftig/unvernünftig wie bei Turing.
Und wie viel ein Unternehmen für sein Produkt verlangt ist anscheinend nur bei AMD wichtig. Bei Turing von nVidia ist es ja wieder absolut gerechtfertigt wegen RT, DLSS, Mesh Shader und und und.
Eine sehr komische Sichtweise hast du.
3. Und da kommt er dann doch wieder zum Vorschein, der kleine nVidia Fanboy. Einfach immer wieder schön an zu sehen, wie du denselben Unsinn widerholst den dein großes Vorbild so von sich gegeben hat. Aber ja an der Spitze der Leistungsriege stehen weiterhin 2080Ti und Titan RTX. Wurde auch nie und nirgends gesagt, das die Radeon VII gegen die beiden antritt. Ach halt, es wurde bis zur CES nicht einmal gesagt, das es eine Consumer Vega20 Karte geben wird.
4. Hätte hätte Fahrradkette. Ist immer einfach zu sagen Wenn nVidia dies das und jenes gemacht hätte, dann, ja dann wäre alles noch viel grüner geworden.
5. Wow was nVidia alles hätte machen können mit dem eingesparten R&D Geld. Und auch ohne die R&D hätten sie ja AMD so alt aussehen lassen. Vielleicht in deinen Träumen.
6. Wozu soll ich froh sein? Darüber das AMD seine Radeon VII nur gegen die 2080 stellt (so wie schon Vega64 nur gegen die 1080), oder darüber, das man mit 26 Spielebenchmarks eine doch recht breite Palette gezeigt hat um eben nicht Cherrypicking zu betreiben wie in den meisten Tests der Techseiten? Oder sind dir da zu wenige Gameworksspiele dabei gewesen?

Wie man nur so verbittert sein kann um immer wieder solche Posts zu machen. Dich scheint weder AMD noch deren Produkte zu interessieren. Ist am Ende auch ok. Aber warum immer in Threads zu Themen gehen von eben jener Firma, nur um zu zeigen wie sehr du doch die Firma nicht magst (sehr nett ausgedrückt).
Kauf dir deine nVidia Produkte und deine Intel Produkte, erfreue dich an deren Leistung und lass doch all die verrückten Menschen in Ruhe die eben nicht so schlecht über AMD und deren Produkte denken allein mit ihrer komischen Ansicht. Wäre definitiv für diese komischen Menschen und für dich selber besser.
Oder poste weiterhin deine subjektive Meinung und rede alles schlecht was von AMD kommt. Erwarte aber bitte nicht, dass man dich dafür auch noch bejubelt.

@arcDaniel
Also angekündigt wurde die neue RTX Generation auf der Gamescon. Zu kaufen war sie dann Ende September. Machen wir also 4-5 Monate draus für den Endverbraucher. Da ja Entwickler schon weit vorher (eigentlich) informiert sind, müsste man da sicher noch mal 3-4 Monate dranhängen. Sagen wir aus höfflichkeit, das die Entwickler seit 6 Monaten es wissen, Stand heute. So also sind in den ganzen 6 Monaten jetzt genau 2 Spiele erschienen, die die neuen Features nutzen. Der nächste Titel der kommt und die Feature nutzt, also Release, ist soweit ich jetzt mich nicht täusche Metro Exodus. Viele andere Spiele sind schon draußen wie FFXV und benötigen noch einen Patch um die "neuen" Features überhaupt nutzen zu können. Wann diese Patches kommen, dazu gibt es noch nicht einmal bei einigen Titeln eine Info.
So interessant eben diese neuen "Technologien" für den Gaming Bereich sind, so typisch nVida Style werden sie eben einfach hin geklatscht. Warum es nicht einfach richtig machen und die Technologie dann rausbringen, wenn eben alle Entwickler zumindest eingearbeitet sind. Auf der Bühne hat Jensen gesagt, sie haben 10 Jahre an Turing gearbeitet. Spätestens 1 Jahr Vor Release hätte man doch die Entwickler einbinden können. Gerade man man so überzeugt ist von seinem Produkt, sollte man doch auch dieses wirklich versuchen die Technik dahinter so schnell wie möglich ein zu binden.
Einfach unbegreiflich wie man so etwas nicht machen kann, wenn man doch will, dass es alle benutzen. Aber AMD ist da genauso "doof". Die bringen auch Features, die dann keiner nutzt, weil sie diese Features groß keinem näher bringen. Völlig falsch sowas.
 
Spätestens 1 Jahr Vor Release hätte man doch die Entwickler einbinden können. Gerade man man so überzeugt ist von seinem Produkt, sollte man doch auch dieses wirklich versuchen die Technik dahinter so schnell wie möglich .

Na klar man bindet ein Jahr vor Release irgendwelchen Wildfremden Firmeninternas auf die Nase

Sag mal gehts noch? Am besten gleich noch AMD die Blaupausen gefaxt oder wie?

Wie lange hats denn von Mantle Ankündigung , bis zum ersten "lauffähigen" BF4 gedauert? Soll ichs dir sagen oder kommst du da selber drauf? Hat da AMD DICE etwa nicht 20 Jahre vorher eingeweiht:eek:
In der selben Zeit wo AMD einen! grauenhaften ersten BF4 Mantle Patch abgeliefert hat, hat Nvidia im selben Zeitraum bereits 3 Spiele mit RTX u DLSS auf der Strasse , also worüber beschwerst du dich bitteschön?!

Geh und kehr die Scherben im Glashaus zusammen ,wenn du den Stein schon so unkontrolliert wirfst ,und dabei den Status Quo deines roten Vereins aus den Augen verlierst
 
Zuletzt bearbeitet :
Das lustige ist halt gerade die Games die Vram richtig voll schaufeln meist nicht besondere Texturen haben .
Wenn ich mir die Tapete von CoD oder FF ansehe und mit einem etwas älteren Witcher 3 vergleiche welches in 4K mit 3,5 GB klarkommt und besser aussieht frag ich mich schon was da falsch läuft.
Ich hab auch beim 4 k Tex Pack bei farcray 5 und Fallout 4 den Mehrwert mit der Lupe suchen müssen. Wobei beide auf Ner 6 GB Karte noch nicht überlaufen in 1440p.

Mein absolutes negativ Beispiel ist Squad (UE4 ) das Frist Vram ohne Ende sieht aber richtig Scheisse und eintönig aus.

Solche DeV sind mM der Gegenpart zu den early singelcore bottleneck proggern im CPU Sektor ,die haben es einfach nicht drauf oder den isses egal und die versuchen es bis zur next Gen die es mit brüte force spielbar macht auszusitzen .


Und das betrifft unabhängig von eurem rot/grün Kleinkrieg hier beide Seiten Gleichermassen . Da ist egal ob man 6,8,11,16 GB hat da wird einfach im messy Style geschaufelt.
 
@MopsHausen
Stimmt. Gibt viele Entwickler die in der Richtung nicht wirklich optimieren und daher der VRAM unnötig voll geklatscht wird. Aber so ist es halt und solange ist man eben als Spieler über jedes GB mehr froh drüber. Wäre natürlich schöner, wenn eben besser optimiert wird, das eben die Spiele wieder Resourcenschonender arbeiten.

@scully1234
Das tut einfach nur noch weh wenn man deine Posts liest. Du merkst nicht einmal wenn du Unsinn schreibst. :D
Aber jetzt bist du definitiv einfach nur ein kleiner nVidia Troll für mich. Und dementsprechend wirst du auch in Zukunft so behandelt.
 
Bitte wieder alle tief entspannen und Luft holen, ok?
 
Das lustige ist halt gerade die Games die Vram richtig voll schaufeln meist nicht besondere Texturen haben .
Wenn ich mir die Tapete von CoD oder FF ansehe und mit einem etwas älteren Witcher 3 vergleiche welches in 4K mit 3,5 GB klarkommt und besser aussieht frag ich mich schon was da falsch läuft.
Ich hab auch beim 4 k Tex Pack bei farcray 5 und Fallout 4 den Mehrwert mit der Lupe suchen müssen. Wobei beide auf Ner 6 GB Karte noch nicht überlaufen in 1440p.

Mein absolutes negativ Beispiel ist Squad (UE4 ) das Frist Vram ohne Ende sieht aber richtig Scheisse und eintönig aus.

Solche DeV sind mM der Gegenpart zu den early singelcore bottleneck proggern im CPU Sektor ,die haben es einfach nicht drauf oder den isses egal und die versuchen es bis zur next Gen die es mit brüte force spielbar macht auszusitzen .


Und das betrifft unabhängig von eurem rot/grün Kleinkrieg hier beide Seiten Gleichermassen . Da ist egal ob man 6,8,11,16 GB hat da wird einfach im messy Style geschaufelt.


also bei W3 habe ich in 1920*1200 schon knapp 6GB im vram... wohl an den einstellungen gesparrt, eh :p ;)

und FFXV sieht sehr gut aus was die texturen angeht, darum verstehe ich auch das es 11GB vollhaut in vorher genannter auflösung.
 
Vega VII sollte ab nächster Woche bestellbar sein.
Mit Versand ab Mittwoch den 06. Februar.
Zumindest hat dies Händler aus dem Ausland mir geschrieben.

PS:
Hatte mich auch bei AMD gemeldet, laut Homepage und werde benachrichtigt sobald Karte verfügbar ist.
Bis heute aber immer noch nix.
 
Zuletzt bearbeitet :
AMD hat die Verfügbarkeit bisher nur für die USA bestätigt.
 
Dies bedeudet bitte exakt für "Jetzt Heute" oder für den 07-ten Februar
 
Frag AMD. Ich habe selten so diffuse Aussagen bekommen :(
 
Ich habe seinerzeit die Vega Frontier Edition für 999 USD auch in den Staaten kaufen müssen. Anfangs gab es die nur dort.
 
Nur weil der Hersteller sagt, dass es kein 'limited run' ist, muss das nicht stimmen. AIB Karten wird es auch nur in Fury X Esque geben, Referenz mit tollen Stickern.

Das Teil wird vermutlich die gleiche Art von Einhorn wie die Nano.
 
Ein 1967er Ford Mustang Fastback in Dupont Pepper Grey mit modifizierten Bodykit von Steve Stanford (manche Blasphemiker nennen ein solches Fahrzeug auch "Shelby GT 500") ist vielleicht ein Einhorn - aber von der Nano habe ich so manche im Einsatz gesehen und sogar eine wegen DOA retournieren müssen. Dafür zog eine RX480er ins Metis. Bis sie im Miningboom zu einem höheren Preis als beim Neuerwerb veräußert wurde. (Ist aber eine andere Geschichte)

Übrigens sind bereits Bilder einer Phantom Gaming Radeon VII geleakt (Referentmodell mit ASRock-Stickern).
 
Ich schrieb es doch in der News. Labeling von zugekauften Referenzmodellen. Nichts Eigenes. Hat NV bei der Titan Maxwell damals auch gemacht.
 
Stimmt. Ich hatte nur etwas mit direktem Verkauf über AMD im Hinterkopf. mea culpa
 
Und auch dort bei AMD immer noch nix bestellbar,- und Mail erhält man auch keines wann verfügbar.
Wird wohl in vielen Ländern nur ein Papiertiger bleiben,- zumindest bis lange in den Februar, vielleicht gar März hinein.
 
Das war abzusehen, aber die Fanboy-Koryphäen im 3DCenter haben mich für meinen Artikel mal wieder richtig gebasht. Nun ja, wer zuletzt lacht... Wobei es aus AMD-Sicht schade wäre, doch Recht zu behalten. :(
 
Oben Unten