AMD Der Tag danach: Vega VII ist angekommen, Jensen lästert, Lisa kontert und wir kommentieren | Editorial

Vielleicht solltest man ihm ein Buch über Projektion beim nächsten Auftritt auf die Bühne werfen ;)

Es ist nicht so, dass er gänzlich unrecht hätte aber RTX, wie auch DLSS konnten bisher nicht Puntken und unter dem Aspekt ist eine 2070/2080 auch nichts Neues bzw. nichts weiter als überteuerter Schrott, den man auch vor einigen Jahren zu gleichen Preisen erwerben konnte.

Im Direktvergleich von Vega VII zur RTX 2080 hat man halt die Wahl des doppelten VRAM (und massiv höhere Bandbreite) vs. RTX/DLSS als Featureset. Immerhin gibt es eine Wahl, auch wenn ich diese Wahl bei den Preisschildern definitiv als Dilemma bezeichnen müsste :p
 
Zuletzt bearbeitet :
hab mal eben aktuelle 'geizhals-suche' gemacht.
ne 2080 war mal bei knapp 1000€, geht jetzt ab 649 los, ne TI dann bei 1089 heute.
vega soll zum start 699 kosten.

eine 1000€-karte liegt aussherhalb eines noch irgendwie erträglichen budgets, ausser man hat zuviel geld(eigentlich schon 700€ aber das kann man grade noch so als obergrenze gelten lassen das ne grafikkarte soviel kostet wie der restliche ganze rechner),

ja ich blende dabei nicht aus das es die derzeit schnellste karte ist(die titan fällt damit völlig aus der beachtung und ist eh nichtmehr 'konsumer') fällt aber doch bei denmeisten preislich hinten rüber, rollsroyce ist auch nicht im normalen autovergleich mit drin...

wenn man davon ausgeht das beide karten ca gleich schnell sind, hat man auf der einen hand 16GB VRAM und in der anderen DLSS Uund RT.
16GB sind nett aber kein 'muss' aber ein 'langzeit-nutzen' und RT sowie DLSS nutz (und ob das je mehr als 3-5 spiele unterstützen werden ist auch fraglich, ganz abgesehen davon ob das keine blase wird wie g-sync und meine liebligsspiele sind entweder zu alt oder gehen unter vulkan, keine chance also für mich persönlich) kaum was und gerade letzteres, mit niederigerer auflösung rendern und dann hochskallieren, will ich mir nicht antut, wenn dann den umgekehrten weg, höhere auflösung rendern und dann mit kleinerer wiedergeben um AA runter drehen zu können. dafür braucht es viel VRAM (hat eine der beiden).

wobei ich auch einer der 'spinner' bin der keinen 4k-schirm braucht weil ich die einzelnen möglichen pixel schon bei 1080p fast nicht sehen kann und nur da wäre kein realistischer grund die auflösung hoch zu drehen.
das spiele damit besser aussehen, wo man die pixeunterschiede eigentlich nicht sieht, liegt nicht am bildschirm sondern am spiel das immer in kleinerer auflösung intern rendert, also eh schon DLSS nutzt, ganz grob jedenfalls.

finde nv verrennt sich da so langsam, man hätte die investition für die extra-cores besser in mehr 'normale cores' stecken sollen dann wäre man jetzt nicht doch wieder grossteils fast eingeholt und mit ganz viel pech ist man das dann mit navi komplett,
das ärgert dann schon mächtig....
 
Zuletzt bearbeitet :
Sicher wird es das ein oder andere Spiel geben, welches von den 16gb HBM profitieren wird, jedoch sind dies eher Ausnahmen. Wenn es sich hier nicht gerade um das Lieblingsspiel handelt, kann man auch dies vernachlässigen.
Nicht nur die Ausnahme, wohle keine gewinnorientierte Spieleschmiede würde ihr Produkt für eine Graka optimieren, die sowieso quasi niemand besitzt. Die Masse der Spieler hat 4GB Speicher, highend hat 8GB, dafür werden die Spiele entwickelt werden. Erst wenn 16GB weitere Verbreitung findet kann man einen Vorteil davon haben, bis dahin sind 16GB einfach nur teuer bezahlter und stromfressender Ballast ohne wirklichen Nutzen.
 
gibt und wer anders der Frau n bißchen mehr Geld, damit die mal einkaufen gehen und sich ne Jacke mit vollwertigen Ärmeln kaufen kann.
zumal lisa nicht aussieht wie nen möchtegern prollet mit ihren -wenn ich einer bekannten glauben darf 8000€- lederblouson im gegensatz zum NV oberaffen.

:ROFLMAO::ROFLMAO::ROFLMAO:

Irgendwer scheint ihr gesagt zu haben dass es blöd aussieht wenn man Klamotten von Vorgestern trägt um die Zukunft vorzustellen.
Und bei all dem hate muss ich sagen, fand ich den Blouson deutlich stilsicherer als Jensens interceptor *schenkelklopf*
 
Auch NV hat doch mit DLSS und RTX, quasi ne Wette um die Zukunft gemacht. Es könnte durchaus sein, das RTX sich nicht richtig durchsetzt.
 
:ROFLMAO::ROFLMAO::ROFLMAO:

Irgendwer scheint ihr gesagt zu haben dass es blöd aussieht wenn man Klamotten von Vorgestern trägt um die Zukunft vorzustellen.
Und bei all dem hate muss ich sagen, fand ich den Blouson deutlich stilsicherer als Jensens interceptor *schenkelklopf*

spiele derzeit mad max... evtl. ist er fan davon, spielt ja auch in der zukunft :ROFLMAO::ROFLMAO:
 
Letztendlich werden benchmarks zeigen, wie gut VegaII sich gegen die RTX 20xx behaupten kann.
Die Frage wird allerdings sein, wie AMD Raytracing implementieren wird (und ob überhaupt... jedenfalls konnte ich nichts Eindeutiges darüber finden, dass die VegaII Raytracing kann.). Somit wäre NVidia im Vorteil, wenn AMD kein Raytracing bietet.
 
@bluray: Für wen im Vorteil. Bis jetzt ist RTX nur gehyped. Techdemos und 1-2 Spiele für einen kleinen Prozentsatz der Gamer die es sich leisten können.
Die Masse hat davon gar nichts und zuckelt in max. Full HD rum?‍♂️
 
Auch NV hat doch mit DLSS und RTX, quasi ne Wette um die Zukunft gemacht. Es könnte durchaus sein, das RTX sich nicht richtig durchsetzt.

wo ist denn da bitte ne "Wette" ,und es ist nicht nur RTX u DLSS, es ist auch Mesh Shading u adaptiv Shading, und die Techniken funktionieren dort auch... andere machen Werbung für primitive Shading bei Vega 1.0 und liefern bis heute nichtbei Vega 2.0

Hast du schon mal in der Filmbranche einen gesehen der noch mit Rastergrafik rendert ? Und das hat gute Gründe warum das seit Jahren schon so ist, und jeder der noch halbwegs technikaffine ist, wirds wohl auch verstehen warum Raytracing ,Rastergrafik auch in Echtzeit ablösen wird.

Diese ständige Schlechtgerde von allen was nicht AMD auf dem Zeiger hat , ist einfach nur noch zum Kotzen

Nur weil sich der kleine Otto, Hans u Müller jetzt noch keine solche Karte leisten können, wird einfach alles in den Dreck gezogen , egal ob es dafür technisch schon lange Belege gibt das Raytracing der Königsweg schon immer war u jetzt auch in Echtzeit werden wird.

Nichtmal AMD bestreitet das in irgendeiner Form, nur haben sie derzeit halt keine Technik ,die das jetzt schon umsetzen kann.

Intel,Nvidia,Apple du kannst nehmen wen du willst ,da geht jegliche Objektivität flöten, und Jensen wird bei der kleinsten Mücke zur Sau gemacht, obwohl AMD das selbe in rot macht siehe Fixxer ,blaue Teletubbies,oder poor Volta , nur der Underdog Bonus zieht halt nicht so viele Neider auf sich
 
Zuletzt bearbeitet :
Mir tut fast die Tastatur leid, die für diese Wut and Aggressivität herhalten muss.

Die Einführung einer neuen Technik ist immer ein Stück weit eine Wette. Allerdings sind die Chancen da immer der Knackpunkt. Bei Raytraicing sehe ich persönlich hohe Chancen, dass es sich langfristig durchsetzt. Aber garantieren kann das niemand.

Es gibt genug Produkte und Techniken die eigentlich gut waren, sich aber nicht durchsetzen konnten.
 
Die Technik ist nicht neu und auch keine Wette sie ist erprobt und wird seit Jahren eingesetzt!!! Kein einziges Hollywood Studio würde auf den Gedanken kommen native Effekte heute noch mit Ratergrafik zu bauen, weil Raytracing eben dort seit eh u je zeigt das es mehr kann,wie die andere limitierte Rendertechnik

Und das wird sich jetzt nicht wandeln ,nur weil Nvidia auf die Idee gekommen ist, das nun endlich mal bis zu einem Punkt zu bringen, wo es anfängt mit Echtzeit zu funktionieren

Echtzeit war die einzige Hürde die das Ganze bisher verhindert hat ,für Spiele brauchbar zu werden, und nicht weil es ne blöde Idee ist.

Ich gehe jede Wette ein wäre AMD dieser Cou mit dem performanten Denoising gelungen, würden einige hier vor Freude im Dreieck hüpfen, aber Nvidia gönnt man das eben nicht, weil das ist ja der große böse Marktführer
 
Zuletzt bearbeitet :
Interssant, dabei habe ich nichmal was gegen Nvidia gesagt. Ich bleibe dennoch bei meiner Aussage: Die Technik ist im Gamingbereich neu.
 
Und vor allem hätte ich dann gerne die Grünen-Jünger gesehen, wenn AMD das rausgebracht hätte.... dann wäre das im Zweifel auch neumodischer Schnickschnack ohne Mehrwert so wie's jetzt technologischer Fortschritt / "must have" ist...

Ich glaub', ich führe bald echt 'ne Fanboy-Liste - muss bei den Graka-Threads wohl wirklich zuerst schauen WER was geschrieben hat, bevor ich überhaupt erwäge den Text zu lesen.
 
Also ich finde Raytracing auch interessant, ob es sich aber in Echtzeit mit durch die RTX Karten jetzt durchsetzen wird, ist dennoch fraglich.

Es ist gut möglich, dass das nach den ersten Versuchen, als doch noch zu früh abgestempelt wird und es die nächsten 10 Jahre wieder Still um das Thema wird um dann plötlich der nächste Versuch gestartet wird.

Es kann aber auch sein, dass das Nvidia sich hier ihere Marktposition noch weiter festigen kann.

Was für RT spricht ist, dass es deutlich einfacher zu Implentieren sein soll als, mit den Raster-Tricksereien. Und hier ist der Knackpunkt, mit den RTX Karten wird ist kein pures RayTracing möglich, es muss ebenfalls mit Tricks gearbeitet werden um irgendwie brauchbare Frames zu erhalten. Welchen Aufwand benötigen diese Tricksereien?
 
@scully1234: Wenn es nicht erschwinglich ist, KAUFT es keiner! Es kann so doll sein wie es möchte, wenn es sich nicht für NV bezahlt macht, wird es sich nicht verbreiten! Fehlende oder ablehnende Nutzerbase ist der Sache auch nicht zuträglich.
 
Zuletzt bearbeitet :
Um alles in RT zu rechnen, fehlen den RTX wie auch bestimmt den nächsten Generationen immer noch Bumms. Aber es ist quasi ein alter Traum, von dem man nun ein erstes greifbares Indiz hat, dass er vielleicht in greifbarer Zukunft - und früher als noch bis Sommer 2018 gedacht - Realität werden könnte.

Ich find's ja auch geil. Und schätze die Grünen dafür, dass sie's machen. Und ich honoriere die Innovation in Geld. Aber ich glaube auch, dass ich eine geerdete Vorstellung davon habe, was geht, und dass der JETZT greifbare Mehrwert doch sehr subjektiv ist.
 
Nvidia ist seit Jahren mit den Quadro Systemen vor Ort in Hollywood , und die ersten positiven Berichte vom neuen Denoiser ,kamen auch aus der Ecke, da waren noch gar nicht zu denken an die schnellen Tensor Cores, in der neuen Volta/Turing Hardware

Durchgängig jeder Contentcreator dort ,hat sich das also schon seit mindestens 1,5 Jahren angesehen auf Tauglichkeit, und keiner hat da bisher irgendetwas abwertendes zu Protokoll gegeben
 
Consumer und Content Creator sind auch zwei unterschiedliche Einsatzfelder.
 
Die Technik dahinter die selbe ist , nennt sich hier Rendern und nennt sich dort Rendern

Das eine ging vorher schon auf Renderfarmen über Tage gestreckt Bild für Bild, das andere geht nun dank Nvidia heute in Echtzeit!

ist das so schwer?

Und ja natürlich noch nicht in voller Bandbreite , aber seit wann war das je anders , 3DFX Voodoo konnte am Anfang auch noch nicht den Turbo zünden

Und trotzdem wusste jeder der sich näher damit befasst hatte, das 2D Grafik hiermit ausgedient hat, das war dort keine Wette und ist hier auch keine Wette, sondern kann an der Qualität des fertigen Bildes vollends belegt werden
 
Zuletzt bearbeitet :
Oben Unten