News Neuigkeiten und Gerüchte zu RTX 4xxx "Lovelace" (Sammelstrang)

@Besterino
Danke für den Hinweis, dann hatte ich das falsch in verstanden. Es müsste dann doch aber möglich sein, zwei 3080 per SLI zu verbinden, sofern die Spieleentwickler die SLI-Profile weiter pflegen.
 
wow, +10% auf die 3080 ist mehr als nur enttäuschend.
verstehe immer noch nicht, wieso NV die neuen Karten jetzt aufeinmal so auf kante näht. entweder da kommt noch irgendwas, zb ein besserer treiber für die 3090 oder amd hat doch nocht mehr den riesen abstand zur spitze wie gedacht.
 
Sollte trotzdem gehen.
 

Wenn man die Aussage runterbricht, würde es nur ein "Treiber/Gameproblem" sein.
 
@romeeee
nvlink ist aber für HPC. Gibt es denn überhaupt Spiele, die davon profitieren?

Unabhängig davon: Von mir aus sollten alle Ampere Karten nvlink haben, da könnte man mit zwei 3070 oder zwei 3080 richtig schicke Sachen machen. Nur das man damit auch Spiele beschleunigen kann, da weiß ich jetzt nichts drüber.
 
Vielleicht sollte sich jeder hier mal ganz in Ruhe Igors Test der 3080 anschauen und sich klarmachen, dass es dort 4 Seiten zu Spielen hat und drei zu Anwendungen. Wo sich revolutionäres getan hat. In Spielen dominiert die Karte, in Anwendungen jedoch massakriert sie den Rest so gnadenlos, dass es selbst für den Fall, dass AMD in Spielen was entgegenzusetzen hat, es die Anwendungsszenarien sein werden, wo die 3080 (und ich wage die Behauptung, dass die 3070 da schon deutlich besser sein wird als alles, was AMD zu bieten haben wird) uneinholbar sein wird. Und die 3090 noch uneinholbarer, um mal ein Wort zu erfinden.
 
Von RDNA2 wissen wir das noch nicht. Ist ja der Trick mit den FP32 x2, Igor hats irgendwo erwähnt.
Ich kenne da auch einen Anwender, der kann auch mit den 3000ern nix anfangen. Weil man nicht direkt in den Speicher schreiben kann, ich wollte schon argumentieren das Jenson ja sowas angekündigt hat, aber das isses auch nicht. Er hats mir dann erklärt, ich kanns gerade aber leider nicht 100% wiedergeben. Werd ich die Tage mal genauer nachlesen, geht um OpenCL und so. Das geht bei AMD ganz einfach mit malloc und fertig.
Bei gewissen "Anwendungen" mag das anders sein, aber unter Developern ist die Radeon sehr viel beliebter. Und wird es wohl auch bleiben. Halt nicht alles so closed und whatever..

Egal, ich will das Ding fürs Zocken. Das S bei der Gigabyte Nummer halte ich jetzt noch nicht für ein "Super", da würde man sich ja einen Refresh versauen. Also tippe ich auf das übliche Ti, falls es denn ein GA104-400 geben wird. Ich hoffe es doch, und würde wohl auch einen höheren Preis in K.. na ich würde auch dafür zahlen. Das reicht für mich ne ganze Weile.
 
Zuletzt bearbeitet :
Ich warte ab und esse Popcorn. Während andere ordentliches essen haben, weil der Energieversorger den Leuten mit den neuen Karten Wöchentlich einen Präsentkorb schickt. ;-)
 
Yoah, das ist sicher etwas übertrieben und den erwähnten Testergebnissen geschuldet, @Sk3ptizist, aber mir langt es schon, dass ich den ganzen Whyn8sgammelskrempel Mitte September in den Läden sehe, das muß ich hier nicht auch noch haben.
@hellm: ist das aber nicht genau das Problem, dass AMD nichts eigenständiges hat? Offen für alles und alle mag ja in bestimmten Kreisen prima sein, aber was hat AMD denn spezielles zu bieten? Ich meine auch, dass Igor mal was in die Richtung kommentiert hat und konnte das durchaus nachvollziehen.
Guten Appetit, @Kobichief :)
 
Der Hype ist zu groß, msi Gaming X für 890€, da sollte man wirklich besser abwarten.
 
ist das aber nicht genau das Problem, dass AMD nichts eigenständiges hat?
OpenCL und Vulkan sind gut genug. Niemand braucht interessierte Nvidia-Mitarbeiter und Cuda oder was die noch so Proprietäres zu bieten hat. Das mag aber die Minderheit sein, da hast du Recht. Nur für wirkliche Datenmengen und TFlops und sowas, keine fancy Anwendungen, da ist Nvidia halt Schrott. Würden sich da aber auch nicht bücken wollen, siehe Stinkefinger von Linus. Bei AMD ist der Open Source Treiber für Linux halt auch schon erste Sahne, nicht zu vergleichen mit dem Alptraum unter Windows.
 
Vielleicht sollte sich jeder hier mal ganz in Ruhe Igors Test der 3080 anschauen und sich klarmachen, dass es dort 4 Seiten zu Spielen hat und drei zu Anwendungen. Wo sich revolutionäres getan hat. In Spielen dominiert die Karte, in Anwendungen jedoch massakriert sie den Rest so gnadenlos, dass es selbst für den Fall, dass AMD in Spielen was entgegenzusetzen hat, es die Anwendungsszenarien sein werden, wo die 3080 (und ich wage die Behauptung, dass die 3070 da schon deutlich besser sein wird als alles, was AMD zu bieten haben wird) uneinholbar sein wird. Und die 3090 noch uneinholbarer, um mal ein Wort zu erfinden.


da hast du natürlich recht, aber bei einem gamerprodukt, was die 3080 nun mal definitiv ist, ist die anwendungsleistung imo zweitrangig bzw. für viele schlicht nicht relevant.

das wär ja wie wenn du einen porsche mit lastwagenaufbau kreierst und diesen dann den rennfahrern gegenüber mit der unglaublich grossen zuladung bewirbst... 😅
 
@huberei: so hat es mit NASCAR angefangen und die Utes sind auch nicht zu verachten gewesen.
Mal davon abgesehen, dass ich dein Beispiel nicht wirklich verstehe, denn die Spieleleistung hat sich ja erhöht.
@hellm: OpenCL eigenständig? Höh?
 
@huberei: so hat es mit NASCAR angefangen und die Utes sind auch nicht zu verachten gewesen.
Mal davon abgesehen, dass ich dein Beispiel nicht wirklich verstehe, denn die Spieleleistung hat sich ja erhöht.
@hellm: OpenCL eigenständig? Höh?


wollte mit dem zugegebenermassen doofen beispiel eigentlich nur aufzeigen, dass bei einer gamingkarte in erster linie die gamingleistung leistung relevant ist und nicht, ob sie in anwendung xy noch viel mehr zulegt als in den games ohnehin schon.

die immer in bezug auf die 3090, wo das magere + von anscheinend nur 10% recht schwach ist.
 
Oben Unten