News Neuigkeiten und Gerüchte zu RTX 4xxx "Lovelace" (Sammelstrang)

Stimmt OC darf man nicht vergessen, bei der RTX 3080 ist man bereits relativ nah am Limit - vielleicht bietet hier BigNavi 5-10% mehr Spielraum, was dann den Abstand verringert.
 
für mich müsste AMD hardwareseitig schon Etwas wesentlich besseres bieten als Nvidia damit ich die RTX 3080 links liegen lasse

weil Nvidia einfach die überlegene Software hat
irgend wie komisch dein post...

es wurde doch gar keine navi software gezeigt, wieso weisst du denn, dass nvidia die besser hat? weil, darf nicht sein oder wie?


die leistung ist doch ziemlich genau das, was man erwarten durfte.

doppelter 5700xt chip und danke architekturplus auch ca. mit doppelter leistung.
das erklärt dann wohl auch, wieso nvidia den die karten so auf kante genäht hat und selber auf die effizienz piffen. sie wussten was kommt und wollten den abstand entsprechend so gut wie möglich vergrössern.

falls amd ebenfalls all-in gegangen ist und die karten auch kaum oc zulassen, hat nv es geschafft.

aber egal, freue mich, dass wieder etwas konkurrenz aufkommt und wir schlussendlich von coolen neuen karten profitieren können.
 
Was mich viel mehr interessiert ist die RT Leistung. Wenn die klassische Rendering Leistung an die 3080 heranreicht, hat BigNavi in dem Bereich die Erwartungen ja bereits erfüllt.
 
Was meinst du mit "ohne Wertverlust"? Die Karten selber verlieren durch Mining imho schon an Wert.

Bei der aktuellen Marktsituation wären Karten für 700$ im Januar immer noch mindestens 700$ wert da die Nachfrage vermutlich noch ein bisschen unterschritten wird.
Bis dahin kann man sorglos minen, weil man die Karten einfach garantiert wieder los wird und auch noch zu guten Preisen.

Also programmierst Du auch selbst?

Selbst wenn AMD jetzt etwas zu DLSS vergleichbares bringt und Raytracing in Hardware super flott ist: nVidias Schnittstellen sind etabliert da sie im Profi-/Compute-Bereich praktisch alleiniger Anbieter sind und auch viel Support bieten. Ergo hat AMD vielleicht gute Hardware die in Spielen zu nVidia Vergleichbares bringt – für Anwendungen und Spielzeuge wie die von nVidia vorgestellten Assistenzprogramme ist AMD-Hardware aber größtenteils inkompatibel.
 
Unabhängig von der oben geführten Diskussion glaube ich kaum, das jemand im Januar noch 700€ für eine gebrauchte 3080 mit 10Gb zahlt.
Ich bleibe gespannt, fand die Präsentation gestern recht vielversprechend.
Gruß
 
Adobe unterstützt NVidia-Karten recht massiv für viele Filter.
Ich weiss nicht, was du von Adobe verwendest, aber bei meinem Lightroom 6.12 ist die einstellbare Nutzung der Grafikkarte praktisch nicht spürbar. Weder die Hauptansicht noch die meisten Filter werden bei meiner Version mit der Grafikkarte berechnet. Ich habe noch nichts entdeckt, was wirklich einen Nutzen davon hat. Wenn man zwischen Bildern hin und her wechselt, bleiben nun manchmal 4 oder 5 Bilder gespeichert und nicht nur 2 wie vorher. Sonst ist die Grafikkartenunterstützung vor allem ein Werbeargument. Die GPU-Auslastung bleibt konstant bei 0.

Bei der neusten Version sollen ein paar Filter davon profitieren. Da das Bibliotheksmodul nicht davon profitiert, hilft mir das aber wenig. Dafür von einer Vollversion auf ein Jahresabo zu wechseln, bin ich nicht bereit. Das käme mir ein mehrfaches teurer.

Wie es bei anderer Adobe-Software aussieht, weiss ich nicht.
 
Lightroom ist hier ganz unten zu finden, das sieht schon gut aus. Eine Seite davor wird gerendert und da sieht man es deutlicher. Premiere Pro nutzt Cuda, du kannst hier mal die anderen Adobesachen in Tests durchgucken.
 
Bei Photoshop gab es Filter, die massiv beschleunigt wurden. Habe in den letzten zwei Jahren kein Photoshop mehr verwendet, doch ich gehe mal davon aus, dass sich das nicht verschlechtert hat.

Hier mal ein Vergleich "mit und ohne CUDA" aus dem Jahr 2010
(ACHTUNG: Das Video ist von NVidia - also nicht objektiv. Deckt sich jedoch mit meinen Erfahrungen bei anderen Filtern, die ebenfalls um einen Faktor 5-7 beschleunigt wurden)

Es gibt ja auch dezente Hilfestellungen, wenn man Filter entwickeln möchte:

Kein Wunder, dass das unterstützt wird.

Und: Als ich noch Quaddros im Einsatz hatte, konnte ich keinen Geschwindigkeitsvorteil bei der Verwendung von Quadros / der speziellen Quadro-Treiber feststellen. Desktop-Karten reichen.

----
EDIT: Der Vergleich aus dem Video mit 21 MP Bildern war für meine Verwendung gar nicht mal schlecht als Benchmark, denn ich hatte Teilweise über 40 MP TIF Dateien mit 7 Kanälen und 40 Bit Farbtiefe. (Das waren keine Fotos, sondern technische Bilder, die zur Ansteuerung von Systemen verwendet wurden)
 
Moin, @derGhostrider :)
Ich bin mir da nicht ganz sicher, was Photoshop und die ganzen Filter angeht, aber ich meine mich daran zu erinnern, dass das erst mit der Zeit immer besser wurde, weil zu Beginn viele der Filter vin Fremd- bzw Drittanbietern waren. Das fiel mir ein, als ich oben im Standbild des Videos den Begriff Plug-in las.
 
Vielleicht geht es ihm um's Nutzen von Software, die auf CUDA zugreift,
ja, ich hatte ja schon letztens darauf verwiesen, dass z. B. Folding at Home nun auch CUDA unterstützt
und daraus Leistungssteigerungen von 15-30% oder mehr resultieren können

1602272972406.png
"...our Folding@home GPU cores are now CUDA-enabled, allowing you to run GPU projects significantly faster. Typical GPUs will see 15-30% speedups on most Folding@home projects, drastically increasing both science throughput and points per day (PPD) these GPUs will generate."
 
Naja Cuda nutzt einem aber nur etwas, wenn es auch in den Anwendungen genutzt wird, die man benutzt. Und dies ist auch weiterhin nicht bei allen so. So wie auch nicht alle Spiele RT unterstützen oder DLSS. Es ist super wenn es genutzt wird. Aber wenn halt nicht, ist das Feature in dem Moment wertlos und es zählt dann halt einzig die Rohleistung der GPU. Und wenn AMD nur ein paar % hinter nVidia ist, dafür aber weniger Verbrauch hätte und auf der anderen Seite mehr Speicher. Wäre es ein absolut interessanter Schlagabtausch.
Wer natürlich Anwendungen die Cuda nutzen können hat, oder viele Spiele spielt die RT und/oder DLSS nutzen, dann kommt man nicht um eine RTX Karte herum. Was aber ja auch nicht schlimm ist. Man soll ja grundsätzlich immer die Hardware kaufen, die für einen am Sinnvollsten ist bzw. bestens zur vorhanden Hardware/Software passt.
 
Hmmm, wieso antworten alle für "RawMangoJuli" und gehen sogar so weit abschätzen zu wollen was er/sie wohl für Programme wie, wofür und warum nutzen könnte?
Warum tritt eine einfache Frage gleich solche Wellen los?
Ich wollte lediglich von RawMangoJuli selbst wissen, ob er/sie Programmierer/in ist, ...mehr nicht! ^^

MfG
 
Hmmm, wieso antworten alle für "RawMangoJuli" und gehen sogar so weit abschätzen zu wollen was er/sie wohl für Programme wie, wofür und warum nutzen könnte?
Warum tritt eine einfache Frage gleich solche Wellen los?
Ich wollte lediglich von RawMangoJuli selbst wissen, ob er/sie Programmierer/in ist, ...mehr nicht! ^^

MfG
Ganz einfach: Das passiert, wenn mehrere Leute auf Anhieb / aus eigener Erfahrung Nutzungsszenarien beschreiben können und es anzunehmen ist, dass vielleicht ein entscheidender Aspekt bei der Fragestellung übersehen wurde.
Der Post, der CUDA nannte, und nur aus diesem einen Wort bestand, hatte ja auch keinerlei Einschränkung gemacht, sondern lediglich CUDA als Begründung in den Raum gestellt - und das bedeutet halt nicht nur für den recht speziellen Fall der Softwareentwicklung, sondern allgemein.
Für mich persönlich schien es jetzt so, dass Deine Nachfrage einen möglichen Nutzen von CUDA auf Softwareentwicklung einschränken wollte:
CUDA --> "Also programmierst Du selbst"
Das "Also" am Anfang Deines 1-Satz-Postings impliziert hier, dass CUDA nur dann ein Nutzen ist, wenn man selbst programmiert.
Falls das nicht von Dir beabsichtigt war, ist das Wort falsch verwendet worden und hätte einfach nicht im Satz stehen sollen: "Programmierst Du selbst?" wäre dann die korrekte Frage gewesen.
Das kann natürlich niemand außer Dir wissen, wenn es denn ein Fehler war.

RawMangoJuli kann weiterhin die innitiale Frage beantworten - zusätzlich hast Du halt ein paar alternative Einsatzszenarien genannt bekommen. Ist doch gut. Alle Antworten waren sachlich und es waren letztendlich genau 2 Beiträge, die auf Deinen geantwortet haben. Die anderen waren Reaktionen auf diese (meistens meine) Beiträge.
Und ich bin froh, wenn andere Forenteilnehmer das Bild vervollständigen, ihre Sicht hinzugeben und darauf verweisen, wann und wo der Nutzen mehr oder weniger ausgeprägt war, was meine Antwort im ganzen einfach etwas besser differenziert.

Bei zwei Antworten von "Wellen" zu sprechen, halte ich jetzt wieder für etwas übertrieben.

Das unterstützt dann eher die zuvor noch zweifelhafte Annahme, dass tatsächliche Verwendungsszenarien für CUDA gar nicht gewünscht wurden und die Frage zeigen sollte, dass CUDA außerhalb der Entwicklung nicht relevant wäre.
Das ist natürlich nur eine kontextbezogene Interpretation meinerseits, so erscheint es mir jedoch: Eine einseitige Frage, die zeigen sollte, dass CUDA in der Regel keine Begründung ist, da die wenigsten Softwareentwicklung mit/auf CUDA betreiben.

So, jetzt hast Du eine ausführliche Antwort auf die Frage erhalten, wieso Du (zumindest eine von zwei) Antworten von anderen Forenteilnehmern erhalten hast. ;)
 
Moin, @derGhostrider :)
Ich bin mir da nicht ganz sicher, was Photoshop und die ganzen Filter angeht, aber ich meine mich daran zu erinnern, dass das erst mit der Zeit immer besser wurde, weil zu Beginn viele der Filter vin Fremd- bzw Drittanbietern waren. Das fiel mir ein, als ich oben im Standbild des Videos den Begriff Plug-in las.
Hi Derfnam!
Ja, als ich das am Anfang nutzte, gab es nur wenige Filter, die das unterstützten, die waren dann jedoch deutlisch schneller als der Rest. War etwas merkwürdig in der Verwendung, wenn simple Dinge lange brauchten und komplexe Filter schnell abliefen.
... das ist allerdings auch schonwieder einige Jahre her. Hätten die Bilder keine 40 Bit pro Farbkanal verwendet, hätte ich kein Photoshop benutzt. Das konnte damals noch kein anderes Tool. (Gimp kam damit z.B. überhaupt nicht klar. Irgendwann haben die noch etwas angepasst, aber da hatte ich bereits Photoshop und ich weiß gar nicht, ob die Unterstützung dann 40 bit pro Farbkanal eingeschlossen hat oder irgendetwas anderes nicht passte... da muss ich passen)
 
@derGhostrider: ups, da hab ich glatt den Zusammenhang nicht erklärt. gemeint war, dass Cuda in PS mit der Zeit immer mehr eingesetzt wurde, weil Adobe sich die Filter - vermutlich - zukaufte oder selber sehr ähnliche entwickelte. Nur als kleiner Wink Richtung Martin und Lightroom, wo die 'Wirkung' der Karten noch sehr überschaubar zu sein scheint, eben wie damals in PS ohne Fremdfilter. Kann sich alles ändern.
 
Oben Unten