Frage Topaz AI Software vs RTX 2080ti vs RTX 3xxx vs RX 6xxx

HerrRossi

Urgestein
Mitglied seit
Jul 25, 2018
Beiträge
6.780
Bewertungspunkte
2.243
Punkte
113
Einen schönen Sonntag wünsche ich euch!

Hat hier jemand Erfahrung mit den diversen Topaz AI Apps? Ich wollte damit alte Fotos und Videos verbessern und frage mich jetzt, welche Grafikkarte dafür wohl am besten geeignet ist.

Da ich bereits eine 2080ti besitze und damit auch schon etwas rumgespielt habe, stellt sich mir jetzt die Frage, ob ich mit einer 3080(oder ti, die 3090 ist mir immer noch zu teuer) bzw. einer 6900/6800XT signifikant schneller wäre.

@Igor Wallossek hat die Software mit Profi GPUs getestet:

Das ist für mich aber nur schwer vergleichbar und kommt kostenmässig auch nicht in Frage. Kennt jemand Benchmarks mit Consumer GPUs? Im Topazforum findet sich kein wirklicher Vergleich, aber Tenor scheint zu sein, dass die 6900XT wegen DirectML die schnellste Karte ist. Die würde ich dann tatsächlich in Erwägung ziehen, wenngleich ich auch bis zur nächsten Generation warten könnte, wobei mir da der möglicherweise exorbitante Stromverbrauch Sorgen macht und ob sich das dann in Zeitersparnis rechnet.

Über Input würde ich mich freuen. Vielen Dank schonmal!
 
Hab die Artikel von Igor noch nicht angeschaut, könnte aber mal spaßeshalber irgendwelche Benchmarks auf 'nem Laptop mit 'ner "mobile" 3080 oder auch der 3090 im Desktop laufen lassen.

Bei Interesse bitte konkrete Benchmarks nennen und idealerweise auch die gewünschten Settings angeben. :)
 
Hab die AI Suite (Gigapixel, Denoise, Sharpen) und ganz besonders Gigapixel ist verdammt gut.

Die anderen beiden habe bisher noch nicht verwendet, da nicht nötig.

Schwarze Magie, müsste ich es zusammenfassen.

Allerdings muss ich gestehen, dass ich nicht mal weiß, ob sie die GPU dafür verwenden, oder alles über die CPU laufen lassen.

Video (re)encodes mache persönlich mit Handbrake und CPU, allerdings skaliere ich dabei auch nicht hoch, da es vorrangig um Speicherplatzersparnis geht. Bei Handbrake GPU Encodes wird alles allenfalls nur größer 🤡 Allerdings bin ich dahingehend auch ein absoluter Neuling/Laie.

In einem Sale werde ich allerdings vielleicht mal schwach werden.
 
Man kann in den Preferences den AI Processor einstellen, ob es über die CPU oder GPU laufen soll, bei mir hat das Programm von vornherein die GPU ausgewählt. Über die 6900XT hat es 1:08 Min:sec gedauert, also etwas schneller als Echtzeit, die Auslastung war allerdings auch bei mir eher gering:
1648667794688.png
1648666655977.png

Die CPU wird in beiden Szenarien in etwa gleich stark beansprucht. Ob das allerdings eine Einschränkung der Trial Version ist, weiß ich nicht, Kerne wären ja genug vorhanden :D

CPU only Rendering jedenfalls ist um mehr als den Faktor 10 langsamer, am Ende standen 13:07 Min:sec auf der Uhr:
1648667647040.png
1648666958815.png

Settings:
1648666300534.png
 
Danke für den Test @Corro Dedd ! Wow, die 6900XT ist dann mehr als doppelt so schnell wie die 2080ti, das hätte ich nicht gedacht. Das würde sich dann tatsächlich lohnen.
 
Habe gestern noch aus Jux mal die 480p Version von Big Buck Bunny auf 4k hochskalieren lassen. Meine Fresse, sieht wirklich nicht schlecht aus! 😲

Klar, man sieht oft genug, dass er es nur gut gemeint hat, aber was das Ding aus einem Quellvideo herausholen kann, welches sich gerade so auf DVD Qualität bewegt, ist schon erstaunlich. Mit der YouTube 4K Version kann man das aber nur schlecht vergleichen, das wurde später als das Original neu gerendert mit geänderter Beleuchtung, Ambient Occlusion, weniger Blur, etc.

Das hat dann übrigens eine gute Stunde gebraucht. Für einen knapp 10 Minuten Kurzfilm :D
BBB480pto4K.png

4K Upscale:
BBB4K_AI.png

480p Vollbild (bei 2560x1440):
BBB480p_native_at_fullscreen.png

4K YouTube Version:
BBB4K_YT.jpg
 
@Besterino wärst du so nett und machst für mich den Benchmarkrun? Geht ja fix ;) Dankeee!
 
@HerrRossi ich hab jetzt hier so'ne Datei SF145_512kb.mp4 mit nicht ganz 6MB - ist das richtig?
 
Also die 3090 braucht ca. 50 Sekunden, mit diesen Settings:

Fertig3090.jpg

Da ich jetzt neugierig bin, mach ich noch einen anderen Test...
 
Zuletzt bearbeitet :
Ja, das war die richtige Datei!

Ok, die 3090 ist bisher der Spitzenreiter.

Die 6900XT ist heute aber nochmal ein großes Stück interessanter geworden -> dicker Preisrutsch!
 
Laptop dedicated GPU (3080mobile): 2:44
Laptop iGPU (Radeon vom 5900HX): 3:41

Beides auch "on battery".
 
Danke dir! Schon erstaunlich, was der kleine M1 leistet.
 
Definitiv!

hatte den Laptop Test eigentlich gemacht, um dem M1 nochmal zu zeigen, was ne Harke ist. Pustekuchen.

Fragt man sich ja schon, ob man mit dem auch echte Spiele spielen könnte…
 
Kann man schon, SotTR soll trotz Emulation ganz ordentlich laufen, ich habe es aber noch nicht probiert. Es wurden bisher halt nur sehr wenige Spiele nativ für Apple und deren DirectX-Alternative Metal entwickelt: https://www.macgamerhq.com/opinion/macos-metal-games/

Aber vllt. ändert sich das ja auch jetzt mit der eigenen CPU mit starker iGPU, es kursieren auch schon länger Gerüchte um eine eigene Apple Spielkonsole mit der Hardware.
 
Die sollen mal ne dedizierte Graka mit dem Ding fürn PC rausbringen. Da würden Nvidia, amd und Intel aber dumm gucken… :p
 
Es gibt auch Gerüchte, dass Apple genau das für den kommenden Mac Pro machen will. Für den PC wird das aber wohl eher nix, weil keine offizielle Unterstützung von DirectX und Vulkan. Einen Treiber gibt es auch nicht und so eine Apple Grafikkarte wird sicher auch nur was für den High End-User.
 
und so eine Apple Grafikkarte wird sicher auch nur was für den High End-User.
Du meinst, so ganz anders als eine 3080Ti, 3090, 3090Ti, 6900XT...? ;)

Außerdem: Mac-OS ist doch immer noch irgendwie ein unixoid plus X, oder hat sich daran etwas fundamental geändert? Vielleicht tut sich Apple ja irgendwann mit Valve/Steam zusammen und dann kommt auch noch HL3 irgendwann raus...
 
Oben Unten