News NVIDIA macht ernst und mit mehr Leistung Turing obsolet, GeForce RTX 3070 für $499, RTX 3080 für $699 und RTX 3090 für $1499

die teile laufen nie auf 100% eine cpu schon mal gar nicht und wenn dann nicht mit der gpu gleichzeitig......denken verstehn checken. vega ist viel schlimmer. ausserdem undervolted werden es wieder effizienzmonster.....sehe schon die 3080 bei 270-280 watt fetzt aber 50% über der 2080 ti weg
 
Das macht sie doch ohnehin, das Problem an der Geschichte ist aber das richtiges undervolten bei Nvidia nicht so einfach ist, da die meisten Programme einen zwar ein Powertarget festlegen lassen, damit erreichst aber nur das die Karte kurzfristig den Takt drosselt, bei der Voltagecontrol in den Anwendungen der großen Hersteller kannst zur Zeit nur Spannung zusätzlich zur festgelegten Spannung für den Takt addieren, diese aber nicht reduzieren.

Dadurch ist bei Nvidia undervolting ziemlich unmöglich, da die Spannungen im Bios für die jeweiligen Takte festgelegt sind, den Rest erledigt die Voltagecontrol.
 
es is pipifax einfach mit dem popoburner 5 minuten für mich. pascal und turing 850mv und takt was halt geht 1850-1900mhz meistens 50 watt weniger als stock bei stockleistung + vram oc und du bist drüber.
 
Soll also heißen du lässt den Corevoltageregler wo er ist bei +0?
 
Das Thema Netzteil ist so ausgelutscht wie kaum ein anderes. Aber fyi: die Grafikbutzen MÜSSEN nach Möglichkeit auch die Billigböller mit einbeziehen. Nun ist der Schrott bei 850 Watt ziemlich überschaubar, aber es gibt ihn auch dort.
Wer dann tatsächlich versucht, seine Karte für 1500.- oder mehr mit dem Dreck zu versorgen ist selber Schuld und hat es auch nicht besser verdient.
 
Ja aber das weis hier doch jeder. Böller NT Existieren nicht! hier.^^ same shit as always

Screenshot_2020-09-03 TweakTown com Enlarged Image.png
 
Zuletzt bearbeitet :
tatsache wusste ich nicht. ^^
 
@Derfnam Man hat denn Eindruck, das die Neulinge Beiträge sammeln....hört mal das spammen und OT Gelaber auf.
 
Was zumindest marketingmässig, wie ich finde, ein genialer Schachzug von nV ist, das sie die RT-Leistung jetzt auch in RT-TFLOPs wie MS angeben. Mathematisch muss es ja korrekt sein, sonst würden sie ja offen lügen und das können sie sich nicht leisten. Damit haben sie rein von den Zahlen her MS, Sony und letztlich AMD, so ganz nebenbei, richtig mächtig in die ... Auslage getreten.
 
Aber um auf die Diskussion um das Videoram zurückzukommen, hab jetzt mal Shadow of the Tomb Raider, auf 4k mit benutzerdefinierten Maximumdetails eine Chance gegeben, hab zwar nur den Benchmark laufen lassen, da mir grade etwas die Zeit zum zocken fehlt, mit dem Ergebnis, das ich unrecht und ihr recht hattet, der Speicherausbau spielt sehr wohl eine Rolle, so jetzt kann man sagen okay, ich hab nur eine RTX2060 mit 6Gigabyte Videoram, der reicht allerdings gerade mal für maximal 22-28 FPS, und es gibt mit jeder Kamerabewegung einen kleinen Ruckler, also circa all 3-4 Sekunden, am Ende des Benchmarks, wußte ich dann auch warum, von 5,980 Gigabyte Grafikspeicher waren 5,980 Gigabyte ausgelastet, das Spiel war also permanent am nachladen. Wieviel mehr man jetzt brauchen würde kann ich euch nicht sagen, allerdings bin ich schon am Zweifeln ob die 8 Gigabyte der RTX3070 für 4k überhaupt genug sein werden.
 
Jetzt stekllst du auf high und wundere dich sieht fast gleich aus....und wird sogar spielbar sein mit der 2060. Ultra settings are almost never worth it
 
Jetzt stekllst du auf high und wundere dich sieht fast gleich aus....und wird sogar spielbar sein mit der 2060. Ultra settings are almost never worth it

Naja ich beziehe mich eigentlich nicht auf mich, ich zock normalerweise auf 1920*1080 da ich die Lebensdauer meines Monitors nicht unnötig strapazieren will, der unterstützt 3840*2160 nur inoffiziell. :)

Dachte eher an Kunden von Nvidia, die vielleicht jetzt nicht die dicke Brieftasche haben, zur 3070 greifen und dann enttäuscht sind, weil sie in einem 2 Jahre alten Spiel die Settings runterschrauben müssen, um auf ein spielbares Spiel zu treffen, sind zwar wahrscheinlich nicht viele die das so sehen, aber es gibt sie leider.

Ist aber auf High settings prächtig spielbar, senkt die Speicherauslastung des Videospeichers auf 5,6 Gigabyte, und das Game läuft im Durchschnitt mit 60 FPS auf der Karte auf 4k
 
Zuletzt bearbeitet :
Weis nicht optimiere die settings und du sparst dir eine ganze klasse an Leistung. siehe hardware unboxed optimierungsvideo zu den spielen. 20-60% mehr leistung bei fast selber optik. Die hirnlos alles auf ultra reissen sind selber schuld.

nur 2160p das reicht sdoch eh werde in 2 jahren auch wieder auf uhd umsteigen mit 144hz und hdr.

3080 kann das wohl ab :D einfach geil das ich alles games die ich habe damit mit 120-140 fps locker zocken kann^^ wenn die cpu mitmachen würde ......
 
Mal neugierig bin, welchen Prozessor hast du denn? Sollte es irgendwas zwischen der Intel Core i58000er oder AMD Ryzen 2000er Reihe oder neuer sein, solltest für die 3080 nicht unbedingt zu wenig Computingleistung haben um die Grafikkarte schön voll zu ballern. Bei den Ryzen G Modellen und dem 3100-3300 bin ich mir nicht ganz sicher, ich glaub aber nicht, daß das wirklich so ins Gewicht fallen wird.
 
Zuletzt bearbeitet :
3300x (aber selbst top end cpus liefern nur 30% mehr das sind ein paar fps im cpu limit...... ich brauche 100%+) :D im gaming rig. 3900x im schufter rig

wollte den kleinen testen 3600 liegt auch noch hier rum aber habe nicht wieder umgebaut weil der 3300x in meinen games sogar schneller ist als der 3600.(mein 3600 ist aber ein echt übler 3600 erste charge)
 
Ja beim 3300x haben sie etwas optimiert, allerdings haben sie den Node auf 12nm zurückgestellt, möglicherweise pusht ihn das etwas, der ist eigentlich wirklich nicht schlecht, falls er für die 3080 nicht reichen sollte, kannst ja immer noch den 3600 probieren, ich glaube aber nicht, dass Du da Probleme haben wirst.
 
Naja ich beziehe mich eigentlich nicht auf mich, ich zock normalerweise auf 1920*1080 da ich die Lebensdauer meines Monitors nicht unnötig strapazieren will, der unterstützt 3840*2160 nur inoffiziell.

ROFL. Wasn das bitte für ein Monitor? Hab auch noch nie gehört, dass allein schon die angezeigte Auflösung Einfluss auf die Lebensdauer eines Monitors hätte (bitte nicht zu Verwechseln mit Overclocking im Hinblick auf Hz & Co.).
 
Der Samsung Curved CF396 27" Monitor. Ich sag mal so, die Bildschärfe spielt im Desktopbetrieb bei 3840*2160 nicht ganz mit, zumindest die Oberfläche von Nvidia´s Controlpanel skaliert unleserlich klein.
 
Oben Unten