NVIDIAs GeForce RTX 4060 Ti 16 GB und kein Test – Aschenputtel oder Fall fürs Museum der Eitelkeiten?

@DigitalBlizzard danke fürs teilen Deiner Gedanken.
Irgendwo wirds sowas vermutlich schon geben vielleicht (?), mal ein richtiger Test verschiedener Interfaces / Versionen / Breite etc. wäre schon interessant. Die 4060 ist genau so eine Karte, die sehr wahrscheinlich in sehr vielen älteren Builds landen wird, wo noch PCIE 3 drin steckt, als letztes Update vor dem verschrotten sozusagen. Wenn es genügend, und vor allem funktionierende (hallo Forspoken) DirectStorage Titel gäbe, wäre auch damit ein Test interessant.

Auf alle Fälle denke ich, dass zu wenig VRAM = Auslagerung mittels Shared Memory, viel schlimmer ist, als ein "kleines" Interface aber mit genug VRAM dran.
 
Danke für deine nüchterne Einschätzung.
Folgende mini Vorteile sehe ich gegenüber einer RX6800 zusätzlich:
- Idle power consumption
- NVIDIA anstelle von AMD Treibern
- NVIDIA reflex
- ULMB2 falls ich mir kein OLED kaufe
Dafür nehme ich 20% weniger Leistung in Kauf. Mir ist aber klar, damit bin ich eine laute Minderheitsmeinung.

Wer sich die neusten Quartalszahlen von NVIDIA anschaut, versteht aber auch, warum es N schlicht egal sein kann, ob sich die 4060 verkauft oder nicht. Low und midrange GPU ist für die Verschwendung. Ai ist der neue heisse 3D Drucker, Blockchain, Cloud, Hype und übertrifft Gaming+Workstation nicht nur beim Umsatz, sondern auch bezüglich Marge.
Nvidia anstelle von AMD-Treibern? Das ist wohl zu allgemein gefasst. Wie schon an anderer Stelle geschrieben: ich hatte nur einmal Probleme mit AMD-Treibern und das war zu RX 480 Zeiten. Das gab es bei Nvidia-Treibern genauso. Oder beziehst du dich auf die momentanen "known Issues"?

AMD bietet im Endeffekt etwas ähnliches wie Nvidia Reflex, das nennt sich hier Radeon Anti Lag. Funktioniert wunderbar.

Eine 4060 -auch mit 16 GB- vergleicht man auch nicht mit einer RX 6800, da letzere nach wie vor eine Klasse höher angesiedelt ist. Das merkt man vor allem bei rasterized 3D. Da gehört die 4060 16 GB eher mit der RX 6700 XT/RX 6750 XT verglichen.

Dass RT das Metier von Nvidia ist, wissen wir ja alle. Aber nativ (ohne DLSS, FG usw.) hat auch die 4060 zu wenig Leistung dafür. Wie schon an anderer Stelle richtig erkannt: es ist eigentlich eine 4050 auf Steroiden. Dafür ist der Preis einfach unverschämt und das ist auch der Kritikpunkt, der der Karte das Genick bricht, indem sie bei den Händlern wie Blei in den Regalen liegt. Für mich völlig nachvollziehbar.

Für 399,- € wäre die Karte ok gewesen.

Und Software-Features? Es kommt von AMD jetzt FSR 3 mit ihrer Frame Generation, welches sogar open source ist - sprich: es funktioniert sogar mit einer RX 5000 oder einer Geforce 1080.

Zudem setzt Nvidia nach wie vor auf ein veraltetes, monolithisches Chipdesign. Vor allem, was KI-Berechnungen betrifft, wird aber in Zukunft eher ein Chiplet-Design gefragt sein, da dieses u.a. hier z.B. mehr Performance bringt. Vielleicht kommt das bei Nvidia ja mit den RTX 5XXX-Karten.

Nvidia hat bei den aktuellen Zahlen Glück, dass es ihnen egal sein kann, dass sich die 4060 schlecht verkauft. Aber man kann sich nicht ewig auf seinen Lorbeeren ausruhen. Ab der 4070 (leider mit zu wenig VRAM für die Zukunft) liefert Nvidia meiner Ansicht nach runde Produkte, die aber (wie auch AMD momentan) zu teuer sind.

Bei der aktuellen Generation würde ich, wenn Nvidia, mir lieber eine RTX 4080 oder 4090 holen, da diese immernoch das beste P/L-Verhältnis bieten. Bei AMD entsprechend RX 7900 XT/XTX. Darunter ist alles zu teuer bei zu schwacher, nativer Rohleistung ohne irgendwelche Software-Hilfsmittel.

Das trifft leider auch (oder gerade eben) auf die RTX 4060 und darunter auf die RX 7600 zu.

Das einzige, wo die 4060 bei mir punkten würde, wäre die Effizienz. Aber nur dafür würde ich mit Sicherheit nicht so einen Batzen Geld ausgeben.
 
@MechUnit keine Ahnung, ob NV mit ihrer aktuellen Gen gegenüber AMD im Vorteil ist, weil sie noch auf monolithisch setzen, etwas lang bekanntes, und AMD hingegen mit der neuen Chiplet Architektur Neuland betritt und durch neuartige Probleme im Nachteil ist. Keine Ahnung, ob AMD falsch gepokert und auf massiv höhere TDPs gesetzt hat, von NVs Sparsamkeit aber überrascht und zum Herunterfahren gezwungen wurde. Vermutlich nicht, sonst wäre RDNA3 ein wahres OC Monster. Leider wurde AMD sowohl HW- als auch SW-mässig abgehängt. Das führt dazu, dass aktuelle Kartenmodelle eine völlig falsche Typennummerierung erhalten haben, zu Gunsten viel zu hoher Preise. Einsteiger- und Mittelklasse sind aktuell einfach nur ein Witz. Giervidia diktiert und AMD kriecht hinterher. Beide machen sich unbeliebt. NV kratzt das nicht die Bohne weil sie ihre Schlunde mit lächerlichen KI Preisen vollwürgen. Die können es sich leisten, uns User masslos abzukassieren. Weil AMD nur hinterher kriecht, und selbst auch nur kassieren möchte. Weil keine Alternative da ist, machen halt die allermeisten einfach den Mist mit. Nach der Crypto Gier, eine sehr schlimme Zeit für Gamer, gepaart mit Corona, machen diese Herrschaften gnadenlos weiter und ziehen Preise noch mehr an. Entweder man schluckt und zahlt, oder verzichtet. So einfach ist es und nicht anders. So läuft die Geldmaschinerie.

Edit : und ja hast Recht, ohne diesen ganzen SW Schnickschnack à la DLSS3 FG etc. sind die Karten lahme Enten. Ohne geht fast nix. Games verlassen sich auf diesen SW Schnickschnack, mies optimiert, VRAM hungrig.
Alles was jetzt released wird, hat Empfehlungen mit DLSS/FSR eingeschaltet! Nativ ist tot sozusagen. Dann steht die UE5 vor der Tür, ein neues grosses Kaliber, welches alle Einsteiger- und Mittelklasse zu Elektroschrott macht.
 
Zuletzt bearbeitet :
Meinen Quatsch, ich habe Deine Aussagen hier bewusst ignoriert, vor allem nach dem letzten " Test" mit Beweisvideo.
Das ist halt DEIN Problem das DU mit der Effizienz der AMD Karten nicht klar kommst eben weil von DIR nur
kommt.Selbst in DEINEM letzten Video bescheißt immer noch und stellst Fake Daten rein.Über die schlechte Videoqualität...... selber braucht man gar nicht erst reden.
Aber schwamm drüber die RX6800 wird es nicht geben,dafür wurde heut die XFX RX7900XTX bestellt.
Keine Lust mich mit der mickrigen,überteuerten,ineffizienten 4060TI weiter rum zu Plagen.
Soviel Grünzeug kann ich gar nicht Rauchen um Grün zu werden um solch eine schlechte Karte + Software zu kaufen.
 
@MechUnit keine Ahnung, ob NV mit ihrer aktuellen Gen gegenüber AMD im Vorteil ist, weil sie noch auf monolithisch setzen, etwas lang bekanntes, und AMD hingegen mit der neuen Chiplet Architektur Neuland betritt und durch neuartige Probleme im Nachteil ist. Keine Ahnung, ob AMD falsch gepokert und auf massiv höhere TDPs gesetzt hat, von NVs Sparsamkeit aber überrascht und zum Herunterfahren gezwungen wurde. Vermutlich nicht, sonst wäre RDNA3 ein wahres OC Monster. Leider wurde AMD sowohl HW- als auch SW-mässig abgehängt. Das führt dazu, dass aktuelle Kartenmodelle eine völlig falsche Typennummerierung erhalten haben, zu Gunsten viel zu hoher Preise. Einsteiger- und Mittelklasse sind aktuell einfach nur ein Witz. Giervidia diktiert und AMD kriecht hinterher. Beide machen sich unbeliebt. NV kratzt das nicht die Bohne weil sie ihre Schlunde mit lächerlichen KI Preisen vollwürgen. Die können es sich leisten, uns User masslos abzukassieren. Weil AMD nur hinterher kriecht, und selbst auch nur kassieren möchte. Weil keine Alternative da ist, machen halt die allermeisten einfach den Mist mit. Nach der Crypto Gier, eine sehr schlimme Zeit für Gamer, gepaart mit Corona, machen diese Herrschaften gnadenlos weiter und ziehen Preise noch mehr an. Entweder man schluckt und zahlt, oder verzichtet. So einfach ist es und nicht anders. So läuft die Geldmaschinerie.

Edit : und ja hast Recht, ohne diesen ganzen SW Schnickschnack à la DLSS3 FG etc. sind die Karten lahme Enten. Ohne geht fast nix. Games verlassen sich auf diesen SW Schnickschnack, mies optimiert, VRAM hungrig.
Alles was jetzt released wird, hat Empfehlungen mit DLSS/FSR eingeschaltet! Nativ ist tot sozusagen. Dann steht die UE5 vor der Tür, ein neues grosses Kaliber, welches alle Einsteiger- und Mittelklasse zu Elektroschrott macht.

Du sprichst mir aus der Seele und besser hätte ich es auch nicht ausdrücken können.
 
Nvidia anstelle von AMD-Treibern? Das ist wohl zu allgemein gefasst. Wie schon an anderer Stelle geschrieben: ich hatte nur einmal Probleme mit AMD-Treibern und das war zu RX 480 Zeiten. Das gab es bei Nvidia-Treibern genauso. Oder beziehst du dich auf die momentanen "known Issues"?
Meine Erfahrung der letzten 15 Jahre. Probleme gibt es immer bei beiden. Aber AMD ist einfach schlechter und nerviger.
AMD bietet im Endeffekt etwas ähnliches wie Nvidia Reflex, das nennt sich hier Radeon Anti Lag. Funktioniert wunderbar.
Nö, tut es nicht. Zeigen auch diverse Test. Genau das ist das Problem an AMD, sie kopieren mehr schlecht als recht Funktionen von NVIDIA und setzten diese halbherzig um. Für meine Workstations, wo ich VRAM und OpenGL performance benötige, ist mir das egal. Bei meinem Gaming PC nicht.
Und Software-Features? Es kommt von AMD jetzt FSR 3 mit ihrer Frame Generation,
Ich bin schon zu lange in der IT um Versprechen noch ernst zu nehmen. Ich glaube es, wenn es da ist. FSR 2 ist DLSS2 deutlich unterlegen, warum sollte FSR 3 plötzlich ebenbürtig mit DLSS 3.5 sein? Könnte sein, könnte aber auch nicht sein.
veraltetes, monolithisches Chipdesign
Was interessiert mich dies als Endkunde?
Dann steht die UE5 vor der Tür, ein neues grosses Kaliber, welches alle Einsteiger- und Mittelklasse zu Elektroschrott macht.
Darauf bin ich auch gespannt. Da sind no so viele Fragen offen, mal schauen wie sich Immortals auf dem PC schlägt.
 
Meine Erfahrung der letzten 15 Jahre. Probleme gibt es immer bei beiden. Aber AMD ist einfach schlechter und nerviger.

Bei dir kann das so sein. Bei mir funktioniert das.

Nö, tut es nicht. Zeigen auch diverse Test. Genau das ist das Problem an AMD, sie kopieren mehr schlecht als recht Funktionen von NVIDIA und setzten diese halbherzig um. Für meine Workstations, wo ich VRAM und OpenGL performance benötige, ist mir das egal. Bei meinem Gaming PC nicht.

Sagen welche Tests? Links bitte. Laut PCGH und Computerbase funktioniert das gut. Ich kann nur von meinen Erfahrungen sprechen; und da ist es das gleiche mit Radeon Anti Lag wie mit den Treibern: bei mir funktioniert das, fertig.

Die Radeon-Treiber haben imo aber andere Baustellen, die bekannt sind. Bei den von Nvidia-Jüngern genannten AMD-Treiberproblemen, die komischerweise sonst keiner hat, könnte das Problem auch vor dem PC sitzen.

Ich bin schon zu lange in der IT um Versprechen noch ernst zu nehmen. Ich glaube es, wenn es da ist. FSR 2 ist DLSS2 deutlich unterlegen, warum sollte FSR 3 plötzlich ebenbürtig mit DLSS 3.5 sein? Könnte sein, könnte aber auch nicht sein.

Es ist kein Versprechen, dass es kommt, es wurde auf der Gamescom erst präsentiert und es startet im September - ist einfach Fakt. Die RDNA 3-exklusiven Features folgen im Frühjahr 2024.

Solltest du wissen, wenn du schon so lange in der IT bist.

Was interessiert mich dies als Endkunde?

Das interessiert dich als Endkunde insofern, dass ein etabliertes Chiplet-Design leistungstechnisch Vorteile hat und ein solches der CPU weitere Aufgaben abnehmen kann.

Auch das sollte ein ITler wissen.
 
Bei dir kann das so sein. Bei mir funktioniert das.
Glaube ich dir gerne. Wir haben unterschiedliche Settings, Hardware, Software. Du kannst ohne Probleme jahrelang durchkommen.
Ich kann dir da auch keine genauen Zahlen liefern.

In meiner Welt und in meiner Erfahrung kommen quartalsweise veröffentlichten AMD Pro Treiber noch nicht mal an die Stabilität von NVIDIA WHQL ran. Jedes Windows Update ist eine potentielle Inkompatibilität mit dem neusten Qx Treiber. Da reden wir nicht von "joah, muss ich mal neu installieren" sondern von "jup, ist uns bekannt, bitte deinstallieren Sie Update XY".
In diversen Test fügt Anti Lag sogar Lag hinzu! Ein weiteres Beispiel für die Treiberqualität von AMD.
Klar kommt jetzt jemand mit "Ja, aber das ist nur bei Spiel XY und mit Update YX haben sie das Problem behoben", ist mir egal. Ich habe schon genug Betatest in meiner IT Welt. Ich versuche Betatest so weit es geht zu minimieren.

Es ist kein Versprechen, dass es kommt, es wurde auf der Gamescom erst präsentiert und es startet im September
Habe ich behauptet es kommt nicht? Ich habe nur behauptet die Qualität ist nicht gut, nicht dass es nicht kommt.
Oder würdest du behaupten FSR2 ist ebenbürtig mit DLSS 2?

Solltest du wissen, wenn du schon so lange in der IT bist.
Billiges ad hominem?
Das interessiert dich als Endkunde insofern, dass ein etabliertes Chiplet-Design leistungstechnisch Vorteile hat und ein solches der CPU weitere Aufgaben abnehmen kann.
Als Endkunde interessiert mich, was schlussendlich ankommt. Der Weg dorthin ist mir egal.
Auch das sollte ein ITler wissen.
Billiges ad hominem?
 
Glaube ich dir gerne. Wir haben unterschiedliche Settings, Hardware, Software. Du kannst ohne Probleme jahrelang durchkommen.
Ich kann dir da auch keine genauen Zahlen liefern.

In meiner Welt und in meiner Erfahrung kommen quartalsweise veröffentlichten AMD Pro Treiber noch nicht mal an die Stabilität von NVIDIA WHQL ran. Jedes Windows Update ist eine potentielle Inkompatibilität mit dem neusten Qx Treiber. Da reden wir nicht von "joah, muss ich mal neu installieren" sondern von "jup, ist uns bekannt, bitte deinstallieren Sie Update XY".

In diversen Test fügt Anti Lag sogar Lag hinzu! Ein weiteres Beispiel für die Treiberqualität von AMD.
Klar kommt jetzt jemand mit "Ja, aber das ist nur bei Spiel XY und mit Update YX haben sie das Problem behoben", ist mir egal. Ich habe schon genug Betatest in meiner IT Welt. Ich versuche Betatest so weit es geht zu minimieren.


Habe ich behauptet es kommt nicht? Ich habe nur behauptet die Qualität ist nicht gut, nicht dass es nicht kommt.
Oder würdest du behaupten FSR2 ist ebenbürtig mit DLSS 2?


Billiges ad hominem?

Als Endkunde interessiert mich, was schlussendlich ankommt. Der Weg dorthin ist mir egal.

Billiges ad hominem?

Wir reden hier aber nicht von Beta-Software. Als User und ITler würde ich nie Betasoftware installieren, so lange ich nicht Betatester bin. Beta-Treiber machen auch bei Nvidia Karten Probleme. Fairerweise kehrt man das nicht unter den Teppich, wenn man das als Argument gegen AMD bringen will.

Meine angefragten Nachweise/Links hast du bisher nicht geliefert. Im Forum schreiben kann man viel - aber beweisen muss man das eben auch können.

Woher willst du im Voraus wissen, dass FSR 3 nicht gut ist? Kristallkugel? FSR 2 ist qualitativ nicht schlecht. Es gibts sogar viele Beispiele, bei denen FSR 2 eine sehr gute Figur macht.

Als Endkunde mit wenig Hardware-Affinität, bzw. der einfache, unwissende User interessiert sich natürlich nur dafür, dass sein System gut läuft. Aber als ITler oder Enthusiast interessiert mich schon der Weg dorthin. Sonst bräuchte ich solche Diskussionen nicht führen, weil ich dann nicht mitreden könnte.
 
Wir reden hier aber nicht von Beta-Software.
Nein tun wir nicht. Da liegt ein Missverständnis vor. Für mich persönlich ist AMD Pro Quartalstreiber vom Qualitätslevel her auf Beta. Für mich! AMD bezeichnet ihre Pro Driver natürlich nicht als Beta.
Meine angefragten Nachweise/Links hast du bisher nicht geliefert. Im Forum schreiben kann man viel - aber beweisen muss man das eben auch können.
Ich muss gar nichts liefern. Kann jeder glauben oder nicht glauben oder selbst recherchieren.

Woher willst du im Voraus wissen, dass FSR 3 nicht gut ist? Kristallkugel? FSR 2 ist qualitativ nicht schlecht. Es gibts sogar viele Beispiele, bei denen FSR 2 eine sehr gute Figur macht.
Natürlich weiss ich es nicht. Ist nur meine Vermutung basierend darauf, dass AMD in dem Bereich viel schlechter war in der Vergangenheit. Lasse mich gerne Gegenteil überzeugen, Stand jetzt ist FSR 2 auf dem Markt, was nicht mal mit DLSS 2 mithalten kann, geschweige denn mit DLSS 3. Alles andere ist Glaskugel.
 
@DigitalBlizzard danke fürs teilen Deiner Gedanken.
Irgendwo wirds sowas vermutlich schon geben vielleicht (?), mal ein richtiger Test verschiedener Interfaces / Versionen / Breite etc. wäre schon interessant. Die 4060 ist genau so eine Karte, die sehr wahrscheinlich in sehr vielen älteren Builds landen wird, wo noch PCIE 3 drin steckt, als letztes Update vor dem verschrotten sozusagen. Wenn es genügend, und vor allem funktionierende (hallo Forspoken) DirectStorage Titel gäbe, wäre auch damit ein Test interessant.

Auf alle Fälle denke ich, dass zu wenig VRAM = Auslagerung mittels Shared Memory, viel schlimmer ist, als ein "kleines" Interface aber mit genug VRAM dran.
Für PCie3 Build swäre das ein riesen Fehler, denn die Karte läuft mechanisch auf 8 Lanes, was bei PCIe3 Systemen massive Leistungseinbußen zur Folge hätte, zwar keine 50% wie man annehmen müsste, aber 20-30% mindestens wäre es dann sicher, die funktioniert nur in voller leistung auf PCIe4 oder 5 Systemen
 
Zuletzt bearbeitet :
Dass RT das Metier von Nvidia ist, wissen wir ja alle. Aber nativ (ohne DLSS, FG usw.) hat auch die 4060 zu wenig Leistung dafür. Wie schon an anderer Stelle richtig erkannt: es ist eigentlich eine 4050 auf Steroiden. Dafür ist der Preis einfach unverschämt und das ist auch der Kritikpunkt, der der Karte das Genick bricht, indem sie bei den Händlern wie Blei in den Regalen liegt. Für mich völlig nachvollziehbar.
Genau da liegt das Problem, eigentlich ist der Preis eine absolute Frechheit, aber in der Klasse gibt es schlicht keine Konkurrenz, das weiß Nvidia sehr genau.
Alles andere in der Mittelklasse kommt mit 8 oder max 12GB daher, wenn ich 16 will, dann muss ich entweder auf eine ARC770 oder eine RX6800 zurückgreifen. Oder die kommenden 7900GRE oder 7800XT die mit gut 260Watt TBP und mehr wieder ordentlich hinlangen und auch mit 600-700€ wieder deutlich teurer sind, weil man GPU Leistung bezahlt, die man nicht braucht, nur weil man den RAM will

Für den 1080p Gamer ist die Arc noch keine Alternative, die RX6800 wiederum ein Stromfresser und für jemanden der eine Nvidia haben möchte, müsste der dann schon für 16GB auf die 4080 gehen die das Doppelte kostet und genau wie die anderen 16GB Modelle auch von AMD für 1080p Gaming völlig overdosed sind.


da ist letztlich in der Preisklasse für 460€ eine 16GB KFA2 4060ti, oder XFX RX 6800 zu bekommen, die eine leise und mit geringem Verbrauch und auf 1080p mit nahezu gleichen FPS unterwegs, die andere ein Stromsauger und Brüllaffe

Das war für mich auch nur der Grund warum ich da zugeschlagen habe, sehr gute Leistung mit 16GB bei sehr geringem Verbrauch und erfüllt alle meine technischen Bedürfnisse.
 
Zuletzt bearbeitet :
Naja, meine ( die meines Sohnes ) Powercolor RX6800 Red Dragon schluckt im RDR2 Benchmarktest auf 1080p bei 119 FPS im Schnitt zwischen 240 und 260 Watt, im Vergleich geht die 4060ti 16GB beim Gleichen Test und 112 FPS im Schnitt nicht über 163 Watt

Das heißt die 4060ti nimmt 1,45 Watt pro FPS 1080P Ultra die RX6800 2,06 Watt pro FPS in gleicher Benchmark, also 25-30% mehr.
und das obwohl sie in der FPS Leistung gerade mal nahezu gleichauf ist, manchmal etwas drüber, manchmal etwas drunter

In Sachen Verbrauch ist die RX6800 in etwa auf dem Niveau einer 3070.
 
Zuletzt bearbeitet :
Die 6800 ist halt fast so schnell wie eine 4070 und hat dabei fast den selben Stromverbrauch...

System 1:

System 2:
 
und hat dabei fast den selben Stromverbrauch...

Jetzt geht das wieder los...

Wie soll eine Last Gen AMD so sparsam sein wie das Equivalent der RTX 4000'er ?
Das mit dem Verbrauch ( Werkseinstellungen) hat Igor aber anders gemessen....

https://www.igorslab.de/xfx-rx-6800...-test-schwerer-brocken-fuer-harte-aufgaben/5/



Edit: Sorry. Mein Fehler. Menschen,die Lesen können sind klar im Vorteil!

Es ging um die 6800 und nicht um die 6800 XT.
Da kann man aber auch durcheinander kommen... :)
 
Zuletzt bearbeitet :
Die 6800 ist halt fast so schnell wie eine 4070 und hat dabei fast den selben Stromverbrauch...

System 1:

System 2:

Das ändert aber nichts an den erreichten FPS Werten in einem 1080p Game, da kommt die 6800 nur minimal über eine 4060ti und deutlich unter eine 4070

Unf wenn man schon Benchmarks bemüht dann bitte mit gleichem Basissystem wie CPU und Chipsatz, Du hast hier einen 12100F mit einer 5800X3D verglichen, das ist null vergleichbar, weil die AMD CPU hier viel mehr Basis liefert, ein 12100f für eine 4070 ist unsinnig

Was Du oben siehst, die 12700k mit der 6800 meines Sohnes macht einen viel höheren Score als der 5800X3D


oder mal der 11700kf mit 4060ti score im vergleich

 
Oder mal im direkten Vergleich dein angeführter RX6800 Score mit einem 4070 Score und gleicher CPU




behauptest immer noch die RX6800 sei identisch mit einer 4070!? nicht im kühnsten Traum

eine 6800XT kommt gerade mal in der Leistung an eine 4070 ran


und das eine RX6800 mit einer 12700k CPU gute 10-15% mehr Score abliefert als mit der 5800X3D ist auch aufgefallen, oder!?

und eine 6800XT die mit der 4070 gleichauf liegt schluckt 30% mehr Saft


RTX 4070RTX 4070 TiRTX 4080RX 7900 XTRX 6800 XTRTX 3080 10GBRTX 3070
Leerlauf (Desktop)12,5 Watt*17 Watt*18 Watt15 Watt***8 Watt12 Watt10,5 Watt
Dual-Display (UHD + FHD)17 Watt*22 Watt*24 Watt41 Watt***39 Watt21 Watt15 Watt
UHD-Youtube-Video15 Watt23 Watt20 Watt64 Watt***49 Watt17 Watt17 Watt
Gaming (MAXIMUM)208 Watt284 Watt315 Watt315 Watt302 Watt330 Watt221 Watt
Anno 1800 (Full HD)202 Watt263 Watt266 Watt312 Watt296 Watt329 Watt219 Watt
Control (WQHD + RT)203 Watt265 Watt303 Watt313 Watt285 Watt328 Watt218 Watt
Full-HD-Gaming @ 60 Fps**49 Watt55 Watt58 Watt99 Watt101 Watt80 Watt51 Watt
A Plague Tale Requiem (4K)207 Watt279 Watt307 Watt313 Watt---
CSGO (Full HD, FXAA)62 Watt57 Watt61 Watt135 Watt---
CSGO (8K-DSR/VSR, 8× MSAA)167 Watt183 Watt205 Watt311 Watt---
CP2077 (4K, RT Psycho, FSR/DLSS)204 Watt272 Watt304 Watt311 Watt---
Doom Eternal (Full HD, 8× TSSAA)202 Watt247 Watt258 Watt313 Watt---
Doom Eternal (4K/5K, Raytracing)205 Watt281 Watt309 Watt315 Watt---
Dying Light 2 (4K, RT, FSR/DLSS)202 Watt266 Watt306 Watt310 Watt---
Metro Exodus EE (4K/5K, RT)208 Watt278 Watt310 Watt312 Watt---


RX 6800 XTRX 6800RTX 3080 FERTX 3070 FERTX 2080 FERX 5700 XTRX Vega 56
Lautheit (50 cm Entf.)
Leerlauf (Desktop)0,0 Sone0,0 Sone0,0 Sone0,0 Sone0,8 Sone0,1 Sone0,2 Sone
2 LCDs (UHD + FHD)0,0 Sone0,0 Sone0,0 Sone0,0 Sone0,8 Sone0,2 Sone0,2 Sone
UHD-Youtube-Video0,0 Sone0,0 Sone0,0 Sone0,0 Sone0,8 Sone0,2 Sone0,2 Sone
Gaming (MAXIMUM)2,1 Sone2,5 Sone3,3 Sone1,9 Sone1,9 Sone3,6 Sone4,9 Sone
Leistungsaufnahme
Leerlauf (Desktop)8 Watt7 Watt12 Watt10,5 Watt17 Watt11 Watt15 Watt
Dual-Display (UHD + FHD)39 Watt38 Watt21 Watt15 Watt42 Watt41 Watt15,5 Watt
UHD-Youtube-Video49 Watt44 Watt31 Watt17 Watt21 Watt16 Watt26 Watt
Gaming (MAXIMUM)302 Watt232 Watt330 Watt221 Watt224 Watt222 Watt216 Watt
Control (WQHD + RT)285 Watt214 Watt328 Watt218 Watt
Anno 1800 (Full HD)296 Watt203 Watt329 Watt219 Watt
Wolfenstein @ 60 Fps (FHD)101 Watt93 Watt80 Watt51 Watt70 Watt
 
Zuletzt bearbeitet :
Oder mal im direkten Vergleich dein angeführter RX6800 Score mit einem 4070 Score und gleicher CPU




behauptest immer noch die RX6800 sei identisch mit einer 4070!? nicht im kühnsten Traum

eine 6800XT kommt gerade mal in der Leistung an eine 4070 ran


und das eine RX6800 mit einer 12700k CPU gute 10-15% mehr Score abliefert als mit der 5800X3D ist auch aufgefallen, oder!?

und eine 6800XT die mit der 4070 gleichauf liegt schluckt 30% mehr Saft


RTX 4070RTX 4070 TiRTX 4080RX 7900 XTRX 6800 XTRTX 3080 10GBRTX 3070
Leerlauf (Desktop)12,5 Watt*17 Watt*18 Watt15 Watt***8 Watt12 Watt10,5 Watt
Dual-Display (UHD + FHD)17 Watt*22 Watt*24 Watt41 Watt***39 Watt21 Watt15 Watt
UHD-Youtube-Video15 Watt23 Watt20 Watt64 Watt***49 Watt17 Watt17 Watt
Gaming (MAXIMUM)208 Watt284 Watt315 Watt315 Watt302 Watt330 Watt221 Watt
Anno 1800 (Full HD)202 Watt263 Watt266 Watt312 Watt296 Watt329 Watt219 Watt
Control (WQHD + RT)203 Watt265 Watt303 Watt313 Watt285 Watt328 Watt218 Watt
Full-HD-Gaming @ 60 Fps**49 Watt55 Watt58 Watt99 Watt101 Watt80 Watt51 Watt
A Plague Tale Requiem (4K)207 Watt279 Watt307 Watt313 Watt---
CSGO (Full HD, FXAA)62 Watt57 Watt61 Watt135 Watt---
CSGO (8K-DSR/VSR, 8× MSAA)167 Watt183 Watt205 Watt311 Watt---
CP2077 (4K, RT Psycho, FSR/DLSS)204 Watt272 Watt304 Watt311 Watt---
Doom Eternal (Full HD, 8× TSSAA)202 Watt247 Watt258 Watt313 Watt---
Doom Eternal (4K/5K, Raytracing)205 Watt281 Watt309 Watt315 Watt---
Dying Light 2 (4K, RT, FSR/DLSS)202 Watt266 Watt306 Watt310 Watt---
Metro Exodus EE (4K/5K, RT)208 Watt278 Watt310 Watt312 Watt---


RX 6800 XTRX 6800RTX 3080 FERTX 3070 FERTX 2080 FERX 5700 XTRX Vega 56
Lautheit (50 cm Entf.)
Leerlauf (Desktop)0,0 Sone0,0 Sone0,0 Sone0,0 Sone0,8 Sone0,1 Sone0,2 Sone
2 LCDs (UHD + FHD)0,0 Sone0,0 Sone0,0 Sone0,0 Sone0,8 Sone0,2 Sone0,2 Sone
UHD-Youtube-Video0,0 Sone0,0 Sone0,0 Sone0,0 Sone0,8 Sone0,2 Sone0,2 Sone
Gaming (MAXIMUM)2,1 Sone2,5 Sone3,3 Sone1,9 Sone1,9 Sone3,6 Sone4,9 Sone
Leistungsaufnahme
Leerlauf (Desktop)8 Watt7 Watt12 Watt10,5 Watt17 Watt11 Watt15 Watt
Dual-Display (UHD + FHD)39 Watt38 Watt21 Watt15 Watt42 Watt41 Watt15,5 Watt
UHD-Youtube-Video49 Watt44 Watt31 Watt17 Watt21 Watt16 Watt26 Watt
Gaming (MAXIMUM)302 Watt232 Watt330 Watt221 Watt224 Watt222 Watt216 Watt
Control (WQHD + RT)285 Watt214 Watt328 Watt218 Watt
Anno 1800 (Full HD)296 Watt203 Watt329 Watt219 Watt
Wolfenstein @ 60 Fps (FHD)101 Watt93 Watt80 Watt51 Watt70 Watt
der cpu score in 3dmark hat nichts mit der tatsächlichen Leistung zu tun, der skaliert einfach nur mit vielen Kernen

Und da die 4070 einfach nur ne hochgelabelte 4060 TI ist, passt das tatsächlich ganz gut, das man da mit der Leistung der 6800 recht gut hin kommt
 
Du kommst auch nur mit einem Game um die Ecke...
Die 4070 mit dem "besseren" Prozessor, ist übertaktet.

Meine beiden Systeme laufen stock.

Die 4060Ti hat massiv weniger Grafikpunkte.

Egal...

Auch hier im Test zu finden:

Weil ob der 4070 Test verlinkt wurde, soviel mehr braucht eine 6800 nicht:
 
Oben Unten