Lesebrille gefällig?@Casi030 ich wiederhole meine Frage zu deinem Post 282:
FurMark sagt 267FPS,Hwinfo64 0.
Vielleicht ist der Treiber mit rund Einem Jahr zu alt.....
Anhang anzeigen 27275
Vergiss es, Du und ich wissen, die einzige Option auf die Effizienz zu kommen mit einer AMD ist schummeln, Du bekommst die mit über 110 FPS in Ultra in keinem Spiel der Welt unter 200Watt GPU, von Karte gesamt sprechen wir gar nicht, zeigt jeder, aber absolut jeder Test und jede Benchmark.Schau den Screen in Beitrag 299 an,da kannst alles genau abgleichen.
Das EINZIGE was ICH weis ist das ICH mit Trollenden Nvidia Fanboys wieder meine Zeit verschwendet haben weil sie nicht akzeptieren können was sie fürn Schrott gekauft haben und das AMD selbst mit 1000 Fakten,Daten und Belegen nicht Akzeptieren wollen das es möglich ist die RX6000er Karten auf die GLEICHE Effizienz zu bringen wie die 4000er bis min zur 4070TI.Vergiss es, Du und ich wissen, die einzige Option auf die Effizienz zu kommen mit einer AMD ist schummeln, Du bekommst die mit über 110 FPS in Ultra in keinem Spiel der Welt unter 200Watt GPU, von Karte gesamt sprechen wir gar nicht, zeigt jeder, aber absolut jeder Test und jede Benchmark.
Und das hat nichts mit "Wissen und Können" zu tun, sondern mit Schnacken und Mogeln, einen schlüssigen Videobeweis mit eindeutigen Overlay Watt und FPS bist schuldig geblieben, und mir ist klar warum, weil das was man da sieht weit weg ist vom dem, was Du erzählst.
Wenn Du die behauptete Effizienz auf irgendeiner AMD Karte auch nur im Ansatz hättest, würde dich AMD sofort mit Monatlich 100.000€ Gehalt einstellen.
Was kein Testlabor der Welt, kein AMD bei Vorführungen hinbekommt, willst Du so locker erreichen.
AMD würde alles dafür tun, die von Dir gepriesenen Werte bei einer Produktvorstellung vorführen zu können, können sie aber nicht, weil es UNMÖGLICH ist.
Entweder bekommst die Watt etwas runter, unter die 200 gesamt, hast dann aber nur noch max 60 FPS, oder eben Du gehst auf FPS, hast dann aber 100 Watt mehr auf der Uhr als eine 40xx.
Beides geht nicht, und solange kein ganz klarer eindeutiger Videobeweis vorliegt, mit Einstellungen und Live Verbrauch mit dem Catalyst Overlay , Screenshots kann ich viele machen, nur ob sie zusammengehören ist nicht beweisbar.
Ich habe den Vorteil, ich kann eines sowieso belegen, eine RTX4060ti 16GB OC nimmt selbst maximal Overclocked nie mehr als 188 Watt gesamte Karte, und 265 Watt GPU.
Egal wie viele FPS ich erreiche, es sind immer maximal 165 Watt GPU dahinter .
Wie RDRD2 ist jetzt auch Müll......Und ein Game wie SoTR ist eh nur bedingt tauglich, weil es da am meisten auf die CPU ankommt, die macht gut 50-65% der gesamten FPS, anders als bei Division 2.
Division 2 habe ich mit Overlay gepostet, das haste doch, stell mal ein vergleichbares Video mit Overlay ein, dann sehen wirs ja.
Da hättest mal besser aufpassen sollen,ich hab ja schon mit ASUS Telefoniert weil nach nem Bios Update der Ram nicht mehr mit 4000MHz lief,dafür gehen die Spannungen extrem weit runter,auch mit folge Bios Versionen änderte es sich nicht.ASUS meinte ja ich soll das Mainboard einschicken, nur alles über 3200MHz ist OC und das kann laufen,muss aber nicht deswegen hab ichs auch nicht eingeschickt.um noch ein Beispiel zu nennen, gibt es noch einen zweiten User, welcher bei einem Ryzen 5950X für 3200mhz cl14 Ram nur eine SoC Spannung von 0,775V benötigt? (Post 282)
Eben nicht,es ging um die bessere Effizienz der 4070 gegenüber der 4060ti.Als Besitzer von insgesamt vier Grafikkarten, davon eine Nvidia ( 4060ti ), zwei AMD ( RX 6800 und einer RX580 in den Rechnern meiner Kinder ) und einer Matrox in der Workstation meiner Frau, bin ich wohl alles andere als ein Nvidia Fanboy!
Ich sehe aber durchaus hier den ein oder anderen AMD Fanboy, der mit haarsträubenden Behauptungen ohne jeden Beleg meint, er müsse die Ehre von AMD verteidigen.
Es ging um nichts anderes , als um die besser gewordene Effizienz von Grafikkarten, und das wir überrascht waren, wie viel effizienter die neuen 40xx geworden sind.
Aber da haben sich direkt einige mit übermäßigem Markenzugehörikeitsgefühl angegriffen gefühlt, ihre ihre bevorzugte Marke eben leider in Sachen Effizienz nicht sooo gut abschneidet.
Ging eigentlich nie um eine Marke, das Fass haben die, die andere als Fanboys bezeichnen, selbst aufgemacht, weil sie als die echten Fanboys direkt auf Angriff gingen, weil es ja gar nicht geht, dass der "Feind" so gute neue Karten liefert.
Also argumentiert man wie ein Gebrauchtwagenhändler mit den wildesten Behauptungen.
Mir ist es wurscht was auf der Karte steht, selbst wenn da "Karl Arsch der 3." Draufstünde , sie aber bei 160 Watt satte dreistellige FPS in 1080p Ultra erreicht, wie es die 4060ti jetzt tut, dann würde ich sie kaufen.
Punkt.
Ich habe nicht nur aktuell AMD Karten im Haushalt, genau wie Nvidia, und ich weiß um die Probleme beider, auch beruflich zusätzlich, und da muss ich ganz unvoreingenommen sagen, leider ist Nvidia im Moment das deutlich kleinere Übel, aber eben zum höheren Preis.
Zur Diskussion habe ich die Effizienz der 4060ti in jeder erdenklichen Weise getestet und nachvollziehbar transparent hier veröffentlicht, leider kann man das von der Fanboy Fraktion nicht behaupten.
Da herrscht die Devise " Champignon" , das Gegenüber im Dunkeln halten und mit scheiße füttern.
Ausflüchte, RDR2 Benchmark kann ich nicht, mag das Game nicht, mein Sohn hat den Rechner verstellt, ich hab kein anderes Overlay, die Daten muss man schon aus einem Screenshot von HWInfo ziehen, dessen Zusammenhang zur Benchmark äußerst fraglich und unglaubhaft ist.
Fehlt nur noch, der Hund hat mein Zugangspasswort gefressen.
Es ist auch müßig , denn die Effizienz und Leistungen der RX6800/XT etc wurde tausende Male gestresst und dokumentiert und die Ergebnisse, sind immer ähnlich, natürlich auch bei meiner eigenen 6800, daher kann ich so klar sagen, das die 4060ti sowohl in Leistung 1080p als auch Effizienz der 6800 überlegen ist.
Es ging nie um Gegner, sondern einfach darum, dass eine RX6800 keine Alternative zu einer 4060ti 16 GB für 1080p Gaming darstellt Punkt.Eine 4060ti ist nun mal in keinster Weise ein Gegner für ne RX6900XT weil sie einfach zu wenig Recheneinheiten hat,ne RX6800 könnte es da schon schwerer haben.
Auf der anderen Seite kommt dann aber auch ne RX6900XT/50XT in keinster Weise gegen eine 4080 an,da brauch ich schon locker 100-150Watt mehr um überhaupt nur annähernd and die FPS zu kommen.
Nein, ich wurde gefragt, warum ich bei dem hohen Preis der 4060ti 16 nicht gleich zur 4070 oder nicht besser einer RX6800 gegriffen habe, die seien ja beide Stärker und quasi fast gleich teuer und auch alle genauso effizient!Eben nicht,es ging um die bessere Effizienz der 4070 gegenüber der 4060ti.
Und die Frage warum die 4070 nicht deutlich Effizienter sein kann wie die 4060ti.
Bei AMD funktioniert es ja ohne Probleme eine RX 6800XT Effizienter laufen zu lassen als eine RX6800.
Darum ging es ursprünglich.
Das DU auf die 4070 aus diversen Gründen verzichtet hast ist ja auch nachvollziehbar, nur wenn es einem Egal ist ob sie weiß ist,dann sollte man für die paar EU mehr zur 4070 greifen.
Und das sind 2 AMD Karten.........
Soll ich meine aufzählen.....
Die RX6800 hast DU mit ins Spiel gebracht um deine 4060ti hoch leben zu lassen,nur hab ICH dich mit der RX6900XT auf den Boden der Tatsachen wieder runter geholt was dir entgegen aller Fakten und Daten überhaupt nicht gefällt und wieso sollen meine Daten Fake sein und deine nicht?Es ging nie um Gegner, sondern einfach darum, dass eine RX6800 keine Alternative zu einer 4060ti 16 GB für 1080p Gaming darstellt Punkt.
Du hast die Behauptung aufgestellt, dass eine 6900xt effizienter sei als eine 4060ti oder 4070, was schlicht nicht der Fall ist.
Selbst eine 4080 schlägt eine 6900xt in Leistung und Effizienz, und zwar mehr als deutlich.
Selbst die 7900 wird von einer 4080 deutlich auf sie Plätze verwiesen wenn es um die Effizienz geht, oder DLSS logischerweise, aber wenn die 4090 ins Spiel kommt, ist selbst die 7900xtx absolut chancenlos, in Leistung und Effizienz.
So sieht es im Moment halt aus.
Und wenn Nvidia eine 4080ti rausbringt, wird die 7900xtx auch hier schon ihren Meister finden, da braucht's keine 4090
Die 4080ti wird zwar auch 1200-1500€ kosten, und damit wieder leider etwas teurer sein als die meisten 7900xtx, dafür aber auch schneller und effizienter.
Und MIR Fake vorwerfen aber selber falsche Daten angeben.....Nein, ich wurde gefragt, warum ich bei dem hohen Preis der 4060ti 16 nicht gleich zur 4070 oder nicht besser einer RX6800 gegriffen habe, die seien ja beide Stärker und quasi fast gleich teuer und auch alle genauso effizient!
Und meine Antwort war, ja die GPUs von 4070 und 4060ti haben die nahezu gleiche Effizienz, aber die 4070 hat die höhere Boardpower, zudem nur 12GB und kostet 60-100€ mehr, je nach Modell.
Da die 4060ti 16GB aber für meine Nutzung, nämlich 1080p Ultra Gaming bis max 144 Hz exakt das liefert von der Leistung, was ich brauche und dabei am wenigsten verbraucht, war die 4070 raus.
Die 6800 kam gar nicht in Frage weil sie schlicht bei der gleichen Leistung 80-100 Watt mehr braucht und eben in 1080p Ultra teilweise weniger FPS liefert als die 4060ti 16GB.
Und es gibt keine ein weiß.
Das war die Ausgangslage.
Du hast dann gesagt, Du könntest mit einer 6900xt in 1080p effizienter sein als eine 4060ti oder 4070, was technisch schlicht nicht machbar ist, weil alleine die Boardpower schon viel höher ist und Du drosseln, Undervolten, limitieren kannst wie Du willst.
Bei gleicher Wattleistung liefert keine Andere Karte auf dem Markt so viel 1080p Ultra FPS wie die 4070 und 4060ti
leider ist mein YouTube Tageslimit voll, daher hier mal das letzte Testvideo.
138W maximal GPU bei 133FPS Schnitt, also wieder das 1zu1 Limit FPS / Watt
und mit dem aktuellen HWInfo Shot
WeTransfer - Send Large Files & Share Photos Online - Up to 2GB Free
WeTransfer is the simplest way to send your files around the worldwe.tl
Finde es absolut bombastisch was die kleine 4060ti 16GB leistet, bei RDR2 ist es allerdings wirklich unschlagbar gut
Anhang anzeigen 27258 Anhang anzeigen 27259 Anhang anzeigen 27260 Anhang anzeigen 27261
Anhang anzeigen 27257
Die 4070TI die hoffentlich noch getestet wird hat +- den gleichen Verbrauch wie die RX7900GRE.Niemand bestreitet das nvidia mit der 4000er Serie einen massiven Effizienzsprung hingelegt hat. Wäre ja auch lächerlich wenn sie das nicht geschaft hätten bei einen doppelten Nodesprung.
RDNA3 ist da ein wenig zwiespältig da die effizienz bei den Chiplets noch nicht so funktioniert wie erhofft. Bei der kleinen 7600 zeigt die Umstellung von 7 auf 6nm aber eine leichte Verbesserung. Mal abwarten was die 77/7800 bringen aber Wunder erhoffe ich mir keine.