AMD füllt die Lücke und lässt auch noch das Einhorn frei: Radeon RX 7800XT und RX 7700XT flankiert mit FSR3

Ja das ist nicht einfach mit dem Verbrauch, ich bin dafür, dass sie dazu schreiben, auf welche Watt Zahlen sie sich Beziehen.

An der Steckdose wird das ganze nämlich ziemlich schnell zur Erbsen zählerei.

Für mich zählt VRR am meisten, weil es bei erreichen der Monitor Herz anfängt den Takt der GPU zu senken, so lange bis die FPS unter die Hz Zahl fällt,. dann steigt der Takt wieder.

Wer hat Lust auf 1 - 2 Stunden die kWh zu messen an der Steckdose ?
 
Aha, kann außer dir niemand rechnen, oder warum heißt es im PCGH-Test zum einen

"Der hohe Takt fordert seinen Tribut: Die Radeon RX 7700 XT ist die bis dato ineffizienteste Grafikkarte der RDNA-3-Generation. Dieses Bild kennen wir von früheren Modellen der Gattung "Beschnittener Chip, hoher Takt als Kompensation."

und weiter

"Verlässt man jedoch den Rasterizing-Korridor, wird die Radeon RX 7700 XT in den meisten Fällen von der direkten Konkurrenz überboten. Da wäre Raytracing, das sich in immer mehr Spielen findet: Im brandneuen "Next-Gen"-Leistungsindex 2023/2024 berechnet die Geforce RTX 4060 Ti 16GB durchschnittlich elf Prozent mehr Bilder pro Sekunde. Damit nicht genug, sie benötigt bei alldem auch deutlich weniger Energie, es steht rund 165 (Nvidia) zu 230 Watt (AMD), sodass die Nvidia-Grafikkarte um rund 50 Prozent energieeffizienter arbeitet."
Die billige Fanboy Klatschpresse PCGH eh nicht.
Wenn die 4060ti unter 125Watt im Gesamtverbrauch fällt können wir weiter reden.
 
Gibt's auch irgendwas Substantielles oder nur albernes Rumgeschwalle?
Harte Fakten hab Ich schon genug geliefert, was gewisse Gruppen ja nicht interessiert.
Und wenn du selbst von den Models bei PCGH angemacht wirst weil du zu gut über AMD schreibst dann ist das nun mal keine Seriöse Seite.
 
Ist ja nicht nur PCGH, sondern auch etliche andere Seiten. Aber klar, die haben natürlich entweder alle keine Ahnung oder sind gekauft. Sorry, das ist mir zu viel Verschwörungstheorie und alternative Fakten. Hardwareluxx schreibt ja praktisch identisch zu PCGH:

"Allerdings müssen sich die beiden Karten mit AMD-GPU anstrengen, um diese Ergebnisse zu erreichen. Mit "anstrengen" ist ein relativ hoher Stromverbrauch gemeint. Die Messwerte unterscheiden sich zwar etwas von den Verbrauchswerten auf dem Papier, aber dennoch sprechen wir hier von rund 230 zu 160 W (Radeon RX 7700 XT vs. GeForce RTX 4060 Ti) und 250 bis 280 W zu 205 W (Radeon RX 7800 XT vs. GeForce RTX 4070)."

Aber das sind natürlich auch nur gekaufte Trottel ... :rolleyes:

Ganz zu schweigen von der Seite, auf der wir uns hier gerade befinden; die durchschnittliche Leistungsaufnahme ist den Tests doch klar zu entnehmen, und das waren in FHD nun mal 130 Watt bei der 8-GB-4060Ti (plus ein paar Watt für den zusätzlichen Speicher bei der 16GB-Variante) vs. 210 Watt bei der 7700XT. Aber ich vergaß, Igor hat ja auch keine Ahnung ...
 
Zuletzt bearbeitet :
Ist ja nicht nur PCGH, sondern auch etliche andere Seiten. Aber klar, die haben natürlich entweder alle keine Ahnung oder sind gekauft. Sorry, das ist mir zu viel Verschwörungstheorie und alternative Fakten. Hardwareluxx schreibt ja praktisch identisch zu PCGH:

"Allerdings müssen sich die beiden Karten mit AMD-GPU anstrengen, um diese Ergebnisse zu erreichen. Mit "anstrengen" ist ein relativ hoher Stromverbrauch gemeint. Die Messwerte unterscheiden sich zwar etwas von den Verbrauchswerten auf dem Papier, aber dennoch sprechen wir hier von rund 230 zu 160 W (Radeon RX 7700 XT vs. GeForce RTX 4060 Ti) und 250 bis 280 W zu 205 W (Radeon RX 7800 XT vs. GeForce RTX 4070)."

Aber das sind natürlich auch nur gekaufte Trottel ... :rolleyes:

Ganz zu schweigen von der Seite, auf der wir uns hier gerade befinden; die durchschnittliche Leistungsaufnahme ist den Tests doch klar zu entnehmen, und das waren in FHD nun mal 130 Watt bei der 8-GB-4060Ti (plus ein paar Watt für den zusätzlichen Speicher bei der 16GB-Variante) vs. 210 Watt bei der 7700XT. Aber ich vergaß, Igor hat ja auch keine Ahnung ...
Naja, als Trottel lässt sich wohl niemand gern Bezeichnen.
Sagen wir mal sie stellen sich etwas ungeschickt an, ist aber mit den Mitteln die sie zur Verfügung haben in Ordnung.

Bei Gesamt System Messungen gehört auch der Monitor mit dazu, aber den Aufwand will Niemand umsonst Betreiben.
Denn sie wissen wer dann weniger Verbraucht. ;)
 
Ist ja nicht nur PCGH, sondern auch etliche andere Seiten. Aber klar, die haben natürlich entweder alle keine Ahnung oder sind gekauft. Sorry, das ist mir zu viel Verschwörungstheorie und alternative Fakten. Hardwareluxx schreibt ja praktisch identisch zu PCGH:

"Allerdings müssen sich die beiden Karten mit AMD-GPU anstrengen, um diese Ergebnisse zu erreichen. Mit "anstrengen" ist ein relativ hoher Stromverbrauch gemeint. Die Messwerte unterscheiden sich zwar etwas von den Verbrauchswerten auf dem Papier, aber dennoch sprechen wir hier von rund 230 zu 160 W (Radeon RX 7700 XT vs. GeForce RTX 4060 Ti) und 250 bis 280 W zu 205 W (Radeon RX 7800 XT vs. GeForce RTX 4070)."

Aber das sind natürlich auch nur gekaufte Trottel ... :rolleyes:

Ganz zu schweigen von der Seite, auf der wir uns hier gerade befinden; die durchschnittliche Leistungsaufnahme ist den Tests doch klar zu entnehmen, und das waren in FHD nun mal 130 Watt bei der 8-GB-4060Ti (plus ein paar Watt für den zusätzlichen Speicher bei der 16GB-Variante) vs. 210 Watt bei der 7700XT. Aber ich vergaß, Igor hat ja auch keine Ahnung ...
Du raffst es nicht oder?!
Dein Präsident hat mit der 4060ti 16GB 171Watt auf der Uhr,die 6900XT liefert gut 15FPS mehr bei einem gesamten Kartenverbrauch von 125-130Watt.
Selbst die 6700XT liefert die gleiche Leistung bei gleichem Verbrauch.
Die 7700XT ist wie ich vor dem Test schon geschrieben hatte so schnell wie eine 6800.
Die 6800 hat mehr Recheneinheiten als die 6700XT und somit Effizienter wenn man sie auf die geringe Leistung drosseln muss.
Somit landet die 7700XT bei gleicher Rechenleistung bei rund 150-160Watt und ist somit Effizienter als die 4060ti 16GB.
Jetzt geschnallt?!
 
Crysis3 mit 60 FpS/Hz = sync

crysis3_2023_06_06_201tebo.png


Bei 230Volt ca. das Doppelte, kurzfristig. 🧙‍♂️
 
Ist ja nicht nur PCGH, sondern auch etliche andere Seiten. Aber klar, die haben natürlich entweder alle keine Ahnung oder sind gekauft. Sorry, das ist mir zu viel Verschwörungstheorie und alternative Fakten. Hardwareluxx schreibt ja praktisch identisch zu PCGH:

"Allerdings müssen sich die beiden Karten mit AMD-GPU anstrengen, um diese Ergebnisse zu erreichen. Mit "anstrengen" ist ein relativ hoher Stromverbrauch gemeint. Die Messwerte unterscheiden sich zwar etwas von den Verbrauchswerten auf dem Papier, aber dennoch sprechen wir hier von rund 230 zu 160 W (Radeon RX 7700 XT vs. GeForce RTX 4060 Ti) und 250 bis 280 W zu 205 W (Radeon RX 7800 XT vs. GeForce RTX 4070)."

Aber das sind natürlich auch nur gekaufte Trottel ... :rolleyes:

Ganz zu schweigen von der Seite, auf der wir uns hier gerade befinden; die durchschnittliche Leistungsaufnahme ist den Tests doch klar zu entnehmen, und das waren in FHD nun mal 130 Watt bei der 8-GB-4060Ti (plus ein paar Watt für den zusätzlichen Speicher bei der 16GB-Variante) vs. 210 Watt bei der 7700XT. Aber ich vergaß, Igor hat ja auch keine Ahnung ...
Nur mal 2 Schnellschüsse mit der RX7900XTX da sie erst seit 2 Stunden verbaut ist.
Identischer Verbrauch und deutlich mehr Leistung.
unknown_2023.09.03-18.03.png

unknown_2023.09.08-19.58.png
Immer noch höhere Leistung und mehr Punkte bei gut 60Watt weniger.
unknown_2023.09.08-20.26.png
 
Du raffst es nicht oder?!
Dein Präsident hat mit der 4060ti 16GB 171Watt auf der Uhr,die 6900XT liefert gut 15FPS mehr bei einem gesamten Kartenverbrauch von 125-130Watt.
Selbst die 6700XT liefert die gleiche Leistung bei gleichem Verbrauch.
Die 7700XT ist wie ich vor dem Test schon geschrieben hatte so schnell wie eine 6800.
Die 6800 hat mehr Recheneinheiten als die 6700XT und somit Effizienter wenn man sie auf die geringe Leistung drosseln muss.
Somit landet die 7700XT bei gleicher Rechenleistung bei rund 150-160Watt und ist somit Effizienter als die 4060ti 16GB.
Jetzt geschnallt?!
Ja ja, Hauptsache du hast alles gerafft, du Superschlaumeier.

Erstens weiß ich nicht, warum du in deinem Sermon von irgendwelchen Karten wie 6700XT, 6800 oder 6900XT rumschwallst, von denen niemals die Rede war. Und was hat eine 7900XTX mit einer 7700XT zu tun?

Und deine tolle 7700XT so weit runterzutakten, dass sie ihren Leistungsvorteil komplett einbüßt, aber trotzdem nicht wirklich nennenswert weniger Strom verbraucht, ist doch völlig bescheuert. Da kauft man sich sinnvollerweise gleich die 16GB-Version der 4060Ti, die dann praktisch gleiche Leistung bei gleichem Stromverbrauch liefert, dazu die üblichen Nvidia-Vorteile und 4 GB VRAM mehr on top. Aber bitte, jeder wie er mag ...
 
Identischer Verbrauch und deutlich mehr Leistung.
Nee Casi, eine 7900XTX als Vergleich und Effizienzwunder darzustellen ist wirklich nicht passend.
Deine 6900XT, die skalierte ganz gut, die 7000er nun wirklich nicht. Da hast du jetzt ca. 1000€ in die Hand genommen? Mit ein bisschen Sparen und weiteren 600€ hättest du dann die einzige wirklich effiziente Karte bekommen.
 
Nee Casi, eine 7900XTX als Vergleich und Effizienzwunder darzustellen ist wirklich nicht passend.
Deine 6900XT, die skalierte ganz gut, die 7000er nun wirklich nicht. Da hast du jetzt ca. 1000€ in die Hand genommen? Mit ein bisschen Sparen und weiteren 600€ hättest du dann die einzige wirklich effiziente Karte bekommen.
Oh doch das geht,nach Oben interessiert es mich ja weniger,bin Gestern noch auf die gleichen Punkte runter gekommen bei locker 100Watt Weniger.
Cyberpunk genau so.......
Starfield will nicht so richtig,bin mit der 7900XTX kein Mensch mehr.....

Klar kannst die 7900XTX nicht direkt mit der 6900XT vergleichen und daraus Schlüsse ziehen das die 7700XT jetzt auch 100Watt weniger braucht als die 6700XT bei gleicher Leistung.
Ist fraglich wann ich zu einer 7700XT oder 7800XT komme.;)
Oder doch nur ne 7600er.......

Karte hatte mit Wasserkühler 1150EU gekostet + 400er BQ Netzteil + 5800X3D beste Investition.;)
 
Ja ja, Hauptsache du hast alles gerafft, du Superschlaumeier.

Erstens weiß ich nicht, warum du in deinem Sermon von irgendwelchen Karten wie 6700XT, 6800 oder 6900XT rumschwallst, von denen niemals die Rede war. Und was hat eine 7900XTX mit einer 7700XT zu tun?

Und deine tolle 7700XT so weit runterzutakten, dass sie ihren Leistungsvorteil komplett einbüßt, aber trotzdem nicht wirklich nennenswert weniger Strom verbraucht, ist doch völlig bescheuert. Da kauft man sich sinnvollerweise gleich die 16GB-Version der 4060Ti, die dann praktisch gleiche Leistung bei gleichem Stromverbrauch liefert, dazu die üblichen Nvidia-Vorteile und 4 GB VRAM mehr on top. Aber bitte, jeder wie er mag ...
Weil DU dich hier in einen Fachmännischem Forum befindest und nicht bei Media Markt und CO.
Du faselst wie dein Präsident immer nur von irgendwelchen Nvidia Vorteilen,nur sehe ich die nirgendwo......
 
Man sieht nur was man sehen will. Ist eine verbreitete Volkskrankheit, bei Hardware ist es auch gar nicht schlimm, in anderen Bereichen schon.
Das stimmt leider,bei HW sieht die Sache anders aus,Intel und NVIDIA bieten mir nicht die Vorteile die Ich mit AMD habe,liegt halt auch viel an den Kenntnissen über AMD.;)
Klar hat AMD keine Karte die es mit der 4090 aufnehmen kann,aber ab der 4080 liefert AMD nach unten schon mit der 7900XTX einfach schon das bessere Gesamtpaket.
Die AMD Karten kommen zwar später,aber es lohnt sich drauf zu warten.
Die Preise werden auch noch fallen und dann muss die 4060ti 16GB im Preis noch weiter fallen.......
 
Abgesehen von der Rechenleistung: die KI-Fähigkeiten mit DLSS 2.0 bis 3.5, frame generation, die RT-Rechenpower. Das alles bildet zusammen das bessere Gesamtpaket, aber das benötigst du ja alles nicht bzw. siehst keinerlei Fortschritt darin. ;)
 
Abgesehen von der Rechenleistung: die KI-Fähigkeiten mit DLSS 2.0 bis 3.5, frame generation, die RT-Rechenpower. Das alles bildet zusammen das bessere Gesamtpaket, aber das benötigst du ja alles nicht bzw. siehst keinerlei Fortschritt darin. ;)
Rechenleistung hat nur die 4090 mehr.
DLSS hat bis her nix gebracht außer in Benchmarks und ist nicht Besser als FSR mittlerweile vom Bild her.Ist wie mit HDR,Farben am Monitor und Treiber richtig eingestellt hast nahe zu keinen Unterschied.
RT ist doch nur in Nvidia gesponserten Titeln ein Vorteil.......
 
Oben Unten