na ja das die 7er Gen keinen ausreichenden Mehrwert für 6er Gen Besitzer hat - das brauchen wir doch jetzt nicht weiter zu vertiefen.Also meine Rx 6800 hat 499.- Euro gekostet!
Ich denke die meisten hätten auf einen richtigen Leistungssprung gehofft.
Vor lauter Erwartung habe ich für mich den Moment verstreichen lassen, als es 6900lc oder 6950lc für < 700.- € gab.
Und eine grünrotblauebrille habe ICH ganz bestimmt nicht, wenn auch wie viele andere ein grundsätzliches pro Underdog.
Mit Ausnahme der 7900XTX......na ja das die 7er Gen keinen ausreichenden Mehrwert für 6er Gen Besitzer hat - das brauchen wir doch jetzt nicht weiter zu vertiefen.
Das hätte die 4er Gen NV gegenüber der 3er eigentlich auch nicht [Ausnahme die 90er] wenn NV bei der Software nicht künstlich beschneiden würde...
Aus Kundensicht ist das doch das schlimmere... Als AMD 6er Kunde kannst du doch beruhigt die 7er Gen verstreichen lassen.
Sorry, eigentlich war nur der erste Satz eien direkte Antwort auf deinen Post.Mich wundert das mein Post dich so triggert, ich habe keinerlei Partei ergriffen, nur gesagt das mir eine niedrigere Boardpower lieber gewesen wäre.
Das stimmt und vermisse Ich auch,die XFX RX7900XTX hat auch nur zwei OC Versionen mit ein paar Watt Unterschied. Wenn die Rev.7900XTX ein PL von 300Watt hat kann man doch her gehen und eins mit 275Watt und eins mit 325Watt machen und nicht eins mit 320 und 335 z.b.Aber ei generelles "Effizienz" Dual-Bios wäre schon nett.
Natürlich ist die Sekundärseite gemeint. (die auch eigene Kondensatoren hat)Meinst du die großen HochspannungsKondensatoren auf der Primärseite? Die sind an den LastwechselSpikes auf der Sekundärseite nur zweitrangig beteiligt.
als Bsp. mit vielen Spikes>Nennleistung:Fazit aus nem älteren Test
Die ganz kurzen Lastspitzen kann man getrost beiseitelegen und man sollte sich wirklich nur über Werte Gedanken machen, die überein bis zwei10 Millisekunden liegen. Übrigens nicht nur wegen der möglichen Abschaltung des Netzteils durch einen Schutzmechanismus, sondern auch wegen der Haltbarkeit. Je hektischer so ein Grafikbeschleuniger am Netzteil saugt, umso schneller kommen die Sekundärkondensatoren in den Bereich der Pflegeversicherung. Wer dann am Ende spart, ist falsch beraten.
Die 7800XT Nitro+ sieht in den Tests momentan nach der "besten" Karte mit der GPU aus (kostet aber 550$ statt 500$) - hervorragende Kühlung und leise. Es wird auch von gutem OC Potential geschrieben, aber das liegt ja auch immer an der Silicon Lottery.Ich kaufe seit diversen Jahren immer Karten mit AMD-Chip, vorzugsweise Sapphire! Wenn ich die Benchmarks der 7000er Generation so lese (auch die der großen Karten!), bin ich froh, dass ich mir zum letzten Black Friday noch die Sapphire 6950xt Nitro+Pure geschossen habe. So richtig überzeugend finde ich den Leistungs- "Sprung" nicht. Einzig ein bissi effizienter scheinen sie geworden zu sein. Dafür sieht meine "weiße Schönheit" um Welten besser aus- is ja auch was!!!
Das ist halt die Frage wie groß der Unterschied sein muss.Ich kaufe seit diversen Jahren immer Karten mit AMD-Chip, vorzugsweise Sapphire! Wenn ich die Benchmarks der 7000er Generation so lese (auch die der großen Karten!), bin ich froh, dass ich mir zum letzten Black Friday noch die Sapphire 6950xt Nitro+Pure geschossen habe. So richtig überzeugend finde ich den Leistungs- "Sprung" nicht. Einzig ein bissi effizienter scheinen sie geworden zu sein. Dafür sieht meine "weiße Schönheit" um Welten besser aus- is ja auch was!!!
Wird durch das FSR auch ehr besser.@Casi030
So schlecht wie viele meinen ist die Grafik von Starfield ja gar nicht in deinem Video.
Heute Mittag ist mein Key gekommen, ich bin gespannt wie es in Full HD ausschaut.
Natürlich ist die Sekundärseite gemeint. (die auch eigene Kondensatoren hat)
als Bsp. mit vielen Spikes>Nennleistung:
Reichen 500 Watt? AMD Radeon RX 6800 und NVIDIA GeForce RTX 3070 gegen ein be quiet! Pure Power 11 500 W | Praxis | Seite 3 | igor´sLAB
Man hat ja schon Vieles gesehen, auch auf YouTube. Da überlebt z.B. ein 500-Watt-Netzteil auf wundersame Weise schon einmal eine GeForce RTX 3080, während genau diese Karte hier im Labor vor dem…www.igorslab.de
ansonsten
Lass bitte gut sein, das wird zuviel OT.
beim nächsten NT-Review wäre dann genug Platz für Deine Fragen
Wieso(?), zum Ausprobieren von Standbild RT-RT (im bewegten Spiel ist RT-RT sowieso relativ irrelevant bzw. wird kaum bis gar nicht wahrgenommen) leicht über RTX 2080Ti Niveau reicht es bei der RX 6800XT allemal und in FSR3 Genuss kommt man damit auch, nur (noch?) nicht treiberseitig (aber das kann ja irgendwann noch nachgereicht werden für RDNA2) .
Die RX 7700XT ist leider noch zu teuer angesetzt im Gegensatz zur RX 7800(XT, welches sich das AMD/RTG Marketing lieber hätte sparen sollen), aber unter 430 Euro irgendwann dann sicherlich interessant, zumal sonst im Leistungsbereich bis hinunter zur neuen diskreten Grafikeinsteigerlösung RX 7600 nur noch ältere RDNA2 Modelle (wie die RX 6800 und die RX 6700XT bspw.) eine passende Option wären für den geneigten AMD/RTG Käufer.
Mit einer RX 7800(XT) dürfte man wenigstens absehbar nicht am Speicher verhungern wie bei der teureren direkten Konkurrenz (RTX 4070), die zudem im Gegensatz zur RDNA3 Karte von nVidia deutlich teurer als das Vorgängermodell zum Marktstart angesetzt wurde und neben der RX 7900XT wohl bisher die stimmigste Karte im RDNA3 Poertfolio (auch weil die RX 7700XT leider zwecks Upselling - welches man sich bei nVidia abgeguckt haben dürfte - wie zuvor erwähnt zu teuer platziert wurde).
Insgesamt bleibe ich aber beim gleichen Fazit für die RDNA3 wie für die Ada Lovelace dGPU-Generationen (mit Ausnahme einer RTX 4090 vielleicht, wenn man denn soviel vordergründig nur zum spielen investieren möchte), beide (bisher) nicht lohnend/rund genug und definitiv wert, übersprungen zu werden.
Diese Befürchtung habe ich auch angesichts der Nvidiastrategie. Da muss man sich dan irgendwann entscheiden. Hopp oder top!FSR 3 könnte exklusive Features bei den neuen Karten haben. Also quasi, dass es bei diesen Karten treiberseitig bei jedem Spiel aktivierbar ist.
AMD wird vermutlich versuchen irgendwelche Alleinstellungsmerkmale gegenüber DLSS bringen....
Diese Befürchtung habe ich auch angesichts der Nvidiastrategie. Da muss man sich dan irgendwann entscheiden. Hopp oder top!
Wir warten jetzt erst einmal FSR3 ab und wie es auch auf den Nvidia-Karten läuft. Dann sehen wir weiter. Alles Glaskugel bisweilen.FSR ist ja eine reine SW Lösung. Vermutlich dann bei ausgewählten Spielen auf allen Karten von R-G-B und generell immer in den Treibern einschaltbar dann exklusiv halt.
Es gab da so Gerüchte... mal schauen was dran ist...