Sapphire Radeon RX 7700 XT Pure 12 GB im Test - Ein echter Traum in Weiß und Alptraum beim Preis

Das ist schon eine sehr engstirnige betrachung es gibt leute die zocken nur esport und da sind 240 hz schon besser ich hatte auch mal einen 240 hz monitor und in shootern ist das schon geil. Klar für den normalo reichen auch 140 hz aber mehr ist immer besser und fortschritt ist fortschritt. ausserdem sind alte crts was das angeht noch immer besser als moderne displays. Der Weg ist zu 1000hz das wird dann eine perfektes smoothes bild abgeben,
Glaub das mal ruhig weiter, solange keiner einen Chip fürs menschliche Hirn und Auge entwickelt, der die Aufnahmekapazität und Geschwindigkeit erhöht, ist das alles nur Marketing Blabla.
Das Limit ist der User, der Mensch.
Nimm mal einen Röhrenmonitor und schau Dir das Bild an, da liefern viele 100Hz Röhrengeräte heute noch ein zigfach besseres Bild ab, als es LED und OLED auch nur im Ansatz können.

Klar entwickelt sich Technik weiter, aber diese Werte sind nur auf dem Papier gut, in der Theorie, solange der Mensch nicht mutiert und das Menschliche Auge und Hirn plötzlich 1000Bilder pro Sekunde wahrnehmen kann.
 
Warum soll FSR überbewertet sein? Wäre es so gut wie DLSS was praktisch gratis Fps sind würdest das nicht sagen. In diesentechniken liegt die Zukunft. Amd soll lieber mal schleunigst draufkommen wie sie es gebacken bekommen eine echte alternative zu DLSS zu werden sonst sehe ich schwarz in der Zukunft. Raster alleine wird nicht mehr reichen, tut es heute schon nicht mehr für viele.
Ich schrieb "FPS".

OLED hat doch bereits perfektes schwarz. Jeder gamer der sich für bildqualität interessiert hat einen oled. ips in 2023 lmao
Wenn man sich den zur 800 € teuren GPU leisten kann, dann kann man das ja machen. Für Photoshop ist mir der Farbraum und die natürliche Darstellung wichtig und das können auch gut VA und IPS-Panel bewerkstelligen. Da nicht nur gespielt wird, sondern auch CAD, Office und das Übliche bearbeiet wird, sind andere Prioritäten auch zu berücksichtigen.
 
Nimm mal einen Röhrenmonitor und schau Dir das Bild an, da liefern viele 100Hz Röhrengeräte heute noch ein zigfach besseres Bild ab, als es LED und OLED auch nur im Ansatz können.
Und ich war dann sowas von froh als diese platzfressenden Tischheizungen verschwunden sind. Über die Auflösung brauchen wir gar nicht anfangen. Aber FPS bin ich voll bei Dir.
 
OLED hat doch bereits perfektes schwarz. Jeder gamer der sich für bildqualität interessiert hat einen oled. ips in 2023 lmao
Perfektes Schwarz haben auch die meisten Oleds nicht, und OLED ist bei weitem nicht so gut, wie man denken möchte, bislang gibt kein Hersteller eine BurnIn Garantie, außer für gewerbliche Displays, zudem nutzen sich OLEDs ab, je nach Nutzungsintensität und Qualität lässt die Leuchtkraft etc irgendwann deutlich nach.
Und wenn die mal der Strom ausfällt während der Nutzung, und eine AntiBurnIn Technologie wie bei der normalen Abschaltung nicht mehr greifen kann, dann haste einen Monitor mit zwei Bildern, dem aktuellen und dem Ghost im Hintergrund und das deckt dann keine Garantie ab.
Aber gut ist immer, wenn man alles glaubt, was Marketing einem suggeriert, zumindest für die Hersteller.
 
Glaub das mal ruhig weiter, solange keiner einen Chip fürs menschliche Hirn und Auge entwickelt, der die Aufnahmekapazität und Geschwindigkeit erhöht, ist das alles nur Marketing Blabla.
Das Limit ist der User, der Mensch.
Nimm mal einen Röhrenmonitor und schau Dir das Bild an, da liefern viele 100Hz Röhrengeräte heute noch ein zigfach besseres Bild ab, als es LED und OLED auch nur im Ansatz können.

Klar entwickelt sich Technik weiter, aber diese Werte sind nur auf dem Papier gut, in der Theorie, solange der Mensch nicht mutiert und das Menschliche Auge und Hirn plötzlich 1000Bilder pro Sekunde wahrnehmen kann.
Das hat nix mit glauben zu tun und ich rede nicht vom sehen aber auch 240hz bei 240 fps sieht man das es smother ist als 140 hz bei 140 fps und zwar eindeutig. Das bild ist in bewegugn einfach viel schärfer alter mann, wie aus einem guss von standbild in die die drehbewegung. nope das röhrengerät liefert kein besser bild ab als ein oled was ein schwachsinn. :ROFLMAO: Aber ich weiß was du meinst in der hinsicht. Aber das werden die auch noch fixen. :)
 
Und ich war dann sowas von froh als diese platzfressenden Tischheizungen verschwunden sind. Über die Auflösung brauchen wir gar nicht anfangen. Aber FPS bin ich voll bei Dir.
Ja ich auch, aber trotzdem, habe Neulixhvdas Vergnügen gehabt auf einem alten Sony Flat Black Matrix Röhren TV schauen zu dürfen, bei dem Kumpel der als Fernsehtechniker so ein paar Schmuckstücke als "Museumsexponate" sammelt, ist schon ein krass gutes Bild gewesen,
 
Ich schrieb "FPS".


Wenn man sich den zur 800 € teuren GPU leisten kann, dann kann man das ja machen. Für Photoshop ist mir der Farbraum und die natürliche Darstellung wichtig und das können auch gut VA und IPS-Panel bewerkstelligen. Da nicht nur gespielt wird, sondern auch CAD, Office und das Übliche bearbeiet wird, sind andere Prioritäten auch zu berücksichtigen.
Die meisten Oled sind ab werk viel näher am optimum was das angeht, als die meisten ips und va monitore. Man muss nur vom Standard Profil auf KINO oder Filmmaker Mode gehen. Da Standard Kühl eingestellt ist warum auch immer. Oder man stellt es schnell ein das dauert 2 minuten via HDTV Test Settings zum beispiel.

Aber wer ein Display für so etwas benötigt weiß das eh.
 
Perfektes Schwarz haben auch die meisten Oleds nicht, und OLED ist bei weitem nicht so gut, wie man denken möchte, bislang gibt kein Hersteller eine BurnIn Garantie, außer für gewerbliche Displays, zudem nutzen sich OLEDs ab, je nach Nutzungsintensität und Qualität lässt die Leuchtkraft etc irgendwann deutlich nach.
Und wenn die mal der Strom ausfällt während der Nutzung, und eine AntiBurnIn Technologie wie bei der normalen Abschaltung nicht mehr greifen kann, dann haste einen Monitor mit zwei Bildern, dem aktuellen und dem Ghost im Hintergrund und das deckt dann keine Garantie ab.
Aber gut ist immer, wenn man alles glaubt, was Marketing einem suggeriert, zumindest für die Hersteller.
Natürlich hat es perfektes schwarz wenn ich ein Foto was nur ein schwarzes Bild entspricht anzeigen lasse merkst du nicht einmal ob der Tv eingeschaltet ist oder nicht. Du redest nonsense.

Beim rest gebe ich dir Recht. Aber moderne Oleds sind da auch bei weitem nicht so anfällig wie alte Oleds, gibt es auch schon lange mittlerweile.

Ich nutze meine 2 LG C2 als Monitor und einen als Tv. Der Monitor wird jeden Tag bis zum äußersten genutzt mal schauen was passiert ;). Klar ist, Oleds werden nicht solange halten wie Leds. Aber da kommst ja schon MICROLED ins Spiel. Fortschritt halt :)

Trotzdem bringt OLED ein demaßen hohes upgrade in der Bildqualität wie noch nie zuvor bei einem display diese plastizität beim gamen ist der Wahnsinn man würde oft meinen man könnte reingreifen. Kosten tun die auch nix mehr wie noch vor 10 Jahren nur ein 1000er für die Qualität bitte gerne mehr davon.
 
Die meisten Oled sind ab werk viel näher am optimum was das angeht, als die meisten ips und va monitore. Man muss nur vom Standard Profil auf KINO oder Filmmaker Mode gehen. Da Standard Kühl eingestellt ist warum auch immer. Oder man stellt es schnell ein das dauert 2 minuten via HDTV Test Settings zum beispiel.

Aber wer ein Display für so etwas benötigt weiß das eh.
EIZO setzt nachwievor sehr viel IPS-Panel ein.
 
EIZO setzt nachwievor sehr viel IPS-Panel ein.
Keine Ahnung in diesem bereich reden wir von profis ich rede eher vom gewöhnlichen consumer standpunkt aus.

Zocken? OLED und Microled alles andere kann mir gestohlen bleiben. IPS kann kein schwarz milchiges bild und backlightbleeding gallore. VA kann relativ gutes schwarz aber schliert wie sau außer man hat ein top end gerät aber da kannst auch schon zu oled greifen.

Jede Technik hat seine vor und nachteile. OLED ist mir in SDR Gaming viel zu Dunkel zum Beispiel aber dank W11 kann man HDR überall verwenden daher wurde dieses Problem gelöst dafür verbrauche ich mein Panel wahrscheinlich mit 110% aber das ist es mir wert. Zwar erhöht das HDR den schwarzwert in nicht unterstützten spielen aber das kann man regulieren mit dem Game Optimizer einfach feineinstellung der dunklen berreiche auf minus 20-30 je nach Spiel. Bei nativ hdr und Auto HDR für gewöhnlich kein Problem :). Da hat LG mitgedacht.
 
Dazu habe ich dann keine Meinung, weil mir das Wissen dazu fehlt ich bin ein reiner Gamer. :)

Aber bei Display denke ich immer da gibts Leute die haben sich einen 3000€ PC angeschafft und hocken dann an einem 300€ TN Monitor. Das ist doch das was man anstarrt die ganze Zeit das muss einfach gut sein^^ sonst ist das doch perle vor die säue.
 
Dazu habe ich dann keine Meinung, weil mir das Wissen dazu fehlt ich bin ein reiner Gamer. :)

Aber bei Display denke ich immer da gibts Leute die haben sich einen 3000€ PC angeschafft und hocken dann an einem 300€ TN Monitor. Das ist doch das was man anstarrt die ganze Zeit das muss einfach gut sein^^ sonst ist das doch perle vor die säue.
Naja. Hängt von der Anwendung ab. CAD vor allem groß und mindestens 2 Monitore. Einen für die Grafik. den anderen für den Editor oder anderes Gedöns. Auflösung spielt dann dann auch eine große Rolle bei 60Hz ausreichend. Der PC selber kann dann aber mal richtig teuer werden, gerade wenn dann auch noch pure Rechenleistung und Speicher angesagt sind. Ich habe hier Modelle bon Anlagen, da ist jedes Spiel der reinste Kindergarten dagegen. Umwandlung in andere Dateiformate, gerade bei BIM Modellen kann mal gerne eine Nacht dauern. FEM-Berechnungen mit Netzen die den kleinsten Pickel erfassen und generiert werden wollen etc etc
 
ja amd karten halt das ist das Konzert gratis als beilage.
So ein schmarren. spulenfiepen liegt in der natur der Sache. es gibt komponenten die dagegn helfen können aber all in all bleibt es lotterie und betrifft sowieso nur karten 250 watt aufwärts. eine 4070 wirst nicht finden mit spulenfiepen das lauter ist als die lüfter ergo nicht existent weil es so leise das man es nicht wahrnimmt.
Was denn nun, erst ist es ein AMD-Problem und dann wieder nicht.
Nach deiner Aussage muss ich eine RTX 4070 mit lauten Lüftern kaufen, die tieffrequent Rauschen, um das hochfrequente Fiepen nicht zu hören, what?
Wenn ich mir die Bewertungen bei MF anschaue, trifft es wohl AMD, Nvidia und Intel gleichermaßen.
 
Zuletzt bearbeitet :
Okay ich hatte hier Rx 6800 fiepen unerträglich durch eine gschlossene Tür zu hören. 6800XT selbiges. 6900XT selbiges. Alles Sapphire modelle.
7900XT selbiges, 7900XTX selbiges. RX6700XT ging gerade so. RX6600XT null komma null

3070 fiepte aber nicht so pervers wie Amds karten, 3080 eine fiepte eine nicht. Aber so schlimm wie die Sapphire Karten war es nicht ich weiß nicht warum. Das Modell zog aber 370 Watt war eine Gigabyte Eagle.

Ada Karten 4070 null komma null. 4070ti null komma null. Gamerock 4080 null koma null. 4090FE fiepte wie sau.


Damit meinte ich JEDE KARTE hat Spulenfiepen aber manche so leise das es nonexistent ist für das Gehör oder man muss das Ohr ans Case halte um es wahrzunehmen das ist der idealfall. Oder das generelle lüftergeräusch es übertönt. Also non issue. Aber das was die RDNA 2 Karten ablieferten habe ich bis dato noch nie gehört das ist meiner meinung nach ein schaden denn niemand kann so entspannt zocken. Das ist unzumutbar.

Meinen jetzigen Pc höre ich gar nicht egal was ich durchjage das leise rauschen der 1150rpm lüfter der graka vielleicht wenn es ganz still ist sonst 0 leise wie eine konsole. Selbst wenn ich CB23 laufen lasse würdest du nicht einmal merken das die Cpu etwas macht. Noctua Lüfter sind geil. Schade das die gpus mit noctua Lüfter so extrem überteuert sind. Dumm Geld ausgeben ist ja auch nicht das wahre wenn eine 4080 mit noctua Lüfter 1500€ kostet aber eine 4090 an 1599€ anfängt.

Pny hat sowieso die besten lüfter auf der 4080 und 4090. Die 4080 verwendet ja die exsakt gleiche wie die 4090 also komplett overbuilt deswegen sind die ada karten stock teilweise bei nur 55 grad^^. In vielen spielen springen die lüfter bei mir nicht einmal an. Das ist krass^^
 
Keine Ahnung in diesem bereich reden wir von profis ich rede eher vom gewöhnlichen consumer standpunkt aus.

Zocken? OLED und Microled alles andere kann mir gestohlen bleiben. IPS kann kein schwarz milchiges bild und backlightbleeding gallore. VA kann relativ gutes schwarz aber schliert wie sau außer man hat ein top end gerät aber da kannst auch schon zu oled greifen.

Jede Technik hat seine vor und nachteile. OLED ist mir in SDR Gaming viel zu Dunkel zum Beispiel aber dank W11 kann man HDR überall verwenden daher wurde dieses Problem gelöst dafür verbrauche ich mein Panel wahrscheinlich mit 110% aber das ist es mir wert. Zwar erhöht das HDR den schwarzwert in nicht unterstützten spielen aber das kann man regulieren mit dem Game Optimizer einfach feineinstellung der dunklen berreiche auf minus 20-30 je nach Spiel. Bei nativ hdr und Auto HDR für gewöhnlich kein Problem :). Da hat LG mitgedacht.
Also die FALD LED Displays kommen Oled schon am Nächsten, LG Nanos z.B. aber das ist sowieso erst relevant wenn man 4K auflöst und entsprechend HDR nutzt. Hat bei mir auf dem Schreibtisch nix verloren, 4k OLED HDR hängt als Fernseher an der Wand.
Du vergisst nämlich eins, mal den BurnIn außen vor, für einen Kombinierten Monitorist LED alternativlos, also wie bei mir, ich brauche auch wegen bestimmter beruflichen Nutzungen ein 27" und bin mit 1080P ( persönliches Empfinden ) am Besten dran. Ich habe zwar auch einen 27" 1440p, der nervt mich aber optisch.
In 27" 1080p gibt es gar kein OLED, lediglich in 1440p gibt es 5 oder 6 Stück, die dann aber auch gut und gerne nen tausender Kosten!? for what?
die Textlesbarkeit ist bei OLED beschissen, und 1440p nervt mich, also für mich das schlechteste was passieren kann.

Ergo für mich gibt es gar keine Alternative zu meinem billigen 370€ LG Ultra Gear 27" FHD AH-IPS mit 1ms und toller Helligkeitsverteilung, Farben, Schärfe etc.
Für meine gelegentlichen RDR2 Gaming Attacken ist es also für mich optimal so, wenn man allerdings hauptberuflich Gamer ist, oder von Beruf Sohn, und die Zeit hat den Tag mit ESports mäßigem Gaming zu vergammeln, dann mag ein entsprechender OLED bei ausschließlicher Gaming nutzung Sinn machen, und dann auch in 4k mit HDR und mehr FPS, aber das ist eben nicht die Regel, sondern die absolute Ausnahme.

Und alles andere ist halt wieder marketing Hirnwäsche und fehlende Nutzung des eigenen Hirns
 
Was denn nun, erst ist es ein AMD-Problem und dann wieder nicht.
Nach deiner Aussage muss ich eine RTX 4070 mit lauten Lüftern kaufen, die tieffrequent Rauschen, um das hochfrequente Fiepen nicht zu hören, what?
Wenn ich mir die Bewertungen bei MF anschaue, trifft es wohl AMD, Nvidia und Intel gleichermaßen.
Spulenfiepen ist kein AMD Problem, das ist ein Problem von hohen Lasten, schlechten Coils und zu hohen Stromflüssen, mistigen NTs und falschen Einstellungen. Tritt am häufigsten bei den großen Nvidia Karten auf. Bei AMD waren bekannte Exemplare die 6800er 580er und jetzt die 7800er, aber auch hier oft nur bei den sogenannten MBA Board Karten
 
In wiefern ist OLED schlecht bei Textlesbarkeit? Ich schrieb hier im Forum über den 55 Zoller Oled. Sehe da nichts was schlecht wäre. Ja da muss jeder für seine Anwendungen halt das Beste für sich selbst finden. Ach du redest da viel zu absolut. "Only a sith deals in absolutes." :ROFLMAO:

Ach stell dich jetzt nicht so hin als hättest du einen IQ von 150. Da steht niemanden gut. Wir alle werden von Werbung beeinflusst. Wenn sich wer dann freut und zufrieden ist mit dem Podukt das man erworben hat wo ist dann das Problem?

FÜR MICH geht momentan nichts über OLED. Das mag ja wer anderer vielleicht anders sehen und das ist auch okay.
 
Oben Unten