Wer jetzt schon kauft in einer Zeit in der Nvidia quasi konkurrenzlos am Markt schalten und walten kann wie sie Lustig sind weil AMDs Konkurrenz in Form von RX7800 und 7700 immer noch nicht am Markt sind, dem ist in meinen Augen eh nicht mehr zu helfen, nach einer 7600XT mit ebenfalls 16gb siehts ja wohl auch nicht gerade danach aus ..Und dafür 100EU mehr.....
Ja, der Preis macht's bzw. verdirbt es. Wobei die 4060 eben durch NVIDIAs Entscheidung, den Bus sehr eng zu halten, selten bis nie eine Chance haben wird, einer 4070 mit 12 GB auch nur annähernd das Wasser zu reichen. Und da gebe ich @Igor Wallossek völlig recht; die Beschränkung der 4060 auf 4 Memory Kontroller (64 Bit Breite) begrenzt den möglichen Mehrwert der 16 GB extrem. Da hat sich NVIDIA selbst ein Bein gestellt, allerdings verdienen die im Moment ja wie blöde mit AI, und Grafik ist eher ferner liefen.Alles eine Frage des Preises, aktuell ist die 4060 TI 16GB schlicht zu teuer, da man gute 200€ mehr ausgeben muss. Ist die Differenz 50-70€ und der Abstabd zur 4070 weit genug, finde ich die 16GB durchaus interessant. Alleine schon für Spiele wie Diablo die wenig performance aber viel Speicher benötigen. Das wird in den kommenden Jahren sicher nicht besser. Bekanntlich kostet es wenig GPU Leistung die Texturendetails hoch zu stellen, andere Settings müssen natürlich bei Bedarf reduziert werden.
Ich finde man sollte halt eines nicht vergessen wenn man die 6800er Karten mit der 4060Ti vergleicht und das ist nunmal das Thema Stromverbrauch, der spielt eben leider bei den genannten AMD Karten halt auch in einer anderen Liga, und ob sich die Mehrleistung langfristig noch rechnet bei den heutigen Strompreisen wage ich ehrlichgesagt zu bezweifeln ...Damals bekam man noch nativ viel Leistung fürs Geld. Meine RX 6800 bekam ich neu für 550,- €. Die hat immernoch wesentlich mehr rasterized-Leistung als eine RTX 4060 Ti 16 GB.
Ich denke das Verkaufsargument lautet "Frame Generation". Falls AMD da kontern kann sinken die Preise.Ich finde man sollte halt eines nicht vergessen wenn man die 6800er Karten mit der 4060Ti vergleicht und das ist nunmal das Thema Stromverbrauch, der spielt eben leider bei den genannten AMD Karten halt auch in einer anderen Liga, und ob sich die Mehrleistung langfristig noch rechnet bei den heutigen Strompreisen wage ich ehrlichgesagt zu bezweifeln ...
Die 6750XT kostet das gleiche, hat 12GB VRAM und ist genau so schnell.Wer jetzt schon kauft in einer Zeit in der Nvidia quasi konkurrenzlos am Markt schalten und walten kann wie sie Lustig sind weil AMDs Konkurrenz in Form von RX7800 und 7700 immer noch nicht am Markt sind, dem ist in meinen Augen eh nicht mehr zu helfen, nach einer 7600XT mit ebenfalls 16gb siehts ja wohl auch nicht gerade
Würde ich mir trotzdem nicht holen bzw empfehlen, hier wurde ja ausserdem nur die 8gb getestet, mal davon ab sind die 0.1% bei einigen Spielen bei der geforce besserDie 6750XT kostet das gleiche, hat 12GB VRAM und ist genau so schnell.
Selbst die 7000er haben noch etwas weniger RT Leistung und die 6000er brauchen noch etwas mehr Strom, aber sonnst kann man immer noch zu AMD greifen.
Die 16GB wurde ja schon Oben verlinkt, bringt aber nicht wirklich mehr bei 100EU Aufpreis und für unter 500EU bekommst schon ne RX6800 die schon fast so schnell ist wie ne 4070.Würde ich mir trotzdem nicht holen bzw empfehlen, hier wurde ja ausserdem nur die 8gb getestet, mal davon ab sind die 0.1% bei einigen Spielen bei der geforce besser
Stromverbrauch grob ca 140 zu 210 Watt spricht auch nicht gerade für die Radeon, muss halt aber am Ende jeder selber wissen was er will und wofür er sein Geld ausgbit, für die die eben nur ungern den "Bösen" nvidia ihr Geld geben und unbedingt ne AMD Radeon müssen kann ich nur empfehlen bis nächsten Monat auf die RX7800/7700 zu warten, jetzt noch ne Last gen zu kaufen ergibt in meinen Augen keinen Sinn, dafür müssten die Preise noch deutlich stärker fallen oder man begnügt sich mit einer gebrauchten
Ich finde man sollte halt eines nicht vergessen wenn man die 6800er Karten mit der 4060Ti vergleicht und das ist nunmal das Thema Stromverbrauch, der spielt eben leider bei den genannten AMD Karten halt auch in einer anderen Liga, und ob sich die Mehrleistung langfristig noch rechnet bei den heutigen Strompreisen wage ich ehrlichgesagt zu bezweifeln ...
....
Das kann ich mir in dem Sinne erklären, das der verbaute Speichercontroller eigtl nur für 8GB ausgelgt ist.. und die auch keine Hardwareanspassungen vorgenommen haben.. sonst das nur mit viel Trickserei so hingebogen haben, das er auch die 16GB nimmt^^
Da hast du mich missverstanden. Ich habe kein Problem mit grossen VRAM Hunger. Von mir aus können Spiele 20GB VRAM Schlucken und ich muss mir eine 4090 kaufen. Was mich nervt ist folgendes:Außerdem ist der "haarsträubende" VRAM-Hunger aus einer anderen Perspektive zu betrachten: wie lange gibts es schon 8 GB-Karten? Meine Asus ROG Strix OC mit 8 GB habe ich 2016 (!) gekauft. Das ist bereits 7 Jahre her.
Das hat Igor doch mal getestet: https://www.computerbase.de/2022-11...ation-ist-mit-amd-fsr-und-intel-xess-nutzbar/Ich denke das Verkaufsargument lautet "Frame Generation". Falls AMD da kontern kann sinken die Preise.
Was ist die Kompensation niedriger Bildraten?
Die Kompensation niedriger Bildraten (Low Framerate Compensation – LCF) macht es möglich, dass die FreeSync Technologie dann arbeitet, wenn die Bildrate unter die Mindestbildrate des Monitors fällt. Fällt die Bildrate unter die Mindestbildrate des Monitors, werden Bilder (Frames) dupliziert und mehrfach angezeigt, sodass sie der Bildrate angeglichen werden, die im Bereich des Monitors liegt. Wenn ein Monitor beispielsweise eine Aktualisierungsrate zwischen 60 und 144 Hz hat, könnten die Bilder in einem Spiel mit 40 Bildern pro Sekunde (BpS) verdoppelt werden. Sie werden dann mit 80 Hz dargestellt, sodass der Monitor synchronisieren kann. Ein Monitor mit LCF beseitigt im Endeffekt die Grenze der Mindest-Aktualisierungsrate. Alle Monitore der FreeSync Premium und FreeSync Premium Pro Reihen sind auf die Einhaltung der verpflichtenden LCF-Anforderungen zertifiziert.
Nein. FG ist etwas anderes. Mit FSR 3 wollte AMD bis Mitte des Jahres kontern. Im Grunde AI die Zwischenbilder dazu rechnet. Das gibt es zur Zeit nur bei Nvidia und erst ab RTX 4000.Das hat Igor doch mal getestet: https://www.computerbase.de/2022-11...ation-ist-mit-amd-fsr-und-intel-xess-nutzbar/
Im Grunde gibt es das schon länger bei AMD und ist Bestandteil der LFC vom FreeSync Premium & Pro
Nein, das macht das selbe.Nein. FG ist etwas anderes. Mit FSR 3 wollte AMD bis Mitte des Jahres kontern. Im Grunde AI die Zwischenbilder dazu rechnet. Das gibt es zur Zeit nur bei Nvidia und erst ab RTX 4000.