Danke für deine nüchterne Einschätzung.
Folgende mini Vorteile sehe ich gegenüber einer RX6800 zusätzlich:
- Idle power consumption
- NVIDIA anstelle von AMD Treibern
- NVIDIA reflex
- ULMB2 falls ich mir kein OLED kaufe
Dafür nehme ich 20% weniger Leistung in Kauf. Mir ist aber klar, damit bin ich eine laute Minderheitsmeinung.
Wer sich die neusten Quartalszahlen von NVIDIA anschaut, versteht aber auch, warum es N schlicht egal sein kann, ob sich die 4060 verkauft oder nicht. Low und midrange GPU ist für die Verschwendung. Ai ist der neue heisse 3D Drucker, Blockchain, Cloud, Hype und übertrifft Gaming+Workstation nicht nur beim Umsatz, sondern auch bezüglich Marge.
Nvidia anstelle von AMD-Treibern? Das ist wohl zu allgemein gefasst. Wie schon an anderer Stelle geschrieben: ich hatte nur einmal Probleme mit AMD-Treibern und das war zu RX 480 Zeiten. Das gab es bei Nvidia-Treibern genauso. Oder beziehst du dich auf die momentanen "known Issues"?
AMD bietet im Endeffekt etwas ähnliches wie Nvidia Reflex, das nennt sich hier Radeon Anti Lag. Funktioniert wunderbar.
Eine 4060 -auch mit 16 GB- vergleicht man auch nicht mit einer RX 6800, da letzere nach wie vor eine Klasse höher angesiedelt ist. Das merkt man vor allem bei rasterized 3D. Da gehört die 4060 16 GB eher mit der RX 6700 XT/RX 6750 XT verglichen.
Dass RT das Metier von Nvidia ist, wissen wir ja alle. Aber nativ (ohne DLSS, FG usw.) hat auch die 4060 zu wenig Leistung dafür. Wie schon an anderer Stelle richtig erkannt: es ist eigentlich eine 4050 auf Steroiden. Dafür ist der Preis einfach unverschämt und das ist auch der Kritikpunkt, der der Karte das Genick bricht, indem sie bei den Händlern wie Blei in den Regalen liegt. Für mich völlig nachvollziehbar.
Für 399,- € wäre die Karte ok gewesen.
Und Software-Features? Es kommt von AMD jetzt FSR 3 mit ihrer Frame Generation, welches sogar open source ist - sprich: es funktioniert sogar mit einer RX 5000 oder einer Geforce 1080.
Zudem setzt Nvidia nach wie vor auf ein veraltetes, monolithisches Chipdesign. Vor allem, was KI-Berechnungen betrifft, wird aber in Zukunft eher ein Chiplet-Design gefragt sein, da dieses u.a. hier z.B. mehr Performance bringt. Vielleicht kommt das bei Nvidia ja mit den RTX 5XXX-Karten.
Nvidia hat bei den aktuellen Zahlen Glück, dass es ihnen egal sein kann, dass sich die 4060 schlecht verkauft. Aber man kann sich nicht ewig auf seinen Lorbeeren ausruhen. Ab der 4070 (leider mit zu wenig VRAM für die Zukunft) liefert Nvidia meiner Ansicht nach runde Produkte, die aber (wie auch AMD momentan) zu teuer sind.
Bei der aktuellen Generation würde ich, wenn Nvidia, mir lieber eine RTX 4080 oder 4090 holen, da diese immernoch das beste P/L-Verhältnis bieten. Bei AMD entsprechend RX 7900 XT/XTX. Darunter ist alles zu teuer bei zu schwacher, nativer Rohleistung ohne irgendwelche Software-Hilfsmittel.
Das trifft leider auch (oder gerade eben) auf die RTX 4060 und darunter auf die RX 7600 zu.
Das einzige, wo die 4060 bei mir punkten würde, wäre die Effizienz. Aber nur dafür würde ich mit Sicherheit nicht so einen Batzen Geld ausgeben.