News NVIDIA macht ernst und mit mehr Leistung Turing obsolet, GeForce RTX 3070 für $499, RTX 3080 für $699 und RTX 3090 für $1499

Da die Ampere` via PCI-4 auf das Sys zugreifen kann, wird der Speicher nicht so eng, wie es einige suggerieren wollen.
Ich zocke in WQHD- und das noch einen Weile (Hab die Monis erst dieses Jahr gekauft und bleiben noch ein Weilchen)
Für mich wäre bei der 3080 (10 vs 11 GB) kein Argument und bisher hatte ich bei 8 GB noch keine Schwierigkeiten.
Wenn du viel V-Ram hast, wird auch viel belegt.

SLI ist schon länger keine Alternative mehr (Micro Ruckeln, Effizienz/Verbrauch, Unterstützung)

Ja, was das SLI und Ruckeln betrifft, könnte das mit einer zu schwachen CPU zusammenhängen, war meistens der Grund für Ruckler, es sei denn, es ist ein Treiberproblem, bei Effizienz und Verbrauch kann ich Dir nur zustimmen, es ist eher ineffizient mit Blick auf die dadurch erreichte Mehrleistung, die Unterstützung hängt halt in erster Linie vom Hersteller und den Treibern ab, aber auch vom verbauten Motherboard und Prozessor, sprich sind beide Slots mit x16 versorgt, oder ist einer davon nur ein elektrischer x8 oder noch schlimmer x4 Slot. Hat die CPU mindestens 40 Lanes um 2 X16Lanes, den Chipsatz und NVME anbinden zu können? Da kann Software im Prinzip nichts dafür, da die CPU die Daten an die Grafikkarten weiterleitet und die beiden über den NV-Link synchron gehalten werden. Das hat mit einem Spiel eigentlich gar nichts zu tun.
 
Sli-Microruckler hängen am Prinzip, primär Hardware - eher weniger Software.
 
.
 
Zuletzt bearbeitet von einem Moderator :
@Joker (AC) hast Du recht, es scheint bei einigen aber wohl zu funktionieren, sonst würde ich nicht wirklich verstehen, warum man sich 2 doch Starke Grafikkarten kauft und in den PC steckt, okay abgesehen davon, daß ich das auch gar nicht verstehen muß, da es jedermans freie Entscheidung ist.
 
Mir persönlich würde SLI viel zu viele potentielle Probleme bringen (Abstürze, Mikroruckler usw) und gerade die modernen Spiele sind kaum dafür ausgeelgt, abgesehen davon, dass ich den Stromverbrauch und die Wärmeentwicklung schlicht als Wahnsinn empfinde. Also für mich wärs jetzt irgendwie nix. Damals, als 3dfx noch 2 Voodoos auf eine Karte geklatscht hat war das noch OK, aber das ist auch 25 Jahre her.
 
Wenn ich mich recht entsinne, hatte Tombman das Thema Mikroruckler erst aufgebracht. Davor war es irgendwie nie ein Thema.
Die Frage wäre, würden Leute heutzutage die Mikroruckler als solche überhaupt wahrnehmen/erkennen wenn sie nicht wüssten das es ein SLI-System ist oder solche Ruckler eher auf das Spiel, irgendwelche Hintergrundtasks, Nachladevorgänge, Treiber, und und und schieben?
Davon abgesehen, SLI verpflichtet ja nicht automatisch zum Kauf zweier Karten. Wer das Optimum für sein Hobby haben wollte, musste dafür schon immer Kompromisse in Kauf nehmen.
 
Wenn ich mich recht entsinne, hatte Tombman das Thema Mikroruckler erst aufgebracht. Davor war es irgendwie nie ein Thema.
Die Frage wäre, würden Leute heutzutage die Mikroruckler als solche überhaupt wahrnehmen/erkennen wenn sie nicht wüssten das es ein SLI-System ist oder solche Ruckler eher auf das Spiel, irgendwelche Hintergrundtasks, Nachladevorgänge, Treiber, und und und schieben?
Davon abgesehen, SLI verpflichtet ja nicht automatisch zum Kauf zweier Karten. Wer das Optimum für sein Hobby haben wollte, musste dafür schon immer Kompromisse in Kauf nehmen.

Sorry ich glaub ich versteh da was falsch, was bitteschön hätte ein Treiber für SLI am System verloren, wenn nur eine Grafikkarte verbaut ist?

Ich denke die Antwort hast Du Dir bereits gegeben.
 
.
 
Zuletzt bearbeitet von einem Moderator :
@RuhrpottKind
Ausgerechnet heute wäre das ein Thema.
Ich zocke inzwischen 3/4 Jahr auf Synchronisierten Monis .....und wenn man auf "normalen" Moni schaut, sieht man das sofort.
(Gesetz dem, V-Sync off und und keine Limiter)
Dann siehst du auch SLI-Shuttering

Hängt vielleicht auch vom Setup und den Bedingungen ab. Jeder Mensch ist in seiner Wahrnehmung halt anders. :)
Es ist schon erstaunlich das wir Filme mit 24fps als flüssig empfinden und Spiele mit 24fps von den meisten wohl als unspielbar angesehen werden würden. Der eine empfindet Konsolenspiele mit 30fps als flüssig, der andere empfindet alles unter 120fps als ruckelig. ☺
 
Filme ruckeln wie sau in schnellen szenen wer sagt es ist flüssig......da werden wir von den Helden zurückgehalten die glaubben es sei flüssig. Danke dafür. games und filme kann man nicht mal ansatzweise vergleichen was fps angeht.


ungewohnt aber viel besser stell dir vor filme werden so geplant in 48 oder 60 usw
 
.
 
Zuletzt bearbeitet von einem Moderator :
@ Joker (AC) Das weiss ich, war auch nur allgemein gesprochen. :)
 
Warum könnt ihr euer OffTopic nicht mal wo anders hin verlegen? Dachte am Anfang, 15 Seiten nach holen wird echt anstrengend, weil sich viele Diskussionen um die neuen GPUs von nVidia drehen. Aber davon könnten locker 5 Seiten und mehr gelöscht werden, da diese im Grunde nur OffTopic sind. Und das ist auch anstrengend, aber eher auf eine negative Art und weise. Echt schrecklich.

Zum Thema:
nVidia hat da eine richtig gute Präsentation abgeliefert. Ob man die Art der Präsentation jetzt gut findet, egal. Fakt ist. Sie bringen mit Ampere das raus, was man hätte von Turing erwarten können, Leistung satt (wenn man dem DF Video glauben schenken mag). Die Preise sind zum Glück nicht gestiegen, was zwar jetzt keine Jubelschreie auslösen sollte (da immer noch zu hoch), aber auch keine Schmährufe.
Was mich persönlich stört ist der Verbrauch. Da hat es mir bei Turing schon besser gefallen, das nVidia da per Hardware gesagt hat: Ab hier ist Schluss.
Aber jetzt wird wieder ohne Rücksicht auf Verluste Watt in die Karten geschoben. Das ist gerade in Punkto Klima negativ zu bewerten und sollte auch grundsätzlich bei Tests kritischer gesehen werden. Sollte AMD in dasselbe Horn blasen bei den BigNavi Karten, gilt natürlich auch da, kritisch bewerten. Aber das erklärt natürlich auch die mögliche starke Leistung, immerhin darf sich eine 3080 gute 100 Watt mehr einverleiben als eine 2080.

Die Speicherausstattung ist wie erwartet mal wieder von nVidia aus (Kosten)gründen bei den normalen Modellen knapp bemessen, weil dann kann man den treudoofen Kunden im Zweifel zweimal das Geld aus der Tasche ziehen, wenn dann in ein paar Monaten die Ti Modelle von 3070 und 3080 herauskommen mit dem doppelten Speicher. Fand ich bei Turing schon eher negativ, ändert sich bei Ampere auch nicht.

Was ich in diesem Thread auch so schön finde, sind die Aussagen, das AMD verkackt hat, weil aus Gründen, recht spannend. Nicht einer hier hat seine Behauptungen belegen können. Weil wie auch, da es ja bis auf wilde Gerüchte nichts greifbares gibt. Natürlich wäre es schön, wenn AMD mal nicht erst am 28.10. die neuen GPUs präsentieren würde. Aber das sich deswegen die üblichen Verdächtigen mal wieder dazu hinreisen lassen haltlose Behauptungen zu verbreiten, in einem Thread in dem es um die neue GPU Generation von nVidia geht, ist eben dieses typische Themenhopping, weil man eh nichts zum Thema zu sagen hat.
 
Auf AMD zu Warten ist durchaus Sinnvoll. Ich kann mir beim besten Willen nicht vorstellen das XBox und PS beide auf schwache Architekturen setzen werden. Bzw anders gesagt wissen wir bereits das Sie um die 2080TI bzw 2080 Super Leistung haben werden. Und das sind nur die Konsolen. AMD wird für seine eigenen Karten noch mehr frei gegeben haben. Wenn dann deren AMD IO oder wie auch immer man es nennen mag super funktioniert und auch so noch ein paar Annehmlichkeiten dabei sind oder der Preis passt... Seh ich nicht warum man nicht auch ne AMD Karte kaufen sollte. Klar, wer ne 3090 Leistung haben will wird vermutlich mit AMD nicht auskommen. Aber besser als 3080? Muss man gucken.
 
igor hat doch eh schon in einem der jüngeren videos was zu BN Leistung/Verbrauch gesagt. Die,dann, aktuellen 270-75W weiß ich noch, obs 3070 oder 80 Niveau war weiß ich nimmer.
 
Ja aber auch Igor wird nicht alles immer ganz genau wissen. Vielleicht basteln die Damen und Herren grad an einer Maximal Navi 2 die dann 330 Watt verbrät und locker ne 3080 in den Schatten stellt. Dabei aber weniger heiß wird und oder kleiner ist. Igor weiß ohne Frage vieles und gibt nur das Preis was auch wirklich gesichert ist. So meine Einschätzung. Aber auch er kann nicht alles wissen.
 
hab ich auch nicht behauptet, nur wollt ich eine weitere "BN = Fail, just buy NV" flut abwürgen.
 
Bei Youtube kann man ja jede Menge "Spekulatius Videos" gucken, die sich mit der mutmaßlichen Leistung der Big Navi Karten im Vergleich zu den aktuell vorgestellten Nvidia Karten beschäftigen, wobei hier bei Letzteren ja ebenfalls bislang noch keine unabhängigen Tests vorhanden sind (3080) und vom Consumer-"Vollausbau" der 3090 schon gar nicht. Da ist viel Bullshit dabei, aber durchweg auch rational begründbare Überlegungen.

Was mit auffällt ist, dass AMD in der Vergangenheit nie verlegen war, die Spannung hochzuhalten und teilweise schon absonderliche Aussagen zu Leitungsfähigkeit im Vergleich zum Mitbewerber getätigt hat. Ich möchte hier nur exemplarisch and den Bulldozer 8150 erinnern - so ein Teil habe ich Letztens verschenkt.
Im CPU Bereich gibt es keine Diskussion - bei Big Navi verhält sich AMD im Moment gerade auffällig schweigsam - und das zu einer Zeit, in der es wichtig wäre, Kunden vom voreiligen Kauf eine Nvidia Karte abzuhalten, nachdem AMD hier doch noch 2 Monate Zeit braucht.

Unter der Annahme - und das ist meine Privatmeinung - dass AMD durchaus sehr genau weiß oder zumindest extrapolieren kann - wo sie leistungstechnisch stehen, sorgt das bei mir zumindest für Verwunderung, denn der Ball liegt seit letzter Woche auf dem Feld.
 
Ehry17VU4AIM2za.png

wenn das die grosse navi ist war es das mit konkurrenzkampf und das ganz ohne super refresh. 2080 TI Stock haben sie zumindest....also wieder 1 Gen behind
 
Tja, das bleibt wohl die Frage im trüben Spekulations"see".
 
Oben Unten