Grundlagenartikel Der Turing des Monats: Zusammenfassung zu Nvidias RTX | igorsLAB

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
10.105
Bewertungspunkte
18.594
Punkte
114
Alter
59
Standort
Labor
Unser täglich Turing gib uns heute? Ich kann es eigentlich schon fast nicht mehr hören, muss aber gleichwohl jeden Tag damit leben, weil es nun mal die Befindlichkeiten alle Leser berührt. Da kann und darf man sich nicht davor verschließen und alles galant ausblenden. Ich habe unlängst ein Gespräch mit einem Distrubutor geführt und am Ende waren alle Beteiligten der Meinung, dass die Welt im Moment, zumindest preislich gesehen, Kopf steht. Oder andersherum ausgedrückt: die Leute scheinen (zu viel) Geld zu haben und andere, der Kindsvater dieser neuen Technologien vornweg, nehmen diesen Umstand natürlich nur allzugern und dankend in Kauf. Verwerflich ist das keineswegs, aber es stimmt nachdenklich...

Teaser-List.jpg



>>> Den Originalartikel lesen <<<
 
"Die Nach- und Anfragen zur GeForce RTX 2080 Ti, also der deutlich luxuriöseren Escort-Halbschwester aus dem Gamer-Lebensabschnittspartner-Business sind demnach, zumindest bei diesem Händler, bis zu fünfmal so hoch, wie nach der anscheinend weniger attraktiven Schwester, deren kleinere Makel man ob des finanziellen Einsatzes scheinbar weniger hinzunehmen gewogen ist."

Tja, so vie zum Thema "Turing ist viel zu teuer"... Da braucht man erstmal auch nicht auf sinkende Preise zu hoffen und dann ist schon bald Weihnachten.

Zwei kleine Tippfehler hab ich entdeckt: Handicap (statt Handycap) und “Just buy it!” (statt “Just by it!”).
 
Gefixt, Danke. :)
 
Der Typ bei Gamers Nexus behauptet, dass er und Jay ein Custom Bios besitzen, das bis 154 Prozent Powerlimit gehen. Kann da was dran sein?
 
Es kann schon sein, dass NV für spezielle OC Events und LN2 sowas verteilt. Aber - bereits ab ca. 360 Watt geht der Mainboard-Slot über die erlaubten 5.5 Ampere beim Ref-Board. Ich habe endlich eine Karte gefunden, die bis 377 Watt geht. Immerhin sind 380 Watt im BIOS als PT hinzerlegt. Ich werde wohl was dazu schreiben. :)
 
Ich dachte die neuen Karten könnten das so intelligent regeln? Den Mainboard slot sollte man doch sicher irgendwie abriegeln können und eher bei den 8pins holen? Ich frage mich, warum man sich bei Karten in diesen Regionen überhaupt noch am Slot bedient, ausser vielleicht für Lüfter oder so.
 
377 Watt sind bei 2x 8 Pin eh über Specs. In beiden Situationen
 
Wobei die Spec zumindest für die PCIe Kabel sehr vorsichtig ist.
150 Watt : 12V = 12,5A : 3 sind nur 4,16 Ampere pro Ader.
 
377 Watt sind bei 2x 8 Pin eh über Specs. In beiden Situationen
Das Schon. Aber lieber überlaste ich meinen Kabelsatz (der das locker aushält), sofern die 12V-Schiene vom Netzteil das hergibt, als dass ich mir die PCI-e Versorgung vom Mainboard, bzw. die zugehörigen Bahnen auf der GPU zerstöre.
Ich mein, klar, wie es dann auf der GPU nach dem 8-Pin Stecker weitergeht, ist natürlich die andere Frage.
 
Bei 380 Watt Boardpower funktioniert das Balancing nicht mehr so recht und der Mainboard-Slot... Ich werde etwas dazu schreiben. Da ich die ganzen Messwerte habe, lässt sich so etwas auch gut belegen. ;)

Das ist jetzt nicht dramatisch, aber die Spitzen sind schon fies. Die PCI-SIG sagt 5.5 Ampere.

1538289481479.png
 
Zuletzt bearbeitet :
@Igor Wallossek Mein Lieber, habt ihr die oder eine RTX 2080/Ti eigentlich noch im Hause, oder mußte diese wieder die Rückreise antreten?
Wenn Ersteres der Fall ist, wäre es möglich, daß Ihr in igorsLAB (ich find‘s genial! bgrin15x18.gif) einmal testet, ob AMD's FreeSync™ jetzt auch mit nVidia-Grafikkarten funktioniert?

Augenscheinlich tut es das neuerlich, da nVidia mit der RTX 20x0-Serie den leise still und heimlich die Spezifikationen des Displayport 1.4a-Standards unterstützt. Ist es möglich das einmal zu erläutern oder weiter auszuführen – insbesondere um das wie und warum? FreeSync™ ist ja in diesem Zusammenhang lediglich AMD's ursächliche Variante und Name der Unterstützung für VESA's VRR-Funktion (Variable-refresh-rate).


In diesem Sinne

Smartcom
 
Augenscheinlich tut es das neuerlich, da nVidia mit der RTX 20x0-Serie den leise still und heimlich die Spezifikationen des Displayport 1.4a-Standards unterstützt. Ist es möglich das einmal zu erläutern oder weiter auszuführen – insbesondere um das wie und warum? FreeSync™ ist ja in diesem Zusammenhang lediglich AMD's ursächliche Variante und Name der Unterstützung für VESA's VRR-Funktion (Variable-refresh-rate).


In diesem Sinne

Smartcom
Das ist nicht beschränkt auf Turing, sondern geht mit diesem Treiber auch mit älteren Generationen...
 
Also geht's ab dem 411.70 mit jeder Karte? Habe ich gerade Verständnisprobleme, oder wird dafür keine Hardware voraus gesetzt?


In diesem Sinne

Smartcom
 
Ich gehe mal davon aus, dass die Hardwareanforderung die Geschichte auf die Modelle beschränkt, welche auch G-Sync können. Mit einer GTX kleiner 650TI wirst du dann kein Adaptive Sync vom "Feind" nutzen können ;) //edit Korrektur des Modells.

@Igor Wallossek
Ich habe da noch einen Vertipper entdeckt, unter News und Aufreger:
Sind wir RTX On oder RTF Off?
RTF :) Oder sollte das so, weil es im Originalartikel auch schon so steht?
 
Zuletzt bearbeitet :
Mittlerweile habe ich einige Karten, aber bedauerlicherweise keinen G-Sync oder Freesync-Monitor im Moment. Den muss ich mal wieder eintreiben gehen. Karten sind da kein Problem. :)
 
War wohl eh ein Fehlalarm.
 
Nun lieber Igor,

Sobald sich der Erste Orkan, oder sagen wir es schlichter, und nennen es Sturm
auf die RTX 2080TI Karten,- und RTX 2080 Karten gelegt hat, werden sich diese Karten schwierig(er) absetzen können zu der Preisgestaltung von
Nvidia, aber dies soll nicht unser Problem sein oder werden.
Leid tun uns vielleicht die Early Adapter Preise welche man zahlen musste bis sich Pascal abverkauft hat und wohl nach Weihnachten sprich nach Jahresbeginn die RTX 649 bis 699 und RTX TI für 899 bis 949 Euro anbieten könnte.

Vorausgesetzt RTX und DSAA wird sich durchsetzen können.
 
Logischer ist imo die Annahme, dass die Karten teurer werden, wenn es keine Konkurrenzprodukte aus dem eigenen Haus mehr gibt und AMD bis dahin nix zu bieten hat.
 
Ich glaub nicht, dass das DS AA ein Kaufargument sein wird. Ich finde es qualitativ schlecht. Upsampeln wird immer schlecht bleiben und fertig. Ob mit oder ohne Ai.
 
Oben Unten