AI/KI Gaming Grafikkarten Testberichte VGA

NVIDIA GeForce RTX 5080 Founders Edition im Test – GeForce RTX 4080 Ti Super mit Blackwell-Genen

Spannungsversorgung und Platine

Auch wenn ich heute noch keinen Teardown mache, will ich doch an dieser Stelle noch kurz auf den Artikel morgen verweisen, wo ich einen kompletten Teardown einer Boardpartnerkarte machen werde, der zumindest die Art der Spannungsversorgung als Parallele zur FE-Karte näher beleuchten wird. Da bitte ich noch etwas um Geduld.

Probleme bei der Messung der Leistungsaufnahme mit Riser-Karten

Erst einmal gar nichts, denn PCIe 5.0 stellt durch seine hohen Datenübertragungsraten erhebliche Herausforderungen an die Signalintegrität, insbesondere in Verbindung mit zusätzlichen Komponenten wie Riser-Kabeln oder internen Verbindungen innerhalb der Grafikkarte. Während frühere Generationen von PCIe toleranter gegenüber Signalstörungen waren, erfordert PCIe 5.0 aufgrund der Verdopplung der Datenrate auf 32 GT/s eine deutlich präzisere Signalübertragung. Jede zusätzliche Verbindung – sei es ein Riser-Kabel oder ein internes Verbindungskabel zwischen der Hauptplatine der Grafikkarte und ihrem PCIe-Anschluss – kann potenzielle Signalverluste, Reflektionen oder Verzerrungen verursachen, die die Stabilität beeinträchtigen.

Ein häufig auftretendes Problem ist, dass solche Verbindungen die Impedanz des Signalsystems verändern. Diese Veränderungen führen zu einer verminderten Signalqualität, insbesondere bei längeren oder schlecht abgeschirmten Kabeln. Ein weiteres Problem ergibt sich aus der potenziellen Einführung von Crosstalk zwischen parallelen Leitungen, wenn diese nicht ausreichend isoliert sind. In der Praxis äußern sich solche Störungen in Instabilitäten, wie etwa Bootproblemen, unerwarteten Abstürzen oder der Unfähigkeit des Systems, die Grafikkarte korrekt zu initialisieren.

In der Diskussion um Riser-Kabel und -Adapter zeigt sich, dass nicht nur Anwender, sondern auch Entwicklerteams wie NVIDIA mit der Komplexität dieser Thematik zu kämpfen haben. Die Erfahrungen mit Bootproblemen bei der RTX 5090 in Verbindung mit Riser-Kabeln oder sogar NVIDIAs PCAT-Adapter der ersten Generation (der neue tat es bisher) verdeutlichen, wie kritisch die Signalintegrität für die korrekte Funktion dieser Hardware ist. Das Problem wird durch die Tatsache verschärft, dass die Founders Edition intern eine Kabelverbindung zwischen der Hauptplatine der Karte und ihrem PCIe-Anschluss nutzt, was zusätzlichen Widerstand und mögliche Signalverluste einführt. Diese Designentscheidung kann zwar aus ästhetischen Gründen getroffen werden, führt jedoch zu einer erhöhten Anfälligkeit für Störungen.

Dies führt zu einer grundlegenden Debatte über die Priorisierung von Design gegenüber Funktion. Während ansprechende Optik und innovative Formfaktoren wichtig sind, sollte „Form follows Function“ oberste Priorität haben. Technisch gesehen bedeutet dies, dass die Hardware so konzipiert sein muss, dass sie eine optimale Leistung unter realen Betriebsbedingungen erbringt, bevor ästhetische Aspekte berücksichtigt werden. Ein Design, das zugunsten von optischen oder mechanischen Stunts Kompromisse bei der Signalintegrität eingeht, ist nicht nachhaltig und kann die Benutzererfahrung erheblich beeinträchtigen. Ich musste mir am Ende eine neue Lösung zusammenlöten, aber was macht der Normaluser, der seine Karte vielleicht senkrecht stehend im Gehäuse verbauen und ein zusätzliches Riser-Kabel nutzen will?

Workaround: Man setzt die PCIe-Version im BIOS auf Gen3 oder Gen 4 und nutzt dafür zum Bootvorgang entweder die iGPU oder eine ältere Karte. Die Leistungseinbußen liegen bei Gen 3 ungefähr bei 10 bis 15 Prozent (indiskutabel) und bei Gen 4 zwischen 0 und 4 Prozent. Oder man taktet den Bus um 1 bis 2 MHz runter.

Gesamtleistungsaufnahme und Normeinhaltung in der Praxis

Die Leistungsaufnahme im Idle-Betrieb von etwa 13 bis 14 Watt zeigt, dass NVIDIA seine Treiber weiter optimiert hat. Besonders bemerkenswert ist die Reduktion bei der RTX 5090, deren Idle-Verbrauch von vormals 34 Watt auf etwas über 20 Watt gesenkt wurde. Unter Last bewegen sich die gemessenen Werte im erwarteten Rahmen. In einigen anspruchsvollen Spielen erreicht die maximale Leistungsaufnahme bis zu 330 Watt, bleibt dabei jedoch unterhalb des TDP-Limits.

Interessant ist, dass die Leistungsaufnahme in niedrigeren Auflösungen wie Full-HD und QHD nochmals sparsamer ausfällt. Dies könnte auf eine verbesserte Effizienz bei der Ressourcennutzung in diesen Modi hindeuten, da die GPU weniger Rechenaufwand für die Verarbeitung der geringeren Pixelanzahl benötigt. Zusätzlich trägt der Einsatz von DLSS, insbesondere in Kombination mit Multi-Frame-Generation (MFG), dazu bei, den Energieverbrauch weiter zu senken. Durch die gezielte Reduzierung der Renderlast mittels KI-gestützter Technologien wird die GPU spürbar entlastet, ohne dass die Bildqualität signifikant leidet.

Die Bedeutung von Lastspitzen, die in einigen Szenarien über die genannten Werte hinausgehen können, erfordert eine detaillierte Analyse. Solche kurzfristigen Leistungsspitzen könnten wertvolle Einblicke in den Energiebedarf bei spezifischen grafischen Anforderungen liefern und dabei helfen, Optimierungspotenziale für zukünftige Treiberversionen und Hardwaredesigns zu identifizieren. Eine präzisere Betrachtung dieser Spitzenbelastungen und deren Auswirkungen auf die Gesamteffizienz wird im weiteren Verlauf näher beleuchtet.

Der Mainboardslot, auch bekannt als PCIe-Steckplatz (PEG: PCI Express Graphics), ist gemäß der PCI-SIG-Norm für eine maximale Stromstärke von 5,5 Ampere bei einer Spannung von 12 Volt ausgelegt. Dies entspricht einer maximalen Leistungsaufnahme von 66 Watt, die direkt über den Slot bereitgestellt werden kann. Die PCI-SIG-Norm dient als Grundlage, um eine einheitliche und zuverlässige Energieversorgung über den Mainboardslot sicherzustellen und dabei die Systemstabilität zu wahren. Der spezifizierte Grenzwert von 5,5 Ampere berücksichtigt auch kurzzeitige Spitzenlasten, die bei abrupten Lastwechseln auftreten können. Diese Lastspitzen dürfen das System jedoch weder überlasten noch andere Komponenten durch Spannungsschwankungen beeinträchtigen.

Ein zentraler Vorteil dieser Norm ist die Sicherstellung der Interoperabilität und Kompatibilität zwischen Mainboards und Grafikkarten unterschiedlicher Hersteller. Klare Vorgaben zur maximalen Belastung verhindern potenzielle Schäden an Leiterbahnen und Steckverbindern des Mainboards, die durch übermäßige Ströme entstehen könnten. Durch die moderate Beanspruchung des Slots wird nicht nur die Systemstabilität gewährleistet, sondern auch die Langlebigkeit der betroffenen Hardwarekomponenten erhöht.

Ein weiterer Vorteil dieser Begrenzung ist die Möglichkeit, zusätzliche Stromversorgung über externe Anschlüsse bereitzustellen, um die Anforderungen leistungsstarker Grafikkarten zu erfüllen. Bei der betrachteten Grafikkarte, die selbst bei der Verwendung des modernen 12V2X6-Stromsteckerdesigns die Grenzen der Stromversorgung nicht ausreizt, zeigt sich eine besonders effiziente Lastverteilung. Der PEG-Slot wird hierbei lediglich mit maximal 0,8 Ampere belastet, was weniger als 10 Watt entspricht. Diese minimale Beanspruchung des Mainboardslots unterstreicht die Effizienz der Karte und reduziert potenzielle thermische Belastungen oder Schäden am Mainboard erheblich. Damit trägt die Karte nicht nur zur Systemstabilität bei, sondern zeigt auch ein durchdachtes Energiemanagement, das die Last zwischen verschiedenen Stromquellen optimal verteilt.

 

 

181 Antworten

Kommentar

Lade neue Kommentare

M
Maxminator

Mitglied

78 Kommentare 51 Likes

Sehr solide aber dennoch etwas enttäuschend :( Leider!

View image at the forums

Antwort 4 Likes

Case39

Urgestein

2,653 Kommentare 1,027 Likes

Da ist ja das Review wieder😂
Ja, nette Karte....

Antwort 1 Like

H
HerrFornit

Mitglied

87 Kommentare 37 Likes

Oder:
Technologischer Fortschritt ohne Kaufanreiz ;)

Antwort 4 Likes

R
RX Vega_1975

Urgestein

642 Kommentare 108 Likes

AMD scheint alles richtig gemacht zu haben
Termin verschoben stinkt mir gewaltig zwar von AMD´ Marketing und ansonsten TOP CEO Lisa Su
aber Nvidia Schachzug zuerst die RTX 5090 zu Releasen um vom Shit-Storm der 5080 abzulenken!

Diese Generation hätte sich NV fast schenken können,- OK Features hin oder her und RT dies stimmt schon noch halbwegs.
Zudem so gut wie nicht Lieferbar die Karten!

Antwort 5 Likes

Lagavulin

Veteran

302 Kommentare 260 Likes

Vielen Dank für den Test.

Beim einleitenden Satz unter Netzteilempfehlung "Ein Netzteil mit einer Nennleistung von 1000 Watt, das die Anforderungen der ATX 3.1-Norm erfüllt, stellt eine geeignete Wahl dar" habe ich erst mal gestutzt - aber weiter unten im Text wird dann ja 850 W empfohlen.

Antwort Gefällt mir

Metamorph83

Mitglied

22 Kommentare 27 Likes

View image at the forums

Hat jemand schon die 5070 parallel getestet? :D

Antwort Gefällt mir

M
MGFirewater

Veteran

206 Kommentare 83 Likes

@Igor Wallossek Seite 12 kleiner zahlendreher
danke für den test, wenn man von rx6800 kommt und zurück zu team green will, finde ich die 5080fe durchaus interessant.
ich mag das kühlkonzept der FE was mit 360 watt ja auch gut funktioniert. die Leistungsreserven (OC) ohne TDP Brechstange, die Effektivität ist gut und deutlich besser als bei AMD. ich brauche cuda auch beruflich (da würde ich mir noch Nachtests wünschen, u.a. adobe premiere, photoshop neuronale filter usw.) klar wäre sie mir für 500€ weniger lieber, aber damit muss man sich leider abfinden.

Erstaunlich fand ich die zuwachse der 5090 bei stable diffuison, und auch hier wird de 5080 die 4080s abhängen, auch wenn ich dazu noch keine tests geslesen habe quelle

Antwort Gefällt mir

olligo

Veteran

344 Kommentare 125 Likes

Erst einmal danke für den tollen Artikel Igor!
Von der Karte hätte ich mir ein klein wenig mehr rasterizing performance erhofft, ansonsten liefert sie mit MFG ja genug Power für alle kommenden AAA Titel mit dem eingebauten Feature.
Ich konnte mir schon denken, dass die 5080 mit MFG mehr als genug Frames liefert, auch wenn wir durch Fritz Hunters Test letztens erfahren haben, dass die Latenz deutlich höher ist und die angezeigte FPS Anzeige sich schon anders anfühlt, als es die Zahl der FPS einem suggerieren möchte.

Wo geht die Reise der Grafikkarten in Zukunft hin? Wird SLI(NVlink) in Zukunft folgen oder doch irgendwann wieder ein PCB mit 2 Grafikchips gebaut?
Wir sind gespannt!

Antwort Gefällt mir

SchmoWu

Veteran

113 Kommentare 38 Likes

Wieder vielen Dank für den Test @Igor Wallossek

Antwort Gefällt mir

Feen-Schubser

Veteran

195 Kommentare 103 Likes

@Igor Wallossek
Seite 10 steht 5090 FE beim Bild vom Stromverbrauch. :unsure:
Damit sprichst du mir aus dem Herzen, machen wir das beste daraus.

Dankeschön für den Test.
Mal sehen wie sich das entwickelt.
Verfügbarkeit, Preis, Custom Designs...

Mal sehen was von der Steuer zurück kommt 🫣 :LOL:

Antwort Gefällt mir

Dragon of Luck

Veteran

175 Kommentare 133 Likes

Unter 10% Mehrleistung im Rasterizing. Geil. Da kannste auch einfach ne 4080 übertakten :ROFLMAO:

Antwort 3 Likes

HerrRossi

Urgestein

6,979 Kommentare 2,363 Likes

Der Flop ist sogar noch größer als der der 5090.
Schade, dass AMD nicht kontern kann.

Antwort 4 Likes

Rudi69

Mitglied

36 Kommentare 32 Likes

Super Test(y)🤖
Auch hier bin ich mit der 5080 insgesamt enttäuscht. Nur wenige vereinzelte FPS vor der 4080 (Super):cry: Die 7900 XTX gab es letztes Jahr mehrfach für um die 800€.

🔥💥Wer mal einen (scheinbar) von Nvidia finanzierten Test einer RTX 5080 Grafikkarte sehen will, schaut einfach bei Computerbase vorbei. Der Fortschirtt der 5080 gegenüber der 4080Super ist real so winzig und gering, das Computerbase (scheinbar im Auftrag von Nvidia?) ausschließlich und überall %Prozent-Angaben macht.
Denn diese immer und immer wieder mantra-artig wiederholten Prozent-Angaben, sind im Vergleich zu den einzig für den Gamer hilfreichen Angaben/Zahlen, nämlich FPS, immer im schönen ansehbaren zweistelligen Bereich, 10%, 13% 16%. :poop: Diese schön aussehenden hohen Angaben in Prozent, werden umgewandelt in FPS dann pötzlich nur noch einstellig,, 3 FPS, 5 FPS, 7 FPS etc.:ROFLMAO:
Mit diesen für den Gamer nutzlosen hohen % Angaben, manipuliert und täuscht Computerbase im vollen Bewusstsein den User über den reallen extrem geringen Leistungszuwachs einer NVIDIA Grafikkarte. Bei dem aktuellen Computerbase Test der RTX 5080 ist das so deutlich sichbar wie nie zuvor.

Antwort 4 Likes

F
Falcon

Veteran

147 Kommentare 157 Likes

Das die 5080 ohne MFG und Co. an die 4090 herankommen würde war klar.
Aber das der Kühler keine ähnlich aufwändig konstruierte Kühllösung ist wie die 5090 finde ich echt schwach.
Keine Vapor Chamber, kein Flüssigmetal und mMn viel zu laut für popelige 360W.

Antwort Gefällt mir

Dragon of Luck

Veteran

175 Kommentare 133 Likes

Das AMD sich aus dem High-End zurückgezogen hat, wird der Grund für die wenige Mehrleistung sein.
Ohne Konkurrenz gibts keinen Grund für NV Gas zu geben.

Antwort Gefällt mir

B
Besterino

Urgestein

7,334 Kommentare 3,876 Likes

Ich bin ja jetzt echt mal gespannt, was AMD als nächstes raus haut. Eine 5080 würde ich mich vorher wohl eher weniger kaufen. Das ist für die 5090 insofern etwas anders, weil AMD da wohl eher nicht hinkommen wird - zu einer 5080 sind sie aber m.E. durchaus noch in Schlagdistanz.

Antwort Gefällt mir

Case39

Urgestein

2,653 Kommentare 1,027 Likes

Aber MFG ? Ah😃☝️ Mit freundlichen Grüßen Jensen Huang 😂

Antwort Gefällt mir

T
TheSmart

Urgestein

537 Kommentare 294 Likes

Ziemlich viele Euros für eine Art Sidegrade zur alten 4080 Super.
Die zusätzlichen "KI"-Ptogramme scheinen mir vor allem die Mehrleistung zu bringen.
Die Hardware selbst ist fast identisch geblieben.. vlt hier und da ein bisschen effizienter.. aber damit hat sich das auch schon wieder.
Da kann man echt nur noch auf AMD hoffen, das da was gutes bei rumkommt.
Oder es ist wieder so Stillstand angesagt, wie bei der letzten Generation, aber vlt gehts dann immerhin wieder über den Preis.

Antwort Gefällt mir

Ifalna

Urgestein

573 Kommentare 494 Likes

Sehr enttäuschende Karte aber von den Rohdaten her kommt das jetzt nicht unerwartet.

Finde den Gedanken von ca 60% Mehrleistung über meine 3080 für ~1500€ (optimistische Schätzung von AIB Modell + Wasserblock) extrem unattraktiv. Dazu noch gegimpt mit 16GB VRAM.

Wenns das Teil für 750€ gäbe wärs nen Knaller aber so frage ich mich ob der einzige Zweck der 80er Karte nur noch der ist, die 90er verlockender aussehen zu lassen.
Was bringen mir 100 angezeigte FPS wenn sich das game dann doch anfühlt als würde ich es mit den 30 nativen FPS zocken?

Antwort 6 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung