GPUs Graphics Reviews

600 watts and the fastest graphics card in the world in 2012: HIS 7970 X2, PowerColor 7990 Devil 13 or EVGA GTX 690? | Retro

Everyone is currently shaking their heads over the rumored 600 watts (or more) power consumption for NVIDIA's upcoming flagship, but it's not that new. My HIS HD 6990 already managed 590 watts with the OC BIOS at the time and the three cards from 2012 presented today are also only just below 600 watts. And with two of the HIS HD 6990s, I baked hot dogs with 900 watts inside the case at the time, and the GTX 590 made great fried eggs.

A touch of sanity: EVGA GeForce GTX 690 in reference design

The GeForce GTX 690 is also only available from EVGA in the reference design, which was already solved so optimally by Nvidia in the end that hardly any requests for improvements were made. The fairly flat and, at 1.04 kg, not overly heavy card represents the spearhead in Nvidia’s current portfolio.

The very spartan-looking outer packaging doesn’t yet hint at the racy contents.

However, EVGA doesn’t let itself down when it comes to the package contents and includes glossy posters and stickers besides the obligatory accessories.

The GeForce GTX 690 consists of 2 fully-fledged GK104 chips, as they are also installed on the GeForce GTX 680. This results in a total of 3072 CUDA cores (1536 per card), the number of texture units per GPU also remains the same (128 each), just like the 32 ROPs per card part.

However, the older NF200 bridge chip is now replaced by a PCIe 3.0 solution, which Nvidia buys from PLX in the form of a PEX 8747. The chip replaces the old PCIe 2.0 bottleneck with 48 lanes, 16 from each GPU and 16 to the bus interface. It should be possible to keep the targeted latencies low (>126 ns).

As with the GTX 680, each GPU on this card can access 2 GB of GDDR5 memory, which is connected via the already familiar 256-bit memory interface. The memory throughput should thus remain identical to the GTX 680 for each of the two GPUs (192 GB/s bandwidth).

However, the GPU clock has dropped, which is now only 915 MHz instead of the GTX 680’s 1006 MHz. However, if you take the targeted TDP limit of 300 watts as a guideline, the Turbo should definitely be able to clock the cores up to 1019 MHz. However, that would only be just below the value of a single GTX 680.

The two 8-pin connectors are supposed to fix it, because after all you could burn a proud 375 watts including the 75 watts that the slot itself supplies. The predecessor, the GTX 590, was only slightly below this maximum. Since these dual GPU cards usually consume less than two similar single cards in SLI, the advertised maximum value of 300 watts should not be that far from reality.

 

Up to 4 monitors can be controlled via three DVI outputs and one DisplayPort port.

EVGA’s very accommodating warranty system should also be highlighted: Read more….

 

Kommentar

Lade neue Kommentare

Thy

Urgestein

1,843 Kommentare 744 Likes

Es ist immer wieder erstaunlich zu sehen, was damals schon möglich war und wie wenig sich grafikkarten-technisch eigentlich die letzten 10 Jahre getan hat. Den Verweis auf den erwähnten Spiegelei-Test hättest du noch bringen können.

Antwort 2 Likes

Igor Wallossek

1

10,193 Kommentare 18,806 Likes

Der kommt nächstes Wochenende. Mit Hot-Dog, Spiegelei und Fondue :D

Antwort 1 Like

Thy

Urgestein

1,843 Kommentare 744 Likes

Mit den aktuellen Karten RTX 3900 Ti und RX 6950 XT? Teures aber exklusives Fondue. 😁

Antwort 1 Like

JeretXXO

Mitglied

38 Kommentare 12 Likes

Achja... die gute alte Zeit vor Titanen und Preiswahnsinn.
Und schon damals hab ich den Kopf geschüttelt, immerhin war der Strom noch halbwegs günstig.

Antwort Gefällt mir

c
cunhell

Urgestein

549 Kommentare 503 Likes

Fairer weise sollte man aber den Stromverbrauch der Dual-Karten auch mit einem Sli bzw. Xfire-System vergleichen während Nvidia (und evtl auch AMD) den Verbrauch einer Singlekarte in die Höhe treibt. Das die Karten in dem Test keine Kostverächter sind, ergibt sich einfach daraus, dass eben zwei Mäuler zu stopfen sind. Bei den neuen Karten ist schon eine allein verfressen bis zum gehtnichtmehr.

Ansonsten wie immer nett zu lesen und es erinnert an die alten Zeiten :cool:

Cunhell

Antwort Gefällt mir

Thy

Urgestein

1,843 Kommentare 744 Likes

Soweit ich das verstanden hatte, lagen die knapp 600 W aber nicht während des SLI-Betriebs an, sondern bei einer einzelnen Karte mit Dual-GPU. Igor schrieb ja im Header etwas von an die 900 W, die beim gleichzeitigen Betrieb von zwei Karten auftraten.

Antwort Gefällt mir

NamaNatranius

Mitglied

15 Kommentare 3 Likes

Finde es auch nicht gut das von werk ab der storm verbrauch immer weiter steigt andererseits hab ich auf mein 3090 ein xoc bios drauf gespielt wodurch die karte bis 560 watt sich genehmigt nur damit ich das maximal was mein chip stabil schaft zu nutzen obwol der energie verbrauch in keinem verhältnis zur leistung steht.Also selbst wenn ne neue generation weniger verbraucht würde ich für mich das maximal mir möglich versuchen raus zu holen bin da aber warscheinlich einer der wenigen leute auf der welt die das machen.

Antwort Gefällt mir

c
cunhell

Urgestein

549 Kommentare 503 Likes

Die Dualkarten waren quasi zwei Karten auf einem PCB im Sli bzw Xfire-Betrieb. Wenn man zwei der Dual-Karten zusammen laufen lies hatte man sowas wie Quad-Sli/Xfire.

Cunhell

Antwort Gefällt mir

F
Furda

Urgestein

663 Kommentare 370 Likes

10 Jahre her... Da wurden schon fast 600W weg gepustet, sehr ähnliche Werte wie heute noch. Heute bringen selbe Watt viel mehr Rechenleistung als damals, grosser Fortschritt, aber die Kühlung für selbe Watt scheint praktisch keinen Fortschritt mehr gemacht zu haben. Der Zenit ist physikalisch da wohl längst erreicht, keine schöne Aussicht...

Antwort Gefällt mir

Igor Wallossek

1

10,193 Kommentare 18,806 Likes

Ich habe hier einige solcher Fresssäcke im Archiv: GTX 590 und 690, HD 6990, HD 7990 und RX 295 X2. Alles Karten, die man locker prügeln konnte, bis die Steckdose glühte. Mit den zwei HD 6900 im CF war ich sogar mal im 3DMark-Ranging ganz oben. Ist lange her :D

Antwort 1 Like

L
Loki

Mitglied

85 Kommentare 23 Likes

Die 295X2 hab ich jetzt nicht so als großen Verbraucher empfunden, lag aber eher daran das außer bei Spielen die Mantle
unterstützt haben die Karte auch nicht so gut ausgelastet wurde ... Die Graka war mein extremster PC Fehlkauf, nicht weil die Hardware schlecht war, sondern weil AMD Mantle viel zu früh aufgegeben hat wegen DX12 und dann noch die UVP extrem gesenkt hatte das ein Verkauf einfach nicht mehr lohnte.

Antwort Gefällt mir

Captainvanos

Neuling

2 Kommentare 5 Likes

Stimmt !!
meine alten GTX 680 im Werkstattrechner......
Der Heatkiller war damals das geilste Vollkupferteil was man kaufen konnte, ich denke der Zenith ist schon überschritten !!!
Rückseitige Kühlung gabs schon bei der MSI 5950 GTX

View image at the forums

Antwort 1 Like

F
Furda

Urgestein

663 Kommentare 370 Likes

@Captainvanos
Sehr cooler build, top!

Hatte vor etwa 15 Jahren auch Voll-Kupfer auf einer 6800 Ultra. Alles. Bis aufs Netzteil, so starke gabs nicht für WaKü irgendwie. Der Rest schön kühl und flüsterleise.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung