Grafikkarten Grundlagenartikel Testberichte VGA

ATI im Rückwärtsgang? 2D-Leistung bleibt auf der Strecke | Retro Teil 1 von 2

Man kann zu Windows XP stehen, wie man will – die Hardwarebeschleunigung des GDI funktioniert bis heute tadellos und für viele Anwendungsgebiete völlig ausreichend. Was XP leider nicht kann, ist die hardwarebasierte Umsetzung der 2.5D-Layer-Technik unter Ausnutzung der Möglichkeiten aktueller 3D-Karten. Das Zeichnen der Fensterinhalte erfolgt, wie im vorigen Kapitel beschrieben, noch direkt aus den Programmen heraus. Typische 2D-Anwendung, für die man eigentlich keine teure Grafikhardware kauft:

Dieses Verfahren stört nicht, solange der Anwender konzentriert in einem Fenster arbeitet. SDI-Umgebungen (Single Device Interface) sind hier der typische Anwendungsfall. Unangenehm wird es allerdings, wenn viele Fenster ins Spiel kommen. Wer freute sich nicht, ersatzweise zu einer besseren Layer-Technik die Menüs, Werkzeugleisten und Werkzeugfenster komplexer Anwendungen auf einen zweiten Monitor auslagern zu können, anstatt beim Verschieben stets lästige Nachzieheffekte der immer neu zu zeichnenden Fensterinhalte zu bewundern, wenn das System damit nicht mehr hinterherkam?

Fenster als Kartenspiel: Nachzieheffekte unter XP

 

 

Während die reine 2D-Leistung in Vektor-Zeichenprogramme wie z.B. CorelDraw oder CAD-Anwendungen völlig ausreichte, da die Hardwarebeschleunigung des GDI ausreichend umgesetzt wurde, zeigen sich hier bereits die Grenzen der WM_Paint-Lösung. Die Oberfläche von XP, überladen mit Animationen, Softshadows, transparenten Fenstern und anderen Gimmicks war schlicht am Ende des Machbaren angekommen.

WM_Paint wird nicht oder nur sporadisch ausgelöst, solange das System ausgelastet ist. Events zum Neuzeichnen landen in der Warteschlange.Viele Anwender haben schnell herausgefunden, dass man Fenster beim Verschieben dann doch lieber als Rahmen anzeigt, auf animierte Menüs verzichtet und auch ansonsten besser sparsam mit den grafischen Ressourcen umgeht. Viele grafische Themen wurden nach erster Euphorie schnell wieder gelöscht – das System war einfach nicht mehr in der Lage, alles fehlerfrei zu rendern. Microsoft hat bald gemerkt, dass die Lösung, wie sie bis einschließlich XP verwendet wurde, möglichst schnell ersetzt werden muss. Das Angebot immer leistungsfähigerer 3D-Grafikkarten und das langsame, aber stetige Sinken der Preise für derartige Hardware taten dann ein Übriges. Eine typische Vertreterin der 3D-Grafikkarten dieser Zeit: Radeon X1800 von 2005

Wir wollen an dieser Stelle auch nicht verschweigen, dass die Hardwarebeschleunigung von XP lange Zeit nicht mit den 780G Onboard-Grafiklösungen von ATI funktionierte. Sich langsam aufbauende Fenster und lahmende Browser waren die unrühmliche Folge. Sprach man zunächst hinter vorgehaltener Hand von einem größeren Hardwarefehler, so konnten die größten Leistungsbremsen später durch neuere Treiber wieder beseitigt werden. Völlig optimal laufen die 780G (im Gegensatz zum 740G) bis heute nicht. Aber da XP mittlerweile an Bedeutung verliert, wollen wir dies lediglich als Randnotiz erwähnt wissen.

Deshalb zunächst Vorhang auf für Vista, das neben Windows ME wohl bisher am polarisierendste Betriebssystem von Microsoft überhaupt. Man kann Vista lieben oder hassen – der technische Fortschritt war nicht mehr aufzuhalten.

Zusammenfassung:

  •  Die 2D-Hardwarebeschleunigung der GDI-Befehle funktioniert klaglos
  •  Keine hardwarebeschleunigten 2.5D-Layer, langsame Oberfläche
  •  Das ständige Neuzeichnen verschobener Fensterinhalte kostet Zeit

 

Kommentar

Lade neue Kommentare

MechUnit

Mitglied

64 Kommentare 38 Likes

Interessanter Hintergundbericht.

Damals (Windows 1.0-3.00) war eben das Amiga OS aufgrund des Systems mit seinen Co-Prozessoren (für 2D hauptsächlich Blitter) und echten überlappenden Fenstern besser, von der schon damals unerschütterlichen Stabilität einmal abgesehen.

Das Mac OS setzte nochmal einen drauf. Auch da gab es ja fast von Anfang an quasi integrierte Hardwarebschleunigung für 2D-Anwendungen.

Dann gab es ja noch SGI-OS - ein Traum.

Präemptives Multitasking und schnelles, flüssiges Arbeiten war man also hier auf den 3 o.g. Systemen schon gewohnt. Ok, auf A500 & A1000 war aufgrund des langsameren Motorola 68000-Prozessors und 512kb-, bzw. 1 MB Chip-RAM und ohne HDD mit Diskettenzugriff die Lade- und Arbeitsgeschwindigkeit etwas langsamer. Dennoch war das ein besseres Gefühl und komfortabler als noch mit Windows 1.0, geschweige denn DOS - dank Blitter und Copper mit nicht 100 dazwischenfunkenden Treibern und Schnittstellen. Die im System fest integrierte Hardware war eben fest im OS integriert. Angebundene Hardware und deren Treiber wurden "hinten dran" geschoben. Reflections, Video Toaster, Cinema 4D oder Lightwave (die beiden letztgenannten dann schon auf AGA-Maschinen aka A4000, später mit Power PC u.a. in Verbindung mit Silicon Graphics) liefen wie Butter. 2,5D-Layer und deren Beschleunigung spielten da aber auch noch keine Rolle.

Das war aber auch ein Vorteil der damaligen geschlossenen Systeme mit aufs Leib zugeschnittenen Betriebssystemen. Der PC war ja offen und es musste ja schon damals auf unterschiedlichen Systemen das OS möglichst performant und stabil laufen. Damit war (und ist) ein PC nicht nur von der dedizierten, modularen Hardware abhängig, sondern auch über seine Schnittstellen und Treiber. Wenn dann noch die 2D-Unterstützung schlecht oder gar nicht integriert ist (schlimmstenfalls noch auf Hardware-, OS-, Schnittstellen- und Treiberebene) fehlt, ist das für flüssiges Arbeiten im Betriebssystem ein Desaster. Das merkte man sogar später tw. in Windows NT oder 2000 auf professionellen Maschinen. Es stockte halt mal oder es gab "Denkpausen".

Ein gutes Beispiel hierfür waren damals auch Emulatoren. Man merkte direkt, wenn auf Hardwareebene einfach die 2D-Beschleunigung fehlte und die CPU dann mehr schuften musste.

Antwort 2 Likes

Klicke zum Ausklappem
Lagavulin

Veteran

229 Kommentare 187 Likes

Vielen Dank für den interessanten Blick zurück in die 2010er Jahre. Habe ich mit großem Interesse gelesen, weil ich mich damals noch gar nicht mit PC-Technik beschäftigt habe. Spannt man einen zeitlichen Bogen von ATI bis zum 12VHPWR, dann ist Igor‘sLab für mich wirklich so etwas wie „CSI Chemnitz“ im PC-Bereich.

Antwort 1 Like

F
Furda

Urgestein

663 Kommentare 371 Likes

Irgendwo in dieser Zeit da, wohl noch unter WinXP, hatte ich noch einer der letzten Karten von ATI mit AGP Schnittstelle in Betrieb, als der endgültige Wechsel zu PCI vollzogen geworden war.

Der Artikel hat einige Trigger, bin mal auf den 2. Teil gespannt.

Auf alle Fälle, die Einleitung hier birgt für mich schon jetzt das grösste Ausrufezeichen, nämlich, dass man den Finger in die Wunde drücken muss, um eine Änderung/Verbesserung zu erwirken. Damals schon so und heute immer noch brandaktuell. Da hatte ATI offenbar, wie auch alle anderen immer, negativ darauf reagiert, anstatt einsichtig und konstruktiv sein zu wollen. Von ATIs Treiber-Kultur hat wohl bis heute ein Teil bei AMD überlebt.

Antwort 1 Like

Igor Wallossek

1

10,220 Kommentare 18,922 Likes

Das missgünstige Treiber Team firmiert heute immer noch unter ATI in Toronto und es sind die gleichen Leute, die heute alles verdongelt haben, weil sie das MorePowerTool nicht wollen. Das geht schon seit Jahren so :D

Antwort 4 Likes

Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

Toronto Trittchen - guten Feinden gibt man ein Trittchen. Oder 2.
Wobei ich Ati & the Vandalers mit 'Nowhere Toronto' bevorzuge.

Die damaligen Kommentare unter bzw zu den Artikeln läs ich zu gern nochmal.

Antwort Gefällt mir

Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

Alles gut und schön, @Igor Wallossek, aber ich wollte schon ein wenig Wehmut fühlen wegen der alten Köppe.

Antwort Gefällt mir

C
ChaosKopp

Urgestein

551 Kommentare 561 Likes

Ich erinnere mich noch gut an die zugrunde liegenden Artikel und die Emsigkeit, die Du damals ausgelöst hast

Auch wenn die Treiber-Truppe Dich damals hasste, hast Du das Produkt selbst massiv vorangetrieben.

Eigentlich wäre Dankbarkeit angemessen gewesen.

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,505 Kommentare 850 Likes

Ja, wenn man darauf hinweist, daß der König nackt dasteht oder der tolle GPU Treiber für die neueste Karte kaum 2D packt, macht man sich schnell unbeliebt. Auch wenn man damit, so wie hier @Igor Wallossek , ATI einen großen Gefallen hattest, denn die Käufer finden solch unterirdische Leistung gar nicht gut. Wie heißt es so schön im Englischen: " No good deed goes unpunished". ATI, anstatt sich zu schämen und für den Hinweis zu danken, wurde ärgerlich und nachtragend.

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,505 Kommentare 850 Likes

Der Toaster auf den großen Amigas waren ja aus gutem Grund jahrelang das Kit der Wahl bei frühen CGI Geschichten. SGI Workstations waren klar besser, aber wer hatte schon soviel Geld? Die waren nämlich richtig teuer, für das Geld konnte man schon ein sehr schönes Auto (Oberklasse, keinen Golf 😀) kaufen .

Antwort 1 Like

MechUnit

Mitglied

64 Kommentare 38 Likes

Allerdings - das waren Preise jenseits von gut und böse :D

Antwort 1 Like

e
eastcoast_pete

Urgestein

1,505 Kommentare 850 Likes

Waren (und sind) sehr gute Hintergrund Artikel, danke @Igor Wallossek für das Encore! Und jetzt ein paar Fragen zum Stand der Dinge 2023: wie sieht es denn heutzutage mit Unterstützung von 2D und 2.5D Grafik aus? Sind die iGPUs hier eigentlich immer noch gleichauf (oder besser?) als viele dGPUs, und gibt's hier Unterschiede zwischen Intel iGPUs und den AMD APUs?

Antwort Gefällt mir

Igor Wallossek

1

10,220 Kommentare 18,922 Likes

AMD vor NV und Intel :)

APUs gehen, iGP bei Intel eher meh

Antwort 1 Like

e
eastcoast_pete

Urgestein

1,505 Kommentare 850 Likes

Danke! Auch und gerade wenn man doch einiges machen will, das nach wie vor 2 bzw 2.5D ist; vor allem wenn mehrere UHD Monitore befeuert werden sollen. Interessant, daß AMD aus dem Debakel damals gelernt hat, auch wenn Toronto immer noch schmollt 😁

Antwort 1 Like

P
Postguru

Mitglied

39 Kommentare 7 Likes

Und heute mit einer 6900XT unter Win10
Direct drawing to visible device:
BENCHMARK: DIB-BUFFER AND BLIT

Text: 23245 chars/sec
Line: 28631 lines/sec
Polygon: 12435 polygons/sec
Rectangle: 3229 rects/sec
Arc/Ellipse: 15193 ellipses/sec
Blitting: 14961 operations/sec
Stretching: 1107 operations/sec
Splines/Bézier: 17800 splines/sec
Score: 201

DIB Buffering:
BENCHMARK: DIB-BUFFER AND BLIT

Text: 60096 chars/sec
Line: 151668 lines/sec
Polygon: 631579 polygons/sec
Rectangle: 5491 rects/sec
Arc/Ellipse: 347222 ellipses/sec
Blitting: 58207 operations/sec
Stretching: 7123 operations/sec
Splines/Bézier: 70822 splines/sec
Score: 4510

scheint einiges besser zu laufen .. jedenfalls gepuffert ;)

Antwort Gefällt mir

Igor Wallossek

1

10,220 Kommentare 18,922 Likes

DIB geht direkt in den Speicher, Direct Draw jeder einzelne Pups durch die Renderpipeline.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung