CSL-Computer Shop

CSL-Computer: Blog

Infos und Hintergründe zu aktueller PC-Technik

CSL-Computer: Blog - Infos und Hintergründe zu aktueller PC-Technik

Radeon R9 Fury X: Die schnellste Single-GPU Grafikkarte von AMD

 

Die Radeon R9 Fury X ist das neue Flaggschiff unter AMDs Grafikkarten. Bei der Namensgebung hat man sich offensichtlich an alte ATI-Zeiten vor der Übernahme durch AMD erinnert, in der die Spitzenmodelle den Zusatz Fury trugen. Damit sollte klar sein wohin die Reise geht: High-End-Power, die ganz klar auf hochauflösendes Ultra HD 4K-Gaming und Virtual Reality-Anwendungen abzielt!AMD_Fiji_20150616185232-pcgh

Sie trumpft mit einer verbesserten Energieeffizienz der GCN 1.2-Architektur auf, passt dank Freesync die Bildwiederholungsrate des Monitors der Grafikausgabe an und ist mit ihrer Unterstützung von VR-Brillen durch LiquidVR zudem zukunftssicher für 3D-Software.

Als Anschlüsse bietet die Karte drei Displayports 1.2 sowie einen HDMI 1.4a-Ausgang.

Damit positioniert sich die Radeon R9 Fury X in direkter Konkurrenz zur NVIDIAsGeForce GTX 980 Ti und hat dafür einige Neuerungen in petto.

 

Zunächst wollen wir die technischen Fakten betrachten:

Die Basis stellt der Fiji-XT-Grafikchip im Vollausbau, der im 28nm-Verfahren hergestellt wird und mit 1050 MHz getaktet ist. Er verfügt über 4096 Shadereinheiten, 256 TMUs (Texture Mapping Units) und 64 ROPs (Raster Operation Units).

Quelle: AMD

 

Die wirklich große und innovative Neuerung ist jedoch der HBM-Speicher (High Bandwidth Memory), der einen deutlichen Geschwindigkeitsvorteil gegenüber dem bisherigen GDDR5-Standard bringen soll. Zusammen mit dem Speicherhersteller Hynix wurde dieser Speichertyp in den letzten Jahren entwickelt und kommt auf der Fury X das erste Mal zum Einsatz. Dahinter steckte die Überlegung, dass Games immer speicherhungriger werden und herkömmliche Speicher-Chips stetig mehr Platz einnehmen und höhere Taktraten bieten müssen, um ausreichende Bandbreite zu bieten. Um diese Engstelle zu umgehen, wurde der Aufbau des Grafikspeichers mit HBM grundsätzlich neu gedacht.

AMD_Fiji_Praesentation_25-pcgh

Quelle: AMD

Ähnlich wie bei Samsungs 3D NAND-Speicher (siehe hier) werden im HBM die Speicherchips vertikal statt horizontal angeordnet. Die gestapelten Speicherchips liegen auf einer Verbindungsplatte („Imposer“) direkt neben der GPU und ermöglichen so einen extrem schnellen Austausch von hohen Datenmengen. Durch die größere Anzahl an Verbindungen zur GPU und kürzere Wege wird nicht nur die Bandbreite erhöht, sondern auch der Strombedarf sinkt signifikant. AMD spricht von 60% mehr Bandbreite, dreifach höhere Performance/Watt und 94% weniger Platzbedarf im Vergleich zum herkömmlichen GDDR5,-Speicher.

Quelle: AMD

Der HBM-Speicher weist eine nominell sehr geringe Taktung von nur 500 MHz auf. Das relativiert sich aber schnell, wenn man das Speicherinterface betrachtet: Mit 4096 Bit liegt es nämlich beim Achtfachen des bisherigen Maximums einer R9 390X! Damit werden sagenhafte 512 GB/s Bandbreite erreicht und die liegt somit deutlich über den 336,5 GB/s einer GTX 980 Ti.

Eine weitere Besonderheit der Fury X ist ihre Wasserkühlung. Dabei setzt AMD auf ein besonders leises Design für das Kraftpaket: Der Kühlköper mit 120mm-Lüfter ist von der eigentlichen Grafikkarte abgekoppelt und kann frei im Gehäuse platziert werden.
Vor allem der sehr leise Betrieb von nur 1,5 Sone unter Volllast weiß zu überzeugen. So ruhig arbeitet sonst keine Grafikkarte in dieser Leistungsklasse.

Der Stromverbrauch der Fury X zeigt sich auch nicht so hungrig, wie es anhand der technischen Daten zu vermuten wäre. Im Idle-Modus liegt sie bei 113 Watt und zieht bei voller Belastung ca. 400 Watt aus dem Netzteil.

 

 

In den im Netz verfügbaren Benchmarks zeigt sich, dass die Fury X ihren Anspruch, der GTX 980 Ti Konkurrenz zu machen, voll erfüllt. Liegt sie bei Full HD und WQHD-Auflösungen meist nur ganz knapp hinter dem Spitzenmodell von NVIDIA, so kann sie im hochauflösenden UltraHD-Format ihre Stärken voll ausspielen.

AMD_Benchmarks_3-pcgh

Quelle: AMD

Die Fury X richtet sich also vor allem an Gaming-Enthusiasten, die in Ultra HD spielen wollen und mit dem AMD Flaggschiff in diesem Bereich auch zukunftssicher aufgestellt sind. Durch die neue HBM-Technologie ist zudem ein deutlich kleineres Design möglich und mit nur 20 cm Länge passt dieses High-End-Stück auch in kompaktere PC-Gehäuse.

 

In unserem Shop finden Sie Gaming-Systeme, die mit der AMD Radeon R9 Fury X ausgestattet sind und für Ultra HD-Gaming genau die richtige Performance liefern.

CSL Sprint X5854 (Octa) mit AMD FX-Series FX-8370 CPU (8× 4000 MHz)

CSL Speed X4878 (Core i7) mit Intel® Core™ i7-6700K CPU (4× 4000 MHz)

Selbstverständlich können Sie die Radeon R9 Fury X auch als Grafikkarten-Aufrüstung zu jedem anderen PC dazubestellen.

CAD-Systeme: Workstations für professionelle Anwendungen

Was ist CAD?

CAD steht für „computer-aided design“ und bedeutet so viel wie computergestützte Konstruktion.

Ihren Ursprung hat diese Arbeitsweise bei der Erstellung von zweidimensionalen technischen Zeichnungen. Sie wurde häufig als Ergänzung zu klassischen Zeichenbretter überall dort eingesetzt, wo Konstruktionen und Entwürfe eine Grundvoraussetzung für den Entwicklungs- und Gestaltungsprozess waren, z.B. im Ingenieurswesen, in der Architektur, Landschaftsplanung und –gestaltung.

Vor 20 Jahren kosteten 3D-CAD-Workstations noch den Gegenwert eines kleinen Einfamilienhauses und waren für viele Firmen schlicht nicht finanzierbar. Durch die rasante Entwicklung im Hardware-Bereich sind die Preise jedoch drastisch gesunken und ein professionelles CAD-System unterscheidet sich heute preislich kaum noch von einem High-End Gaming-PC. Durch die einfachere Verfügbarkeit haben CAD-Arbeitsplätze eine viel größere Verbreitung gefunden. Auch der Anwendungsbereich hat sich deutlich erweitert und spezielle CAD-Software findet man für nahezu jedes Einsatzgebiet.

 

Von 2D zu 3D

Am Anfang umfasste CAD tatsächlich nur die zweidimensionale Gestaltung mithilfe von Computern, die z.B. bei technischen Zeichnungen zum Einsatz kamen. Mittlerweile wird CAD auch in nahezu allen Bereichen des Ingenieurswesens eingesetzt, um dreidimensionale Modelle zu erstellen und virtuelle Simulationen durchzuführen. Dabei können Modellen bestimmte Eigenschaften zugeordnet werden und der Einfluss von physikalischen Kräften simuliert werden. Diese virtuellen Prototypen sind ein wichtiger Bestandteil in der Entwicklungsphase, um Rückschlüsse auf die späteren realen Eigenschaften eines Produkts zu gewinnen.

40

Quelle: http://catia.friko.pl/

38

Quelle: http://catia.friko.pl/

39

Quelle: http://catia.friko.pl/

Technische Animation AgriTechnica

 

CAD-Systeme haben sich in den letzten 20 Jahren auch ganz andere Anwendungsgebiete erschlossen. So werden sie heutzutage auch in der Medizinforschung eingesetzt, ebenso wie im konkreten Fertigungsprozess z.B. bei der Steuerung von CNC-Fräsen.

Gerade in der Unterhaltungsindustrie sind CAD-Systeme mittlerweile nicht mehr wegzudenken. Computerspiele und (Animations-)Filme seien hier als Beispiele genannt, bei denen realistische Simulationen, 3D-Animationen, Charakterdesign und Umgebungstexturen ohne spezielle Software wie 3ds Max oder Maya nicht denkbar wären.

Animation Autodesk Maya

 

Die Hardware macht die Leistung

Welche CAD-Software die richtige ist, hängt im Wesentlichen vom Anwendungsgebiet ab. Da das Angebot an CAD-Programmen extrem vielfältig ist, sei an dieser Stelle auf die Liste mit CAD-Programmen bei Wikipedia hingewiesen: https://de.wikipedia.org/wiki/Liste_von_CAD-Programmen

In Sachen Hardware sind vor allem drei Komponenten entscheidend: Prozessor, Arbeitsspeicher und Grafik!

Der Prozessor ist das funktionale Herzstück eines jeden Systems. Je schneller der Prozessor arbeitet, desto flotter sind die Abläufe des jeweiligen Programms. Moderne CAD-Programme sind MultiCore-optimiert, d.h. sie unterstützen Prozessoren mit zwei oder mehr CPU-Kernen. Gerade beim Rendern und Animieren bieten Mehrkern-Prozessoren einen großen Vorteil, denn es gilt: Eine doppelte CPU-Kernanzahl halbiert die Renderingzeit! Auch beim gleichzeitigen Ausführen mehrerer Prozesse profitieren Sie von starken MultiCore-Prozessoren.

Die in CAD-Software genutzten Daten sind häufig sehr umfangreich. Deshalb empfiehlt es sich, ausreichenden Arbeitsspeicher zur Verfügung zu haben, um effizient arbeiten zu können. Mindestens 8 GB RAM verlangen die meisten Programme, aber auch hier gilt: je mehr, desto besser! Denn je mehr Daten im RAM gespeichert werden können, desto weniger müssen auf die wesentlich langsamere Festplatte ausgelagert werden.

Die Grafikkarte hat im CAD-Einsatz zunehmend an Bedeutung gewonnen. Viele Anwendungen nutzen den Grafikprozessor nicht mehr alleine zur Beschleunigung von Darstellungen, sondern vielmehr auch zur Entlastung des Prozessors bei rechenintensiven Aufgaben – z.B. beim Rendern oder Simulationen mit Open CL. Um diesen gesteigerten Anforderungen gerecht zu werden, bieten die führenden Grafikkarten-Hersteller AMD und NVIDIA spezielle Grafikkarten-Reihen an. Diese Modell-Familien, konkret: AMD FirePro und NVIDIA Quadro, sind für ein breites Spektrum professioneller Anwendungen zertifiziert. Das heißt: Sie erfüllen die Mindestanforderungen, die das jeweilige Programm stellt.

Auch hier unterscheiden sich die Grafikkarten in ihren Stärken für die jeweiligen Anwendungsgebiete – von CAD/Konstruktion über Mediaproduktion bis hin zu Karten für große Videowände und Multidisplay-Lösungen.

 

Wo früher noch teure CAD-Workstations nötig waren, die häufig ein UNIX-Betriebssystem erforderten, können heute hochwertige CAD-Systeme verhältnismäßig kostengünstig auf Basis von Windows-PCs realisiert werden. Durch ein breites Angebot an zum Teil kostenloser CAD-und 3D-Software ist die Verbreitung dieser Systeme vorangeschritten und hat auch Einzug bei Privatanwendern gefunden.

In unserem Online-Shop finden Sie eine Auswahl vorkonfigurierter CAD-Workstations – vom kostengünstigen Einstiegssystem für Studenten und kleinere Unternehmen bis hin zu High-End-Stationen für professionelle Anwendungsgebiete. Mit den praktischen Aufrüstoptionen können Sie jede Konfiguration Ihren individuellen Bedürfnissen anpassen!

Die neue GeForce GTX 960 ist da

Die neue Mittelklasse von NVIDIA

Am 22.Januar war der offizielle Release der GeForce GTX 960. Damit schließt NVIDIA jetzt auch die Lücke im mittleren Grafikkarten-Segment und hat alle Kepler-Modelle durch neue Grafikkarten mit Maxwell-Architektur ersetzt.

NV-GeForce-GTX-960-header

Bei der GTX 960 kommt eine GM206-GPU zum Einsatz, die über 1024 Shader-Einheiten verfügt und auf einen 2 GB GDDR5-Speicher zurückgreifen kann. Da das Speicherinterface lediglich 128-Bit beträgt, eignet sich die Karte in erster Linie für Gaming in Full HD. Wer in Ultra-Auflösungen spielen möchte, sollte auf die größeren Modelle wie die GTX 970 oder GTX 980 zurückgreifen.

Durch die extrem effiziente Maxwell-Architektur holt die GTX 960 dennoch erstaunlich viel aus ihren Möglichkeiten. Gerade im Verhältnis zwischen Performance und Stromverbrauch reiht sie sich nahtlos in die anderen Maxwell-Modelle ein und liefert dadurch die zurzeit besten Werte. So kommt sie mit maximal 120 Watt aus und wird lediglich durch einen einzelnen 6-Pin Stecker vom Netzteil versorgt.

Eine große Neuigkeit kann die GTX 960 aber exklusiv ihr eigen nennen – ihre Video-Engine. Die GTX 970 und 980 unterstützten bereits die Enkodierung des H.265 HEVC-Formats, die GTX 960 kann dieses Format nun auch dekodieren. Dadurch ist sie in der Lage auch Ultra 4K-Videos problemlos umzusetzen und bietet darüber hinaus eine native Unterstützung für HDCP 2.2-Inhalte über ihren HDMI 2.0-Port.

Damit ist die GTX 960 nicht nur für preisbewusste Gamer eine Option, sondern sie eignet sich auch exzellent für den Einsatz in HTPCs (Home Cinema PCs).

Ansonsten stimmen die Features des neuesten Maxwell-Familiemitglieds mit denen der größeren Geschwister überein. Sie bietet u.a. eine Kompatibilität zu DirectX 12, Voxel Global Illumination (VXGI), Multi-Frame Sampled Anti-Aliasing (MFAA) und Dynamic Super Resolution (DSR). Diese Features haben wir bereits in einem früheren Blog-Artikel vorgestellt und können hier nochmal nachgelesen werden.

 

Die Technik-Fakten zur GTX 960, der gößeren GTX 970 und dem direkten Konkurrenzmodell von AMD, der Radeon R9 280X.

NVIDIA Geforce GTX 960 NVIDIA Geforce GTX 970 AMD Radeon R9 280X
Grafikchip GM206 GM204 Tahiti XTL
Chip- / Boost-Takt 1.126 MHz / 1.178 MHz 1.050 MHz / 1.178 MHz 850 MHz / 1.000 MHz
Shader-Einheiten 1.024 1.664 2.048
Textureinheiten 64 104 128
ROP-Einheiten 32 64 32
Videospeicher 2,0 GByte 4,0 GByte 3,0 GByte
Speichertakt (effektiv) 7.008 MHz 7.008 MHz 6.000 MHz
Speicherinterface 128 Bit 256 Bit 384 Bit
Speicherbandbreite 112 GByte/s 224 GByte/s 288 GByte/s
TDP 120 Watt 145 Watt 250 Watt

 

Mit der GeForce GTX 960 hat NVIDIA alle älteren Kepler-Modelle durch die neuen Maxwell-Karten ersetzt und sein Segment im mittleren Gaming-Bereich komplettiert. Die GTX 960 ist auf Gaming in Full HD ausgelegt und kann aufgrund ihres 2 GB Grafikspeichers mit 128-Bit-Interface für Spiele in Ultra-Auflösungen nur bedingt genutzt werden. Dafür ist sie die erste Grafikkarte mit H.265 Decoder und einer nativen HDCP 2.2-Unterstützung. Für Anwender, die eine starke Allround-Karte suchen, auf Ultra HD-Gaming keinen großen Wert legen, sondern auch den finanziellen Aspekt im Auge behalten, ist die GTX 960 sicherlich eine gute Wahl.

 

 

GeForce GTX 980 & GTX 970 – die neue Grafikkarten-Generation Maxwell

Mit der GeForce GTX 980 und der GTX 970 hat NVIDIA seit dem 19. September zwei neue Karten im High-End-Segment am Start. Die beiden Topmodelle basieren auf der Maxwell-Architektur, die bereits vor einem halben Jahr veröffentlicht wurde, bisher aber nur im Notebook-Bereich und der günstigen NVIDIA GeForce GTX 750 Ti zum Einsatz kam.

Im Vergleich zur vorausgegangenen Kepler-Architektur hat NVIDIA die Mikroarchitektur des Maxwell-Grafikprozessors grundlegend verändert. In der GeForce GTX 750 Ti wurde mit dem Grafikprozessor GM107 noch die „erste Maxwell-Generation“ verbaut. Diese wurde weiterentwickelt und die zweite Generation mit der GPU GM204 stellt nun das Grundgerüst der neuen Topmodelle.

Hauptaugenmerk bei der Entwicklung lag neben der Performancesteigerung auf einer verbesserten Energieeffizienz. Bereits bei der GeForce GTX 750 Ti war eine deutliche Verbesserung von Performance/Watt zu beobachten.

 

Maxwell-Mikroarchitektur – mehr Grafikleistung pro Watt

Der GM204-Grafikkern der GTX 980 verfügt über vier „GPCs“ (Graphics Processing Cluster), mit jeweils 16 Streaming Multiprozessoren. Diese wiederum bestehen aus 128 Shader-Einheiten (Cuda-Cores) – also insgesamt 2048 Shader-Einheiten. Die Streaming Multiprozessoren sind in vier Cluster mit eigener Kontrolllogik unterteilt. Dadurch besitzt jeder Streaming Multiprozessor vier Kontrolllogiken, im Gegensatz zu einer Kontrolllogik bei der vorangegangenen Kepler-Architektur, wodurch Rechenaufgaben besser verteilt und deutlich effizienter bearbeitet werden können. Nach Herstellerinformationen steigt dadurch die Rechenleistung jeder Shader-Einheit um 50 Prozent, was gleichzeitig den Stromverbrauch senkt.

Eine weitere Verbesserung liegt im größeren L2-Cache, der um 25% auf insgesamt 2 MB angewachsen ist. Es können somit mehr Informationen abgelegt werden, stehen schneller zur Verfügung und der Zugriff auf den langsameren Grafikspeicher muss seltener erfolgen.

Des Weiteren wurde die Anzahl der Raster Operation Prozessoren (ROPs) verdoppelt. Insbesondere bei hohen Auflösungen und mehrfacher Kantenglättung wird dadurch eine Performancesteigerung erreicht.

Auch beim Grafikspeicher hat NVIDIA Hand angelegt und der GeForce GTX 980 4 GB GDDR5-RAM spendiert, die mit einem effektiven Takt von 7 GHz arbeiten.

 

Neue Technologien

Mit der zweiten Maxwell-Generation hat NVIDIA auch gleich einige neue Technologien im Gepäck, die die Grafikleistung zusätzlich verbessern sollen.

Besonders interessant ist dabei die Dynamic Super Resolution (DSR), die das Downsampling von Spielegrafiken ermöglicht. In der Praxis heißt das, dass die Darstellungen in einer höheren Auflösung berechnet werden als der Monitor diese ausgeben kann. Danach wird das berechnete Bild auf die eigentliche Monitorauflösung herunterskaliert. Der Endeffekt dieser Prozedur ist ein feineres, deutlich glatter gezeichnetes Bild als es die eigentliche Monitorauflösung hergeben würde. Nachteil ist jedoch, dass diese Technologie einen deutlichen Mehraufwand an Performance kostet. Im Falle der GTX 980 ist davon jedoch reichlich vorhanden und insbesondere weniger rechenintensive Spiele können so mit signifikant verbesserter Grafik dargestellt werden.

 

Eine weitere Neuerung ist die Voxal Global Illumination (VXGI), mit der es erstmals möglich ist, dynamisches Licht auf bewegte Objekte in Echtzeit zu projizieren. Global bedeutet in diesem Zusammenhang, das sogar indirekte Beleuchtung – das heißt: inklusive der Lichtreflektionen von anderen Objekten – abgebildet werden kann. Bisher war eine indirekte Beleuchtung von Szenen extrem rechenintensiv und leistungshungrig, so dass in Spielen nur eine Berechnung von direkter Beleuchtung in Echtzeit möglich war. Mit VXGI hat sich dies geändert und eröffnet vollkommen neue, realistische Beleuchtungsszenarien innerhalb eines Games. Wie diese Technologie funktioniert, wird im unten stehenden Video genauer erklärt.

 

Desweiteren sollen Maxwell-Karten mit zukünftigen Treiber-Updates in der Lage sein, Multi Frame Anti-Aliasing (MFAA) zu realisieren. In diesem Kantenglättungsmodus werden die Polygonkanten zweifach mit herkömmlichen MSAA (Multi Sample Anti-Aliasing) geglättet und anschließend die aufeinanderfolgenden Bilder per Filter zu einem zusammengesetzt. Der Berechnungsaufwand soll dabei dem eines zweifachen MSAA-Verfahrens entsprechen, der effektive Output aber dem einer vierfachen MSAA-Berechnung.

Da dieser Kantenglättungsmodus aber noch nicht in den aktuellen Treibern implementiert ist, bleibt die tatsächliche Umsetzung abzuwarten.

 

Eine Übersicht über die neuen Technologien der Maxwell-Generation und wie sie funktionieren, bietet das Präsentationsvideo von NVIDIA.

 

Mit der GeForce GTX 980 und 970 hat NVIDIA zwei neue Modelle ins Rennen um die Spitzenplätze im Grafikkartenbereich geschickt. Das Versprechen, mehr Grafikpower pro Watt zu liefern ist auf jeden Fall geglückt. Die neuen Karten zeigen sich deutlich genügsamer als die Modelle der Kepler-Reihe.

Das Maxwell-Flaggschiff konnte sich in verschiedenen Tests als zurzeit schnellste Single-GPU-Karte präsentieren und sich im Vergleich zur NVIDIA GeForce GTX 780 Ti um bis zu 10% absetzen. Lediglich die Dual-GPU-Karten GeForce GTX 690 sowie die Radeon R9 295X2 können momentan ein noch größeres Potential für High-End-Gaming in die Waagschale werfen.

 

Die neuen GeForce Maxwell-Grafikkarten GTX 980 und GTX 970 erhalten Sie in unserem Online-Shop.

 

NVIDIAs neues Spitzenmodell: GeForce GTX Titan Z

Darf es ein bisschen mehr sein? _original_logo__nvidia_geforce_gtx_by_18cjoj-d76ejz5

Nur knapp einen Monat nach der Vorstellung der GeForce GTX Titan Black, dem neuen Single-GPU-Flaggschiff von NVIDIA, wurde nun Ende März eine neue Grafikkarte der Superlative präsentiert: Die GeForce GTX Titan Z!

Auf der GeForce GTX Titan Z vereinen sich zwei Kepler-Grafikchips der Spitzenklasse zu einer eindrucksvollen Dual-GPU-Karte, die alle bisherigen Rekorde in den Schatten stellt.

Die Basis dieses Grafikmonsters bilden zwei GK110-Chips im Vollausbau mit je 2880 Shader-Einheiten – also 5760 Shader-Einheiten ingesamt. Auch der Speicher der Titan Z ist mehr als großzügig dimensioniert: 12 GB GDDR5-Speicher sind mit einem 384-Bit Speicherinterface angebunden. Damit sollen 8 Teraflops möglich sein, was einen effektiven GPU-Takt von 700 MHz bedeuten würde. Damit läge die Titan Z lediglich 58% über der Leistung einer Titan Black.

Für einen synchronen Betrieb der beiden Grafikchips soll die „dynamic power balance“ sorgen. Sie soll eine dynamische Anpassung der Leistung gewährleisten, so dass beide GPUs mit der jeweils gleichen Frequenz arbeiten und nicht einer der beiden Grafikchips zum Performance-Flaschenhals führt. Inwieweit diese Technologie ausgereift ist und die für den Dual-GPU-Betrieb (leider) häufigen Micro-Ruckler verhindert, bleibt abzuwarten.

Speziell im Bereich des angekündigten 5K-Gaming-Stand und im MultiMonitor-Bereich soll das neue Spitzenmodell seine Stärken voll ausspielen können.

Zwei achtpolige PCI-Express-Anschlüsse sollen die Stromzufuhr sicherstellen. Entsprechend ihren Leistungsdaten braucht die Titan Z davon auch ein ordentliches Maß. 375 Watt soll die Karte verbrauchen.

Soviel Leistung will natürlich ausreichend gekühlt werden. Bei der Lüftung setzt NVIDIA auf einen einzelnen Axial-Lüfter der zentral auf dem robusten Aluminium-Gehäuse platziert ist.

Im Triple-Slot-Design wirkt die Titan Z äußerst futuristisch – und so scherzte NVIDIA-CEO Jen-Hsun Huang bei der Präsentation auch, dass die GeForce GTX  Titan Z von außerirdischer Technologie inspiriert worden sei.

 

Außerirdisch ist auch der angekündigte Preis. Für stolze 2990 US$ soll die Karte auf den Markt kommen, was wohl (plus Steuern) einen europäischen Straßenpreis von nahezu 2500 € bedeuten würde.

Dementsprechend ist die neue Superkarte wohl auch nur für ganz wenige – gut betuchte – Technik-Enthusiasten oder Entwickler von Interesse.

 

AMD Dual Graphics

Das Prinzip der Dual-Graphics-Lösung von AMD klingt vielversprechend:

dual

Man nehme eine APU mit integrierter Grafikeinheit, kombiniere diese mit einer dedizierten Grafikkarte und schon hat man eine Grafiklösung, die zum kleinen Preis hochklassige Gamingleistung liefert.

Eine echte Alternative zu teureren Grafikkarten sollte diese Option bieten. Bereits bei Einführung der ersten Generation der APU Kombi-Prozessoren vor einigen Jahren kündigte AMD diese Möglichkeit an, damals noch unter dem Namen Hybrid CrossfireX. Schnell zeigte sich jedoch, dass das Zusammenspiel der iGPU (integrierten Grafikeinheit) und der dedizierten Grafikkarte alles andere als ausgereift war. Mikroruckler und fehlerhafte Darstellungen konnten einem den Spaß am Spielen verleiden, so dass es lediglich in der Theorie eine echte Alternative zu leistungsstarken Grafikkarten blieb.

Seitdem wurden Veränderungen an AMDs Catalyst-Treiber durchgeführt, um die Probleme der Crossfire- und Hybrid Crossfire-Funktionen zu beheben.

Als im Oktober 2013 die neue „Hawaii“ Grafikkarten-Generation vorgestellt wurde, hatte man bei AMD bereits den Catalyst 13.8 Beta Treiber veröffentlicht, der ein funktionierendes Frame Pacing bot und einen einsatzfähigen Dual-Graphics-Modus der dedizierten R9 290X und R9 290 Grafikkarten ermöglichte.

Frame Pacing kontrolliert dabei die Synchronität der Grafikberechnungen beider GPUs im Dual-Modus. Die Ausgabe jedes einzelnen Frames wird angepasst, um eine möglichst gleichmäßige Bildausgabe zu gewährleisten.

Ende 2013 wurde mit dem Catalyst 13.12 erstmals eine finale Treiber-Version released, die Frame Pacing unter DirectX 10 und DirectX 11 sowie Auflösungen bis zu 2560 x 1600 Pixel unterstützt.

 

Vor einem Monat nun wurde die Treiber-Version Catalyst 13.35 Beta X bereitgestellt. Diese beinhaltet weitere Neuerungen: Frame Pacing funktioniert jetzt auch mit den kostengünstigeren R7 Grafikkarten. Höhere Auflösungen als 2560 x 1600 Pixel sowie die Multi-Monitor-Eyefinity und auch die APUs der ersten und zweiten Generation „Richland“ und „Trinity“ werden ebenfalls unterstützt.

Bei der Nutzung des Dual-Grafik-Modus ist Frame Pacing bereits in den Voreinstellungen des Catalyst Treibers aktiviert.

catalyst

Nun aber zu der wichtigsten Frage: Was bringt AMD Dual-Graphics effektiv?

Die Neuerungen seit Erscheinen des Catalyst 13.35 Beta Treibers scheinen sich auszuzahlen. Auf der Webseite von PC Perspective (englisch) befindet sich ein ausführlicher Test der neuen Funktionen und umfangreiche Spiele-Benchmarks. Getestet wurde mit den Games Battlefield 3, Skyrim, Bioshock Infinite, GRID 2 und Battlefield 4.

Es zeigt sich, dass bis auf Skyrim alle Titel von der verbesserten Performance der Dual-Grafik profitieren. Da Skyrim noch DirectX 9 nutzt und diese Version nicht von der Dual-Grafik unterstützt wird, entfällt hier die Performance. Battlefield 3 hingegen kann in der durchschnittlichen Framerate um bis zu 35% zulegen.

Um uns selbst ein Bild zu machen, haben wir eines unserer Systeme mit AMD Dual-Graphics ausgestattet und getestet.

Zum Einsatz kam ein System, das wie folgt konfiguriert war:

  • AMD A8-6600K APU („Richland“)
  • AMD Radeon R7-250 1 GB GDDR5
  • 8 GB DDR3 1600 MHz
  • MSI A78M-E35
  • 1000 GB HDD Western Digital
  • Windows 7 Home Premium 64-Bit SP1

Als Treiber-Version wurde Catalyst 14.2 V1.3 Beta verwendet und die Framerates wurden per FRAPS aufgezeichnet. Eine 2 Minuten Sequenz von Battlefield 4 in Low-Settings wurde als Referenz verwendet.

 

DUAL_BF4

Man sieht, dass die dedizierte Grafikkarte sowie die Dual-Grafik eine deutlich bessere Performance liefern als die reine APU-Leistung. Das war auch zu erwarten. Weniger groß ist allerdings der Unterschied zwischen der Leistung der R7-250 und der Kombination APU 6600K+R7 250.

Ausschlaggebend hierfür mag die Konfiguration des Testsystems sein. So wird in unserem Fall die Grafikleistung der APU durch den Arbeitsspeicher limitiert. Ein 2133 MHz getakteter RAM würde eine signifikantere Verbesserung darstellen, wie unsere bisherigen Tests zeigten. Auch eine Grafikkarten-Version mit DDR3-Speicher, die das Synchronisieren der Speichertaktung mit dem RAM einfacher macht, könnte das Frame Pacing verbessern.

Dennoch ergeben sich leicht verbesserte Höchstwerte sowie um ca. 10 % gesteigerte Durchschnittswerte für die Dual-Grafik-Lösung.

Vergleich_BF4

 

Seit Oktober befindet sich AMD auf dem Weg, die lang angekündigte Dual-Grafik, früher Crossfire / Hybrid-Crossfire, zur versprochenen Praxisreife zu bringen. Durch die Verbesserungen des Catalyst-Treibers im letzten halben Jahr scheinen die bisherigen Darstellungsprobleme der Vergangenheit anzugehören und auch die Unterstützung hoher Bildschirmauflösungen ist umgesetzt.

Inwieweit die Dual-Grafik-Lösung eine ernsthafte Alternative für das Gaming darstellt, ist diskussionswürdig. Da AMD den Einsatz der R7-Reihe plus APU empfiehlt, und damit die kleinen Karten der neuen Serie, darf man keine allzu großen Leistungssprünge erwarten. Der Performancezuwachs durch die Dual-Grafik  ist feststellbar, jedoch nicht so erheblich wie im Vorfeld erwartet.

Es bleibt abzuwarten, wie die Entwicklung der Dual-Grafik weitergehen wird. Eine echte Alternative zu dedizierten Grafikkarten der gehobenen Klasse kann die Dual-Grafik momentan noch nicht bieten. Für spielbare Performance zum kleinen Preis ist die Dual-Lösung jedoch eine echte Option.

AMD Steamroller Architektur und Heterogeneous Queuing

Demnächst ist es wieder soweit: AMD bringt neue Technologien auf den Markt: Eine neue Architektur und das sogenannte Heterogeneous Queing. Aber was ist das alles eigentlich?
Fangen wir mit (hQ) an.
Bereits seit einiger Zeit sind onBoard-Grafikeinheiten leistungsfähig genug, um vollwertigen Gtafikkarten im unteren Leistungssegment Konkurrenz zu machen. Gerade da AMD hat mit den APUs, die CPU und GPU vereinen, eine starke Produktgruppe zur Hand. hQ ist ein neues Konzept von AMD, um die Verzahnung von CPU und GPU zu verbessern und somit noch mehr Leistung herausholen zu können.
Dazu richtet es für die CPU- und GPU-Aufgaben sogenannte Application Task-Queues ein, die die anfallende Arbeit verteilen können und dabei das Betriebssystem umgehen, wodurch Umwege über Kernel und Treiber verkürzt und somit für höhere Arbeitsgeschwindigkeiten sorgt.

Eine weitere Neuerung ist, dass die GPU nun auch die CPU mit Aufgaben versorgen kann. Bisher war die Beziehung zwischen CPU und GPU eine Master/Slave Beziehung, nun ist sie eine gleichwertige.

Diagrammdarstellung von Heterogeneous QueuingQuelle: Heise.de

Diagrammdarstellung von Heterogeneous Queuing
Quelle: Heise.de

Und auch wenn es möglich wäre, all dies über Software zu erreichen, so hat AMD sich dafür entschieden eine Hardwarelösung zu nutzen, die sich deutlich positiver auf die Performance auswirken soll. Und letztlich steht allen Heterogeneous System Architecture-Partnern eine direkte Schnittstelle zur Verfügung, so dass ihre Hardware direkt und schnell auf die CPU zugreifen kann und Applikationen wie Finanzsoftware, Bild- oder Videoverarbeitung können ihre Aufgaben dann optimal verteilen, um das Bestmögliche Ergebnis zu erzielen.
Interessant ist hierbei übrigens, dass Intel zwar mit C++-AMP etwas ähnliches, jedoch nur sehr stiefmütterlich behandeltes System offeriert und die AMP-Nutzerszene vergleichsweise klein ist.

Und Architekturen, gerade Steamroller?
Nun, immer wieder liest und hört man von den verschiedenen Architekturen, nach denen moderne CPUs aufgebaut sind. Im Falle von AMD ist dies meist die Bulldozer Architektur, deren Bezeichnung bisweilen auch um Piledriver ergänzt oder ersetzt wird. Und demnächst kommt Steamroller dazu.
Aber was genau hat es damit auf sich und was ist der Unterschied zwischen Bulldozer, Piledriver und Steamroller?
Bulldozer ist der Nachfolger von K10, beides von AMD entwickelte sogenannte Mikroarchitekturen. Mikroarchitektur bezieht sich hierbei auf die internen Abläufe bei der Befehlsverarbeitung und nicht den tatsächlichen, physischen Aufbau eines Prozessors.

AMD_Bulldozer_block_diagram_(CPU_core_bloack)

Bildliche Darstellung des Modul-Aufbaus der Bulldozer Architektur.
Quelle: Wikipedia.de

Im Gegensatz zum K10 Design basiert Bulldozer auf Modulen, von denen jedes von Betriebssystemen als zwei logische Prozessorkerne erkannt wird, was es möglich macht, bis zu acht Threads gleichzeitig ablaufen zu lassen.
2012 kam dann Piledriver – bei APUs auch als Trinity bekannt -, die erste Überarbeitung von Bulldozer. Änderungen umfassten unter anderem die Unterstützung von FMA3 (das Intel erst mit der Anfang 2013 eingeführten Haswell Architektur übernahm), sowie höhere Geschwindigkeiten in der Prozessverarbeitung.
Und nun steht die zweite Überarbeitung bevor: Steamroller, für APUs auch als Kavari bezeichnet, dass die auf Piledriver basierenden Richland-APUs ersetzen soll (mehr dazu im nächsten Blog-Beitrag).

NVIDIA GeForce GTX 780 Ti

Die schnellste NVIDIA SingleGPU-Grafikkarte – GeForce GTX 780 Ti

geforce-gtx-780-ti-revealAm 07. November war das Release der neuesten High-End-Grafikkarte NVIDIA GeForce GTX 780 Ti.

Die GeForce GTX 780 Ti ist nach der GeForce GTX 780 und der GeForce Titan die dritte Karte, die auf einem GK110-Prozessor basiert. Erstmals wird aber das volle Potential des GK110-Grafikprozessors verwendet, was die GTX 780 Ti zur schnellsten Single-Chip-Grafikkarte aus dem Hause NVIDIA macht. Anders als die Titan, die eher auf (semi-)professionelle Entwickler abzielt, ist die GTX 780 Ti speziell für auf PC-Spiele zugeschnitten und wohl als direkte Konkurrenz zur AMD Radeon R9 290X gedacht.

Die reinen Zahlen der GTX 780 Ti lesen sich beeindruckend:

Der Grafikprozessor verfügt über die maximale Anzahl von 2880 CUDA-Recheneinheiten und einer fixen Basistaktung von 876 MHz, der sich dank GPU Boost 2.0 auf mindestens 928 MHz anheben lässt. In der Praxis sollen aber wohl selbst 1000 MHz kein Problem darstellen.

Ein GDDR5-Speicher mit 1750 MHz ist über ein 384-Bit Speicherinterface angebunden und ermöglicht eine Speicherbandbreite von 336 GBit/s. Allerdings ist  der Speicher mit 3 GB geringer ausgefallen als bei der Radeon R9 290X (4GB) oder der GTX Titan (6GB). Inwieweit sich das mit den ersten verfügbaren Retail-Karten ändert, bleibt abzuwarten.  In der Referenzversion verhindert der GPU Boost 2.0 das Überschreiten des Thermal Power Designs von 250 Watt. Mit verbesserten Kühlsystemen besteht hier also durchaus noch Spielraum nach oben.

Unterstützt wird nach wie vor nur die DirectX Version 11.0 wohingegen die R9 290X schon die volle Unterstützung für DirectX 11.2 bietet.

GTX 780 TI GRAFIKPROZESSOR:
CUDA Recheneinheiten 2880
Basis-Taktung (MHz) 875
Boost-Taktung (MHz) 928
Textur-Füllrate (GigaTexels/Sek.) 210

 

GTX 780 TI SPEICHER:
Speichertaktung 7.0 Gbps
Standard-Speicherkonfiguration 3072 MB
Speicherschnittstelle GDDR5
Breite der Speicherschnittstelle 384-bit
Speicher-Bandbreite (GB/s) 336

(Quelle:  www.nvidia.de)

 

Wichtiger als die reinen Zahlen ist jedoch die Praxis. Die im Netz kursierenden Benchmarks zeigen, dass sich die GTX 780 Ti ein Kopf-an-Kopf-Rennen mit der Radeon R9 290X um den Spitzenplatz in Sachen Gamingleistung liefert. Während die GTX 780 Ti bei geringeren Auflösungen bis einschließlich 1080p Full HD die Nase leicht vorne hat, spielt die R9 290X ihre Stärken in höheren Auflösungen bis Ultra HD 4K aus. Die Vergleichbarkeit der beiden Spitzenkarten wird allerdings durch die singulären Features, GPU Boost 2.0 bzw. Quiet/Über-Modus (R9 290X) erschwert.

 

Die Performance der GTX 780 Ti im Vergleich zu anderen NVIDIA Karten wird an folgender Grafik deutlich, wobei darauf hingewiesen werden muss, dass sowohl die GTX 590 als auch die GTX 690 jeweils mit Dual-GPUs ausgestattet sind.

Quelle: www.nvidia.de

 

Im Vergleich zur GTX 680 zeigt sich ein deutlicher Leistungsvorsprung der GTX 780 Ti

Quelle: www.nvidia.de

 

 

Weitere Features

Die GTX 780 Ti wird mit der Software GeForce Experience in der Version 1.7 ausgeliefert. Sie können mit dieser Software per Klick Ihre optimalen Treiber- und Spieleinstellungen laden. Neu ist die Shadow Play-Funktion, die es ermöglicht, bis zu 20 Minuten eines laufenden Spiels in Full HD-Videoqualität aufzuzeichnen. Gerade für Vielspieler ist das sicherlich eine interessante Variante, um Gaming-Highlights zu sichern.

Mit G-SYNC führt NVIDIA eine weitere Neuerung ein, mit der erstmals die Grafikkarte für die Synchronisation zwischen Display und GPU sorgt – dadurch sollen störende Darstellungsfehler verhindert werden. Anfang des nächsten Jahres sollen entsprechende Monitore mit G-SYNC auf den Markt kommen, die dann bereits ab Werk mit der neuen Technologie ausgestattet sind oder zumindest eine Nachrüst-Option bieten.

 

Zur Zeit und nur so lange der Vorrat reicht liefern wir die GeForce GTX 780 Ti mit einem hochwertigen Spielebundle, das Assassin’s Creed IV: Black Flag, Batman: Arkham Origins und Splinter Cell: Blacklist umfasst.

 

Mit der GeForce GTX 780 Ti hat NVIDIA eine Single-GPU-Karte im Programm, die im Gaming-Bereich die GTX Titan überholt und sich mit der Radeon R9 R290 X und den Spitzenplatz streitet. Die kleine Schwester GTX 780 wird deutlich hinter sich gelassen.

Im Vergleich zu der Konkurrenz von AMD, über die GTX 780 Ti den geringeren Stromverbrauch und den leiseren Betrieb in die Waagschale. Die R9 290X kann jedoch mit einem deutlich günstigeren Preis auftrumpfen.

Letztendlich sind sowohl die R9 290X als auch die GTX 780 Ti leistungstechnisch auf allerhöchstem Niveau und werden von aktuellen Spielen bei weitem nicht an ihre Grenzen geführt.

Die neuen AMD R9-Grafikkarten

52918A_AMD_Rad_EmbroideryAm 24. Oktober war es soweit: AMD hat eine neue Grafikkarte aus der R9-Serie, die Radeon™ R9 290X, auf den Markt gebracht, untermalt von einer entsprechenden Präsentation. Was bedeutet das? Wie unterscheiden sich diese Karten von vorherigen Modellen? Sind sie wirklich so viel besser, wie AMD sagt?

Zunächst einmal: Wie schon die vorherigen Karten der 7000er Reihe, verfügen auch diese Karten über die Graphics Core Next (GCN) Architektur, die die zu verarbeitenden Daten besser verteilt und managed. Bei der zuvor verwendeten VLIW-Architektur war es so, dass es Abhängigkeiten bei der Berechnung gab, bestimmte Befehlslisten – auch Wavefronts genannt – erst ausgeführt werden könnten, wenn zuvor eine bestimmte andere Wavefront abgearbeitet worden war. Dies fällt in der GCN-Architektur weg, da hier die Befehlslisten einzeln zugeteilt und abgearbeitet werden, was Flaschenhälse verhindert und die Effizienz erhöht. Folglich werden die Leistung der Karte und damit die Bilddarstellung erheblich verbessert.

Dabei spielt auch AMD Mantle eine wichtige Rolle. Mantle ist eine neue Grafikschnittstelle von AMD, die OpenGL und DirectX ähnelt – die natürlich beide ebenfalls von den neuen Karten unterstützt werden. Ein wichtiger Unterschied ist, dass Mantle offener konzipiert ist als z.B. DirectX, was dazu führt, dass sie für Programmierer einfacher zu nutzen ist und auch auf anderen, bzw. älteren, Betriebssystemen genutzt werden kann. So kann DirectX 11.1 erst mit Windows 8 genutzt werden, wohingegen Mantle auch für Windows 7 zur Verfügung steht. Eine der ersten Mantle unterstützenden Spiele-Engines ist übrigens Frostbite Engine, die für den Shooter Battlefield 4 eingesetzt wird – der zusammen mit den neuen Grafikkarten beworben wird und als Bundle erhältlich ist.

Auch sollen die neuen Karten 4K-Auflösung unterstützen, die eine vier Mal höhere Auflösung als HD bietet (das immerhin 1920 × 1080 Pixel hat) und das auch noch auf bis zu 4 Bildschirmen! Augenschmaus pur.

Und auch für die Ohren soll es etwas Neues geben: Die AMD TrueAudio Technologie, die die Klangqualität und Bandbreite und Sounds in darauf ausgelegten Spielen und Anwendungen noch weiter verbessern soll, um neben der visuellen auch noch die Audiopräsentation zu verbessern.

Technisch unterstützen die beiden R9er DirectX 1.2, haben einen maximalen GPU-Takt von 1000 MHz sowie 4 GB Grafikspeicher mit einer Taktung von bis zu 5 GHz und einer Speicherübertragungsrate von 320 GB/s. Und um nochmals auf die GCN-Architektur zurückzukommen: Der Grafikchip der R9 290X hat 43% mehr Transistoren als ihre Vorgänger, ist aber nur unwesentlich größer und hat gut die doppelte Leistungsfähigkeit seiner Vorgänger. Und sie ist mit 475 Euro sogar sehr günstig bei ihrer Leistung.

Ihre Nachteile sind die Leistungsaufnahme – 266 Watt sind es, die sich beim Betrieb benötigt – und dass sie automatisch bei Erreichen einer Temperatur von 94° und 40% der maximalen Lüfterdrehzahl die GPU-Taktfrequenz drosselt, was relativ schnell geschieht und am besten durch eine sehr gute Kühlung bzw. Gehäusedurchlüftung vermieden wird.

Die Alternative: Der „Uber-Modus“. Hier ist die 290X nochmal etwas leistungsstärker, es dauert bis zu 55% Lüfterdrehzahl, ehe sie heruntertaktet  – allerdings ist sie auch mehr als doppelt so laut wie zuvor.

Natürlich verfügt sie auch über die bereits in früheren Karten genutzten Fähigkeiten: Eyefinity, mit der bis zu 6 Monitore gleichzeitig betrieben und genutzt werden können. Die ZeroCore Technologie, die den Stromverbrauch nahezu auf 0 reduziert, wenn die Karte nicht genutzt wird. HD3D, um 3D-Monitore und –Brillen zu unterstützen. Und natürlich CrossFire, um mehrere AMD Grafikkarten zu koppeln und gemeinsam zu nutzen, für noch mehr Leistung.

Die neue Radeon R9 290X

Die neue Radeon R9 290X
Quelle: AMD

Somit wären die neuen R9er schneller, hätten eine höhere Auflösung und Bildqualität als frühere Karten, besitzen (eine begrenzte) Audiounterstützung, sind mit einer neuen Schnittstelle in Konkurrenz zu DirectX und haben auch gleich ein passendes Spiel dabei, um all dies zu nutzen und auszureizen.

Und das wahlweise im Bundle mit Battlefield 4 oder sogar im Komplettpaket mit einem PC samt BF4 Motiv auf dem Gehäuse.


GPU-Computing

TeslaKeplerGK110_FNL_800_PR

Die Shot: NVIDIA Kepler GPU (Quelle: NVIDIA)

Mit dem Begriff GPU-Computing bezeichnet man den Einsatz von Grafikprozessoren als zusätzliche CPUs, wobei das Verfahren eigentlich GPGPU (General Purpose Computation on Graphics Processing Unit = Mehrzweck-Berechnung über den Grafikprozessor) heißt.

Die Ausführung von parallelen Algorithmen kann auf die Weise erheblich beschleunigt werden.

Entwicklung

Zunächst dienten Grafikprozessoren allein den Zweck, die Pixel von Bildschirmseiten zu berechnen und zu mehr war ihr Funktionsumfang, noch die kompletten neunziger Jahre hindurch, auch nicht in der Lage. Anfang dieses Jahrhunderts hat sich die grundsätzliche Systematik bei der Berechnung von Computergrafiken geändert, weil die stetig steigenden Anforderungen, besonders aus dem Bereich der Videospiele, nicht mehr mit der bis dahin genutzten Technik umgesetzt werden konnten. Nun mussten die Shader, so heißen die Recheneinheiten der GPUs, nicht nur immer mehr Pixel gleichzeitig berechnen können, sondern auch immer komplexere Funktionen für einzelne Pixel durchführen können, um z.B. aufwendige 3D-Effekte berechnen zu können.

Diese Entwicklung führte dazu, dass die Shader im Laufe der Zeit zu frei programmierbaren Recheneinheiten wurden, von denen in modernen Grafikkarten nicht selten rund 1000 Stück ihren Dienst verrichten.

Funktionsweise

Anders als CPUs, die darauf ausgelegt sind, ein bestimmtes Programm möglichst schnell auszuführen, versuchen GPUs möglichst viele Berechnungen gleichzeitig auszuführen. Dabei profitieren Sie von ihrer hohen Speicherbandbreite und der hohen Anzahl ihrer Recheneinheiten, obwohl die einzelnen Shader relativ simpel strukturierte „In-Order“ Prozessoren sind, d.h. auf jede Eingabe folgt eine Berechnung und ein Ergebnis. Die Techniken der Rechenkerne in modernen CPUs wie Sprungvorhersagen und spekulative Ausführung von Anweisungen kennen sie gänzlich nicht. Ebenso benötigen sie für ihre Arbeit keine der großen Cache-Speicher, über die CPUs verfügen.

Aus diesem Grund sind die Kerne in CPUs auch nicht mit den „Kernen“ in GPUs vergleichbar. Dafür ist es aber möglich, sehr viele Shader in einer GPU unterzubringen und hier liegt eben ihre große Stärke, in der parallelen, massenhaften Ausführung von Operationen.

Eine Software die GPGPU nutzt, besteht immer aus zwei Komponenten. Die eine Komponente regelt die Arbeit der CPU, übersetzt die Instruktionen an die GPU und steuert sowohl den Datenstrom zur GPU als auch den Rückstrom der Ergebnisse. Die andere Komponente enthält den Programmablauf für die GPU, sprich die Anweisungen, die in den Shadern ausgeführt werden sollen.

Damit das richtig gut funktioniert, braucht man neben der geeigneten Software auch eine geeignete Aufgabe. Am besten eine, bei der riesige Mengen von eigenständigen (Teil-) Berechnungen auszuführen sind, d.h. Berechnungen, die nicht von den Ergebnissen vorangegangener Berechnungen abhängen. Oder anders gesagt, eine Aufgabe, die sich gut parallelisieren lässt.

Kurzum mit der richtigen Software und der richtigen Aufgabe kann ein einfacher PC durch GPGPU zu einer Art Supercomputer gemacht werden. Aber eben auch nur dann.

Einsatzgebiete

Die hauptsächlichen Einsatzgebiete für GPGPU sind technische und wissenschaftliche Anwendungen, bei denen riesige Datenmengen analysiert und berechnet werden müssen, wie z.B. physikalische Simulationen, Klimamodelle, Finanzmathematik, Kryptographie und vieles mehr. Diese Aufgaben können sehr gut parallelisiert werden, weil massenhaft Einzelberechnungen durchgeführt werden müssen, die nicht von Vorergebnissen abhängen.

Wohingegen es im Bereich der privaten Computer-Nutzung fast keinen sinnvollen Einsatz dieser Technik gibt. Da typische Alltagssoftware Berechnungen ausführt, die sich schlecht bis gar nicht parallelisieren lassen und auch häufig keine ausreichende Wertemenge liefern, kann sie nicht oder nur sehr wenig von den Vorteilen des GPGPU profitieren.