CSL-Computer Shop

CSL-Computer: Blog

Infos und Hintergründe zu aktueller PC-Technik

CSL-Computer: Blog - Infos und Hintergründe zu aktueller PC-Technik

Supercomputer

Der Cray-1 im deutschen Museum

Der Cray-1 im deutschen Museum
Quelle: Wikipedia

In unserem heutigen Blog-Artikel wollen wir uns mit den sogenannten „Supercomputern“ beschäftigen. Als Supercomputer oder auch Superrechner werden die schnellsten Rechner Ihrer Zeit bezeichnet. Diese Computer sind auf unterschiedlichen Prozessorarchitekturen basierende Parallelrechner, das heißt, Ihre Operationen werden gleichzeitig auf mehrere CPUs verteilt.

Die Leistungsfähigkeit wird dabei mit Hilfe des LINPACK Benchmarks in FLOPS (Floating Point Operations Per Second) berechnet, das ist die Anzahl der Gleitkommazahl-Operationen, die von einem Computer pro Sekunde ausgeführt werden können. Da heutige Supercomputer endlos lange Zahlen von FLOPS erreichen würden, wurde der Einheit noch ein Zusatz hinzugefügt. So gibt es bspw. KiloFLOPS (10^3 FLOPS), MegaFLOPS (10^6) oder PetaFLOPS (10^15). Der erste offiziell installierte Supercomputer wurde von der Firma Cray in den 1970er Jahren hergestellt und schaffte 130 MegaFLOPS (130.000.000 FLOPS). Eine Intel Core i7-965 CPU aus dem Jahr 2008 schafft bspw. 33.000 MegaFLOPS und eine GeForce GTX Titan theoretisch 4.500.000 MegaFLOPS. Genau genommen wären heutige Standardcomputer also bereits Supercomputer, wenn es sie zu früheren Zeitpunkten gegeben hätte.

Die aktuellen Supercomputer sind natürlich nicht mit denen von vor einigen Jahren zu vergleichen. Aufgrund dessen gibt es die halbjährlich aktualisierte TOP500-Liste, die die schnellsten Superrechner nach Leistung aufführt. (siehe unten)

Leistung

Der Tianhe-2 - Quelle: geeky-gadgets.com

Der Tianhe-2
Quelle: geeky-gadgets.com

Um Ihnen die enorme Leistungsfähigkeit aktueller Superrechner zu demonstrieren, würde ich Ihnen gerne zwei Beispiele nennen:

-Sämtliche Berechnungen aller Computer weltweit von 1960 bis 1970 könnte der Earth Simulator (Supercomputer aus dem Jahr 2002) in etwa 35 Minuten durchführen.

-Wenn jeder der rund 7 Milliarden Menschen auf der Welt mit einem Taschenrechner ohne jede Unterbrechung in jeder Sekunde eine Rechnung absolvierte, müsste die gesamte Menschheit 18 Jahre arbeiten, um das zu erledigen, was der IBM Roadrunner (Supercomputer aus dem Jahr 2008) in einer Stunde bewältigt.

Sie sehen also, ein Supercomputer besitzt ein für den menschlichen Verstand fast unvorstellbares Leistungsvermögen. Doch was heißt das in Zahlen ausgedrückt? Nehmen wir beispielsweise die aktuelle Nr. 1 aus der TOP500-Liste, den „Tianhe-2“. Der Tianhe-2 hat zwar auf den ersten Blick einen unscheinbaren Namen, doch steckt dahinter ein Monster in Sachen PC-Leistung. Er besteht aus 32.000 Intel Xeon E5-2692 CPUs (jeweils 12 Kerne mit 2,2 GHz) und 48.000 Intel Xeon Phi 31S1P Co-Prozessoren (jeweils 57 Kerne mit 1,1 GHz). Der beschauliche Arbeitsspeicher beträgt 1,4 PB RAM. Klingt wenig? Das sind 1.400 Terabyte oder auch 14.000 Gigabyte. Dieser PC steht, wie sollte es auch anders sein, in China und erreicht 33.86 PetaFLOPS (33.863.000.000.000.000 FLOPS). Für Menschen, die im Alltag nicht allzu viel mit derartigen Zahlen zu tun haben: Es handelt sich dabei um ca. 34 Billiarden Gleitkommazahl-Operationen, die dieser Computer pro Sekunde(!) berechnet.

Der aktuell schnellste Supercomputer in Deutschland steht im Forschungszentrum Jülich und besitzt 28.672 Power BQC-Prozessoren (jeweils 16 Kerne mit 1,60 GHz) sowie 448 TB RAM. Er erreicht beachtliche 5,9 PetaFLOPS und landet somit auf dem 6. Platz der TOP500-Liste.

Einsatzorte

Nachdem man das Ausmaß der Leistung nun gesehen hat, fragt man sich natürlich, wozu man eine solche überhaupt benötigt. Zunächst einmal sollte erwähnt werden, dass die Anschaffungskosten eines Supercomputers selbst für die größten Unternehmen unseres Planeten keine Peanuts sind. Die Herstellungskosten der TOP10 bewegen sich derzeit in einem sehr hohen zweistelligen, oftmals bereits dreistelligen Euro-Millionenbetrag. Hinzu kommt, dass Supercomputer überraschenderweise sehr viel Strom verbrauchen. So liegen die Stromkosten pro Jahr im Bereich von mehreren Millionen Euro.

Die Großzahl der aktuellen Superrechner wird zu Simulationszwecken in den Bereichen Biologie, Chemie, Geologie, Luft- und Raumfahrt, Medizin, Wettervorhersage, Klimaforschung, Militär und Physik eingesetzt. Sie ermöglichen, Konsequenzen von bestimmten Ereignissen zu berücksichtigen oder sogar zu prognostizieren, wodurch bereits weit im Vorfeld etwaige Gegenmaßnahmen getroffen werden könnten. Dies gilt z.B. bei Simulationen zum Klimawandel, der Vorhersagen von Erdbeben oder Vulkanausbrüchen sowie in der Medizin bei der Simulation neuer Wirkstoffe auf den Organismus. Durch Ihre enorme Leistung können Supercomputer also innerhalb von kürzester Zeit Forschungsarbeit leisten, die ohne sie Jahre oder sogar Jahrzehnte dauern würde.

Fazit

Supercomputer haben Ihren Namen wirklich verdient. Sie nehmen den Menschen eine enorme Anzahl aufwendigster Arbeitsaufgaben ab und führen Sie mit chirurgischer Präzision durch. Ihren Berechnungen haben wir es zu verdanken, dass wir heutzutage viele Dinge wissen, bevor sie überhaupt geschehen und im Bereich der Medizin gäbe es ohne die Supercomputer sicher nicht so viele wichtige Medikamente, wie wir es heute gewohnt sind.

Die aktuellen TOP 3 (Stand Juni 2013)

Platz Name Prozessoren Arbeitsspeicher Standort PetaFLOPS
1 Tianhe-2 32.000 Intel Xeon E5-2692 CPUs (Ivy Bridge, 12 Kerne, 2,2 GHz) + 48.000 Intel Xeon Phi 31S1P Co-Prozessoren (57 Kerne, 1,1Ghz) 1,4 PB Guangzhou, China 33,86
2 Titan Cray XK7, 18.688 AMD Opteron 6274 CPUs (16 Kerne, 2,20 GHz) + 18.688 Nvidia Tesla K20 GPGPUs 693,5 TB Tennessee, USA 17,59
3 Sequoia IBM BlueGene/Q, 98.304 Power BQC-Prozessoren (16 Kerne, 1,60 GHz) 1,6 PB Kalifornien, USA 16,32

Far Cry 3: Blood Dragon

blooddragonSeit kurzem bieten wir zu allen AMD A10-APUs das Spiel Far Cry 3: Blood Dragon an. Aber ist die Grafikeinheit in den APUs denn wirklich so leistungsfähig, dass Gaming mit ihr richtig Spaß macht?

Um diese Frage beantworten zu können, haben wir FC3: Blood Dragon auf einem unserer Angebots-PCs mit AMD A10-APU installiert und getestet.

Das Spiel

Wikipedia beschreibt den Open-World Ego-Shooter Far Cry 3: Blood Dragon folgendermaßen:

„Far Cry 3: Blood Dragon ist in einem neon-poppigen retrofuturistischen Stil der Achtzigerjahre gehalten. Die Charaktere, Handlung, Gewaltdarstellung und „Zeichentrickfilm“-Zwischensequenzen sind stilistisch stark überzeichnet, selbstironisch und wimmeln nur so vor schwarzem Humor und Referenzen zu Action- und Science-Fiction-Filmen der 1980er, wie beispielsweise Terminator und Predator. Far Cry 3: Blood Dragon hat keinerlei inhaltlichen Bezug zu Far Cry 3, sondern stellt ein eigenes Spiel dar.“  (Quelle: Wikipedia, http://de.wikipedia.org/wiki/Far_Cry_3:_Blood_Dragon )

Der Download

Dem PC liegt ein Promo-Flyer mit einem Bonus-Code bei, der auf der Internetseite von AMD eingelöst werden kann. Im Anschluss bekommt man einen neuen Bonus-Code für den Ubisoft Shop, mit dem das Spiel kostenlos heruntergeladen werden kann. Der Ablauf funktioniert soweit reibungslos, auch angekündigte E-Mails werden schnell zugestellt.

Einen kleinen Stolperstein gibt es jedoch: Aus Jugendschutzgründen kann der Kauf des USK16 Titels nur zwischen 22 Uhr und 6 Uhr durchgeführt werden. Dies gilt allerdings nur für den Kaufvorgang, der Download des Spiels kann danach mit Hilfe der kostenlosen Software Uplay zu beliebiger Uhrzeit durchgeführt werden. Die Verbindungsgeschwindigkeit ist gut – die 3 GB des Spiels brauchten weniger als 30 Minuten über eine 50 MBit Leitung.

Der Test

Unser Testkandidat ist der CSL Sprint 5764 (Quad). Mit aktuell (26.08.2013) 449,- Euro liegt das System preislich im Mittelfeld, der im CSL-Shop erhältlichen PCs mit AMD A10-APU.

Die Ausstattung des Test-Systems umfasst eine AMD A10-6800K Black Edition APU mit 4× 4100 MHz aus der aktuellen Richland-Generation und die ebenfalls im Chip verbaute Grafikeinheit AMD Radeon HD 8670D (4096 MB HyperMemory). Die APU sitzt, zusammen mit 16 GB RAM, auf dem ASUS A85XM-A Mainboard mit 7.1 HD Audio onBoard-Sound. Die Festplatte ist ein 1000 GB SATA Laufwerk.
Alle weiteren Ausstattungsmerkmale des PCs spielen für den Test keine Rolle.

Nach dem Start des Spiels wird man von einem Vorspann empfangen, der aus Standbildern, wie Comic-Panels, zusammengeschnitten ist und dem Autoren dieses Artikels spontan einen kleinen Nostalgie-Schub bescherte, denn so sahen Spiele auf seinem ersten PC aus. Die Zwischensequenzen, die den übergreifenden Handlungsstrang erklären sind ebenso gestaltet.

Bei aller Nostalgie ist es aber dennoch als Glück zu bezeichnen, dass die Ingame-Grafik trotz Retro doch recht hochwertig daherkommt, wenngleich auch sie, wie der Rest des Spiels, mit VHS typischen Scan-Lines und einer vertikalen Bildstörung versehen ist.

Nach einem ersten Feuergefecht als Teil des Vorspanns, in dem der Spieler ein Maschinengewehr in einem Hubschrauber bedienen muss, folgt eine amüsante Tutorial-Sequenz, in der die Steuerung ausführlich erläutert wird und ausprobiert werden kann.

Danach geht es dann, ganz wie man es von einem Ego-Shooter erwartet, direkt zu Sache …

 

In einem ersten Testlauf ließen wir die Grafikqualität-Einstellungen wie sie automatisch eingestellt wurden, d.h. „Allgemeine Qualität“ = „Optimal“, alle weiteren Eigenschaften sind hier auf „Niedrig“ eingestellt. Die Bildschirmauflösung lag bei 1920×1080 Pixeln.

Das Ergebnis kann überzeugen: Die Maps laden schnell und das Gameplay läuft wirklich flüssig ab, hier hat AMD nicht zu viel versprochen.
Die Texturen sehen trotz niedrigen Einstellungen ordentlich aus und auch Flammen und Rauch kommen ganz passabel rüber. Ein paar Abstriche muss man bei der Kantenglättung und den Lichteffekten hinnehmen, aber wirklich gestört hat das nicht, die Konzentration gehört halt doch der Action. Und so ein bisschen passen die kleinen Treppenstufen auf schrägen Kanten ja auch zum Retro-Stil des Spiels.

Jetzt wollten wir wissen, was sich alles aus der APU herausholen lässt und stellten die „Allgemeine Qualität“ auf „Ultra“, wobei alle weiteren Einstellungen auf Werte von „Hoch“ über „Sehr hoch“ bis „Ultra“ umgestellt werden. Die Bildschirmauflösung lag wiederrum bei 1920×1080 Pixeln.

Zwar bleibt das Spiel auch mit diesen Einstellungen einigermaßen spielbar, aber diverse Ruckler und ein eher gemächliches Vorankommen lassen sich hier nicht übersehen. Richtiger Spielspaß sieht anders aus.
An dieser Stelle sei erwähnt, dass im Erscheinungsbild keine Welten zwischen niedrigen und hohen Einstellungen liegen – ganz im Gegenteil: Wie schon erwähnt, passt die etwas unvollkommene Grafikqualität sehr gut zu Thema und Stil des Spiels.

Also schnell wieder die Einstellungen herabgesetzt und weiter geht es.

Fazit

Far Cry 3: Blood Dragon ist ein wirklich witziges und unterhaltsames Spiel, insbesondere für die Kinder der späten 1980er Jahre und Arcade-Freunde. Die onChip-Grafik der A10-APU ist dabei weder ein Hindernis noch ein Nachteil, sondern ermöglicht bei entsprechenden Einstellungen ein flottes und optisch recht attraktives Gameplay. Und wer hier noch etwas mehr mit verschiedenen Qualitäts-Einstellungen und Bildschirmauflösungen testet, findet sicher ein ausgewogenes Spielerlebnis mit Spaß für viele Stunden.

Overclocking Teil 2

Übertakten – aber sinnvoll!

Im zweiten Teil unseres Overclocking-Artikels geht es diesmal etwas genauer ins Detail. Vorab sei aber nochmals darauf hingewiesen, dass Overclocking im schlimmsten Fall zu einer Beschädigung der Hardware führen kann. Für Hardware, die durch Übertakten beschädigt wird, besteht kein Garantie- oder Gewährleistungsanspruch! Beim Finden der richtigen Einstellungen sind Systeminstabilität bis hin zum Datenverlust durchaus möglich.

Overclocking ist ein weitgefächertes Themenfeld, für das man fundierte technische Kenntnisse und Erfahrungen benötigt. Wir möchten Ihnen an dieser Stelle keine detaillierte Anleitung liefern – zu diesem Thema finden Sie in spezialisierten Foren wie Hardwareluxx umfangreiche Informationen – sondern lediglich einen grundlegenden Überblick über die Möglichkeiten des Übertaktens aufzeigen.

Ist Übertakten überhaupt sinnvoll? Das hängt davon ab, was Sie mit ihrem PC machen wollen. Für Standard-Anwendungen, wie Internet- und Office Programme oder alltägliche Mediennutzung, lohnen sich der Aufwand und die investierte Zeit sicherlich nicht. Aufgaben, die das System intensiv in Anspruch nehmen, z.B. Spiele, können vom Overclocking profitieren. Aber auch hier ist der Performancegewinn nicht exorbitant!

Sie sollten immer ein ausgewogenes Verhältnis zwischen Geschwindigkeit und Stabilität im Auge haben. Das schnellste System nützt nichts, wenn es ständig abstürzt!

Viele Mainboards verfügen über eine automatische Overclocking-Funktion, z.B. OC Genie von MSI, die automatisch optimierte Systemeinstellungen findet und durchtestet. Da die Einstellungen jedoch „nur“ im BIOS-Modus getestet werden, kann es danach trotzdem bei laufendem Betriebssystem zu Instabilitäten führen.

Im Folgenden gehen wir etwas genauer auf das Übertakten von CPU und Grafikkarte ein.

 

Übertakten der CPU

Zunächst einmal: Jede CPU ist anders! Das heißt, dass sich auch zwei baugleiche Prozessoren aus derselben Produktionsreihe in der Leistungsfähigkeit unterscheiden und auf unterschiedliche Maximalwerte getaktet werden können. Des Weiteren sollten Sie immer die Temperatur im Auge behalten – mehr Leistung führt zu höherer Wärmeproduktion und verlangt eine stärkere Kühlung. Im moderaten Übertaktungsrahmen reicht ein herkömmlicher Kühler oftmals aus, wenn Sie jedoch größere Leistungssprünge anstreben, sollten Sie die CPU-Kühlung entsprechend anpassen, z.B. durch eine Dual-Fan-Wasserkühlung.

Die Prozessoren der neueren Generation – Intel Core-Reihe und die FX- und A-Series von AMD – liefern eine automatische Übertaktung schon „frei Haus“. Die Intel Turbo Boost- bzw. AMD TurboCORE-Technologien heben die Taktung der Prozessoren automatisch an. Dies geschieht allerdings nur, wenn nicht alle CPU-Kerne voll ausgelastet sind.

Im Folgenden werden wir uns auf zwei Optionen des Overclockings konzentrieren, das Anheben des Grundtakts und die Erhöhung des Multiplikators. Denn diese Faktoren sind bestimmend für die Taktung einer CPU:  (Grundtakt * Multiplikator) = Taktfrequenz.

 

Anheben der Base Clock

Die Base Clock, kurz BCLK, ist die Grundtaktung der CPU, die innere Uhr des Prozessors sozusagen. Eine Intel Core i-CPU aus der aktuellen Haswell-Generation arbeitet z.B. mit einer BCLK von 100 MHz. Diese Basistaktrate kann man in den BIOS-Versionen vieler Mainboard-Hersteller ändern und damit auch die Taktung der CPU erhöhen. Änderungen an der BCLK wirken sich jedoch auch auf weitere Systemparameter aus. Durch das Anheben der BCLK werden u.a. auch die Speicher- und die PCIe-Taktung mit angehoben, was schnell zu Instabilität führt.

Die Haswell-Prozessoren von Intel verfügen über einen Base Clock Strap, der die BCLK der CPU gesondert behandelt und die Taktung der abhängigen Elemente wie Speicher und PCIe-Interface niedrig hält.

Beispiel: Eine Intel Core i7-4770K CPU arbeitet von Haus aus mit 4× 3500 MHz (100 MHz*35). Durch Anheben der BCLK auf 110 MHz erreicht die CPU 3850 MHz (110 MHz*35)

 

Einstellen des Multiplikators

Gerade die FX- und Series-A Prozessoren von AMD werden serienmäßig mit einem offenen, sprich manipulierbarem, Multiplikator ausgeliefert. Bei Intel sind diese Prozessoren an dem Suffix „K“ der Modellnummer zu erkennen (bspw. Core i7-4770K). Auch bei dieser Vorgehensweise werden die Einstellungen im BIOS vorgenommen. Die Bezeichnung CPU-Ratio ist dabei für den Multiplikator gängig. Durch die Erhöhung der CPU-Ratio kann man sehr einfach die Taktung der CPU anheben, ohne andere Parameter zu beeinflussen.

Bespiel: Wieder nehmen wir die Intel Core i7-4770K und erhöhen diesmal den Multiplikator (CPU-Ratio) von 35 auf 40, das bringt eine Taktfrequenz von 4000 MHz (100 MHz*40)

 

Alles stabil?

Wie bereits erwähnt, können die optimalen Overclocking-Einstellungen von CPU zu CPU variieren. Von daher heißt es: Testen und Kontrollieren! Um das System auf Herz und Nieren zu prüfen, empfiehlt sich der Benchmark Linx. Mit dem Diagnoseprogramm CPU-Z erhalten Sie detaillierte Informationen über die Hardware und damit Sie auch die Temperatur (wichtig!) nicht aus den Augen verlieren, empfiehlt sich Speedfan.

Tipp: Testen Sie ausgiebig, ruhig mehrere Stunden und achten Sie darauf, dass die CPU-Temperatur nicht allzu lange deutlich über 70°C liegt.

cpu-z-4.7 (httpmedia.bestofmicro.com)

(Quelle:  www.media.bestofmicro.com)

 

Auf die schnelle Tour

Einen unkomplizierten und schnellen Weg, sein System zu übertakten, bieten spezielle Tools von Intel und AMD, die Ihre Hardware-Einstellungen optimieren.

AMD Overdrive – Overclocking Tool von AMD

Intel Extreme Tuning Utility – Overclocking Tool von Intel

 

Holen Sie mehr aus Ihrer Grafikkarte heraus

Die Übertaktung der Grafikkarte bietet gerade für Gamer den größten Performanceschub. Am besten eignet sich dafür das Tool MSI Afterburner, mit dem Sie nahezu alle AMD- oder NVIDIA-Grafikkarten übertakten können. Auch hier gilt es dringend zu beachten, dass das Risiko einer zerstörten Grafikkarte besteht. Gehen Sie deshalb immer in kleinen Schritten und extrem vorsichtig zu Werke!

MSI Afterburner gibt es hier als freien Download.

Auf dieser Seite finden Sie auch eine detaillierte Anleitung zum Arbeiten mit MSI Afterburner und hilfreiche Videotutorials!

grundlagen01(httpwww.msi-afterburner.de)

(Quelle: www.msi-afterburner.de)

Abschließend sei noch einmal darauf hingewiesen, dass wir hier nur einen Basisüberblick liefern. Wer sein System übertakten möchte, sollte sich tiefergehend mit der Thematik beschäftigen und die technischen Abläufe verstehen, um Hardwareschäden zu vermeiden!

Solid State Drives

Nachdem wir vor einiger Zeit die Unterschiede zwischen Solid State Drives (SSDs) und herkömmlichen Festplatten (Hard Disk Drives = HDDs) in einem unserer Blog-Artikel dargestellt haben, möchten wir heute nochmal einen genaueren Blick auf die SSDs werfen.

Die Bezeichnung „Solid State“ kann frei mit „Festkörper“ übersetzt werden und meint, dass die Technik ohne Elektronenröhren und mechanische Teile auskommt, sondern lediglich aus Halbleiter-Elementen („Chips“) besteht. Der Zusatz „Drive“ (gelegentlich auch „Disk“) soll einen Bezug zu Computer-Laufwerken herstellen, obwohl es sich, wie gesagt, eigentlich nicht um Laufwerke im klassischen bzw. mechanischen Sinn handelt.

Entwicklung

Solid State Disk STK 4305 (Quelle: StorageTek)

Solid State Disk STK 4305 (Quelle: StorageTek)

Die Entwicklungsgeschichte der SSDs begann 1978, als das von ehemaligen IBM-Managern gegründete Unternehmen StorageTek mit der „Solid State Disk STK 4305“ die erste SSD auf den Markt brachte, die allerdings nicht für Endkunden gedacht war, sondern für Großrechner von IBM. Das lag nicht nur an dem stolzen Preis von 8800 US-Dollar/MB (das entspricht 8,8 Mio. US-Dollar/GB) dieser ersten SSD, sondern auch ganz banal daran, dass es 1978 keinen nennenswerten Endkunden-Markt für PC-Systeme und somit auch für Massenspeicher gab. Die Kapazität lag zunächst bei 45 MB und ein Jahr später bei 90 MB bei einer mittleren Zugriffszeit von 6 ms. Trotz der für damalige Verhältnisse beachtlichen Zugriffszeit hatte die „STK 4305“, wie andere Vorläufer der modernen SSDs in den 1980er Jahren auch, einen eklatanten Nachteil: Sie basierte auf flüchtigem RAM-Speicher (siehe unten) und war damit auf eine konstante Stromversorgung angewiesen.

Flashdisk (Quelle: Digipro)

Flashdisk (Quelle: Digipro)

Die erste moderne, auf Flash-Speicher basierende und damit stromversorgungsunabhängige, SSD wurde 1988 vom amerikanischen Unternehmen Digipro unter dem Namen „Flashdisk“ auf den Markt gebracht und in verschiedenen Größen von 2 MB bis 16 MB vertrieben. Etwa zur selben Zeit stellte auch das israelische Unternehmen M-Systems einen Prototyp für eine SSD mit Flash-Speicher vor, der aber erst Mitte der 1990er Jahre vermarktet wurde. Trotzdem war M-Systems Anfang der 1990er Jahre eine der treibenden Kräfte bei der Weiterentwicklung der SSD-Technik und brachte mit der FFD-350 (FFD = Fast Flash Disk) eine der ersten SSDs im 3,5‘‘ Formfaktor heraus, die mit Kapazitäten von bis zu 896 MB erhältlich war. Das ist deshalb erwähnenswert, weil fast alle bis dahin entwickelten Solid State Drives Ausmaße hatten, die zwischen Schuhkarton und Aktenschrank lagen.
Wer ein solches Laufwerk erstehen wollte, musste allerdings noch immer Kosten von zig tausend US-Dollar akzeptieren und so waren auch diese SSDs für den Endkunden-Markt, den es mittlerweile gab, aufgrund des Preises völlig uninteressant.

Das änderte sich erst zu Beginn dieses Jahrhunderts als Transcend im Jahr 2003 eine Reihe Flash-Module vorstellte, die auf einer Technik basierten, die auch in Speicherkarten für Foto-Apparate eingesetzt wurde und als Massenproduktions-Artikel zur Verfügung standen. Somit wurde die Technik auch für Endkunden endlich erschwinglich.

Der Rest der Geschichte bis heute lässt sich schnell zusammenfassen: die Kapazitäten stiegen enorm an und gleichzeitig sanken sowohl Preise als auch Zugriffszeiten, so dass die SSDs aktuell auf dem besten Weg sind, die klassische Festplatte als Standard-Massenspeicher abzulösen.

Technik und Funktionsweise

Moderne SSD, geöffnet (Quelle: Samsung)

Moderne SSD, geöffnet (Quelle: Samsung)

SSDs enthalten im Wesentlichen einen Controller-Chip und einen nichtflüchtigen Flash-Speicher, der sich in der Regel aus mehreren Chips zusammensetzt. Nichtflüchtig bedeutet, dass der Speicher seinen Inhalt auch dann behält, wenn kein Strom anliegt. Im Grunde funktioniert dieser Speicher genauso, wie der Flash-Speicher in USB-Sticks, auf Speicherkarten oder in MP3-Playern. Im Falle der SSDs wird nur ein größerer Speicher (durch mehr Chips) verfügbar gemacht und ein komplexerer Controller verwendet, aber dazu kommen wir noch.
Das Gegenteil hierzu ist übrigens ein flüchtiger Flash-Speicher, der seinen Inhalt verliert, wenn kein Strom anliegt, wie z.B. der Arbeitsspeicher in einem Computer-System.

Die Größe von SSDs hat, anders als herkömmlichen Festplatten, keinen Einfluss auf die Geschwindigkeit des Speichers, es ist also mit Flash-Speichern möglich, sehr hohe Geschwindigkeiten in sehr kleinen Formfaktoren zu ermöglichen. Lediglich die verfügbare Speichermenge wird durch den Formfaktor beeinflusst, weil auf kleineren Leitplatten weniger Flash-Speicher platziert werden können.

Da Flash-Speicher in Blöcke unterteilt sind, die nur im Ganzen beschrieben werden können, selbst wenn sich nur ein einzelnes Byte geändert hat, ist SSDs ein physikalisches Geschwindigkeitslimit gesetzt. Diese Arbeitsweise führt dazu, das kleinere Datenmengen gefühlt langsamer geschrieben werden als große Datenmengen, weil um die eigentlich zu schreibenden Daten noch weitere Daten bewegt werden müssen.
Die Geschwindigkeiten moderner SSDs werden daher vor allem durch Parallelisierung erreicht, ähnlich wie bei Grafikkarten. So verfügen sie über Mehr-Kanal Controller, die in der Lage sind, mehre Speicher-Blöcke gleichzeitig zu beschreiben.

Nicht nur herkömmliche Festplatten altern und verschleißen, die Magnetisierung lässt im Laufe der Zeit nach und die mechanischen Bestandteile nutzen sich ab, sondern auch Flashlaufwerke wie SSDs sind einem Alterungsprozess unterworfen. Hier ist allerdings ein elektrischer Effekt die Ursache, der dafür sorgt die einzelnen Flashzellen nicht unbegrenzt oft neu beschrieben werden können, das Auslesen von Flashzellen hingegen sorgt nicht für eine Abnutzung. Um diesen Effekt möglichst lange heraus zu zögern, wird das sogenannte „Wear-Leveling“ Verfahren eingesetzt, das dafür sorgt, dass alle Speicherzellen gleich oft beschrieben werden. Mit Hilfe dieser Technik ist es möglich, die Lebenserwartung von SSDs auf das Niveau herkömmlicher Festlatten zu hieven.

Ist eine SSD also besser als eine Festplatte?

Flash-Speicher in SSDs sind sehr energieeffizient und haben mittlerweile mit 10 Jahren eine akzeptable Lebensdauer. Weitere zentrale Vorteile gegenüber herkömmlichen Festplatten sind ihre Robustheit und Stoßunempfindlichkeit durch den Wegfall mechanischer Bauteile sowie ihre hohe Temperaturtoleranz, die sie insbesondere für den mobilen Bereich interessant macht. Außerdem arbeiten sie völlig geräuschlos.

Aktuelle SSDs sind mit Datentransferraten von bis 540 MB/s (lesen) und bis zu 520 MB/s (schreiben) und mittleren Zugriffzeiten zwischen 0,2 und 0,4 ms zusätzlich die schnellsten erhältlichen Massenspeicher.

Während SSDs inzwischen in Notebooks oder Tablet-PCs häufig als alleiniges Laufwerk eingesetzt werden, hat es sich im Bereich der Desktop PCs etabliert, eine kleine SSD als schnelles Systemlaufwerk einzusetzen und mit einer großen herkömmlichen Festplatte zu ergänzen, auf der alle nicht zugriffszeitkritischen Daten abgelegt werden. Diese Kombination ermöglicht ultraschnelles Booten und Programmstarts, mitunter vergehen zwischen dem Einschalten und der Anzeige des Windows-Desktops lediglich ca. 30 Sekunden, bietet aber auch genug Speicherplatz für Musik, Filme, Fotos und alles andere, was PC-Benutzer gerne auf ihren Festplatten speichern. Wer sich den schnellen Bootvorgang einmal beispielhaft ansehen möchte, dem sei folgendes YouTube-Video an Herz gelegt: http://www.youtube.com/watch?v=n7AKxbLGLZY.

Die Marktsituation Mitte 2013 sieht so aus, dass der Preisunterschied pro GB zwischen SSD und HDD nur noch marginal ist und bei etwa 10 Cent liegt.

Abschließend sei erwähnt, dass SSDs auch einen Nachteil gegenüber herkömmlichen Festplatten haben. Beim Speichern von sensiblen, vertraulichen Daten muss abgewogen werden, ob sie tatsächlich auf einer SSD abgelegt werden sollten, denn das sogenannte Sichere Löschen ist in Flashspeichern, aufgrund ihrer Struktur und Arbeitsweise nicht oder nicht ohne weiteres möglich. So können gelöscht geglaubte Daten auf verlorenen oder gestohlenen SSDs mit spezieller Software wiederhergestellt werden, ein Nachteil, den es bei herkömmlichen Festplatten so nicht gibt.

Case Modding

Beim Case Modding, vom englischen „Case modification“, was soviel bedeutet wie „Gehäuse Veränderung“, ist das Ziel des Casemodders das Gehäuse seines PCs (möglichst innovativ) individuell  zu verbessern und optisch aufzuwerten.
Als Modifikation bezeichnet man dabei schon den Einbau eines leuchtenden Gehäuselüfters oder einer durchsichtigen Seitenwand. Das Modding geht aber auch bis zum kompletten Neu- oder Eigenbau eines Computergehäuses.

Grundlegend unterscheidet man in der „Modding“-Szene zwischen funktionalem- und künstlerisch / gestalterischem Modding. Dabei geht es beim funktionalen Modding hauptsächlich um die Leistungssteigerung, wie beispielsweise durch den Einbau einer Wasserkühlung, oder die Erweiterung der Funktionalität des PCs.

Dem gegenüber ist das Augenmerk auf die äußere Erscheinung gelegt, wenn es um das künstlerische oder gestalterische Modding geht. Hier werden die Gehäuse zum Teil Gehäuse von Grund auf selber entworfen und aufgebaut. Dabei sind kaum Grenzen gesetzt und erlaubt ist was gefällt. Sei es das „einfache“ Beziehen eines vorhandenen Gehäuses mit Stoffen, das Verzieren mit Schmuck oder das farblichen Gestalten des Gehäuses bis hin zum kompletten Neubau eines tragenden Körpers für die erforderlichen Einzelteile eines funktionierenden Computers. Schon lange gibt es in der Gemeinschaft der Modder eigene Meisterschaften die in unterschiedlichen Kategorien Gewinner kürt. DCMM Deutsche Case-Modder Meisterschaft

Amiga 500

Amiga 500 „Stefanie Tücking“
@thosewerethedays.de

Den Trend zum individuellen Design hat auch die Industrie aufgenommen. So hat bereits 1980 Commodore seinen Amiga 500 in der Sonderedition „Stefanie Tücking“ herausgebracht.

Natürlich wird dieses industrielle Case Modding unter Moddern, die Ihre Gehäuse selber entwerfen und bauen, weitestgehend verpönt, ist aber durchaus beliebt bei Gamern oder sonstigen Usern, die weg vom Standardmodell wollen.

Vorsicht ist geboten, wenn man an sein Gehäuse verändern möchte, denn man ist rechtlich gesehen schon bei kleineren Veränderungen schnell selbst „Hersteller“, verliert dadurch die allgemeine Betriebserlaubnis und muss für die Einhaltung der EMV-Normen (Richtlinie 2004/108/EG über die elektromagnetische Verträglichkeit) sorgen. Auch können modifizierte elektrische Geräte den Betrieb anderer elektronischer Geräte und Bauteile stören.

Hier noch einige Impressionen von eindrucksvollen Case Moddings.

Zur Vollbildansicht bitte auf die Bilder klicken

Overclocking

oc_tachoFast jeder, der sich schon intensiver mit PC-Hardware auseinander gesetzt hat, ist dabei über den Begriff Overclocking gestolpert.

Aber was ist das überhaupt?

Grundsätzlich bezeichnet Overclocking das Übertakten von Computer-Hardware über die Hersteller-Spezifikationen hinaus. Dadurch soll eine höhere Leistung der Komponenten oberhalb der angegebenen Maximalwerte erzielt werden.

Für den PC-Bereich sind beim Übertakten vornehmlich drei Komponenten relevant: der Prozessor, der Speicherbus des Arbeitsspeichers sowie die Grafikkarte.

War früher das Übertakten eine Angelegenheit für absolute Technik-Enthusiasten, ermöglichen heute spezielle Overclocking-Komponenten und verbesserte Kühlsysteme ein einfacheres Übertakten der Hardware.
Nichtsdestotrotz muss man sich bewusst sein, dass Overclocking einen gewissen Kenntnisstand über die Funktionsweisen und das Zusammenspiel der Komponenten voraussetzt, um ein adäquates Ergebnis zu erzielen.

Denn: Bei Übertaktungsversuchen muss damit gerechnet werden, dass Systemkomponenten Schaden nehmen und Overclocking-Schäden sind weder durch die gesetzliche Gewährleistung noch durch die Garantien der meisten Händler gedeckt!

 

Prozessorübertaktung
Die effektivste Art mehr Leistung aus dem eigenen PC zu kitzeln, ist es, den Prozessor mit einem höheren Takt zu betreiben als vom Hersteller vorgesehen.
Aufgrund der Nachfrage nach günstigen CPUs – und dementsprechend geringerer Taktung – deklarieren die Hersteller häufig Ihre Prozessoren langsamer, obwohl Sie schneller arbeiten könnten. Dies ermöglicht einen großen Spielraum für das Overclocking.
Die gängiste Art des Prozessor-Overclockings ist das Anheben des sogenannten Multiplikators . Jeder Prozessor arbeitet mit einer festen Grundtaktung, die sich nicht verändern lässt. Der Wert des Multiplikators gibt an, wie hoch sich der Prozessor in Abhängigkeit von diesem festen Grundtakt takten lässt.
Beispiel: Bei einer Grundtaktung von 133 MHz und einem Multiplikator von ×24 arbeitet der Prozessor mit 3200 MHz!
Wird nun der Multiplikator erhöht, erhöht sich auch die Maximaltaktung des Prozessors.
Aber nicht bei allen Mainboards lässt sich der Multiplikator im BIOS/UEFI frei einstellen und nur wenige Prozessoren bieten einen freien Multiplikator.

Bei den Intel® Core™ Prozessoren kennzeichnet ein „K“ am Ende der Nummer die Modelle mit frei wählbarem Multiplikator. Bei AMD sind die älteren Black Edition (BE) Modelle sowie die FX-Baureihe geeignet für eine freie Multiplikatorwahl.

Mainboards mit Intel® Chipsatz die den Zusatz P oder Z im Code tragen –z.B. P67 oder Z77 – bieten umfangreiche Funktionen, um eine Übertaktung umzusetzen.

Man sollte sich aber darüber im Klaren sein, dass ein Übertakten des Prozessors eine größere Verlustleistung und damit auch eine stärkere Wärmeentwicklung nach sich zieht. Eine stärkere Kühlleistung ist deshalb unumgänglich!

 

Erhöhen des Arbeitspeichertaktes
Für das Übertakten des Arbeitsspeichers sind Transferrate, Timing und Anzahl der Speicherkanäle relevant.
In den meisten Fällen kann eine höhere Frequenzrate nur durch eine höhere Betriebsspannung realisiert werden. Dies hat jedoch Auswirkungen auf viele elektrische Parameter des Speichersystems und belastet zudem die Speichercontroller von CPU und Mainboard-Chipsatz.
Für diese Art des Overclockings sind keine speziellen Arbeitsspeicher notwendig, jedoch muss das verwendete Mainboard diese Funktionen unterstützen. Man erkennt sie häufig anhand der Herstellerangaben, die kompatible RAM-Taktungen auflisten – z.B. 1333 / 1600 / 1866 (OC) / 2000 (OC) MHz – wobei OC (Overclocking) die möglichen übertakteten Frequenzen angibt.
Angemerkt sei, dass das Übertakten des Arbeitsspeichers nur eine geringe Effektivität hat. Viel größere Vorteile werden Sie durch einen größeren Arbeitsspeicher und vor allem einen Betrieb des Arbeitsspeichers im Dual- bzw. Quad-Channel-Betrieb erreichen.
Gerade bei Übertakten des Arbeitsspeichers kann es sehr schnell zu Systemabstürzen, Datenverlust oder Beschädigung des Betriebssystems kommen.

 

Overclocking bei Grafikkarten
Das Übertakten der Grafikkarten ist meistens mit Hilfe von Zusatzsoftware oder des Grafikkartentreibers problemlos möglich. Viele Hersteller bieten optionale Software, um die Grafikkarteneinstellungen zu optimieren.
Solange keine Manipulation der Stromversorgung erfolgt, ist ein Übertakten der Grafikkarte meistens auch problemlos möglich. Jedoch können Darstellungsfehler und schlimmstenfalls Systemabstürze auftreten!

 

Abschließend sei noch einmal darauf hingewiesen, dass Overclocking nur für Anwender geeignet ist, die ein grundlegendes Verständnis für das Zusammenspiel der Komponenten besitzen.
Die häufig minimalen Leistungszuwächse der Hardware beim Overclocking stehen meist in keinem adäquaten Verhältnis zu dem Aufwand der Komponentenabstimmung und den möglichen Risiken wie Datenverlust, Systeminstabilität und -abstürze bis hin zu einer Beschädigung der Hardware!