CSL-Computer Shop

CSL-Computer: Blog

Infos und Hintergründe zu aktueller PC-Technik

CSL-Computer: Blog - Infos und Hintergründe zu aktueller PC-Technik

Samsung SSD 850 Pro – SSD-Modelle mit neuester Technik

Samsung SSD 850 Pro – die aktuellen SSD-Modelle des Marktführers

Quelle: hardwareluxx.de

Quelle: hardwareluxx.de

Samsung ist einer der führenden Hersteller im Bereich der SSDs. Der Erfolg ist sicher auch darauf zurückzuführen, dass Samsung die Entwicklung und Herstellung aller SSD-Komponenten selbst realisiert und nicht von externen Firmen abhängig ist. Insbesondere die 840 PRO- & EVO-Serien erfreuen sich großer Beliebtheit bei den performancebewussten Anwendern. Im Juli dieses Jahres stellte Samsung den Nachfolger der 840 PRO, die 850 PRO, vor, deren Verbesserungen vor allem in der Speicherarchitektur sowie der Langzeitperformance zu finden sind. Mit einer beachtlichen Garantielaufzeit von 10 Jahren scheint Samsung auf die Nachhaltigkeit dieser SSD zu vertrauen. Bisher gab man die für SSDs üblichen Garantiezeiten von 3 Jahren (840 EVO) bzw. 5 Jahren (840 PRO), das hat sich jetzt deutlich geändert.

 

Neue Technologie –  dreidimensionale Architektur

Vor allem die neue Speicherarchitektur ist dafür verantwortlich. Samsung selbst bezeichnet dieses Verfahren als 3D V-NAND.

Durch die Nachfrage nach großer Speicherkapazität auf möglichst geringem Raum ging die Entwicklung bei der Speicherfertigung bisher in die Richtung: Kleiner ist besser. So wurden z.B. die Speichermodule der Samsung 840er-Reihe im 22 nm-Verfahren gefertigt. Dadurch war es möglich viele Speicherzellen nebeneinander zu platzieren. Allerdings ging das auf Kosten der Langlebigkeit der SSD.

Mit 3D V-NAND ist Samsung zu 40 nm Speicherzellen zurückgekehrt und nutzt im Gegensatz zur herkömmlichen Architektur, bei der die Zellen nebeneinander angeordnet waren, auch die Höhe und schichtet die Zellen übereinander.

Durch dieses Verfahren lassen sich mehr Zellen auf weniger Platz unterbringen, die Zellen sind größer und dadurch auch wesentlich langlebiger. Deshalb gibt Samsung auch selbstbewusst eine saftige Garantie von 10 Jahren auf die SSDs der 850 PRO-Reihe und eine garantierte Schreibleistung von 150 TeraByte, was ca. 40 GB pro Tag entspricht.

Weitere Vorteile der 3D V-NAND Technologie ist ein geringerer Energieverbrauch (ca. 3 Watt Lesen/Schreiben) sowie höhere Schreibgeschwindigkeiten. Da sich durch diese Technik viele Speicherzellen im 2,5“ Format unterbringen lassen, sollten auch SSDs mit 2000 GB Speicherkapazität nicht mehr allzu lange auf sich warten lassen.

 

Ausgiebige Performance

Die höhere Performance der 850 PRO SSD wurde ja bereits erwähnt. In der Praxis limitiert die SATA 6 GBit/s-Schnittstelle eine höhere Datenübertragung. So liegen hochklassige SSDs generell sehr nahe beieinander, wenn es um Lese- und Schreibgeschwindigkeiten geht. Auffällig ist, dass die kleineren 128 GB bzw. 256 GB 850 PRO-Modelle den Geschwindigkeitsabstand zu den größeren Modellen im Vergleich zur Vorgängerserie verkürzt haben.

In verschiedenen Benchmarks weist die 850 PRO keinen nennenswerten Geschwindigkeitsvorteil bei herkömmlichen simulierten Lese- und Schreibvorgängen auf – bedingt durch das SATA 6GBit/s-Interface. Es zeigt sich jedoch, dass die 850 PRO-Modelle wesentlich länger ein hohes Niveau an IOPS (Input/Output Operations Per Second), also die Anzahl von Ein- und Ausgabe-Operationen, aufrechterhalten können als alle vergleichbaren SSDs. Normalerweise sinkt die Geschwindigkeit bei SSDs nach wenigen Minuten dauerhafter Zugriffe signifikant ab – die 850 PRO kann jedoch deutlich länger mit ihrer Schnelligkeit auftrumpfen und scheint zurzeit in diesem Bereich absolut führend auf dem Markt zu sein.

Quelle: tweaktown.com

Quelle: tweaktown.com

 

Neue Software – mehr Cache

Eine weitere Verbesserung, die nicht unerwähnt bleiben soll, ist die überarbeitete SSD Magician Software von Samsung. Bereits im letzten Jahr wurde der sogenannte RAPID-Modus für die 840 PRO zur Verfügung gestellt. Dabei wurde der Arbeitsspeicher des Rechners als schneller Cache zwischen SSD und System genutzt. Mit der neuen Software wurde hier weiter aufgerüstet – so können jetzt maximal 4 GB RAM für Caching-Aufgaben genutzt werden. Voraussetzung hierfür sind allerdings mindestens 16 GB RAM, da nur maximal ein Viertel des verbauten Arbeitsspeichers für die Funktion reserviert werden kann.

 

Fazit

Mit der 850 PRO hat Samsung die momentan ausdauerndste SSD am Markt, die unter Volllast ihre Leistung wesentlich länger aufrechterhält als die Konkurrenzmodelle.

Die garantierte Schreibleistung von 150 TeraByte sowie eine umfassende Garantie von 10 Jahren sind ebenfalls starke Alleinstellungsmerkmale dieser SSD-Modelle.

Wichtiges Update für Samsung 840 Evo SSDs

Vor wenigen Tagen hat Samsung ein Firmware-Update für die beliebten SSDs der 840 Evo-Reihe herausgebracht.

Anlass ist ein bekannter Fehler, der die Leseraten bei älteren Dateien erheblich drosselt – teilweise bis auf ein Zehntel der eigentlich möglichen Geschwindigkeit. Das Problem tritt nur bei Dateien auf, die für einen längeren Zeitraum inaktiv waren, d.h. nicht genutzt wurden.

Abhilfe für dieses Fehlverhalten bringt das Update, das über die Webseite von Samsung heruntergeladen werden kann. Dabei wird zunächst die Firmware auf den neuesten Stand gebracht und anschließend werden die existierenden Daten überprüft und kalibriert. Dieser Vorgang kann einige Zeit dauern und es wird empfohlen, wichtige Dateien vorher zu sichern. Zudem sollten 10% des Speicherplatzes frei sein.

Quelle: heise.de

Quelle: heise.de

Bisher steht das Patch nur für Windows-Nutzer zur Verfügung.

Das Update Samsung SSD 840 EVO Performance Restoration Software mit der Versionsnummer EXT0CB6Q (840 Evo) und EXT42B6Q (840 Evo mSata) sowie eine Installationsanleitung finden Sie auf folgender Seite:
http://www.samsung.com/global/business/semiconductor/samsungssd/downloads.html

Intel X99 Chipsatz

4th_Generation_Intel_Core_Close_IntelIm Zuge eines Beitrages über die Intel Broadwell Prozessoren berichteten wir schon einmal über den neuen Intel X99 Chipsatz (Codename: Wellsburg), der für die sogenannten Haswell-E Prozessoren, also die High-End Varianten der Haswell Prozessoren, entwickelt wurde. Damals gab es Gerüchte, dass dieser Chipsatz innovative Neuerungen wie zum Beispiel DDR4-Speicher unterstützen soll.

Technische Details

Mittlerweile gibt es finale Daten zum neuen Intel Chipsatz, der für alle Prozessoren mit dem Sockel 2011 v3 geeignet ist: Vom Chipsatz bereitgestellt werden zehn SATA III 6 GBit/s Ports, bis zu acht PCI-Express-2.0-Ports, insgesamt bis zu 14 USB-Ports (maximal sechs davon als USB 3.0) und eine Ethernet-Schnittstelle, die dann mit einem Gigabit-Ethernet-Controller zusammenarbeitet.

Erste Boards auf der Computex

Auf der Computex 2014 hatten bereits erste Mainboard Hersteller einen kleinen Einblick auf ihre neuen Mainboards mit X99 Chipsatz gegeben. Dabei gingen sie aber leider nicht sonderlich ins Detail. Zumindest wurde aber bekannt, dass die neuen Boards tatsächlich DDR4-Speicher unterstützen werden und auch weiterhin über bis zu acht DIMM-Slots verfügen, was aktuell einer Unterstützung von 64 GB RAM entspricht. Allerdings werden die Boards vermutlich auch die neuen 16 GB RAM Riegel unterstützen und somit früher oder später bis zu 128 GB Arbeitsspeicher zulassen. Optisch unterscheiden sich die neuen Mainboards kaum von den bisherigen Boards mit Sockel 2011.

Wer darüber nachdenkt, sich ein Mainboard mit X99-Chipsatz zuzulegen, sollte bedenken, dass der Sockel 2011 v3 inkompatibel zum aktuellen Sockel 2011 ist. Das heißt, sowohl die SandyBridge-E als auch die IvyBridge-E Prozessoren werden von diesen Boards nicht unterstützt. Eine Umstellung auf X99 wird also mit einigen Kosten verbunden sein, wobei die Boards an sich auch bereits nicht im kostengünstigen Bereich anzusiedeln sind.

Release

Aktuell sieht es danach aus, dass Intel die neuen Haswell-E Prozessoren im Herbst dieses Jahres auf den Markt bringen wird. Ein genaues Datum gibt es allerdings noch nicht. Zeitgleich mit den CPUs werden dann auch die neuen X99-Mainboards erscheinen. Wie üblich, wird die Verfügbarkeit zu Beginn sehr begrenzt sein, so dass man davon ausgehen kann, dass die große Masse erst im Spätherbst in den Genuss der neuen Technologie kommen wird.

Fazit

Der neue X99-Chipsatz hält auf den ersten Blick, was er versprochen hat. Besonders auf die DDR4-Unterstützung darf man gespannt sein. Der Erfolg des Chipsatzes wird auch von den Haswell-E Prozessoren abhängig sein, die erstmals mit bis zu 8 Kernen ausgestattet sein sollen.

Einziger Wermutstropfen ist die Inkompatibilität zu den aktuellen 2011er Sockeln. Ein Umstieg auf den neuen X99-Chipsatz wird somit einen CPU-Wechsel mit sich ziehen, der gerade bei den Intel High-End Prozessoren sehr kostspielig ist.

Quelle: hardwareluxx.de

Quelle: hardwareluxx.de

SATA 3.2

500px-Serial-ATA-Logo.svgVor einigen Monaten hat die SATA-IO (Serial ATA International Organization) die Spezifikation für SATA 3.2 verabschiedet und damit die Weichen für neue, schnellere Massenspeicher mit der SATA Express Schnittstelle gestellt.

 

Was ist SATA?

Serial ATA ist eine Verbindungstechnik für die Kommunikation zwischen Prozessor und Massenspeichern wie Festplatten, SSDs und SSHDs. Entwickelt wurde die Technik im Jahr 2000 von Intel, um die zu Tage getretenen Nachteile der älteren ATA-Schnittstelle zu überwinden. Der wesentlichste Unterschied zwischen beiden Standards ist hierbei der Übergang von einer parallelen Datenübertragung (ATA) zu einer seriellen, also Bit für Bit, Übertragung (SATA).

Dies ermöglichte unter anderem höhere Datenübertragungsraten und vereinfachte Kabelführungen, weil die Nachteile des parallel arbeitenden ATA-Buses in Bezug auf steigende Übertragungsraten, wie zunehmende Asynchronität und gegenseitige Beeinflussung der Leitungen, überwunden werden konnten.

Während die erste SATA-Generation Datenübertragungsraten von 150 MB/s ermöglichte, konnte die Geschwindigkeit bis zum SATA 3 Standard von 2009 auf 600 MB/s gesteigert werden. Was sich zunächst nach einer recht hohen Geschwindigkeit anhört und für Festplatten völlig ausreichend ist, erweist sich bei immer schneller werdenden SSDs und SSHDs zunehmend als Flaschenhals, der die Datenübertragung ausbremst.

Genau hier soll nun SATA 3.2 ansetzen.

 

Was bringt die neue Version?

Die wohl wichtigste Neuerung von SATA 3.2 ist die Unterstützung von „SATA Express“ (SATAe), das im Gegensatz zu früheren Standards das sehr schnelle PCI-Express Interface (PCIe) nutzt, um die Datenübertragungsrate auf ein neues Level zu hieven. Laut Spezifikation sollen 8 Gigabit/s über eine PCIe Lane und 16 Gigabit/s über zwei PCIe Lanes möglich sein, was bis zu 2 GB/s entspricht und die Geschwindigkeit gegenüber SATA 3 somit mehr als verdreifacht. Kleiner Wermutstropfen: Da nach wie vor ein gewisser Protokoll-Overhead existiert (zu den eigentlichen Daten werden weitere Informationen übertragen), wird die theoretische Maximalgeschwindigkeit nicht erreicht werden können. Für die Nutzung von „SATA Express“ wird es eine neue, dreigeteilte Schnittstelle geben, die entweder durch ein „SATA Express“ Gerät oder durch zwei SATA Geräte genutzt werden kann. Somit bleibt SATA Express abwärtskompatibel.

 

Eine weitere Neuerung repräsentiert der Form Factor „M.2“, dessen Entwicklung Intel unter dem Namen NGFF (Next Generation Form Factor) begonnen hatte. Es handelt sich hierbei um eine Spezifikation für eine besonders kompakte Bauweise im „Scheckkartenformat“, die auch für SSDs eingesetzt werden kann, z.B. für sehr dünne Notebooks und Tablets. Selbst im Vergleich zu bereits sehr kompakten Geräten im mSATA Form Factor wirken „M.2“  Geräte sehr klein.

Die folgende Tabelle verdeutlicht den Größenunterschied. Die Gerätebreite ist in beiden Spezifikationen konstant, während bei „M.2“ unterschiedliche Längen im Form Factor vorgesehen sind.

mSATA M.2
Beite in mm 30 22
Länge in mm 50,95 30, 42, 60, 80, 110

Quelle: SATA-IO

 

„M.2“ Geräte sind in zwei Versionen erhältlich: single-sided und double-sided. Zumindest Geräte, die single-sided gebaut sind, sind deutlich dünner als mSATA Geräte.

Im folgenden Video stellt Paul Wassenberg, Marketing Workgroup Chair der SATA-IO, den „M.2“ Form Factor und entsprechende Geräte vor.

 

Weiter hat die SATA-IO das Power Management verbessert. Per „Transitional Energy Reporting“ kann der Host-Computer nun umfassendere Informationen zum Energiebedarf eines SATA-Gerätes abrufen und somit die Leistungsaufnahme besser steuern.
Außerdem soll die „DevSleep“-Technik dafür sorgen, dass ungenutzte Laufwerke (Leerlauf) fast komplett abgeschaltet werden können, um die Leistungsaufnahme auf wenige Milliwatt zu begrenzen. Dies ist insbesondere im mobilen Bereich interessant, in dem es immer mehr Geräte, wie Ultrabooks, Smartphones, Tablets u.ä., gibt, die permanent eingeschaltet bleiben und nur in einen Schlafmodus übergehen („always on“, „always connected“).

 

Zudem enthält die Spezifikation kurz zusammengefasst u.a. die folgenden Techniken bzw. Module.

„SATA micro SSD“ ist eine Richlinie für ultrakleine Embedded SSDs, die auf lediglich einem Chip basieren. Hierfür ist die Anschlusstechnik weiterentwickelt worden, um diese Art von Speicher auf besonders kleinem Raum unterbringen zu können.

„SATA Universal Storage Module (USM)” bezeichnet eine Anschlusstechnik für externe Massenspeicher, die von Seagate entwickelt und für die SATA 3.2 Spezifikation vorgeschlagen wurde. Hier hat sie ihren Platz als „USM Slim“ gefunden und definiert einen 9 mm Form Factor für diese Schnittstelle, der die Anbindung von externen SATA-Datenträgern an besonders kleine und dünne Geräte ermöglichen bzw. erleichtern soll.

„Hybrid Information“ repräsentiert einen Mechanismus, der es dem Host-Computer ermöglicht einer SSHD vorzugeben, welche Daten in den SSD-Cache geschrieben werden sollen, um die Performance zu verbessern. Bislang war es so, dass die SSHDs autark „entschieden“ haben, welche Daten gecached werden.

Zu guter Letzt sei noch der „Rebuild Assist“ für RAID-Systeme genannt, der die Wiederherstellung von Daten in RAID-Verbünden bei defekten Laufwerken unter Umständen erheblich beschleunigen kann.

 

Ausblick

Kürzlich hat Tweaktown über einen Mainboard-Prototypen berichtet, der Ihnen von ASUS überlassen worden sei. Diese Vorserien-Version auf Basis des Z87-Chipsatzes verfügt unter anderem über zwei SATA Express Schnittstellen, so dass davon auszugehen ist, dass ASUS bereits in der ersten Jahreshälfte entsprechende Boards in Serienreife vorweisen kann.

Wie HardwareLuxx aus verschiedenen Quellen berichtet, ranken sich auch diverse Gerüchte um die Implementation von SATA Express in die Intel-9-Series Chipsätze, die ab März an Mainboard-Hersteller ausgeliefert werden sollen. Zunächst war zu lesen, SATA Express würde Teil der Chipsätze werden, dann hieß es, Intel würde keine Unterstützung liefern, dann aber sollte Intel doch an einer Platine arbeiten, die darauf hindeutet, das zumindest die M.2-Schnittstelle Berücksichtigung finden würde.

Kurzum – alles ist wie immer. Die Hersteller halten sich mit klaren Aussagen zurück, dafür brodelt die Gerüchteküche umso heftiger.

Lediglich der „M.2“ Form Factor scheint direkt alle Speicherhersteller in Bewegung gebracht zu haben. So wurden von allen großen Produzenten bereits entsprechende SSDs vorgestellt und weitere angekündigt.

HAMR – Festplatten-Technologie der Zukunft?

Wer hätte noch vor ein paar Jahren gedacht, dass er jemals 1, 2 oder sogar 4 Terabyte-HDDs benötigt?

Heutzutage reizen nicht wenige den maximalen Speicherplatz bei 3,5“ HDDs von 4000 GB oder 2000 GB bei 2,5“ Festplatten voll aus und die Nachfrage nach immer größeren Kapazitäten kommt auf.

MP3s, hochauflösende Bilder, Filme im HD- und Blu-ray-Format, umfangreiche Simulationen und Projektdateien … die Datenmengen, die wir täglich für Beruf und Freizeit benötigen, nehmen stetig zu. Wenn man sich aber die Speicherkapazität bei Festplatten anguckt, muss man feststellen, dass diese seit einiger Zeit stagniert.

 

Das Problem

Mit der heutigen Aufzeichnungstechnik Perpendicular Magnetic Recording (PMR) scheinen größere Festplatten nicht mehr möglich zu sein.

Dabei besteht folgendes Problem:

Um mehr Daten auf eine Festplatte zu bekommen, müssten die Schreib-/Leseköpfe sowie die Datenspuren noch weiter verkleinert werden. Dies ist jedoch beim PMR-Verfahren nicht mehr möglich, da sonst die Einheiten Ihre ferromagnetischen Eigenschaften verlieren und superparamagnetisch werden. Das heißt, die thermische Energie liegt dann über der magnetischen, was zu einer Zerstörung der Domänenordnung und der Bits führt.

Kurz gesagt: Die Daten können nicht gespeichert werden! Durch Thermisch stabileres Material kann dieser Effekt reduziert werden, jedoch sind dann wesentlich stärkere Magnetfelder erforderlich.

 

Die Lösung?

Eine Alternative zum PMR-Verfahren stellt deshalb HAMR – Heat-Assisted Magnetic Recording – dar. Hierbei erwärmt ein im Schreib-/Lesekopf integrierter Mini-Laser punktuell das Medium. Dadurch kann die Stärke des benötigten Magnetfeldes reduziert werden und die geschriebenen Daten bleiben beim Abkühlen des Mediums erhalten.

Bildquelle: Seagate

Bildquelle: Seagate

Beim Erhitzen wird jedoch das schützende Schmiermittel der Festplatte verdampft. Um dem entgegen zu steuern, soll aus nanometerdünnen Kohlenstoffröhrchen bei Bedarf Schmiermittel für die Festplattenoberfläche aufgetragen werden.

 

Ausblick

Bereits im Jahre 2002 hat der Hersteller Seagate das HAMR-Verfahren erstmals angekündigt und im Oktober 2013 wurde dann der erste Prototyp mit der neuen Technik vorgestellt. Auch Western Digital präsentierte Mitte November seinen HAMR-Prototyp

Durch HAMR soll eine Datendichte von bis zu 10 Terabit pro Quadratzoll realisiert werden. Das entspricht einer 3,5“ Kapazität von bis zu 60.000 GB bzw. einer Kapazität von bis zu 20.000 GB bei 2,5“ Festplatten.

Da die HAMR-Technologie jedoch noch sehr anfällig ist, ist der Zeitpunkt, wann diese Festplatten in Serienproduktion gehen, ungewiss.  Vorerst hat Seagate für das kommende Jahr eine Festplatte mit 6,4 TB angekündigt. Vermutlich wird das HAMR-Verfahren, mit dem die Hersteller die Festplattenkapazität verfünffachen wollen, nicht vor 2015 zur Marktreife gelangen.

Solid State Drives

Nachdem wir vor einiger Zeit die Unterschiede zwischen Solid State Drives (SSDs) und herkömmlichen Festplatten (Hard Disk Drives = HDDs) in einem unserer Blog-Artikel dargestellt haben, möchten wir heute nochmal einen genaueren Blick auf die SSDs werfen.

Die Bezeichnung „Solid State“ kann frei mit „Festkörper“ übersetzt werden und meint, dass die Technik ohne Elektronenröhren und mechanische Teile auskommt, sondern lediglich aus Halbleiter-Elementen („Chips“) besteht. Der Zusatz „Drive“ (gelegentlich auch „Disk“) soll einen Bezug zu Computer-Laufwerken herstellen, obwohl es sich, wie gesagt, eigentlich nicht um Laufwerke im klassischen bzw. mechanischen Sinn handelt.

Entwicklung

Solid State Disk STK 4305 (Quelle: StorageTek)

Solid State Disk STK 4305 (Quelle: StorageTek)

Die Entwicklungsgeschichte der SSDs begann 1978, als das von ehemaligen IBM-Managern gegründete Unternehmen StorageTek mit der „Solid State Disk STK 4305“ die erste SSD auf den Markt brachte, die allerdings nicht für Endkunden gedacht war, sondern für Großrechner von IBM. Das lag nicht nur an dem stolzen Preis von 8800 US-Dollar/MB (das entspricht 8,8 Mio. US-Dollar/GB) dieser ersten SSD, sondern auch ganz banal daran, dass es 1978 keinen nennenswerten Endkunden-Markt für PC-Systeme und somit auch für Massenspeicher gab. Die Kapazität lag zunächst bei 45 MB und ein Jahr später bei 90 MB bei einer mittleren Zugriffszeit von 6 ms. Trotz der für damalige Verhältnisse beachtlichen Zugriffszeit hatte die „STK 4305“, wie andere Vorläufer der modernen SSDs in den 1980er Jahren auch, einen eklatanten Nachteil: Sie basierte auf flüchtigem RAM-Speicher (siehe unten) und war damit auf eine konstante Stromversorgung angewiesen.

Flashdisk (Quelle: Digipro)

Flashdisk (Quelle: Digipro)

Die erste moderne, auf Flash-Speicher basierende und damit stromversorgungsunabhängige, SSD wurde 1988 vom amerikanischen Unternehmen Digipro unter dem Namen „Flashdisk“ auf den Markt gebracht und in verschiedenen Größen von 2 MB bis 16 MB vertrieben. Etwa zur selben Zeit stellte auch das israelische Unternehmen M-Systems einen Prototyp für eine SSD mit Flash-Speicher vor, der aber erst Mitte der 1990er Jahre vermarktet wurde. Trotzdem war M-Systems Anfang der 1990er Jahre eine der treibenden Kräfte bei der Weiterentwicklung der SSD-Technik und brachte mit der FFD-350 (FFD = Fast Flash Disk) eine der ersten SSDs im 3,5‘‘ Formfaktor heraus, die mit Kapazitäten von bis zu 896 MB erhältlich war. Das ist deshalb erwähnenswert, weil fast alle bis dahin entwickelten Solid State Drives Ausmaße hatten, die zwischen Schuhkarton und Aktenschrank lagen.
Wer ein solches Laufwerk erstehen wollte, musste allerdings noch immer Kosten von zig tausend US-Dollar akzeptieren und so waren auch diese SSDs für den Endkunden-Markt, den es mittlerweile gab, aufgrund des Preises völlig uninteressant.

Das änderte sich erst zu Beginn dieses Jahrhunderts als Transcend im Jahr 2003 eine Reihe Flash-Module vorstellte, die auf einer Technik basierten, die auch in Speicherkarten für Foto-Apparate eingesetzt wurde und als Massenproduktions-Artikel zur Verfügung standen. Somit wurde die Technik auch für Endkunden endlich erschwinglich.

Der Rest der Geschichte bis heute lässt sich schnell zusammenfassen: die Kapazitäten stiegen enorm an und gleichzeitig sanken sowohl Preise als auch Zugriffszeiten, so dass die SSDs aktuell auf dem besten Weg sind, die klassische Festplatte als Standard-Massenspeicher abzulösen.

Technik und Funktionsweise

Moderne SSD, geöffnet (Quelle: Samsung)

Moderne SSD, geöffnet (Quelle: Samsung)

SSDs enthalten im Wesentlichen einen Controller-Chip und einen nichtflüchtigen Flash-Speicher, der sich in der Regel aus mehreren Chips zusammensetzt. Nichtflüchtig bedeutet, dass der Speicher seinen Inhalt auch dann behält, wenn kein Strom anliegt. Im Grunde funktioniert dieser Speicher genauso, wie der Flash-Speicher in USB-Sticks, auf Speicherkarten oder in MP3-Playern. Im Falle der SSDs wird nur ein größerer Speicher (durch mehr Chips) verfügbar gemacht und ein komplexerer Controller verwendet, aber dazu kommen wir noch.
Das Gegenteil hierzu ist übrigens ein flüchtiger Flash-Speicher, der seinen Inhalt verliert, wenn kein Strom anliegt, wie z.B. der Arbeitsspeicher in einem Computer-System.

Die Größe von SSDs hat, anders als herkömmlichen Festplatten, keinen Einfluss auf die Geschwindigkeit des Speichers, es ist also mit Flash-Speichern möglich, sehr hohe Geschwindigkeiten in sehr kleinen Formfaktoren zu ermöglichen. Lediglich die verfügbare Speichermenge wird durch den Formfaktor beeinflusst, weil auf kleineren Leitplatten weniger Flash-Speicher platziert werden können.

Da Flash-Speicher in Blöcke unterteilt sind, die nur im Ganzen beschrieben werden können, selbst wenn sich nur ein einzelnes Byte geändert hat, ist SSDs ein physikalisches Geschwindigkeitslimit gesetzt. Diese Arbeitsweise führt dazu, das kleinere Datenmengen gefühlt langsamer geschrieben werden als große Datenmengen, weil um die eigentlich zu schreibenden Daten noch weitere Daten bewegt werden müssen.
Die Geschwindigkeiten moderner SSDs werden daher vor allem durch Parallelisierung erreicht, ähnlich wie bei Grafikkarten. So verfügen sie über Mehr-Kanal Controller, die in der Lage sind, mehre Speicher-Blöcke gleichzeitig zu beschreiben.

Nicht nur herkömmliche Festplatten altern und verschleißen, die Magnetisierung lässt im Laufe der Zeit nach und die mechanischen Bestandteile nutzen sich ab, sondern auch Flashlaufwerke wie SSDs sind einem Alterungsprozess unterworfen. Hier ist allerdings ein elektrischer Effekt die Ursache, der dafür sorgt die einzelnen Flashzellen nicht unbegrenzt oft neu beschrieben werden können, das Auslesen von Flashzellen hingegen sorgt nicht für eine Abnutzung. Um diesen Effekt möglichst lange heraus zu zögern, wird das sogenannte „Wear-Leveling“ Verfahren eingesetzt, das dafür sorgt, dass alle Speicherzellen gleich oft beschrieben werden. Mit Hilfe dieser Technik ist es möglich, die Lebenserwartung von SSDs auf das Niveau herkömmlicher Festlatten zu hieven.

Ist eine SSD also besser als eine Festplatte?

Flash-Speicher in SSDs sind sehr energieeffizient und haben mittlerweile mit 10 Jahren eine akzeptable Lebensdauer. Weitere zentrale Vorteile gegenüber herkömmlichen Festplatten sind ihre Robustheit und Stoßunempfindlichkeit durch den Wegfall mechanischer Bauteile sowie ihre hohe Temperaturtoleranz, die sie insbesondere für den mobilen Bereich interessant macht. Außerdem arbeiten sie völlig geräuschlos.

Aktuelle SSDs sind mit Datentransferraten von bis 540 MB/s (lesen) und bis zu 520 MB/s (schreiben) und mittleren Zugriffzeiten zwischen 0,2 und 0,4 ms zusätzlich die schnellsten erhältlichen Massenspeicher.

Während SSDs inzwischen in Notebooks oder Tablet-PCs häufig als alleiniges Laufwerk eingesetzt werden, hat es sich im Bereich der Desktop PCs etabliert, eine kleine SSD als schnelles Systemlaufwerk einzusetzen und mit einer großen herkömmlichen Festplatte zu ergänzen, auf der alle nicht zugriffszeitkritischen Daten abgelegt werden. Diese Kombination ermöglicht ultraschnelles Booten und Programmstarts, mitunter vergehen zwischen dem Einschalten und der Anzeige des Windows-Desktops lediglich ca. 30 Sekunden, bietet aber auch genug Speicherplatz für Musik, Filme, Fotos und alles andere, was PC-Benutzer gerne auf ihren Festplatten speichern. Wer sich den schnellen Bootvorgang einmal beispielhaft ansehen möchte, dem sei folgendes YouTube-Video an Herz gelegt: http://www.youtube.com/watch?v=n7AKxbLGLZY.

Die Marktsituation Mitte 2013 sieht so aus, dass der Preisunterschied pro GB zwischen SSD und HDD nur noch marginal ist und bei etwa 10 Cent liegt.

Abschließend sei erwähnt, dass SSDs auch einen Nachteil gegenüber herkömmlichen Festplatten haben. Beim Speichern von sensiblen, vertraulichen Daten muss abgewogen werden, ob sie tatsächlich auf einer SSD abgelegt werden sollten, denn das sogenannte Sichere Löschen ist in Flashspeichern, aufgrund ihrer Struktur und Arbeitsweise nicht oder nicht ohne weiteres möglich. So können gelöscht geglaubte Daten auf verlorenen oder gestohlenen SSDs mit spezieller Software wiederhergestellt werden, ein Nachteil, den es bei herkömmlichen Festplatten so nicht gibt.

Hat die klassische Festplatte ausgedient?

HDD vs. SSD

IBM 350

IBM 350 aus dem Jahre 1956

Als 1956 die erste Festplatte von IBM vorgestellt wurde, wog diese noch 500 kg und hatte eine Speicherkapazität von 5 MB! Seitdem hat sich einiges getan und die Entwicklung ist rasant fortgeschritten.
Deutlich kleiner und leistungsfähiger sind die Festplatten seitdem geworden.
Aktuell sind Speicherkapazitäten von bis zu 4 TB verfügbar, an der grundlegenden Technik hat sich jedoch nicht viel verändert. Die Daten werden weiterhin auf einer magnetischen Scheibe gespeichert und durch einen Schreib-/Lesekopf ausgelesen. Durch die stetige Entwicklung bei der Speicherkapazität ist der Preis deutlich gesunken und liegt derzeit bei knapp 4 ct pro GB. Was für ein Preisverfall – musste man doch 1956 noch 600 $ monatlich für die Miete des Speichermediums ausgeben.

HDD HDDs (Hard Disk Drive) sind zu einer zuverlässigen und vor allem  günstigen Technik geworden, sämtliche Daten im PC zu speichern. Doch trotz ihrer Zuverlässigkeit gehören die Festplatten durch die schnell rotierende Scheibe zu einem der anfälligsten Bauteile am Computer. Darüber hinaus ist bei keinem Bauteil der Defekt so ärgerlich wie bei der HDD, verliert man doch auf einen Schlag sämtliche Arbeit und abgespeicherte Erinnerungen in Form von Fotos und Videos. Experten raten daher immer zu einer umfassenden Datensicherung.

SSDKeine mechanischen also beweglichen Bauteile hat die SSD (Solid State Drive), was Ihr neben der Robustheit auch noch weniger Geräusche, wegen der fehlenden mechanischen Zugriffe, beschert. Die SSD speichert die Daten in einem schnellen Flash-Speicher. Bei Lese-/Schreibzugriffen muss die SSD die Daten nicht mechanisch auslesen, was zu deutlich kürzeren Zugriffszeiten im Vergleich mit der HDD führt. Der deutlich schnellere Massenspeicher beschleunigt nicht nur den Start des Betriebssystems, sondern auch die tägliche Arbeit.

Der Umstieg von HDD zu SSD ist wie der von Mittelklassekombi zu Sportwagen!

Doch hat die Geschwindigkeit auch ihren Preis. So stehen den bereits erwähnten 4 ct pro GB bei der HDD ca. 70 ct pro GB bei der SSD gegenüber, obwohl die Preise in den vergangenen Jahren deutlich gesunken sind.

Geschwindigkeitsvergleich HDD vs. SSD

Alternative:

Wer sich nicht entscheiden kann, wählt eine sogenannte Hybridplatte, die die Vorteile beider Welten zu vereinen versucht. Bei dieser Art von Speichermedium wird eine herkömmliche HDD mit schnellem Solid-State-Speicher kombiniert. Der kleinere Anteil an SSD-Cache ist für schnelle Dateizugriffe verantwortlich und die mechanische Speichereinheit nimmt die großen Datenmengen auf.

 

Vergelich Massenspeicher

Quelle: www.pc-magazin.de