CSL-Computer Shop

CSL-Computer: Blog

Infos und Hintergründe zu aktueller PC-Technik

CSL-Computer: Blog - Infos und Hintergründe zu aktueller PC-Technik

AMD Dual Graphics

Das Prinzip der Dual-Graphics-Lösung von AMD klingt vielversprechend:

dual

Man nehme eine APU mit integrierter Grafikeinheit, kombiniere diese mit einer dedizierten Grafikkarte und schon hat man eine Grafiklösung, die zum kleinen Preis hochklassige Gamingleistung liefert.

Eine echte Alternative zu teureren Grafikkarten sollte diese Option bieten. Bereits bei Einführung der ersten Generation der APU Kombi-Prozessoren vor einigen Jahren kündigte AMD diese Möglichkeit an, damals noch unter dem Namen Hybrid CrossfireX. Schnell zeigte sich jedoch, dass das Zusammenspiel der iGPU (integrierten Grafikeinheit) und der dedizierten Grafikkarte alles andere als ausgereift war. Mikroruckler und fehlerhafte Darstellungen konnten einem den Spaß am Spielen verleiden, so dass es lediglich in der Theorie eine echte Alternative zu leistungsstarken Grafikkarten blieb.

Seitdem wurden Veränderungen an AMDs Catalyst-Treiber durchgeführt, um die Probleme der Crossfire- und Hybrid Crossfire-Funktionen zu beheben.

Als im Oktober 2013 die neue „Hawaii“ Grafikkarten-Generation vorgestellt wurde, hatte man bei AMD bereits den Catalyst 13.8 Beta Treiber veröffentlicht, der ein funktionierendes Frame Pacing bot und einen einsatzfähigen Dual-Graphics-Modus der dedizierten R9 290X und R9 290 Grafikkarten ermöglichte.

Frame Pacing kontrolliert dabei die Synchronität der Grafikberechnungen beider GPUs im Dual-Modus. Die Ausgabe jedes einzelnen Frames wird angepasst, um eine möglichst gleichmäßige Bildausgabe zu gewährleisten.

Ende 2013 wurde mit dem Catalyst 13.12 erstmals eine finale Treiber-Version released, die Frame Pacing unter DirectX 10 und DirectX 11 sowie Auflösungen bis zu 2560 x 1600 Pixel unterstützt.

 

Vor einem Monat nun wurde die Treiber-Version Catalyst 13.35 Beta X bereitgestellt. Diese beinhaltet weitere Neuerungen: Frame Pacing funktioniert jetzt auch mit den kostengünstigeren R7 Grafikkarten. Höhere Auflösungen als 2560 x 1600 Pixel sowie die Multi-Monitor-Eyefinity und auch die APUs der ersten und zweiten Generation „Richland“ und „Trinity“ werden ebenfalls unterstützt.

Bei der Nutzung des Dual-Grafik-Modus ist Frame Pacing bereits in den Voreinstellungen des Catalyst Treibers aktiviert.

catalyst

Nun aber zu der wichtigsten Frage: Was bringt AMD Dual-Graphics effektiv?

Die Neuerungen seit Erscheinen des Catalyst 13.35 Beta Treibers scheinen sich auszuzahlen. Auf der Webseite von PC Perspective (englisch) befindet sich ein ausführlicher Test der neuen Funktionen und umfangreiche Spiele-Benchmarks. Getestet wurde mit den Games Battlefield 3, Skyrim, Bioshock Infinite, GRID 2 und Battlefield 4.

Es zeigt sich, dass bis auf Skyrim alle Titel von der verbesserten Performance der Dual-Grafik profitieren. Da Skyrim noch DirectX 9 nutzt und diese Version nicht von der Dual-Grafik unterstützt wird, entfällt hier die Performance. Battlefield 3 hingegen kann in der durchschnittlichen Framerate um bis zu 35% zulegen.

Um uns selbst ein Bild zu machen, haben wir eines unserer Systeme mit AMD Dual-Graphics ausgestattet und getestet.

Zum Einsatz kam ein System, das wie folgt konfiguriert war:

  • AMD A8-6600K APU („Richland“)
  • AMD Radeon R7-250 1 GB GDDR5
  • 8 GB DDR3 1600 MHz
  • MSI A78M-E35
  • 1000 GB HDD Western Digital
  • Windows 7 Home Premium 64-Bit SP1

Als Treiber-Version wurde Catalyst 14.2 V1.3 Beta verwendet und die Framerates wurden per FRAPS aufgezeichnet. Eine 2 Minuten Sequenz von Battlefield 4 in Low-Settings wurde als Referenz verwendet.

 

DUAL_BF4

Man sieht, dass die dedizierte Grafikkarte sowie die Dual-Grafik eine deutlich bessere Performance liefern als die reine APU-Leistung. Das war auch zu erwarten. Weniger groß ist allerdings der Unterschied zwischen der Leistung der R7-250 und der Kombination APU 6600K+R7 250.

Ausschlaggebend hierfür mag die Konfiguration des Testsystems sein. So wird in unserem Fall die Grafikleistung der APU durch den Arbeitsspeicher limitiert. Ein 2133 MHz getakteter RAM würde eine signifikantere Verbesserung darstellen, wie unsere bisherigen Tests zeigten. Auch eine Grafikkarten-Version mit DDR3-Speicher, die das Synchronisieren der Speichertaktung mit dem RAM einfacher macht, könnte das Frame Pacing verbessern.

Dennoch ergeben sich leicht verbesserte Höchstwerte sowie um ca. 10 % gesteigerte Durchschnittswerte für die Dual-Grafik-Lösung.

Vergleich_BF4

 

Seit Oktober befindet sich AMD auf dem Weg, die lang angekündigte Dual-Grafik, früher Crossfire / Hybrid-Crossfire, zur versprochenen Praxisreife zu bringen. Durch die Verbesserungen des Catalyst-Treibers im letzten halben Jahr scheinen die bisherigen Darstellungsprobleme der Vergangenheit anzugehören und auch die Unterstützung hoher Bildschirmauflösungen ist umgesetzt.

Inwieweit die Dual-Grafik-Lösung eine ernsthafte Alternative für das Gaming darstellt, ist diskussionswürdig. Da AMD den Einsatz der R7-Reihe plus APU empfiehlt, und damit die kleinen Karten der neuen Serie, darf man keine allzu großen Leistungssprünge erwarten. Der Performancezuwachs durch die Dual-Grafik  ist feststellbar, jedoch nicht so erheblich wie im Vorfeld erwartet.

Es bleibt abzuwarten, wie die Entwicklung der Dual-Grafik weitergehen wird. Eine echte Alternative zu dedizierten Grafikkarten der gehobenen Klasse kann die Dual-Grafik momentan noch nicht bieten. Für spielbare Performance zum kleinen Preis ist die Dual-Lösung jedoch eine echte Option.

NVIDIAs neue Mittelklasse – GeForce GTX 750 mit Maxwell GPU

GTX 750Am 18. Februar 2014 hat NVIDIA zwei neue Grafikkarten vorgestellt, die auf der neu entwickelten Maxwell-Architektur basieren. Beide sind Modelle der unteren Mittelklasse und liegen im Preisbereich um 150 €.

Maxwell-Architektur

Der neue GM107-Grafik-Chip (GM steht für GeForce Maxwell) ist der Nachfolger der erfolgreichen Kepler-Architektur und eine konsequente Weiterentwicklung hinsichtlich Effizienz und Performance. So soll die Leistung pro Watt doppelt so hoch sein wie beim Vorgänger. Damit sind die Grafikkarten schneller bei geringerer Leistungsaufnahme.
Gefertigt werden die Grafikkarten zwar weiterhin im 28-nm-Fertigungsverfahren, doch konnte NVIDIA durch die Neuorganisation der Rechenblöcke die angestrebte Leistungssteigerung realisieren.
Bei der Zielerreichung spielen zwei Faktoren eine entscheidende Rolle:

  • Riesiger L2-Cache

NVIDIA hat die Größe des L2-Caches auf 2MB vergrößert, wodurch der Grafikkern seltener auf den langsameren Videospeicher zugreifen muss.

  • Aufbau der Shader-Blöcke

Mit der Maxwell-Architektur ändert NVIDIA die Organisation der Rechenblöcke, so werden fünf anstelle von zwei Shader-Multiprozessoren, die Teile der Grafikberechnungen durchführen, verwendet. Jeder dieser Shader-Multiprozessoren verfügt nun über doppelt so viele Einheiten, die zudem auch  noch mit einem eigenen Registerfile ausgestattet sind. All dies bedingt dass Rechenprozesse schneller ablaufen und somit die Effizienz gesteigert wird.
Auch wurde der NVEnc (NVIDIA Encoder) geändert, der von Shadowplay genutzt wird. Mit diesem Tool kann (bei Spielen) das ausgegebene Bild aufgezeichnet werden. Hier konnte die Encodierungsgeschwindigkeit um 50 bis 100 Prozent gesteigert werden.

 Die neuen Grafikkarten GeForce GTX 750 und 750 Ti

Die ersten beiden Grafikkarten die NVIDIA mit der neuen Architektur ausgestattet hat, sind die GeForce GTX 750 und die GTX 750 Ti. Beide Grafikkarten sind mit schnellem GDDR5 Speicher bestückt und unterstützen natürlich auch GeForce Experience.

Spezifikationen

 

Unsere Tests haben ergeben dass mit beiden Grafikkarten aktuelle Spiele in 1080p (Full HD) Auflösung auf hohen oder maximalen Details spielbar sind. Vergleicht man dabei die Leistungsaufnahme mit Konkurrenten von Radeon so können sie hinsichtlich der Leistungsaufnahme überzeugen. Betrachtet man allerdings das Preis / Leistungsverhältnis der beiden Konkurrenten so muss man sagen dass für ähnliche Leistung NVIDIA mehr Geld für seine Grafikkarten verlangt.

Leistungsvergleich GTX 750 und 750 Ti

Leistungsvergleich GTX 750 und 750 Ti

GeForce Titan Black

Zeitgleich zu den beiden Mittelklassekarten veröffentlicht NVIDIA auch eine neue High-End-Karte, die aber auf der älteren Kepler-Technik beruht. Diese werden wir Euch in einem gesonderten Artikel vorstellen.

Fazit:

NVIDIA ist es gelungen die ohnehin effiziente Kepler-Architektur zu verbessern. Maxwell stellt damit neue Standards in Sachen Leistung pro Watt bei Grafikkarten. Die ersten beiden Grafikkarten sind dementsprechend führend in der Effizienz und sind zudem auch ähnlich schnell wie die Konkurrenz. Abwarten muss man wie sie sich preislich entwickeln, damit sie auch für den preisbewussten Kunden interessant werden.

PC-Systeme mit GeForce GTX 750 im CSL-Shop

 

Mini-PCs

Seit einiger Zeit gibt es zunehmend sogenannte Mini-PCs zu kaufen und so manch einer wird sich fragen, ob die „alten“ Rechenknechte damit dann doch ausgedient haben oder ob sich die Anschaffung eines solchen Minis überhaupt lohnt. Geschweige denn davon, wo denn die Einsparungen, Vor- und Nachteile gegenüber herkömmlichen PCs liegen.
Mini-PC
Mini-PCs – auch als Nettops und im Englischen als „Small form factor“ bezeichnet – verdanken ihre geringe Größe einer neuen, deutlich kleineren Generation von Mainboards, die es überhaupt erst ermöglicht in derart kleinem, kompakten Maßstab zu bauen.

Trotz ihrer geringen Größe stehen sie in Punkto Leistung einem normalen Büro-PC nur wenig nach und sind ebenfalls gut zur Wiedergabe von Filmen geeignet, gerade in Verbindung mit einem entsprechenden Monitor.

Hier zeigt sich auch schon einer der Punkte, die sowohl Vor- als auch Nachteil dieser kleinen Geräte sind: Aufgrund ihrer geringen Größe und Ausstattung kommen Mini-PCs logischerweise ohne Maus, Tastatur, Monitor und CD/DVD-Laufwerk daher, im Gegensatz zu Notebooks, bei denen höchstens das Laufwerk fehlt.

Die entsprechenden Peripheriegeräte müssen also hier – ebenso wie beim Desktop-PC – extra gekauft werden. Der Vorteil offenbart sich aber wieder, wenn man den Vergleich mit den Notebooks heranzieht: Während Notebooks einen bestimmten Bildschirm haben, kann man sich diesen für den Mini-Rechner aussuchen und somit ganz nach den eigenen Bedürfnissen wählen. Mit entsprechender Größe und Qualität des Monitors kann man diesen sogar als Fernseher-Ersatz verwenden.

Quelle: netzwelt.de

Quelle: netzwelt.de

 

 

Ebenfalls angenehm: Obwohl sie bei Büroarbeiten, Surfen im Netz und der Wiedergabe von Filmen mit Desktop-PCs mithalten können, ist der Stromverbrauch extrem niedrig. Zum Vergleich: Desktop-PCs haben ein Netzteil mit 350 oder mehr Watt Leistung, die Mini-PCs liegen – zum Teil deutlich – darunter. Die daraus resultierende Ersparnis im Stromverbrauch schlägt sich dementsprechend in den Stromkosten nieder und ist gerade dann sehr bemerkbar, wenn der Rechner ohnehin den Großteil des Tages läuft. Das alleine kann bereits die Anschaffung lohnenswert machen.

 

Allerdings kommen die geringe Größe und der geringere Energieverbrauch nicht ohne Nachteile.

Für jemanden, der lieber oder häufiger grafisch anspruchsvollere Spiele spielt, gerne an seinem Rechner bastelt um diesen nach seinen Wünschen anzupassen und zu erweitern wird wenig Freude an Mini-PCs haben. Auch stellt die Kühlung der Komponenten aufgrund der engeren Platzverhältnisse ein größeres Problem dar, was in der Regel mit einer Kombination aus passiver Kühlung, konventionellen Lüftern und Heatpipes zu lösen versucht wird. Aber auch hier gilt: Je mehr Leistung der Rechner bringt, desto mehr Wärme muss abgeleitet werden, was zwangsweise zu mehr Lärm durch die Kühlung sorgt und somit einen der Vorteile gegenüber Desktop-PCs wieder etwas relativiert. Auch wirkt sich die Wärme selbst natürlich ebenfalls auf die Leistung aus (eine warme CPU arbeitet etwas langsamer als eine gut gekühlte), was angesichts der ohnehin schon geringeren Leistung nochmals Einbußen mit sich bringt.

 

Und auch für die Aufrüstmöglichkeiten sind – gegenüber Desktop-PCs – eingeschränkt: Der Einbau neuer Komponenten erfordert mehr Fingerspitzengefühl, Zeit und die Einhaltung einer festen Reihenfolge durch den geringeren vorhandenen Platz, wodurch dies wirklich nur etwas für Profis bzw. sehr geduldige Menschen ist – oder jene, die einfach mehr Leistung wollen, als sie bekommen und für die das Kühl- und Lärmproblem eher zweitrangig ist.

 

Dennoch sind Mini-PCs insgesamt eine hervorragende Alternative zu konventionellen Rechnern und auch Notebooks für jene, die hauptsächlich Büroarbeiten erledigen wollen, Wert auf Mobilität und gutes Aussehen legen und die nicht übermäßig am Aufrüsten und höherer Leistung interessiert sind, ohne dabei zu tief in die Tasche greifen zu müssen.

Und dank ihrer Flexibilität bei der Monitor-Auswahl sind sie auch sehr gut zum Filmegucken geeignet.

 

Auch Intel ist im Geschäft mit den Mini-PCs vertreten und zwar in Form des NUC (Next Unit of Computing). Hierbei handelt es sich um einen von Intel designten small form factor der auf Ivy Bridge bzw. Haswell-Technologie basiert. Das Grundgerüst besteht dabei aus dem Mainboard samt CPU, dem Gehäuse mit Lüfter und externem Netzteil, sowie einer VESA-Befestigung zur Anbringung an Monitoren. Alle weiteren Komponenten müssen separat erworben und eingebaut werden, was diese Mini-PCs besonders geeignet macht für Bastler, die etwas mehr Leistung haben möchten, da die Celeron und gerade die Core i3 und i5 Prozessoren vergleichsweise Leistungsstark sind.

Außerdem gibt es die Möglichkeit, die NUC-Boards mit integrierter CPU und ohne Gehäuse zu erwerben, was auch gerade für Modder interessant sein dürfte oder für Leute, die ihren Mini mit 2,5‘‘ Laufwerken ausstatten möchten.

 

Zu sagen, dass die Mini-PCs den klassischen PCs oder auch Notebooks den Rang ablaufen werden ist sicherlich falsch, aber sie füllen eine Nische für jene, denen ein vollwertiger PC zu viel und ein Notebook zu wenig ist und stellen eine vollwertige Alternative zu beidem dar.

 

Vorteile:

  • Klein, geringes Gewicht und somit leicht zu transportieren, können teilweise an Monitoren angebracht werden (Vesa-Standard)
  • Relativ kostengünstig
  • Können im Gegensatz zu Notebooks aufgerüstet werden
  • Können z.B. auf dem Schreibtisch abgestellt werden
  • Durch ihre geringe Größe gut für Orte mit wenig Platz geeignet
  • Ästhetisches Design
  • Geringerer Stromverbrauch

Nachteile:

  • Peripheriegeräte (Maus/Tastatur, Monitor, DVD-Laufwerk) sind nötig
  • Weniger Steckplätze auf dem Mainboard vorhanden
  • Aufrüstmöglichkeiten sind eingeschränkt, Nachrüsten auf aktuellere Komponenten schwierig/nicht möglich
  • Kühlung ist weniger effizient/Aufwändiger
  • Weniger Anschlüsse für externe Geräte/USB-Geräte
  • Derzeit nur für Büroarbeiten und Filmwiedergabe geeignet, nicht für Spiele (außer durch Aufrüsten)

SATA 3.2

500px-Serial-ATA-Logo.svgVor einigen Monaten hat die SATA-IO (Serial ATA International Organization) die Spezifikation für SATA 3.2 verabschiedet und damit die Weichen für neue, schnellere Massenspeicher mit der SATA Express Schnittstelle gestellt.

 

Was ist SATA?

Serial ATA ist eine Verbindungstechnik für die Kommunikation zwischen Prozessor und Massenspeichern wie Festplatten, SSDs und SSHDs. Entwickelt wurde die Technik im Jahr 2000 von Intel, um die zu Tage getretenen Nachteile der älteren ATA-Schnittstelle zu überwinden. Der wesentlichste Unterschied zwischen beiden Standards ist hierbei der Übergang von einer parallelen Datenübertragung (ATA) zu einer seriellen, also Bit für Bit, Übertragung (SATA).

Dies ermöglichte unter anderem höhere Datenübertragungsraten und vereinfachte Kabelführungen, weil die Nachteile des parallel arbeitenden ATA-Buses in Bezug auf steigende Übertragungsraten, wie zunehmende Asynchronität und gegenseitige Beeinflussung der Leitungen, überwunden werden konnten.

Während die erste SATA-Generation Datenübertragungsraten von 150 MB/s ermöglichte, konnte die Geschwindigkeit bis zum SATA 3 Standard von 2009 auf 600 MB/s gesteigert werden. Was sich zunächst nach einer recht hohen Geschwindigkeit anhört und für Festplatten völlig ausreichend ist, erweist sich bei immer schneller werdenden SSDs und SSHDs zunehmend als Flaschenhals, der die Datenübertragung ausbremst.

Genau hier soll nun SATA 3.2 ansetzen.

 

Was bringt die neue Version?

Die wohl wichtigste Neuerung von SATA 3.2 ist die Unterstützung von „SATA Express“ (SATAe), das im Gegensatz zu früheren Standards das sehr schnelle PCI-Express Interface (PCIe) nutzt, um die Datenübertragungsrate auf ein neues Level zu hieven. Laut Spezifikation sollen 8 Gigabit/s über eine PCIe Lane und 16 Gigabit/s über zwei PCIe Lanes möglich sein, was bis zu 2 GB/s entspricht und die Geschwindigkeit gegenüber SATA 3 somit mehr als verdreifacht. Kleiner Wermutstropfen: Da nach wie vor ein gewisser Protokoll-Overhead existiert (zu den eigentlichen Daten werden weitere Informationen übertragen), wird die theoretische Maximalgeschwindigkeit nicht erreicht werden können. Für die Nutzung von „SATA Express“ wird es eine neue, dreigeteilte Schnittstelle geben, die entweder durch ein „SATA Express“ Gerät oder durch zwei SATA Geräte genutzt werden kann. Somit bleibt SATA Express abwärtskompatibel.

 

Eine weitere Neuerung repräsentiert der Form Factor „M.2“, dessen Entwicklung Intel unter dem Namen NGFF (Next Generation Form Factor) begonnen hatte. Es handelt sich hierbei um eine Spezifikation für eine besonders kompakte Bauweise im „Scheckkartenformat“, die auch für SSDs eingesetzt werden kann, z.B. für sehr dünne Notebooks und Tablets. Selbst im Vergleich zu bereits sehr kompakten Geräten im mSATA Form Factor wirken „M.2“  Geräte sehr klein.

Die folgende Tabelle verdeutlicht den Größenunterschied. Die Gerätebreite ist in beiden Spezifikationen konstant, während bei „M.2“ unterschiedliche Längen im Form Factor vorgesehen sind.

mSATA M.2
Beite in mm 30 22
Länge in mm 50,95 30, 42, 60, 80, 110

Quelle: SATA-IO

 

„M.2“ Geräte sind in zwei Versionen erhältlich: single-sided und double-sided. Zumindest Geräte, die single-sided gebaut sind, sind deutlich dünner als mSATA Geräte.

Im folgenden Video stellt Paul Wassenberg, Marketing Workgroup Chair der SATA-IO, den „M.2“ Form Factor und entsprechende Geräte vor.

 

Weiter hat die SATA-IO das Power Management verbessert. Per „Transitional Energy Reporting“ kann der Host-Computer nun umfassendere Informationen zum Energiebedarf eines SATA-Gerätes abrufen und somit die Leistungsaufnahme besser steuern.
Außerdem soll die „DevSleep“-Technik dafür sorgen, dass ungenutzte Laufwerke (Leerlauf) fast komplett abgeschaltet werden können, um die Leistungsaufnahme auf wenige Milliwatt zu begrenzen. Dies ist insbesondere im mobilen Bereich interessant, in dem es immer mehr Geräte, wie Ultrabooks, Smartphones, Tablets u.ä., gibt, die permanent eingeschaltet bleiben und nur in einen Schlafmodus übergehen („always on“, „always connected“).

 

Zudem enthält die Spezifikation kurz zusammengefasst u.a. die folgenden Techniken bzw. Module.

„SATA micro SSD“ ist eine Richlinie für ultrakleine Embedded SSDs, die auf lediglich einem Chip basieren. Hierfür ist die Anschlusstechnik weiterentwickelt worden, um diese Art von Speicher auf besonders kleinem Raum unterbringen zu können.

„SATA Universal Storage Module (USM)” bezeichnet eine Anschlusstechnik für externe Massenspeicher, die von Seagate entwickelt und für die SATA 3.2 Spezifikation vorgeschlagen wurde. Hier hat sie ihren Platz als „USM Slim“ gefunden und definiert einen 9 mm Form Factor für diese Schnittstelle, der die Anbindung von externen SATA-Datenträgern an besonders kleine und dünne Geräte ermöglichen bzw. erleichtern soll.

„Hybrid Information“ repräsentiert einen Mechanismus, der es dem Host-Computer ermöglicht einer SSHD vorzugeben, welche Daten in den SSD-Cache geschrieben werden sollen, um die Performance zu verbessern. Bislang war es so, dass die SSHDs autark „entschieden“ haben, welche Daten gecached werden.

Zu guter Letzt sei noch der „Rebuild Assist“ für RAID-Systeme genannt, der die Wiederherstellung von Daten in RAID-Verbünden bei defekten Laufwerken unter Umständen erheblich beschleunigen kann.

 

Ausblick

Kürzlich hat Tweaktown über einen Mainboard-Prototypen berichtet, der Ihnen von ASUS überlassen worden sei. Diese Vorserien-Version auf Basis des Z87-Chipsatzes verfügt unter anderem über zwei SATA Express Schnittstellen, so dass davon auszugehen ist, dass ASUS bereits in der ersten Jahreshälfte entsprechende Boards in Serienreife vorweisen kann.

Wie HardwareLuxx aus verschiedenen Quellen berichtet, ranken sich auch diverse Gerüchte um die Implementation von SATA Express in die Intel-9-Series Chipsätze, die ab März an Mainboard-Hersteller ausgeliefert werden sollen. Zunächst war zu lesen, SATA Express würde Teil der Chipsätze werden, dann hieß es, Intel würde keine Unterstützung liefern, dann aber sollte Intel doch an einer Platine arbeiten, die darauf hindeutet, das zumindest die M.2-Schnittstelle Berücksichtigung finden würde.

Kurzum – alles ist wie immer. Die Hersteller halten sich mit klaren Aussagen zurück, dafür brodelt die Gerüchteküche umso heftiger.

Lediglich der „M.2“ Form Factor scheint direkt alle Speicherhersteller in Bewegung gebracht zu haben. So wurden von allen großen Produzenten bereits entsprechende SSDs vorgestellt und weitere angekündigt.