Festplatten

3.3902335456164 (2355)
Geschrieben von robby 09/03/2009 @ 14:15

Tags : festplatten, computer, high-tech

Neueste Nachrichten
Wo sind die Gigabytes geblieben?: Wenn der PC die Festplatte schrumpft - RP ONLINE
Auf der Packung sind 500 Gigabyte Speicherplatz angegeben, doch sobald die neue Festplatte an den Rechner angeschlossen ist, zeigt das System nur noch 465 Gigabyte an. "Wo ist der restliche Speicherplatz hin?", fragen sich immer wieder ratlose Käufer....
Internet-Zugriff auf externe Festplatte - Bild.de
Der Festplatten-Hersteller Western Digital bietet ein externes Speichersystem für den mobilen Internet-Zugriff an. Mit dem Gerät „My Book World Edition“ kann man auch unterwegs Fotos oder Videos auf der heimischen Festplatte sichern oder im Urlaub auf...
Verbatim Portable Hard Drive Executive: Externe Festplatte plus ... - COMPUTER BILD
Verbatim bringt mit der „Portable Hard Drive Executive“ eine externe 2,5-Zoll-Festplatte mit 500 Gigabyte Speicherkapazität auf den Markt. Mit dabei sind drei Programme, mit denen Sie die Transfergeschwindigkeit erhöhen, Dateien synchronisieren und...
WWDC: Apple renoviert die MacBook-Linie [Update] - Heise Newsticker
Als Optionen stehen Festplatten bis 500 GByte und Solid-State-Speicher bis 256 GByte zur Auswahl. Das Modell mit 2,26-GHz-Core-2-Duo-Prozessor, 2 GByte Arbeitsspeicher und 160er Festplatte kostet 1200 US-Dollar (1150 statt 1200 Euro)....
Iomega bringt neue eGo-Festplatten für Mac - ZDNet.de
Die neuen eGo-Festplatten mit Dreifach-Interface sind zu den Betriebssystemen Mac OS X 10.4 oder höher sowie zu Windows 2000 Professional, XP und Vista kompatibel. Das 320-GByte-Modell kostet 109,90 Euro, die 500-GByte-Variante 144,90 Euro....
Tech Data verkauft die meisten internen Festplatten von Westen Digital - ChannelPartner
Im Geschäftsjahr 208/20089 konnte Tech Data die meisten internen Festplatten von Western Digital absetzen und hat laut Hersteller damit im besonderen Maße zur EMEA-Zielerreichung des Herstellers beigetragen. Deshalb übergab der CEO von Western Digital,...
Multimedia-Player: Lacie LaCinema Classic Bridge - Chip Online
Der Zubehörspezialist Lacie erweitert sein Angebot an Multimedia-Festplatten. Die LaCinema Classic Bridge stellt eine preisgünstige Möglichkeit dar, um vorhandene Speichergeräte zum Multimedia-Abspieler aufzuwerten. Dafür gibt es zwei Möglichkeiten:...
Smart MX44: Festplatten-Receiver mit moretv Premium EPG - avmagazin.de
Smart-Electronic hat mit dem MX44 seinen neuen digitalen Sat-Receiver vorgestellt,d er über eine 250 GB Festplatte inklusive Aufnahme- und Pausenfunktion verfügt und darüber hinaus mit dem Servicepaket der moretv Broadcasting gmbh und dem moretv TV...
Programm analysiert die Festplatte und warnt rechtzeitig vor dem ... - IT SecCity
Denn hat die Festplatte erst einmal unerwartet den Geist aufgegeben, ist der Schaden groß. Ungesicherte Daten sind hier anders als beim versehentlichen Löschen unwiderruflich "futsch". Wer nicht erst aus Schaden klug werden möchte, der kann jetzt...
Thermaltake Level 10: der innere Aufbau - PC Games Hardware
Die Festplatten werden nach vorne rausgezogen und verfügen zur leichteren Montage über Hot-Swap-Anschlüsse. Für die oberen beiden Festplatten hat Thermaltake Lüfter verbaut, die die warme Luft aus dem Festplattenabteil pusten....

Festplatte

Skizze einer Festplatte

Eine Festplatte (englisch hard disk drive = HDD) im engeren historischen Sinne ist ein ferromagnetisches Speichermedium der Computertechnik, welches binäre Daten auf die Oberfläche einer rotierenden Scheibe schreibt. Dazu wird die hartmagnetische Beschichtung der rotierenden Plattenoberfläche entsprechend der aufzuzeichnenden Information magnetisiert. Durch die Remanenz erfolgt die Speicherung der Information. Das Auslesen der Information erfolgt durch Abtastung der Magnetisierung der Plattenoberfläche mittels des Lesekopfes. Im weiteren Sinne werden mit vergleichbaren Speicherkapazitäten auch Flash-Speicher und Hybridspeicher funktionsgleich als „Festplatten“ angeboten.

Im Gegensatz zu den dünnen, flexiblen (engl.: floppy) Scheiben in Disketten bestehen die Scheiben von Festplatten aus starrem Material und werden deshalb auch als „hard disk“ bezeichnet.

Auf einer Festplatte können beliebige Daten gespeichert werden: Sowohl Dateien des Betriebssystems des Computers oder auch andere, etwa durch Anwendungsprogramme erzeugte persönliche Daten, welche dauerhaft gespeichert werden.

In Abgrenzung zu sequentiell adressierbaren Speichermedien wie Magnetband oder Lochstreifen werden Festplatten den direktadressierbaren Speichermedien (engl. direct access storage devices, DASD) zugerechnet, da auf die Daten direkt zugegriffen werden kann (Vergleich: Tonband ↔ Schallplatte).

Die Speicherkapazität einer Festplatte ist die Gesamtzahl an Bits (0 oder 1), die durch die ansteuernde Software, also meist das Betriebssystem oder vielmehr dessen Gerätetreiber, adressiert werden können. Die Kapazität wird normalerweise in Byte gemessen, 8 Bit bilden 1 Byte. Bei der Aufzeichnung erfolgt durch den gewöhnlich im Festplattengehäuse eingebauten Controller eine weitere Kodierung der Daten, weshalb kein unmittelbarer Zusammenhang zwischen den gespeicherten Daten und der daraus folgenden Magnetisierung der Plattenoberfläche besteht.

Der Übersichtlichkeit halber wird die Anzahl Bits in Kilo-, Mega-, Giga- und Terabit bzw. -byte angegeben. Vor allem Festplattenhersteller definieren bei der Angabe der Kapazität ein Gigabyte mathematisch nach Potenzen zur Basis 10, also als 109 Byte = 10003 Byte = 1.000.000.000 Byte. Dem gegenüber steht die Umrechnung von Computerprogrammen, die auf dem traditionellen System, den Potenzen zur Basis 2, basierte: ein Gigabyte wird hier meist als 230 Byte = 10243 Byte = 1.073.741.824 Byte behandelt. Zur Unterscheidung hat die IEC dafür die Bezeichnung Gibibyte eingeführt, welche sich jedoch nicht durchgesetzt hat. Die daraus resultierenden unterschiedlichen Größenangaben für die Speicherkapazität lassen sich anhand von Binärpräfixen unterscheiden.

Die derzeit (Stand: Anfang 2009) größte Festplatte mit einer Kapazität von 2 Terabyte (2000 GB) ist ein 3,5-Zoll-Modell von Western Digital. Die zeitliche Entwicklung der maximalen Festplattenkapazität zeigt einen annähernd exponentiellen Verlauf, vergleichbar mit der Entwicklung der Rechenleistung nach dem Mooreschen Gesetz. Die Kapazität hat sich etwa alle 5 Jahre verzehnfacht.

Die physikalische Größe von Festplatten wird traditionell in Zoll angegeben und ist keine exakte Größenangabe, sondern ein Formfaktor. So sind beispielsweise 3,5"-Festplatten exakt 100 mm breit, was knapp 4 Zoll entspricht. Die Größe der Magnetscheiben in der Festplatte beträgt maximal den als Formfaktor angegebenen Wert; bei Serverfestplatten mit sehr hohen Rotationsgeschwindigkeiten auch weniger.

Im Zuge der technischen Weiterentwicklung sind immer wieder Baugrößen zu Gunsten kleinerer eingestellt worden, da diese weniger anfällig gegen Erschütterungen sind und weniger Strom verbrauchen. Die Datendichte entwickelt sich hingegen mit so hoher Geschwindigkeit, dass die verringerte Fläche nur eine kurzzeitige Bremse darstellt.

Die erste Festplatte IBM 350 von 1956 hatte eine Baugröße von 24". Mitte der 1970er kamen Modelle mit einer Größe von 8" auf, die ebenfalls recht schnell durch die wesentlich handlicheren und vor allem leichteren 5,25"-Festplatten abgelöst wurden. Dazwischen gab es noch Größen von 14" und 9".

5,25″-Festplatten wurden 1980 von Seagate eingeführt, jedoch ist diese Gattung seit 1997 ausgestorben. Einige SCSI-Server-Platten sowie die LowCost-ATA-Platte BigFoot von Quantum waren die letzten Vertreter dieser Spezies. Man unterscheidet Geräte mit voller Bauhöhe (3,5″ bzw. ca. 88 mm), die zwei Steckplätze belegen, und halber Bauhöhe (1,75″ bzw. ca. 44 mm). Es gibt aber auch Modelle mit noch geringerer Bauhöhe, so hat die bereits erwähnte BigFoot beispielsweise in der 4-GB-Version eine Bauhöhe von nur 0,75" (etwa 19 mm). Die Breite beträgt 146 mm, die Tiefe ist variabel und sollte nicht wesentlich oberhalb von 200 mm liegen.

3,5"-Festplatten wurden ca. 1990 eingeführt und sind derzeit (2009) Standard in Desktop-Computern. Im Server-Bereich wurden sie inzwischen durch 2,5"-Modelle abgelöst, die effektiv mehr Daten pro Platz unterbringen können und selbst bei höheren Drehzahlen deutlich weniger Strom verbrauchen. Die meisten Platten haben 1" bzw. ca. 25 mm Bauhöhe. Im Serverbereich gibt es auch Platten bis 1,8" Höhe (1,8" bzw. ca. 44 mm). Die Breite beträgt 100 mm, die Tiefe ist variabel und sollte nicht wesentlich oberhalb von 150 mm liegen. Inzwischen ist auch die Zukunft derartiger Festplatten für den Desktop-Markt fraglich.

2,5"-Baugrößen finden schon seit ihrer Einführung Verwendung in Notebooks oder Spezialrechnern. Die traditionelle Bauhöhe war 0,5" (12,7 mm), mittlerweile gibt es mit 0,375" (9,5 mm) und 0,25" (6,35 mm) flachere Festplatten – und auch Notebooks, die diese flachen Varianten benötigen. Die Breite beträgt 68 mm, die Tiefe 100 mm. Der Anschluss ist gegenüber den größeren Bauformen modifiziert, bei ATA wird z. B. ein 44-poliger Anschluss verwendet, der gleichzeitig die Betriebsspannung von +5 Volt zuführt (Pin 1 ist meist auf der Seite der Jumper). Im Gegensatz zu den größeren Platten kommen diese Platten ohne 12-Volt-Betriebsspannung (zusätzlich zu der 5-Volt-Spannung) aus.

Seit 2006 bietet Seagate und im Weiteren auch andere Hersteller zudem auch 2,5"-Festplatten für den Einsatz in Servern an, die weniger Strom verbrauchen, Platz sparen und die Ausfallsicherheit erhöhen sollen. Weitere Hersteller sind Toshiba, Hitachi und Fujitsu. Seit April 2008 wird von Western Digital mit der Velociraptor auch eine 2,5"-Festplatte (allerdings mit 15 mm Bauhöhe) mit 3,5"-Einbaurahmen als Desktop-Festplatte vermarktet.

1,8"-Baugrößen werden seit 2003 bei Sub-Notebooks sowie diversen Industrieanwendungen verwendet. Ebenso in großen MP3-Playern. Hitachi kündigte Ende 2007 an, keine 1,8″-Festplatten mehr herzustellen, da Flash-Speicher diese Baugröße verdränge.

Noch kleinere Baugrößen spielen kaum eine Rolle. Eine der wenigen Ausnahmen sind die sogenannten Microdrives; Festplatten mit einer Baugröße von 1", die vergleichsweise große und günstige CompactFlash-Typ-II-Speichereinheiten für beispielsweise Digitalkameras ermöglichten. Inzwischen wurden diese nahezu vollständig durch günstigeren Flash-Speicher verdrängt, der darüber hinaus auch wesentlich robuster, schneller, leichter, leiser und energiesparender ist. Darüber hinaus gab es 2005 kurzzeitig von der Firma Toshiba Festplatten mit einer Baugröße von nur 0,85" und einer Kapazität von 4 GB (3,73 GiB). Diese Modelle waren nur für Spezialanwendungen gedacht und nur in begrenzten Mengen erhältlich.

Die Scheiben bestehen meistens aus oberflächenbehandelten Aluminium-Legierungen, vereinzelt auch aus Glas. Sie müssen formstabil sein und eine geringe elektrische Leitfähigkeit aufweisen, um die Größe der Wirbelströme gering zu halten. Da die magnetisierbare Schicht besonders dünn sein soll, darf das Material der Scheiben selbst jedoch keine magnetischen Eigenschaften besitzen und dient nur als Träger der Magnetschicht. Auf die Scheiben wird eine Eisenoxid- oder Kobaltschicht von ungefähr einem Mikrometer Stärke aufgetragen. Heutige Festplatten werden durch Sputtern von sogenannten "high storage density media" (dt. Material für hohe Speicherdichte) wie CoCrPt hergestellt. Die magnetische Schicht wird zusätzlich mit einer Deckschicht aus diamantähnlichem Kohlenstoff versehen (engl. "carbon overcoat"), um mechanische Beschädigungen zu vermeiden. Die zukünftige Verkleinerung der magnetischen Bits erfordert sowohl die Erforschung von "ultra high storage density media" als auch von alternativen Konzepten, da man sich langsam dem superparamagnetischen Limit nähert. Zusätzlich wurde eine Steigerung der Datendichte durch besseres Trägermaterial sowie durch die Optimierung der Schreibverfahren erreicht.

In älteren Desktopfestplatten von IBM (Deskstar 75GXP/40GV DTLA-30xxxx, Deskstar 60GXP/120GXP IC35Lxxxx) aus den Jahren 2000 bis 2002 kam Glas als Material für die Scheiben zum Einsatz. Neuere Modelle der Festplattensparte von IBM (2003 übernommen durch Hitachi) verwenden jedoch wieder Aluminium, mit Ausnahme der Festplatten für den Serverbereich. In dem Festplattengehäuse befindet sich eine oder mehrere übereinander liegende rotierende Scheiben. Verbaut wurden bisher ein bis zwölf Scheiben, üblich sind ein bis fünf. Eine höhere Scheibenanzahl geht in der Regel mit höherem Energieverbrauch und größerer Geräuschentwicklung einher. Manchmal werden aus Platzgründen oder um ein Modell mit einer geringeren Kapazität anzubieten, ohne extra andere Platten herzustellen, nicht alle Scheibenoberflächen genutzt, so dass Festplatten mit ungerader Schreib-/Lesekopfanzahl entstehen. Um die Nachfrage nach Festplattenmodellen mit kleinerer Kapazität zu befriedigen, können die Hersteller ebenfalls auf diese Weise die Kapazität künstlich beschränken bzw. verkleinern. Eine neuere Entwicklung (seit 2004) ist das Perpendicular Recording, um die Datendichte weiter zu steigern. Seit Erscheinen der ersten 3,5" HD mit dieser Technik im Jahre 2006, der Cheetah 15K.5 von Seagate, wurde die Technik schnell von weiteren großen Herstellern übernommen und ist häufig in den 2008 käuflichen Festplatten implementiert.

In Arbeitsplatzrechnern oder Privat-PCs verwendete Festplatten – momentan zum größten Teil Platten mit ATA-, SATA-, SCSI oder SAS-Schnittstelle – rotieren mit Geschwindigkeiten von 5.400 bis 10.000 Umdrehungen pro Minute. Vor der Zeit der ATA-Festplatten und im Bereich der Hochleistungsrechner und Server wurden bisher überwiegend Festplatten mit den technisch überlegenen SCSI-, FC- oder SAS-Schnittstellen verwendet, die inzwischen in der Regel 10.000 oder 15.000 Umdrehungen pro Minute erreichen. Bei den 2,5-Zoll-Festplatten, die hauptsächlich in Notebooks zum Einsatz kommen, liegen die Geschwindigkeiten im Bereich von 4.200 bis 7.200 Umdrehungen pro Minute. Die Achsen der Scheiben früherer Festplatten (bis 2000) waren kugelgelagert; heute (2006) werden überwiegend hydrodynamische Gleitlager (engl. „fluid dynamic bearing“ – FDB) verwendet. Diese zeichnen sich durch eine höhere Lebensdauer, geringere Geräuschentwicklung und geringere Herstellungskosten aus.

Der Schreib-/Lesekopf (Magnetkopf) des Schreibfingers, im Prinzip ein winziger Elektromagnet, magnetisiert winzige Bereiche der Scheibenoberfläche unterschiedlich und schreibt somit die Daten auf die Festplatte. Aufgrund eines Luftplosters, das durch die Reibung der Luft an der rotierenden Scheibenoberfläche erzeugt wird, schweben die Schreib-/Leseköpfe (vgl. Bodeneffekt). Die Schwebehöhe liegt heutzutage (2006) im Bereich von etwa 20 Nanometern, weswegen die Luft innerhalb des Festplattengehäuses keinerlei Verunreinigungen enthalten darf. Bei neuesten Festplatten mit Perpendicular-Recording-Technik schrumpft dieser Abstand auf 10 Nanometer. Der Bodeneffekt ist in diesem Zusammenhang sehr nützlich zur Einhaltung der richtigen Flughöhe des Schreib-/Lesekopfes über der rotierenden Scheibe. Zum Vergleich: Ein Haar ist etwa 0,05 mm = 50 µm = 50.000 nm dick. Die Herstellung von Festplatten erfolgt deshalb wie die von Halbleitern in Reinräumen. Die Daten wurden bis ca. 1994 durch Induktion des Magnetfelds der magnetisierten Fläche in der Spule des Schreib-/Lesekopfes ausgelesen. Über die Jahre wurden jedoch aufgrund der steigenden Datendichte die Flächen, auf denen einzelne Bits gespeichert werden, immer kleiner. Um diese Daten auszulesen, werden kleinere und empfindlichere Leseköpfe benötigt. Diese wurden nach 1994 entwickelt: MR-Leseköpfe sowie einige Jahre später GMR-Leseköpfe (Riesenmagnetowiderstand). Der GMR-Lesekopf ist eine Anwendung der Spintronik.

In der Anfangszeit der Festplatten wurden die Schreib-/Leseköpfe mit Schrittmotoren angesteuert, da die Spurabstände noch groß waren. Bei den zur Zeit üblichen Schreibdichten sorgen Tauchspulsysteme mit Lageregelung für die Positionierung. Bei der Hitachi Deskstar 7K500 beträgt die Anzahl der Spuren pro Zoll (tpi) z. B. 135.000, während die Bitdichte in der Spur (bpi) 872.000 beträgt.

Zum Schutz der Scheiben-Oberflächen vor dem Aufsetzen der Schreib-/Leseköpfe fahren diese, noch bevor sich beim Ausschalten der Festplatte die Umdrehungsgeschwindigkeit merklich verringert hat, in die so genannte „Landezone“ („landing zone“), in der sie fixiert werden. Diese Parkposition kann sich außerhalb der Scheiben befinden oder im Innenbereich der Platten. Dabei setzt der Schreib-/Lesekopf auf einem vordefinierten Bereich der Festplatte auf, der keine Daten enthält. Die Oberfläche dieses Bereichs ist besonders vorbehandelt, um ein Festkleben des Kopfes zu vermeiden und so einen späteren Wiederanlauf der Festplatte zu ermöglichen. Die Fixierung geschieht z. B. über einen kleinen Magneten, der den Lesekopf festhält.

Bei älteren Festplatten wurden die Schreib-/Leseköpfe bei fast allen Modellen aus den Plattenstapel herausgefahren. Später (1990er, 2000er) wurde zunehmend die Parkposition im Innenbereich bevorzugt. Heutzutage (2008) kommen beide Verfahren vor, sowohl bei Notebook-Platten als auch bei Desktop-Platten. Bei Notebook-Platten bietet die Parkposition außerhalb des Plattenstapels zusätzlichen Schutz vor Beschädigung der Oberfläche der Scheiben bei Transport (Erschütterung) der Festplatte.

Bei älteren Festplatten mussten die Köpfe explizit vor dem Ausschalten per Befehl vom Betriebssystem geparkt werden. Das Parken erhöht auch die Stoßfestigkeit der Festplatten für einen Transport oder Umbau. Doch auch moderne Festplatten müssen mitunter explizit geparkt werden, da der beschriebene automatische Parkmechanismus nach Wegfall der Versorgungsspannung zu einem erhöhten Verschleiß führen kann. Heutzutage wird dieser Befehl automatisch beim Herunterfahren des Systems vom Gerätetreiber abgesetzt.

Bei modernen Laptops sorgt ein Beschleunigungssensor für das Parken des Festplattenfingers noch während eines eventuellen freien Falls, um so den Schaden beim Sturz eines Rechners zu begrenzen.

Das Gehäuse einer Festplatte ist sehr massiv, es ist meist ein aus einer Aluminiumlegierung bestehendes Gussteil und mit einem Edelstahl-Blechdeckel versehen.

Es ist staub-, aber nicht luftdicht abgeschlossen: Durch eine mit einem Filter versehene kleine Öffnung kann bei Temperaturänderungen oder anders verursachten Luftdruckschwankungen Luft ein- oder austreten, um so die Druckunterschiede auszugleichen. (Diese Öffnung – siehe nebenstehende Abbildung – darf nicht verschlossen werden, vor allem wegen der Wärmeausdehnung der im Plattengehäuse vorhandenen Luft.) Da der Luftdruck im Gehäuse mit zunehmender Höhe über dem Meeresspiegel abnimmt, zum Betrieb aber ein Mindestdruck erforderlich ist, durften diese Festplatten nur bis zu einer bestimmten, maximalen Höhe betrieben werden. Diese ist in der Regel im zugehörigen Datenblatt vermerkt. Die Luft ist erforderlich, um die direkte Berührung von Lesekopf und Festplatte zu verhindern, siehe oben bei Die Schreib-Lesekopfeinheit.

Bei neueren Laufwerken wurde der Filter durch eine elastische Membran ersetzt, die das System durch Aufwölben in die eine oder andere Richtung an wechselnde Druckverhältnisse anpassen kann.

Wird eine Festplatte in normaler, verunreinigter Luft geöffnet, sorgen bereits kleinste Staub-/Rauchpartikel, Fingerabdrücke etc. für wahrscheinlich irreparable Beschädigungen der Plattenoberfläche und der Schreib-/Leseköpfe.

Das Speichern der Daten auf einer Festplatte erfolgt durch die gezielte Magnetisierung kleinster – vom Schreibfinger angesteuerter – Flächen der permeablen Schicht ferromagnetischen Materials, die entsprechend ihrer Polarität (Nord/Süd) den elektronisch-binär interpretierten Wert 0 oder 1 annehmen. Beim Lesen der jeweiligen Sequenzen von 0- und 1-Werten werden die Informationen dekodiert und an das Betriebssystem übergeben. Sie werden vom Prozessor des Computers ausgewertet und weiterverarbeitet. Entsprechend umgekehrt geht das Schreiben der vorher vom Prozessor erstellten Daten vonstatten.

Vor dem Schreiben werden die Daten mittels spezieller Verfahren, wie den früher üblichen GCR, MFM, RLL und heute üblichen PRML oder EPRML, kodiert. Ein Bit der Anwenderdaten entspricht daher physikalisch nicht unmittelbar einem magnetischen Flusswechsel auf der Plattenoberfläche. Die Kodierung muss der Festplattencontroller vornehmen, zusammen mit dem Verwalten der Daten (Organisation der Daten in Blöcke) und dem Führen des Schreib-/Lesekopfes über die Spuren.

Sowohl beim Schreiben als auch beim Lesen muss vor dem Zugriff auf einen bestimmten Block der Schreib-/Lesekopf der Platte bewegt und anschließend abgewartet werden, bis durch die Rotation der Platte dieser Block unter dem Kopf vorbeigeführt wird. Diese mechanisch bedingten Verzögerungen liegen heutzutage bei ca. 5–10 ms, was nach Maßstäben anderer Computerhardware eine kleine Ewigkeit ist. Daraus ergibt sich die extrem hohe Latenzzeit von Festplatten im Vergleich zu RAM, die noch auf der Ebene der Softwareentwicklung und der Algorithmik berücksichtigt werden muss.

Um eine hohe Leistung zu erreichen, muss eine Festplatte, soweit möglich, immer große Mengen von Daten in aufeinander folgenden Blöcken lesen oder schreiben, weil dabei der Schreib-/Lesekopf nicht neu positioniert werden muss.

Dies wird unter anderem dadurch erreicht, dass möglichst viele Operationen im RAM durchgeführt und auf der Platte die Positionierung der Daten auf die Zugriffsmuster abgestimmt werden. Dazu dient vor allem ein großer Cache als Teil der Festplattenelektronik, auf dessen Inhalt mit RAM-Geschwindigkeit zugegriffen werden kann. Die Firmware der Festplatte sorgt für die korrekte Verwaltung und Aktualisierung des Cache-Inhalts. Zusätzlich zum Hardware-Cache gibt es in allen modernen Betriebssystemen noch einen Disk Cache oder VCache genannten Cache im Arbeitsspeicher.

Neben der Verwendung eines Caches gibt es weitere Software-Strategien zur Performance-Steigerung. Sie werden vor allem in Multitasking-Systemen wirksam, wo das Festplattensystem mit mehreren bzw. vielen Lese- und Schreibanforderungen gleichzeitig konfrontiert wird. Es ist dann meist effizienter, diese Anforderungen in eine sinnvolle neue Reihenfolge zu bringen. Die Steuerung erfolgt durch einen Festplatten-Scheduler. Das einfachste Prinzip hierbei verfolgt dabei dieselbe Strategie wie eine Fahrstuhlsteuerung: Die Spuren werden zunächst in einer Richtung angefahren und die Anforderungen beispielsweise nach monoton steigenden Spurnummern abgearbeitet. Erst wenn diese alle abgearbeitet sind, kehrt die Bewegung um und arbeitet dann in Richtung monoton fallender Spurnummern usw.

Auf einer tieferen Ebene optimiert man den Datenzugriff durch Interleaving, was bei modernen Festplatten aber nicht mehr notwendig ist.

Die Magnetisierung der Beschichtung der Scheiben ist der eigentliche Informationsträger. Sie wird vom Schreib/Lesekopf auf kreisförmigen, konzentrischen Spuren aufgebracht, während die Scheibe rotiert. Eine Scheibe enthält typischerweise einige tausend solcher Spuren, meist auch auf beiden Seiten. Die Gesamtheit aller gleichen, d. h. übereinander befindlichen, Spuren der einzelnen Platten(oberflächen) nennt man Zylinder. Jede Spur ist in kleine logische Einheiten unterteilt, die man Blöcke nennt. Ein typischer Block enthält 512 Byte an Nutzdaten (Anwenderdaten). Jeder Block verfügt dabei über Kontrollinformationen (Prüfsummen), über die sichergestellt wird, dass die Information auch korrekt geschrieben oder gelesen wurde. Die Gesamtheit aller Blöcke, die die gleichen Winkelkoordinaten auf den Platten haben, nennt man Sektor. Der Aufbau eines speziellen Festplattentyps, das heißt, die Anzahl der Spuren, Oberflächen und Sektoren, wird auch als Festplattengeometrie bezeichnet. Verwirrenderweise wird der Begriff Sektor häufig fälschlicherweise auch synonym für Block verwendet.

Da manche Betriebssysteme zu früh an Grenzen stießen, als die Nummerierung der Blöcke bei steigenden Festplattenkapazitäten die Wortgrenze (16 Bit) überstieg, führte man Cluster ein. Das sind Gruppen von jeweils einer festen Anzahl an Blöcken (z. B. 32), die sinnvollerweise physisch benachbart sind. Das Betriebssystem spricht dann nicht mehr einzelne Blöcke an, sondern verwendet auf seiner (höheren) Ebene diese Cluster als kleinste Zuordnungseinheit. Erst auf Hardwaretreiber-Ebene wird dieser Zusammenhang aufgelöst.

Bei modernen Festplatten ist normalerweise die wahre Geometrie, also die Anzahl an Sektoren, Köpfen und Zylindern, die vom Festplatten-Controller verwaltet werden, nach außen (d. h. für den Computer bzw. den Festplattentreiber) nicht sichtbar. Der Computer, der die Festplatte benutzt, arbeitet dann mit einer virtuellen Festplatte, die völlig andere Geometriedaten aufweist. Dies erklärt, warum zum Beispiel eine Festplatte, die real nur vier Köpfe aufweist, vom Computer mit 255 Köpfen gesehen wird. Ein Grund für dieses virtuelle Konzept ist, dass man Begrenzungen von PC-kompatibler Hardware überwinden wollte. Weiterhin kann der Festplatten-Controller dadurch defekte Blöcke ausblenden, um dann einen Block aus einem Reserve-Bereich einzublenden. Für den Computer sieht es immer so aus, als wären alle Blöcke defektfrei und nutzbar. Es wird vermutet, dass besagter Reserve-Bereich bzw. Reserve-Spuren ca. 10–20 % des auf der Festplatte angegebenen Speicherplatzes ausmachen. Dieser Speicherplatz lässt sich durch spezielle Firmware-Varianten nutzen, was dann aber logischerweise die Lebensdauer der Festplatte (bzw. die Datensicherheit) reduziert. Heute übliche Festplatten teilen weiterhin die Platten in Zonen auf, wobei eine Zone mehrere Spuren mit jeweils der gleichen Anzahl an Blöcken enthält.

Aus Sicht des Betriebssystems können Festplatten durch Partitionierung in mehrere Bereiche unterteilt werden. Das sind keine echten Laufwerke, sondern werden vom Betriebssystem als solche dargestellt. Man kann sie sich als virtuelle Festplatten vorstellen, die durch den Festplattentreiber dem Betriebssystem gegenüber als getrennte Geräte dargestellt werden. Abgesehen von zeitlichen Effekten sowie dem Verhalten im Falle des Festplattenausfalls ist nicht erkennbar, ob es sich um eine physikalisch getrennte Festplatte oder lediglich um ein logisches Laufwerk handelt.

Jede Partition wird vom Betriebssystem gewöhnlich mit einem Dateisystem formatiert. Unter Umständen werden, je nach benutztem Dateisystem, mehrere Blöcke zu Clustern zusammengefasst, die dann die kleinste logische Einheit für Daten sind, die auf die Platte geschrieben werden. Das Dateisystem sorgt dafür, dass Daten in Form von Dateien auf die Platte abgelegt werden können. Ein Inhaltsverzeichnis im Dateisystem sorgt dafür, dass Dateien wiedergefunden werden und hierarchisch organisiert abgelegt werden können. Der Dateisystem-Treiber verwaltet die belegten, verfügbaren und defekten Cluster. Ein Beispiel für ein Dateisystem ist das (von MS-DOS und Windows 9x ausschließlich unterstützte) FAT-Dateisystem.

Um die Lautstärke der Laufwerke beim Zugriff auf Daten zu verringern, unterstützen die meisten für den Desktop-Einsatz gedachten ATA- und SATA-Festplatten „Automatic Acoustic Management“ (AAM). Wird die Festplatte in einem leisen Modus betrieben, werden die Schreib/Leseköpfe weniger stark beschleunigt, so dass die Zugriffe leiser sind. Das Laufgeräusch des Plattenstapels sowie die Daten-Transferrate wird davon nicht verändert, jedoch verlängert sich die Zugriffszeit.

Als Schnittstelle der Festplatte zum Computer wird heute im Desktop-Bereich hauptsächlich die serielle SATA (oder S-ATA)-Schnittstelle eingesetzt. Bis vor kurzem war hier noch die parallele ATA (oder IDE, EIDE)-Schnittstelle üblich. Bei professionellen Servern und Workstations sind SCSI (parallel), Fibre-Channel und SAS (beide seriell) üblich.

Ältere, heute nicht mehr erhältliche, Schnittstellen sind ST506 (mit den Modulationsstandards MFM, RLL und ARLL) und ESDI.

Die Mainboards waren lange Zeit mit meist zwei ATA-Schnittstellen versehen, inzwischen - teilweise zusätzlich, teilweise stattdessen - mit bis zu 10 SATA-Schnittstellen.

Ein vergleichbarer Wandel ist im Bereich der Server bzw. Speicher-Subsysteme zu erkennen. Neben den noch oft verwendeten SCSI-Festplatten werden mehr und mehr serielle Typen wie Fibre-Channel- oder SAS-Festplatten eingesetzt.

Ein prinzipielles Problem bei parallelen Übertragungen ist, dass es mit zunehmender Geschwindigkeit immer schwieriger wird, unterschiedliche Laufzeiten der einzelnen Bits durch das Kabel zu korrigieren. Daher stoßen die parallelen Schnittstellen mittlerweile an ihre Grenzen; diese Einschränkung fällt bei seriellen Übertragungstechniken weg, womit höhere Übertragungsraten möglich werden.

Bei einer ATA-Festplatte wird durch Jumper festgelegt, ob sie das Laufwerk mit Adresse 0 oder 1 der ATA-Schnittstelle ist (Device 0 bzw. 1, oft auch mit Master bzw. Slave bezeichnet). Manche Modelle erlauben auch eine Beschränkung der an das Betriebssystem bzw. BIOS gemeldeten Kapazität des Laufwerks, wodurch die Festplatte im Falle von Inkompatibilitäten dennoch (unter Verschenkung des nicht gemeldeten Plattenplatzes) in Betrieb genommen werden kann.

Durch die Festlegung der ATA-Bus-Adresse können zwei Festplatten an einer ATA-Schnittstelle des Mainboards angeschlossen werden. Die meisten Mainboards haben zwei ATA-Schnittstellen, genannt primary ATA und secondary ATA, also „erste“ und „zweite ATA-Schnittstelle“. Daher können insgesamt bis zu vier Festplatten an beide ATA-Schnittstellen der Hauptplatine angeschlossen werden. Ältere BIOS von Hauptplatinen erlauben es nur, den Computer von der ersten ATA-Schnittstelle zu starten, und auch nur, wenn die Festplatte als Master gejumpert ist.

Die ATA-Schnittstellen werden jedoch nicht nur von Festplatten, sondern auch von CD-ROM- und DVD-Laufwerken genutzt. Somit ist (ohne Zusatzkarte) die Gesamtzahl von Festplatten plus ladbaren Laufwerken (CD-ROM, DVD) auf vier begrenzt (Diskettenlaufwerke haben eine andere Schnittstelle). Es gibt sogar Adapter, mit denen Compact-Flash-Karten angeschlossen und wie eine Festplatte verwendet werden können.

Die ideale Verteilung der Laufwerke auf die einzelnen Anschlüsse ist disputabel. Zu beachten ist, dass sich traditionell zwei Geräte am selben Kabel die Geschwindigkeit teilen und dass stets das langsamste unterstützte Busprotokoll verwendet wird. Das gilt jedoch nicht mehr für moderne Controller/Mainboards. Außerdem dauert das Kopieren von Daten zwischen den Platten sehr viel länger, wenn beide Festplatten am selben Kabel hängen. Neben den Jumpern existiert ein automatischer Modus für die Bestimmung der Adressen („Cable-Select“), der aber in der Praxis kaum Verwendung findet.

SCSI-Festplatten kennen nicht nur zwei, sondern, je nach verwendetem Controller, acht oder sechzehn Adressen. Daher finden sich an älteren SCSI-Laufwerken drei oder vier Jumper zur Bestimmung der Adressen – ID-Nummern genannt –, die es erlauben, bis zu sieben bzw. 15 Geräte zu adressieren (der Controller belegt eine eigene Adresse). Alternativ erfolgt die Adresseinstellung auch durch einen kleinen Drehschalter. Bei modernen Systemen werden die IDs automatisch vergeben (nach der Reihenfolge am Kabel), und die Jumper sind nur noch relevant, wenn diese Vergabe beeinflusst werden soll.

Dazu kommen noch andere Jumper wie der (optionale) Schreibschutzjumper, der es erlaubt, eine Festplatte gegen Beschreiben zu sperren. Weiterhin können je nach Modell Einschaltverzögerungen oder das Startverhalten beeinflusst werden.

Seit 2002 werden Festplatten zusätzlich mit einer Serial ATA (S-ATA oder SATA)-Schnittstelle angeboten. Die Vorteile gegenüber ATA sind der höhere mögliche Datendurchsatz und die vereinfachte Kabelführung. Erweiterte Versionen von SATA verfügen über weitere, vor allem für professionelle Anwendungen relevante, Funktionen, wie etwa die Fähigkeit zum Austausch von Datenträgern im laufenden Betrieb (Hot-Plug). Inzwischen hat sich SATA praktisch durchgesetzt, die neuesten Festplatten werden nicht mehr als IDE-Versionen angeboten, seit die bei IDE theoretisch möglichen Transferraten nahezu erreicht sind.

Im Jahr 2005 wurden erste Festplatten mit Serial Attached SCSI (SAS) als potentieller Nachfolger von SCSI für den Server- und Storagebereich vorgestellt. Dieser Standard ist teilweise zu SATA abwärtskompatibel.

Die SAS-Technik basiert auf der etablierten SCSI-Technik, sendet die Daten jedoch seriell. Neben der höheren Geschwindigkeit im Vergleich zu herkömmlicher SCSI-Technik können theoretisch über 16.000 Geräte in einem Verbund angesprochen werden. Ein weiterer Vorteil ist die maximale Kabellänge von 10 Metern. Die Steckverbindungen von SATA sind zu SAS kompatibel, ebenso SATA-Festplatten; SAS-Festplatten benötigen jedoch einen SAS-Controller.

Die Kommunikation via Fibre-Channel-Interface ist noch leistungsfähiger und ursprünglich vor allem für die Verwendung in Speichersubsystemen entwickelt. Die Festplatten werden, wie bei USB, nicht direkt angesprochen, sondern über einen FC-Controller, FC-HUBs oder FC-Switches.

Vor allem bei SCSI-Platten und auch bei neueren SATA-Festplatten werden sogenannte Queues (Warteschlangen) eingesetzt. Dies sind Software-Verfahren als Teil der Firmware, die die Daten zwischen dem Anfordern von Computerseite und physikalischem Zugriff auf die Speicherscheibe verwalten und ggf. zwischenspeichern. Beim Queuing reihen sie die Anfragen an den Datenträger in eine Liste und sortieren sie entsprechend der physikalischen Position auf der Scheibe und der aktuellen Position der Schreibköpfe, um so möglichst viele Daten mit möglichst wenigen Umdrehungen und Kopfpositionierungen zu lesen. Der festplatteneigene Cache spielt hierbei eine große Rolle, da die Queues in diesem abgelegt werden (siehe auch: Tagged Command Queuing, Native Command Queuing).

Die ersten verbreiteten seriellen Schnittstellen für Festplatten waren SSA (Serial Storage Architecture, von IBM entwickelt) und Fibre-Channel in der Variante FC-AL (Fibre Channel-Arbitrated Loop). SSA-Festplatten werden heute praktisch nicht mehr hergestellt, aber Fibre-Channel-Festplatten werden weiterhin für den Einsatz in großen Speichersystemen gebaut. Fibre Channel bezeichnet dabei das verwendete Protokoll, nicht das Übertragungsmedium. Deshalb haben diese Festplatten trotz ihres Namens keine optische, sondern eine elektrische Schnittstelle.

Es werden universelle Schnittstellen wie FireWire oder USB, seltener auch eSATA, für den Anschluss von externen Festplatten verwendet. Hierbei sind jedoch die eingebauten Festplatten selbst mit herkömmlichen (meist ATA- oder SATA-)Schnittstellen ausgestattet. Die Signale werden mittels eines speziellen Wandlers im externen Gehäuse in FireWire- bzw. USB-Signale übersetzt und über die FireWire- bzw. USB-Schnittstelle nach außen geführt. Eine reine USB-Festplatte, das heißt mit eigener USB-Schnittstelle, wird von keinem Hersteller angeboten.

Bei derartigen „externen Festplatten“ sind teilweise zwei Festplatten in einem Gehäuse verbaut, die nach außen jedoch nur als ein Laufwerk auftreten (RAID-System). Sehr ähnlich arbeiten NAS-Systeme, bei denen dann ein Netzwerkanschluss vorhanden ist. Hierbei ist die Kapazität praktisch unbegrenzt.

Allgemein sind schnelldrehende Server-Festplatten für eine höhere MTTF ausgelegt als typische Desktop-Festplatten, so dass sie theoretisch eine höhere Lebensdauer erwarten lassen. Dauerbetrieb und häufige Zugriffe können jedoch dazu führen, dass sich dies relativiert und die Festplatten nach wenigen Jahren ausgetauscht werden müssen.

Notebook-Festplatten werden durch die häufigen Transporte besonders beansprucht und sind dementsprechend trotz robusterer Bauart mit einer kleineren MTTF als Desktop-Festplatten spezifiziert.

Eine genaue Haltbarkeit der gespeicherten Daten wird von den Herstellern nicht angegeben. Sie dürfte sich aber wie auch bei Magnetbändern im Bereich von etwa 10 bis 30 Jahren bewegen, da magnetische Umwelteinflüsse (schon leicht wechselndes Magnetfeld der Erde) zu einer Entmagnetisierung führen. Lediglich magneto-optische Verfahren erreichen 50 Jahre und mehr.

Unabhängig vom verwendeten Speichermedium (in diesem Fall eine Festplatte) wird beim Löschen einer Datei lediglich im Dateisystem vermerkt, dass der entsprechende Datenbereich nun frei ist. Die Daten selbst verbleiben jedoch physisch auf der Festplatte, bis der entsprechende Bereich mit neuen Daten überschrieben wird. Mit Datenrettungsprogrammen können gelöschte Daten daher oft zumindest zum Teil wiederhergestellt werden. Das wird auch häufig in der Beweissicherung zum Beispiel bei den Ermittlungsbehörden (Polizei etc.) eingesetzt.

Beim Partitionieren oder gewöhnlichen Formatieren wird der Datenbereich nicht überschrieben, sondern lediglich die Partitionstabelle oder die Beschreibungsstruktur des Dateisystems. Bei einer Low-Level-Formatierung dagegen wird der gesamte adressierbare Bereich einer Festplatte überschrieben.

Um ein sicheres Löschen von sensiblen Daten zu garantieren, bieten verschiedene Hersteller Software an, sogenannte Eraser, die beim Löschen den Datenbereich überschreibt. Meistens kann aber auf eine (fast) beliebige und kostenlose Unix-Distribution zurückgegriffen werden, wie zum Beispiel Knoppix oder FreeSBIE, die praktischerweise direkt von CD gestartet werden kann. Außerdem gibt es für diesen Zweck neben universellen Programmen wie dd und badblocks speziell für das Löschen verschiedene Opensource-Programme, beispielsweise Darik's Boot and Nuke (DBAN). In Apples MacOS X sind entsprechende Funktionen („Papierkorb sicher löschen“ und „Volume mit Nullen überschreiben“) bereits enthalten. Wurde die Datei bereits gelöscht, ohne die Daten zu überschreiben, kann auch der komplette freie Speicher der Festplatte überschrieben werden. Siehe dazu auch Gutmann-Methode (dabei wird der Speicher mehrmals überschrieben, um zu verhindern, dass sich die Daten mit Spezialhardware z. B. von Datenrettungsunternehmen oder Behörden wiederherstellen lassen).

Alternativ bietet sich bei der Verschrottung des Computers die mechanische Vernichtung der veralteten Festplatte (bzw. der Scheiben) an. Deshalb werden in manchen Unternehmen beim Umstieg auf eine neue Computergeneration alle Festplatten in einem Schredder in kleine Teile zermahlen und die Daten so vernichtet.

Verschiedene Festplatten bieten die Möglichkeit an, den kompletten Festplatteninhalt per Passwort direkt auf Hardwareebene zu schützen. Da diese im Grunde nützliche Eigenschaft jedoch kaum bekannt ist und die meisten BIOS die Funktion zum Setzen des Passworts nicht selbsttätig ausschalten, besteht rein theoretisch für Schadprogramme wie Viren die Chance, dem Benutzer durch Setzen dieses Passworts auf einen unbekannten Wert massiv zu schaden. Danach bestünde keine Möglichkeit mehr, noch auf Inhalte der Festplatte zuzugreifen. Für weitere Informationen bzgl. ATA-Festplatten siehe Passwortschutz unter ATA.

Die Archivierung digitaler Informationen über längere Zeiträume (10 bis mehrere hundert Jahre) wirft Probleme auf, da nicht nur die Informationen evtl. verloren gegangen sind, sondern weil auch die Computer, Betriebssysteme und Programme zum Bereitstellen dieser Informationen nicht mehr verfügbar sind. Ansonsten sind die Daten in sich ständig wiederholenden Zyklen neu zu archivieren.

Nur analoge Verfahren, wie Mikrofilm oder Druck auf spezielles Papier, bieten zur Zeit die Möglichkeit, auch über sehr lange Zeiträume auf Informationen zugreifen zu können.

Siehe dazu auch: Bestandserhaltung.

Vorläufer der Festplatte war die Magnettrommel ab 1932. Außerhalb von Universitäten und Forschungseinrichtungen kam dieser Speicher ab 1958 als „Hauptspeicher“ mit 8192 Worten à 32 Bit in der Zuse Z22 zum Einsatz. Die erste kommerziell erhältliche Festplatte, die IBM 350, wurde von IBM 1956 als Teil des IBM 305 RAMAC-Rechners („Random Access Method of Accounting and Control“) angekündigt.

Zum Seitenanfang



ATA/ATAPI

80- und 40-adrige ATA/ATAPI-Kabel, zum Verbinden von Host zu Gerät

ATA (Advanced Technology Attachment with Packet Interface) ist ein Software-Protokoll zum Datentransfer zwischen Massenspeichern bzw. Laufwerken und Computern und wird in der IDE- bzw. EIDE-Schnittstelle eingesetzt.

IDE bedeutet Integrated Device Electronics und ist eine physikalische Schnittstelle, die auf IDE-Controllern zum Einsatz kommt. Die erste Generation (in etwa ab 1984) heutiger PC-kompatibler Rechner hatten keinen solchen Controller integriert – er musste über diverse Busse (ISA, PCI usw.) nachgerüstet werden. Teilweise waren einige Soundkarten u. a. mit einem IDE-Controller ausgestattet, welcher mindestens einen IDE-Anschluss (für bis zu 2 Geräte) bereit hielt. EIDE (=Enhanced IDE) wurde verwendet, um zu kennzeichnen, dass 2 Controller und somit 4 Kanäle (also vom Controller unterstützte Anschlüsse) vorhanden sind. Der IDE-Controller von Soundkarten unterstützte meistens nur IDE-Geräte wie CD-ROM- und DVD-Laufwerke. Separate Controller unterstützten zusätzlich auch IDE-Festplatten und IDE-Bandlaufwerke. Später wurden die IDE-Controller vermehrt direkt auf dem Mainboard integriert. Dies ist heute im Endkunden-Segment der Standard, wobei die IDE-Controller jedoch zunehmend von SATA-Controllern abgelöst werden. Spezielle IDE-RAID-Controller sind jedoch auch heute noch meist separate Erweiterungskarten für den PCI-Slot.

Der ATA-Standard wurde mehrfach überarbeitet und wird durch das T13 Technical Committee des InterNational Committee for Information Technology Standards (INCITS) erarbeitet und durch das American National Standards Institute (ANSI) als US-amerikanische Norm verabschiedet. Zunächst wurden die Standards als ATA-1 bis ATA-3 verabschiedet. Später wurde der Standard durch das ATAPI-Protokoll erweitert, um SCSI-Befehle mit dem ATA-Protokoll übertragen zu können. Dies führte zu der Benennung in ATA/ATAPI-4 bis ATA/ATAPI-7; siehe Abschnitt Versionen des ATA-Standards.

Neben diesen Versionsbezeichnungen existieren für bestimmte ATA/ATAPI-Versionen Synonyme wie Fast ATA und Ultra ATA, um die Geschwindigkeit besonders gegenüber von ATA-1 bis ATA-3 herauszustellen. Weiterhin findet sich seit der kommerziellen Einführung des Serial-ATA-Standards (SATA) die Bezeichnung Parallel ATA (PATA, auch P-ATA). Diese wird heute umgangssprachlich und von den Werbeabteilungen der Hersteller gerne als Synonym für alle ATA-Varianten und dem (E)IDE-Interface verwendet, um diese grundsätzlich von SATA abzugrenzen.

Der amerikanische Festplattenhersteller Western Digital wurde 1984 von Compaq beauftragt, einen Festplattencontroller zu entwickeln. Im Gegensatz zu den ATA-Vorgängern ST506 (mit den Aufzeichnungsverfahren MFM oder RLL) und dem Enhanced Small Disk Interface (ESDI) sollte die Kommunikation über ein einziges 40-poliges Flachkabel erfolgen und sich ein größerer Teil der Controller-Elektronik auf dem Peripheriegerät (z. B. Festplatte) befinden.

Western Digital nannte diese Schnittstelle Integrated Device Electronics (IDE) (1986). In Kooperation mit anderen Festplattenherstellern wurde dies als gemeinsamer Standard etabliert, der 1989 als ATA-1 verabschiedet wurde. Bis heute gilt der Begriff „IDE“ als Synonym für „ATA“ bzw. heute „PATA“.

Western Digital erweiterte und verbesserte diesen Standard mit neuen Merkmalen. Der Marketingname EIDE für „Enhanced IDE“ (entspricht ATA-2) war geschaffen und wird seither gemeinhin als Oberbegriff für alle Verbesserungen von IDE verwendet. Tatsächlich existieren eine Vielzahl weiterentwickelter Spezifikationen (siehe unten).

Die Bezeichnung AT deutet noch auf den IBM PC/AT (Advanced Technology) mit 80286-Prozessor hin, der Nachfolger des IBM PC/XT mit 8086-Prozessor war. Deren 16-Bit-Architektur spiegelt sich im 16 Bit breiten ISA-Bus (AT-Bus) wider.

Bei der ATA/ATAPI-Schnittstelle verfügen die angeschlossenen Geräte über einen eigenen Controller. Mit diesem eingebauten Controller kommunizieren sie mit dem Host (über einen Host-Adapter, z. B. eine Schnittstellenkarte). ATA/ATAPI-Geräte werden mit einem Flachbandkabel an die 40-polige Schnittstelle des Hosts angeschlossen (ATAPI-40). Zwei Geräte pro Anschluss sind möglich, diese werden dabei als Device 0 (auch Master, MA) bzw. Device 1 (auch Slave, SL) bezeichnet. In der Regel wird Device 0 am Ende des Kabels angeschlossen. Die Einstellung des Device-0- bzw. -1-Status erfolgt meist über Jumper. Es gibt bei vielen Geräten auch die Möglichkeit des „Cable Select“ (CS). Hierbei müssen beide Geräte auf CS gestellt werden, wobei ein spezielles Anschlusskabel den Device-0- bzw. -1-Status vergibt.

Vereinfachend gesagt, beschreibt ATAPI ein Verfahren, um (eine Teilmenge von) SCSI-Befehle(n) über die ATA-Schnittstelle zu übermitteln. Genau genommen setzt also ATAPI auf ATA auf. Da diese jedoch seit ATA/ATAPI-4 in einem gemeinsamen Standard beschrieben werden, wird gemeinhin der Begriff ATA/ATAPI verwendet.

Wie im Abschnitt Geschichte angedeutet, erfolgte der Übergang vom Industriestandard zu einem offiziellen Standard erst, nachdem schon längere Zeit ATA-Geräte hergestellt wurden: Der letzte Entwurf des Standardisierungsgremiums T13 Technical Committee für den ATA-1-Standard ist auf 1994 datiert, obwohl ATA-Geräte schon seit Mitte der 1980er-Jahre hergestellt werden. Daher hatte sich schon zum Zeitpunkt der Veröffentlichung des offiziellen Standards Master und Slave als allgemein übliche Bezeichnung der beiden von einem ATA-Anschluss ansprechbaren Geräte durchgesetzt. Aus technischer Sicht jedoch erscheinen diese Bezeichnungen nicht gerechtfertigt, da die Ansteuerung beider Geräte durch den Host (normalerweise den Computer) praktisch gleichwertig erfolgt. Die Veröffentlichungen des T13 Technical Committee benutzen stattdessen die Bezeichnungen Device 0 und Device 1, die den technischen Gegebenheiten eher Rechnung tragen. In seinem gegenwärtigen Zustand benutzt dieser Artikel die Nomenklatur des T13 Technical Committee, um die dadurch gegebene offizielle Sprachregelung zu reflektieren, gefolgt von Master bzw. Slave in Klammern, um die allgemeine Verständlichkeit zu wahren.

Werden zwei Geräte mit verschiedenen ATA-Versionen an demselben Kabel angeschlossen, entscheidet bei älteren Controllern das langsamere Gerät über die Geschwindigkeit beider Geräte. Moderne ATA-Controller (seit ca. 1998) können die Geschwindigkeit für jedes Gerät getrennt steuern, so dass langsame Geräte nicht mehr den gesamten Bus ausbremsen.

Gleichzeitige Ansteuerung von maximal zwei Festplatten mit bis zu 8,3 MB/s (MB = Megabyte; 1 Megabyte = 1000 Kilobyte = 1.000.000 Byte).

ATA-1 arbeitet asynchron.

ATA-3 weist gegenüber seinem Vorgänger ATA-2 zwei neue Funktionen auf: S.M.A.R.T und den so genannten Security Mode. Leistungsfähigkeit und Übertragungsmodi haben sich gegenüber ATA-2 nicht verändert.

Mit ATA/ATAPI-4 werden CD-ROM-Laufwerke und CD-Brenner erstmals in den Standard eingebunden. Dazu wird der Standard erstmals ATA/ATAPI genannt, was für ATA Packet Interface steht. Das Packet Interface definiert einen Layer, um SCSI-Kommandos über das ATA-Protokoll senden zu können. Leistungsfähigkeit: 33,3 MB/s. Es wird ein neuer Modus namens Ultra-DMA (UDMA) eingeführt. ATA/ATAPI-4 ist jedoch zu den alten Modi PIO und DMA kompatibel.

ATA-5 enthält einen neuen Modus: Ultra DMA 4. Leistungsfähigkeit 66,6 MB/s, daher auch UDMA-66 genannt (UDMA 3: 44,4 MB/s). Für den ATA-5-Standard ist ein spezielles 80-adriges Kabel erforderlich. Es hat zwar weiterhin nur 39 Anschlusspins, allerdings befinden sich 41 zusätzliche Leitungen mit Masseanschluss jeweils zwischen den Datenleitungen. Diese sorgen für einen definierten Wellenwiderstand der Signalleitungen zur Verringerung von Reflexionen. Weiterhin verringern sie das Übersprechen zwischen den Signalleitungen. Beides könnte ansonsten zu Übertragungsfehlern führen.

Mit dem Host-Protected-Area-Feature (HPA) kann ein geschützter Bereich auf der Platte angelegt werden.

Mit ATA-6 und dem Modus Ultra-DMA-100 (UDMA 5) sind Datenraten bis 100 MB/s möglich. Daher findet sich hier auch oft die Bezeichnung ATA/100.

Mit ATA-6 wurden überdies neue ATA-Befehle eingeführt, die 48 Bit große Sektoradressen erlauben (LBA-48), was die maximal ansprechbare Kapazität von 228 · 512 Byte = 128 GiB auf 248 · 512 Byte = 134.217.728 GiB (≈ 144.115.188 GB) = 128 PiB erhöht.

Neu eingeführt wurde auch Automatic Acoustic Management (AAM).

Mit dem Device Configuration Overlay (DCO) ist es möglich, bestimmte in den Identify-Informationen einer Platte gemeldeten Werte zu beeinflussen. So können beispielsweise die Feature-Bits für einzelne DMA-Modi, SMART-Features, AAM oder HPA deaktiviert oder die gemeldete Größe der Platte reduziert werden.

Mit ATA/ATAPI-7 wird im Standard erstmals zwischen paralleler und serieller Übertragung und dem gemeinsamen Befehlssatz (ATA/ATAPI Command Set, ACS) unterschieden. Retronym wurde der bisherige Standard PATA (parallel ATA) genannt und die serielle Version SATA.

Mit dem PATA-Modus Ultra-DMA-133 (UDMA 6) sind Datenraten bis 133 MB/s möglich. Daher findet sich hier auch oft die Bezeichnung ATA/133.

Mit ATA-8 wurde der Standard neu strukturiert und Fehler behoben. Er ist weiterhin kompatibel zu den Vorgängerversionen. Neu ist etwa, dass ATA-8 in vier Dokumente unterteilt wird, dem Architecture Model (ATA8-AAM), dem Command Set (ATA8-ACS), dem Parallel Transport (ATA8-APT) und schließlich dem Serial Transport (ATA8-AST). Dies erlaubt eine weiterführende Abstrahierung der Definition der Befehle, des Architecture Models und schließlich des Transports. Der Kommandosatz ATA8-ACS wurde im September 2008 als ANSI INCITS Standard veröffentlicht.

Gelöscht wurde u. a. ein Kapitel über die Definition der Festplatten-/Controller-Register, aus offizieller Seite ließ man verlauten: „ATA8-ACS is documenting the command set and not the transport“. Eine weitere interessante Beobachtung ist, dass nun wirklich das Software-Protokoll mit der hardwaretechnischen Umsetzung abstrahiert wurde. Wurde in ATA/ATAPI-7 Volume 1 (entspricht Command Set und Architecture Model) noch mehrfach darauf hingewiesen, dass das SATA-Interface eine teilweise andere Programmierung/Übertragung als das PATA-Interface (vgl. IDE) hat, tauchen solche Hinweise nicht mehr in ATA-8 auf, vielmehr wurden viele Passagen entfernt und in ATA8-APT und ATA8-AST ausgelagert. Hiermit will man einen Schritt in die Zukunft gehen, denn in der Systemprogrammierung dominierten bisher immer nur die PATA-Laufwerke, während über SATA große Unklarheit herrschte.

Erstmals gibt es über die SCT Commands eine standardisierte Möglichkeit, die aktuelle Temperatur, Minimal- und Maximalwerte und den Temperaturverlauf der letzten Betriebsstunden auszulesen. Festplatten mit dieser Funktion sind seit 2006 verfügbar. Die aktuelle Temperatur konnte zwar bisher meist als S.M.A.R.T-Attribut ermittelt werden, dies war aber nicht Bestandteil des ATA-Standards.

Nach der Veröffentlichung des ATA8-ACS-Standards erfolgt die Weiterentwicklung des Kommandosatzes unter dem Namen ACS-2.

Alle neuen Versionen sind bis zu ATA/ATAPI-4 abwärtskompatibel: neuere Festplatten können damit auch an älteren Rechnern betrieben werden, ältere Laufwerke auch an neueren Schnittstellen angeschlossen werden.

Ältere ATA-Controller bzw. ältere Systemsoftware haben oft Grenzen in den Festplattenkapazitäten. Diese Grenzen verursachen dann, dass man nur einen Teil der Festplattenkapazität adressieren kann. Typische Grenzen sind hierfür 504 MB, 8 GB, 32 GB, 128 GB. Die 128-GB-Grenze kommt aus der Verwendung des 28-Bit-LBA, denn mit 28 Bit kann man nicht mehr als 228 Sektoren (das entspricht 128 GB) ansprechen. Hierfür gibt es die Erweiterung auf 48-Bit-LBA, welche den Adressraum erheblich erweitert. Die anderen Grenzen werden durch die CHS-Adressierung begründet, also durch die Aufteilung in Zylinder, Kopf und Sektor – wobei hier für jeden einzelnen Wert eigene Grenzen gelten, und die CHS-Adressierung schon beim ersten Standard von X3T10 obsolet war. Noch heute verwenden viele Systemprogramme – etwa Bootmanager oder Partitionierungstools, die sich beim Start laden – die CHS-Adressierung.

Abhilfe schafft moderne Hardware und Software. So wurden in der Vergangenheit oft BIOS-Updates herausgegeben, die diese Probleme beheben. Durch die heutigen Standards und Software-Implementationen sind Adressierungsprobleme praktisch ein Problem der Vergangenheit geworden.

Durch die Partitionstabelle des MBR beschränkt sich die Verwendung von klassischen Laufwerken in Systemen auf eine 2-TB-Grenze, die nur durch die Verwendung der EFI-GUID Partition Table „umgangen“ werden kann. Die 2-TB-Grenze wird durch die 32-Bit-Größe der Sektorangaben in den Partitionseinträgen verursacht.

Eine einfachere Möglichkeit, die 2-TB-Grenze zu umgehen, ist es, die Größe der Sektoren auf 1024 Bytes oder 2048 Bytes zu erhöhen, was den adressierbaren Bereich auf 4 TB bzw. 8 TB vergrößert. Das reduziert jedoch auch die kleinstmögliche Clustergröße auf 1024 bzw. 2048 Bytes, was aber wenig relevant ist, da Clustergrößen unter 4096 Bytes ohnehin kaum verwendet werden.

Die meisten aktuell auf dem Markt verfügbaren ATA- und Serial-ATA-Festplatten verfügen über einen 32 Byte langen Passwortschutz mit General- und Nutzerschlüssel, ohne den nicht auf die Daten der Festplatte zugegriffen werden kann. Ein mit Systemrechten laufendes Programm kann ein Passwort setzen und dem Nutzer die Daten unzugänglich machen.

Das Security Feature Set ist von IBM 1998 erstmals außerhalb von Notebooks verwendet worden und erreichte breite Anwendung, seit Seagate 3,5″-Festplatten für die Xbox lieferte.

Die Festplatten erlauben auch, das Setzen eines neuen Passworts zu verhindern. Diese Funktion muss allerdings bei jedem Systemstart aufgerufen werden. Im BIOS kann dies noch vor dem Start des Betriebssystems geschehen, was allerdings nur von wenigen BIOS unterstützt wird. Beim Bootvorgang kann ein Zusatztool aufgerufen werden, welches die Festplatte abriegelt.

Bei den neueren 80-adrigen ATAPI-5-Kabeln haben die Stecker drei Farben: Blau (am Controller/PC), grau (Device 1 (Slave), IDE 1) und schwarz (Device 0 (Master), IDE 0).

Die Buchse für Pin 20 (mit * gekennzeichnet) ist bei einigen Steckern verschlossen, um falsches Aufstecken zu verhindern. Auf neueren Festplatten und Controllern sind die Anschlüsse zusätzlich von einem Kragen (Steckerwanne) umgeben, der einen robusteren Schutz vor Fehlsteckungen bietet als der Keypin alleine.

Anmerkung: Die Beschreibung in der Internet-Dokumentation „Hardwarebook“ ist falsch (Stand 27. April 2005); siehe Datenbücher Toshiba, Seagate und ähnliche.

Bei ATAPI-44, das meist bei 2,5″-Festplatten zum Einsatz kommt, ist der Pinabstand auf 2,00 mm verkleinert. Die Belegung entspricht ATAPI-40, jedoch wird hier die Stromversorgung über zusätzliche Pins am ATAPI-Anschluss vorgenommen.

Moderne ATA/ATAPI-Kabel haben meist Stecker in drei einheitlichen Farben: blau, grau und schwarz.

Zum Seitenanfang



Externe Festplatte

Externe Festplatte

Eine externe Festplatte ist eine Festplatte, die über eine Schnittstelle wie USB oder FireWire 400, FireWire 800, eSATA oder als Wechselplattenlaufwerk direkt an einen Computer angeschlossen werden kann. Mittlerweile gibt es auch externe Festplatten, die mit einem LAN-Kabel oder sogar kabellos per WLAN an einen Router angeschlossen werden. Der Vorteil: Diese Platten können von mehreren Computern genutzt werden.

Die Festplatten selbst sind dabei baugleich zu internen Platten, sie besitzen aber zusätzlich eine Konverterelektronik zum Anschluss an die gebräuchlichen externen Schnittstellen. Ein Gehäuse dient zum Schutz vor Staub und Beschädigungen und eingeschränkt auch zur Wärmeableitung. Externe 3,5-Zoll-Festplatten kommen meist als Backup für mittelgroße Datenbestände zum Einsatz. Besonders durch die Datenmengen, die im privaten Bereich durch Multimediadateien wie Musik, Filme und Digitalfotografie anfallen, ist ihr Absatz in den letzten Jahren stetig gestiegen. Zum Auslagern von Anwendungsdateien eignen sie sich dagegen nur bedingt, da interne Bussysteme (SCSI, ATA oder S-ATA) noch deutlich schneller bei Zugriffszeiten und Transferraten sind.

Mittlerweile gibt es auch externe 3,5-Zoll-Festplatten, bei denen gleich zwei HDs in einem Gehäuse arbeiten. Diese Platten bieten oft RAID 0 für schnelleren Datentransfer und RAID 1 für mehr Datensicherheit.

Die kleineren 2,5-Zoll-Festplatten eignen sich zum Transport von Daten (siehe auch Turnschuhnetzwerk). Mittlerweile (Stand Sep. 2008) fassen diese Festplatten bis zu 1000 Gigabyte (ein Terabyte) an Daten. Sie benötigen kein Netzteil, sondern werden über den USB-Anschluss mit Strom versorgt.

1,0-Zoll-Festplatten sind die derzeit kleinsten verfügbaren externen Festplatten. Sie verfügen über eine Speicherkapazität von bis zu 40 GByte.

Für die besonders sichere Datenspeicherung existieren unfallgeschützte Datenspeicher.

Zum Seitenanfang



Solid State Drive

CompactFlash-Karten sind die günstigsten, aber auch kapazitätsärmsten SSDs, die Festplatten ersetzen können – wie hier mit P-ATA-Adapter.

Ein Solid State Drive (SSD, dt. Festkörperlaufwerk), auch Solid State Disk (dt. Festkörperscheibe) genannt, ist ein Speichermedium, das wie eine herkömmliche Festplatte eingebaut und angesprochen werden kann, ohne eine rotierende Scheibe oder andere bewegliche Teile zu enthalten, da nur Halbleiterspeicherbausteine vergleichbar großer Kapazität verwendet werden.

Der englische Begriff solid state in der Geschichte der Elektronik bedeutet, dass keinerlei bewegliche mechanische Teile wie Relais, Röhren usw. verwendet werden, sondern Halbleiterbauteile, die mit Hilfe der Festkörperphysik entwickelt wurden. Insofern erscheint die Bezeichnung paradox, da ein eben gerade ohne bewegliche Teile auskommendes Medium als 'Drive' bzw. 'Disk' angesprochen wird, dies geschieht in Analogie zu anderen Festplatten.

Vorteile eines 'Solid State Drive' sind Robustheit, kurze Zugriffszeiten und niedriger Energieverbrauch. Nachteile sind noch bei Kapazität und Preis zu finden. Wird eine herkömmliche Festplatte mit einem Solid-State-(Zwischen)Speicher ausgestattet bzw. funktionsgleich eingesetzt, spricht man von einer Hybridfestplatte (HHD).

Es gibt zwei Arten verwendeter Speicherchips: einerseits Flash-basierte und andererseits SDRAMs.

Erstere sind besonders energieeffizient und sogar stromunabhängig, wenn es um das Beibehalten des Inhaltes geht. Herstellerseitig werden hier rund 10 Jahre versprochen, bei den konventionellen Festplatten fehlt diese Angabe, da ihre Magnetisierung im Laufe der Zeit nachlässt.

Die SDRAM-Chips ihrerseits sind flüchtig und verbrauchen pro Gigabyte deutlich mehr Energie als eine konventionelle Festplatte. Ihr Vorteil liegt dafür in der extremen Geschwindigkeit. Mitte der 1990er auch als „RAM Disks“ eingeführt, fanden sie von Anfang an Einsatz in Servern, wo auf ihnen Caches, temporäre Dateien und Journale von Datei-, Web-, Datenbank-Servern o. Ä. abgelegt wurden. Sie können als Steckkarte oder auch als Gerät mit emulierter Festplatten-Schnittstelle realisiert sein; oft mit einer Sicherungsbatterie oder eigenem Stromanschluss. Sie haben gegenüber Festplatten eine rund 700-fach geringere Verzögerung, um beliebige Daten aufzufinden, gegenüber der Flash-Technik sind sie 80-fach schneller. Ein zweiter Vorteil ist die festplattengleiche, unbegrenzte Wiederbeschreibbarkeit; Flash-Chips sind hier auf 0,1 bis 5 Millionen Schreibzyklen begrenzt. Diese Beschränkung gilt jedoch nicht für Lesevorgänge und zudem für jede einzelne Speicherzelle. Eine solche wird bei Verschleiß automatisch gegen eine von rund zwei Prozent Reservezellen ausgetauscht.

Es liegt nahe, die Geschwindigkeit der SDRAMs mit dem Datenerhalt anderer Speichertypen - Festspeicher - zu verbinden. So integrieren manche Hersteller etwa auch eine konventionelle Festplatte in das Gehäuse der SDRAM-SSD, um ein Abbild dieser bei einem Stromausfall zu haben. An dieser Stelle schließt sich der Kreis: denn umgekehrt verfügen konventionelle Festplatten über immer mehr SDRAM- und neuerdings Flashchips als Zwischenspeicher (sog. „Cache“).

Der Wegfall der empfindlichen Motorlagerung und Lese-/Schreibmechanik der Laufwerke mit rotierenden Platten ergibt eine Vervielfachung der Schocktoleranz. Aus gleichem Grund beschleunigt sich das Ansteuern beliebiger Bereiche des Datenträgers. Es genügt ein elektrischer Impuls, statt des Bewegens der Mechanik. Aber auch die Temperaturtoleranz ist größer, ebenso wie deren schnelle Änderung keine Probleme mit sich bringt. Beides qualifiziert SSDs für den mobilen Einsatz. Am häufigsten finden sich die flashbasierten daher in MP3-Playern und USB-Sticks. Da sie zudem weniger Energie verbrauchen als Festplatten, dazu leichter und kleiner sind, werden sie auch für (Sub-)Notebooks interessant. Dort kommt auch zugute, dass ihre Geschwindigkeit nicht vom Formfaktor abhängt – auf kleinen rotierenden Platten dagegen finden pro Umdrehung weniger Daten Platz als auf größeren. Hybridfestplatten und reine SSD-Modelle sind seit 2007 im Handel.

Im stationären Einsatz finden sich eher die SDRAM-basierten SSDs und dies meist weit ab vom Massenmarkt. Ihr Einsatzgebiet sind Anwendungen, die sehr laufwerkslastig arbeiten (Datenbanken, Sortieranwendungen), indem sie wiederholt kleine Datenmengen von verschiedensten Speicherbereichen anfordern. Gern werden diese Laufwerke auch von Entwicklern und Testern benutzt, um die Leistungsfähigkeit von Festplatten-Controllern und -bussen zu messen, da sie diese maximal auslasten. Ihre Geschichte startete 1978, als das Unternehmen StorageTek die „Solid State Disk STK 4305“ auf den Markt brachte, welche kompatibel zum Festkopfplattenspeicher IBM 2305 war und mit Großrechnern vom Typ System/370 benutzt wurde. StorageTek selber benutzt die Bezeichnung „Solid-State Disk“. Aktuell sind hier die RamSan-Laufwerke der Texas Memory Systems zu nennen, die in Form eines Desktopgehäuses die derzeit schnellsten (Massen-)Speicher darstellen. Ihre Preise starten bei 1700 $ pro Gigabyte, ihre Geschwindigkeit liegt beim 30fachen der Flash-SSDs und dem über 300fachen normaler Server-Festplatten.

Aber auch im Bereich der eingebetteten Systeme, in denen es ausschließlich auf den Verzicht der mechanischen Teile ankommt, werden häufig Solid State Drives verwendet. Eine Ein-Chip-Mikrocontrolleranwendung verfügt aus Platz- und Energiegründen häufig erst gar nicht über einen Festplattenanschluss. Stattdessen liegt deren Steuerungsprogramm oder Betriebssystem meist in einem Flash-Chip. Einen solchen hat heutzutage auch jeder neue PC. Dieser fasst unter einem Megabyte und enthält das BIOS.

Weitere Anwendungsgebiete finden sich in sehr elektronikfeindlichen Umgebungen, in denen Schmutz, Erschütterungen, sowie Druckschwankungen, Temperatur und Magnetfelder (Raumfahrt) den Einsatz mechanischer Platten verhindern.

Durch Temposteigerungen und Preisverfall bei den Solid-State- und besonders den Flashspeichern ist damit zu rechnen, dass sie in den nächsten Jahren die konventionelle Festplattentechnik ergänzen und sogar ersetzen, und zwar besonders in mobilen Geräten durch Flashspeicher. So entschloss sich Fujitsu, im 1,8"-Segment nur noch Flashfestplatten zu entwickeln; der Marktforscher iSuppli sagt die Verwendung von Hybrid- oder reinen Flashfestplatten in mindestens jedem zweiten Notebook bis 2009 voraus. Mit einer Ablösung wären gleichzeitig auch zahlreiche Unterscheidungsmerkmale der Hersteller verschwunden. Dazu gehören die entfallenden Punkte Lautstärke und Kühlungsbedarf, aber auch die dann prinzipbedingt sehr ähnliche Schockresistenz, Zugriffszeit und der Energiebedarf. Herstellern bliebe Gestaltungsfreiraum bei Geschwindigkeit, Kapazität und Preis. Aber auch hier sind die bisherigen Produkte gleicher Generationen kaum zu unterscheiden. Diese Situation besteht bereits bei USB-Sticks. Dort wurden daher zusätzliche Eigenschaften eingeführt, etwa beigelegte Software zur Verschlüsselung der Daten oder die Abdichtung des Speichers gegenüber Wasser und Schmutz. Trotz dieser Versuche ist aber mit einer Phase der Fusionen und Allianzen zu rechnen, insbesondere zwischen den heutigen Festplatten- und Flashherstellern. Dies äußerte sich bislang in Aufteilungen von Märkten. So beliefert ein Hersteller nur OEM-Kunden, während er seine Laufwerke anderen Herstellern für den Endkundenmarkt zur Verfügung stellt. Bislang bestehen jedoch deutliche Leistungsunterschiede sowohl zwischen Produkten verschiedener Hersteller, als auch denen gleicher Preisgestaltung.

Bei der Hybridfestplatte (Hybrid Hard Disk) wird eine herkömmliche Festplatte mit einem Solid-State-Speicher kombiniert. Seine nur geringe Größe soll den Mehrpreis auffangen, seine Vorteile aber schon heute einem breiten Markt zugänglich machen. Die Kombination mit DDR-SDRAM bietet vorerst nur ein Hersteller innerhalb Japans und fern des Massenmarktes ab rund 1000 € an. Die DTS „Platinum HDD“ verwendet einen Chip desselben Herstellers, der über die Zeit lernen soll, welche Inhalte sich für den schnellen Zwischenspeicher empfehlen. Dieser behält durch einen Kondensator seine Daten bis anderthalb Minuten nach Ende der Stromzufuhr und besteht aus einem ein Gigabyte DDR-SDRAM-Modul. Dieses ist mit einer 2,5″-Festplatte in einem 3,5″-Gehäuse untergebracht. Dadurch ist dieser Ansatz nicht für mobile Geräte verwendbar, spart aber ein Drittel der Energie konventioneller 3,5″-Festplatten. Da hier ein Chip die Auswahl übernimmt, beschleunigt dieses Laufwerk jedes Betriebssystem; bei HHDs muss dies das Betriebssystem übernehmen. Bisher leistet dies nur Windows Vista. Im Desktop- und kleinen Serverbereich kann das Laufwerk für Datenmengen unter einem Gigabyte jegliche Flashlaufwerke deutlich übertreffen. Die eingebaute Festplatte fasst zwischen 80 und 200 GB, die kleinste Ausführung kostet rund 900 €. Die Kombination mit Flash ist bereits verfügbar und wird wegen der Unterstützung durch große Hersteller, sowie Mobileignung und Datenerhalt auch zukünftig weiter verbreitet sein. Mit ihr befassen sich daher die folgenden Absätze. Technisch gibt es zwei Umsetzungen. Intel integriert den Flashspeicher nicht in die Festplatte selbst, sondern verwendet wie für den Arbeitsspeicher einen proprietären Anschluss auf dem Mainboard. Damit entsteht eigentlich keine Hybridfestplatte, der erzielte Effekt ist aber derselbe. Dieses Prinzip nennt Intel „Turbo Memory“ . Alle anderen Anbieter dieser Technologie sind Festplattenhersteller und integrieren den Flashspeicher in das Laufwerk selbst – meist 256 MB. Intel verwendet die vier- bis achtfache Kapazität. Ob dies aber einen Praxisvorteil ergibt, ist derzeit nicht abzusehen.

Grundlage beider Varianten ist, dass Flashchips ihre Daten schneller als die Festplatte selbst liefern können. Die in den Festplatten bereits vorhandenen SDRAM-Zwischenspeicher verlieren ihren Inhalt ohne permanente Stromversorgung. Flash ist jedoch beim Schreiben nicht nur langsamer als dieser SDRAM, sondern unterbietet auch die Festplatte selbst. Er ist also kein Ersatz, sondern eine Ergänzung. Eine Datei wird daher auch nicht beim ersten Zugriff, sondern erst nach häufiger Verwendung in den Flashbereich aufgenommen; mitunter auch nur einzelne Bestandteile. Diese werden beim Lesen dann deutlich schneller bereitgestellt, als die Festplatte es könnte. Sie wird nur bei Bedarf – also für selten benutzte Dateien – gestartet. Bei Internet- oder Büroarbeit sind die Hybrid-Konzepte somit oft lautlos und sehr energiesparend (um 0,3 W). Diese beiden Punkte, zusammen mit der im Stillstand höheren Stoßfestigkeit sind ihre Vorteile. Da diese besonders dem Mobileinsatz zugutekommen, werden HHDs bisher nur in 2,5 Zoll gefertigt. Dank des S-ATA-Anschlusses sind sie aber auch im Desktop verwendbar. „Turbo Memory“ dagegen ist nur für Notebooks verfügbar, 2008 soll die zweite Generation dann auch den Desktop erreichen. Intels Lösung ist dabei immer an einen Mainboard-Chipsatz aus gleichem Hause gebunden.

Beide Konzepte benötigen Windows Vista, das bislang als einziges Betriebssystem den Flashbereich mit den meistbenötigten Daten zu bestücken vermag. Alle anderen Betriebssysteme benutzen den Flashbereich nicht. Dort entspricht das Verhalten dem konventioneller Festplatten. Allein der Aufpreis von 20 € bleibt bestehen. Im Folgenden sind die theoretischen Vorteile der Praxis gegenübergestellt.

Flash-Verwendung. HHDs sammeln beim Schreiben zunächst 32 MB an Daten, bevor der Spindelmotor startet. Noch einmal soviel wird den über Sondertasten einiger Tastaturen startbaren Programmen bereitgestellt. Der weitere Bereich steht den meistverwendeten Daten zur Verfügung. „Turbo Memory“ wird stattdessen erst durch einen nachzuinstallierenden Treiber aktiviert, der nicht in Windows Vista enthalten ist. Eine Hälfte des Flashmoduls funktioniert dann wie der einer HHD, die andere wird wie ein schneller Auslagerungsspeicher verwendet (siehe ReadyBoost). Dies beschleunigt PCs mit 1 GB RAM wirksam auf das Niveau einer 2GB-Ausstattung, ist jedoch auch nicht abstellbar, wenn diese bereits vorhanden ist. Ohne Auslagerungsbedarf bleibt also eine Hälfte des Moduls ungenutzt.

Akku-Laufzeit. Um tatsächlich Energie zu sparen, erfordern beide Konzepte manuelle Eingriffe. Da bei „Turbo Memory“ eine konventionelle Festplatte Anwendung findet, wird diese durch die Windows-Energieoptionen heruntergefahren, nicht durch einen HHD-Laufwerkscontroller. Deren Voreinstellung sieht aber eine mehrminütige statt sekündliche Verzögerung nach einem Festplattenzugriff vor. Wird die Einstellung auf „3 Minuten“ korrigiert, verlängert sich die Akkulaufzeit durchaus um 15 %, so beispielsweise von drei auf dreieinhalb Stunden. Ein vergleichbarer Effekt stellt sich auch bei HHDs ein, wenn die Einstellung „Windows Hybrid-Festplattenenergiesparmodus“ in den Energieoptionen aktiviert wurde.

Tempogewinn. Viele Benchmarks können die Mehrleistung der Hybride prinzipiell nicht wiedergeben – denn sie verwenden möglichst viele, verschiedene und große Dateien, um eine maximale Last zu erzeugen. Diese überschreiten dann die Kapazität des Zwischenspeichers um ein Vielfaches. Zudem verwenden sie gerade kein wiederkehrendes Zugriffsmuster – um auszuschließen, das ein Laufwerkshersteller sein Produkt daraufhin optimiert. Damit werden viele verfügbare Leistungstests jedoch der typischen Notebook-Verwendung nicht gerecht – und ähnlich einem Hybridauto unter Volllast – haben HHDs und „Turbo Memory“ in diesen Tests keinen Vorteil. Erstere beschleunigen Windows-Start und Herunterfahren um rund 20 Prozent; ähnlich den Start häufig benutzter Programme. „Turbo Memory“ bewirkt nach ersten Tests von AnandTech.com jedoch keine Beschleunigung. Die Notebookhersteller Sony und Dell kamen zu gleichen Ergebnissen und verzichten daher vorerst auf diese Technologie. AnandTech untersuchte dies zusammen mit Intel und stellte im „PCMark“-Test tatsächlich die vom Hersteller versprochene Leistungsverdopplung fest. Außerhalb des Benchmarks zeigten sich jedoch keine Tempovorteile, weder beim normalen Arbeiten, noch beim Windows-Start oder Herunterfahren.

Auch wenn Hybridfestplatten erst 2007 auf den Markt gekommen sind, gab es eine ähnliche Technik schon mehr als zehn Jahre zuvor: Der Hersteller Quantum hatte eine SCSI-Festplattenserie namens Rushmore im Programm. Diese kombinierte eine herkömmliche Festplatte statt – mit damals eher bremsendem – Flash, mit SD-RAM in Laufwerksgröße. Die reichte bei Einstellung der Serie anno 2000 von 130 Megabyte bis 3,2 Gigabyte. Alle gespeicherten Daten wurden im Betrieb aus dem extrem schnellen „Cache“ geliefert. Da dieser jedoch auf Strom angewiesen war, wappnete der Hersteller das Produkt mit Batterien gegen Datenverlust. Deren Energie ließ im Notfall die Festplatte starten und alle Daten aus dem RAM übernehmen. Wegen der hohen Preise für RAM-Chips waren die Rushmore-Platten für Privatanwender aber praktisch unerschwinglich – sie lagen beim Tausendfachen heutiger Flashchips. Daher war auch die optional verfügbare Grundversion keine Ausnahme: ihr fehlten die sowieso relativ günstigen Bauteile Festplatte und Batterie.

Nach Samsungs Debüt der ersten HHD im März 2007 begann Seagate im Juli mit der Fertigung eines Modells gleicher Flashgröße . Das starke Engagement des Samsung-Konzerns, Festplatten möglichst bald durch Flashspeicher zu ersetzen, dürfte durch die Chipproduktion im eigenen Haus unterstützt werden, denn über diese Synergie verfügt neben Samsung nur noch Toshiba als einziger Festplattenhersteller. Toshiba plant ebenfalls massive Investitionen in den neu entstehenden Markt, den sie bislang zu rund einem Drittel beliefern. Marktführer ist mit 45 Prozent Samsung. Hitachi beließ es bei der Ankündigung einer um Flashspeicher ergänzten Version ihrer aktuellen Notebook-Festplatten. Der Aufpreis liegt bei allen um 20 €.

Zusammen mit Fujitsu, die noch keine HHD ankündigten, gründeten die genannten Hersteller Anfang 2007 die „Hybrid Storage Alliance“ , um die Vorteile der neuen Technologie besser vermarkten zu können – denkbar wären etwa einheitliche Logos und Mindeststandards zu deren Erlangung.

Die verfügbaren HHDs werden von den Notebook-Herstellern jedoch kaum angenommen, da ihre Vorteile den Mehrpreis derzeit nicht rechtfertigten. Zum gleichen Ergebnis gelangen verschiedene Computermagazine. Erst ein weitaus größerer Flashanteil könnte die erwartete Leistungssteigerung bringen, der wiederum würde aber den Mehrpreis deutlich erhöhen. Ein weiterer Grund könnte die Bindung an das bislang verhalten gestartete Windows Vista sein. Einige Hersteller bieten aufgrund der Kundennachfrage wieder den Vorgänger XP an, das den Flashspeicher und damit die Vorteile einer HHD jedoch völlig ungenutzt lässt.

Intels Lösung wurde mit der Centrino-Generation „Santa Rosa“ im Mai 2007 eingeführt. Sony, HP, Dell und MSI nahmen jedoch bisher Abstand davon, das entsprechende Intel-Flashmodul auch in ihre Notebooks einzubauen. Von Microsoft zurückgewiesen wird Sonys Begründung, die zur Nutzung von HHD und auch „Turbo Memory“ nötige Unterstützung sei in Vista nicht vollständig enthalten. Tests (siehe Absatz Tempogewinn) bestätigen diese Annahme. Ein Sony-Sprecher sagte zuvor, Vista könne gar nicht entscheiden, welche Dateien im Flashbereich vorgehalten werden sollen. So erklärten sich auch die nur geringen erzielten Geschwindigkeitsvorteile. Da er diese Funktion mit dem ersten ServicePack für Vista erwarte, hält er einen dann folgenden Einbau der Flashmodule für wahrscheinlich. HP nennt als Begründung für den vorläufigen Verzicht auch den hohen Preis der Intel-Flashmodule. Sie seien mit 50$ pro Gigabyte etwa doppelt so hoch, wie marktüblich. Motivation für die eigene Lösung – Flashspeicher und Festplatte zu kombinieren – dürfte bei Intel wie auch Samsung darin liegen, die Flash-Chips aus eigener Produktion so auch selbst zu vermarkten. Da Intel jedoch keine Festplatten fertigt, entstand diese Lösung mit separatem Flashmodul. PC-Hersteller können dadurch beliebige konventionelle Festplatten mit verschieden großen Flashspeichern kombinieren. Und Käufer diesen gegen größere und schnellere tauschen, so sie einzeln verkauft würden.

Während Intel mit der Version „2.0“ seines Produkts diesen Weg auch 2008 weiterverfolgt, gibt es seitens der HHD-Anbieter keine Ankündigungen zu Nachfolgern der ersten Generation von 2007.

Diese Laufwerke bestehen aus Flash- und Controllerchips, die auf einer Leiterplatte angeordnet sind. Deren Größe hat keinen Einfluss auf die Geschwindigkeit, nur auf die Chip-Anzahl. Auf kleinem Formfaktor sind also weiter nur geringere Kapazitäten realisierbar, nun jedoch mit hoher Performance. Viele Modelle sind mit Plastik oder Metall (teil-)verkleidet, um die Bauteile zu schützen und – im zweiten Fall – Solidität zu vermitteln. Dies hebt dafür den Vorteil geringen Gewichts und teilweise der Stoßfestigkeit durch die Unnachgiebigkeit des Metallmantels wieder auf. Bestehen bleiben hohe Temperaturtoleranz, Lautlosigkeit, sowie Energieeffizienz. Letzteres galt jedoch nicht für die 2007 produzierten, ersten Flashfestplatten mit SATA-Anschluss, da diese noch für den Vorgänger PATA entwickelt wurden. Sie enthielten einen Chip, der die Übersetzung übernahm; dafür jedoch rund ein Watt benötigte. Daher verbrauchten sie mit zwei Watt im Leerlauf das Doppelte herkömmlicher Notebooklaufwerke in 2.5"-Bauform. Gleiches war zuvor beim Wechsel konventioneller Festplatten vom PATA- zum SATA-Anschluss zu beobachten und verschwand wie bei den aktuellen Flashfestplatten mit den ersten reinen SATA-Designs. Verwendung finden in allen Preissegmenten die sogenannten NAND-Chips in der schnelleren SLC-, oder beim Schreiben langsameren MLC-Ausführung (siehe Kasten Architektur-Vergleich). Sie erreichen unter den Flashtechniken den besten Kompromiss zwischen Kapazität, Preis und Geschwindigkeit. Nur ihre Zugriffszeit ist zweigeteilt: Betriebssystem und Programme starten von Flashfestplatten zwar zwei- bis dreimal so schnell wie von konventionellen Festplatten. Beim Schreiben zeigt sich jedoch der Nachteil des Kompromisses, der bei den Hybrid-Konzepten noch kaschiert werden kann – insbesondere die MLC-basierten Flash-SSDs liegen bei kontinuierlichen Schreibvorgängen unter dem Niveau normaler Festplatten . Bei reinen Lesevorgängen aber auch bei Multitasking, also bei gleichzeitigem Lesen und Schreiben, sind die SSDs überlegen . In einer Desktopumgebung wird meist gelesen, sodass hier die Schreibschwäche nicht zu sehr ins Gewicht fällt.

Die I/O-Performance, die sehr wichtig für Server ist, ist bei guten SLC-SSDs deutlich besser als bei konventionellen Festplatten. Die MLC-SSDs sind aufgrund kleinerer Wiederbeschreibbarkeitszyklen für Server mit hohem Schreibaufkommen ungeeignet.

Die Geschwindigkeitssteigerungen in neuen Produkt-Generationen werden wie in Grafikchips vor allem durch starke Parallelisierung erlangt: So verfügen die neusten SSDs bereits über einen 10-Kanal-Controller.

Was diese Laufwerke beim verteilten Zugriff so langsam schreiben lässt, ist ihre interne Organisation. Sie sind in Blöcke unterteilt. Wird auch nur ein Byte darin geändert, muss der gesamte Block neu geschrieben werden. Tatsächlich schreibt das Laufwerk intern also im vom Hersteller angegebenen Tempo die Blöcke neu. Anwender und Leistungstests nehmen jedoch nur die wenigen geänderten Bytes wahr. Der Schreibvorgang erscheint langsam. Dieser Effekt wird im Englischen „Write Amplification“ genannt. Demzufolge wird also das Schreiben umso schneller, je mehr es dem Volumen eines Blockes entspricht. Dateien mit mehreren Megabyte werden so tatsächlich mit der angegebenen Transferrate geschrieben, denn hier werden alle Bytes in den Blöcken geändert – die Nutzrate entspricht der Schreibrate. Ein erster Versuch, diesen Effekt aufzuheben ist die „Managed Flash Technology“ von EasyCo. Sie ordnet auf Betriebssystemebene die Schreibkommandos so an, das sie möglichst zusammenhängend, statt verteilt geschehen. Vom Hardwareprodukt unabhängig, ist sie für den Heimgebrauch vorerst noch zu kostenintensiv. Praktikabler wäre der Einbau eines SDRAM-Zwischenspeichers. Konventionelle Festplatten verfügen über einen solchen Chip – um dieselben Performanceprobleme abzufedern. Auch Flashlaufwerke ab 2008 integrieren diesen weitgehend, verwalten darin jedoch oft die Daten zur Nutzungsverteilung. Die eigentliche Zwischenspeicherung erfolgt hier meist im noch schnelleren SRAM des SSD-Controllerchips . Ähnlich wie konventionelle Festplatten leisten auch Flash-Festplatten bei nur geringer Restkapazität nicht mehr die volle Leistung. Bei beiden Laufwerks-Typen spielt dabei die Suche nach den nur wenigen freien Speicher-Bereichen die Hauptrolle. Der oben beschriebene Effekt der „Write Amplification“ verstärkt dies noch auf Seiten der Flashfestplatten. Die Gesamtleistung sinkt so im Alltagsbetrieb um etwa ein Drittel .

Zwischenzeitlich eignen sich Flashfestplatten besonders für den Mobileinsatz, spezielle Desktops und wenige Server. Hier vor allem zum Ausliefern von Webseiten, weniger für Datenbankanwendungen und kaum für Mailserver, da in diesen Fällen zunehmend kleine Datenmengen auch geschrieben werden.

Bereits 1995 führte MSystems die ersten flashbasierten SSDs ein. Bis 2006 blieben diese aber militärischen und anderen wenig preissensitiven Märkten vorbehalten. Im März 2006 fertigte Samsung dann ein Modell, das mit einem Achtel des Preises einen anderen Zielmarkt anvisierte: Notebooks mit 2,5- und 1,8-Zoll-Festplatten – und per Adapter auch Desktop-PCs. Damit wurde versucht, einen neuen Markt für erschwingliche Flash-Festplatten zu eröffnen. Mit 600 $ für 32 GB gelang dies zwar noch nicht, allerdings eroberte Samsung die Marktführerschaft mit einem Marktanteil von 45 %. So ist Apple ein wichtiger Großabnehmer und auch Mtron im oberen SSD-Segment steuert – mit eigenem Controller – ebenfalls Samsung-Chips an. Im Jahr 2007 forschten eine Reihe von Anbietern mit gleicher Zielstellung an Konkurrenzprodukten zu Samsungs erstem Versuch. Im zweiten Quartal dieses Jahres erschienen die Vertreter der zweiten Generation. Momentan findet im Bereich der Flashfestplatten für Heimanwender ein sehr starker Preisverfall bei gleichzeitiger massiver Steigerung der Kapazität statt.

Da die Flashfestplatten im Vergleich zu herkömmlichen Festplatten gut skalierbar sind – die Mechanik entfällt schließlich völlig – werden sie auch in den sogenannten Mini-Notebooks eingebaut. Damit kommt diese neue Technik überraschenderweise im günstigsten Segment mobiler Computer zuerst serienmäßig ohne Aufpreis zum Einsatz. Die verwendeten Laufwerke fassen zwischen 0,5 und 8 GB und kosten mit rund 10 $ deutlich weniger als konventionelle Festplatten, die dafür ein vielfaches Fassungsvermögen haben.

In der folgenden Tabelle werden der Verbrauchersektor dem immer noch existenten Hochpreissektor der Flash-Laufwerke sowie konventionellen Festplatten gegenübergestellt.

Windows Vista führte zwei Möglichkeiten ein, um Flashspeicher zur Unterstützung konventioneller Festplatten zu nutzen. Ihre Anwendung zeigt jedoch nur in seltenen Situationen mit SSDs vergleichbare Leistungen, erzeugt im Gegenzug allerdings auch nur geringe oder gar keine Mehrkosten.

Für Linux gibt es momentan zwei spezielle Dateisysteme, die an die Besonderheiten von Flashspeichern angepasst sind, YAFFS und JFFS2. Beide zielen darauf ab, Flashspeicher so zu verwenden, dass ihre Vorteile bestmöglich genutzt werden können. Dadurch können höhere Geschwindigkeiten und bessere Datenintegritäts-Kontrolle erreicht werden.

Vista erkennt die Möglichkeiten von HHDs und kopiert meistverwendete Programm- und Betriebssystem-Dateien in deren Flashteil. Die erzielbaren Effekte sind weiter oben beschrieben.

Vista soll zudem von USB-Sticks oder Flash-Speicherkarten profitieren. Es bietet hierzu an, mit ihnen eine HHD nachzuempfinden, indem ein Teil ihres Speicherplatzes als schneller Zwischenspeicher genutzt wird. Hierbei wird auf dem Flashspeicher jedoch nur das gesammelt, was während des Betriebs nicht mehr in den Arbeitsspeicher passt. Repräsentative Tests zeigen daher nur bei PCs mit weniger als einem GB Arbeitsspeicher einen spürbaren Vorteil für die „ReadyBoost“ genannte Idee . Sie dient somit als leicht zu installierende RAM-Erweiterung. Unter Berücksichtigung der Preise für Arbeitsspeicher ist dies jedoch nur sinnvoll, wenn ein entsprechend schneller Flashspeicher bereits vorhanden, oder eine Erweiterung des Arbeitsspeichers nicht möglich ist. Anders als in HHDs bleibt hier die Festplatte auch weiterhin auf Touren, wodurch weder Energieverbrauch noch Lautstärke gesenkt werden. Die Festplatte enthält zudem ein Abbild des Zwischenspeichers, das bei Entfernen des Flashspeichers verwendet wird. Die darauf ausgelagerten Daten werden sicherheitshalber mit 128 Bit verschlüsselt und das Medium vor Gebrauch sinnvollerweise kurz auf ausreichende Geschwindigkeit getestet. ReadyBoost erfordert eine Laufwerksgröße von 256 MB, maximal verwendet Vista 4 GB. Der verwendete Anteil ist beim Anschließen einstellbar. Unter Linux ist eine ähnliche Methode schon seit langem möglich, in dem man den Flashspeicher als Swapping mountet.

Windows XP verfügt von Haus aus über keine der beiden Vista-Optionen, Flashspeicher zur Temposteigerung einzusetzen. Das Moskauer Unternehmen MDO Limited bietet mit „eBoostr“ jedoch ein Tool an, das die „ReadyBoost“-Idee unter XP umsetzt. Zwar funktioniert es auch mit älteren externen Flashspeichern, um aber tatsächlich einen Tempogewinn zu erhalten, sollte das ReadyBoost-Logo auch hier als Anhaltspunkt beachtet werden. Dieses erhalten USB-Sticks und Speicherkarten, die ein von Microsoft festgelegtes Performancelevel erreichen. Das Programm kann - anders als Vista - auch mehrere Flashspeicher gleichzeitig nutzen und dabei die Lastverteilung zwischen Festplatte und Flashspeicher anzeigen. Zielgruppe sind jene PCs, die bereits über einen USB 2.0-Port verfügen, für die eine RAM-Erweiterung jedoch technisch oder ökonomisch nicht möglich ist. Die Demoversion erlaubt die volle Nutzung für vier Stunden nach einem Neustart, die Vollversion kostet rund 17 €.

Konventionelle und Flashfestplatten verschleißen mit der Zeit. Während sich das bei ersteren aus der Abnutzung der Mechanik ergibt, wirkt bei der Flashtechnik ein elektrischer Effekt begrenzend. Lesevorgänge sind hier zwar unbegrenzt möglich, je nach Qualität kann eine Flashzelle aber nur zwischen 100.000 und 5 Millionen Schreibvorgänge absolvieren. Danach „vergisst“ sie, was neu geschrieben wird und kann nur noch gelesen werden . Flashspeicher wären so mitunter schon nach wenigen Tagen defekt. Dem wirken seit einigen Jahren „Wear-Levelling“-Verfahren entgegen. Der Controller im Flashlaufwerk verteilt Schreibvorgänge auf alle Speicherzellen so, dass jede möglichst gleich häufig beschrieben wird. Die hierfür verwendeten Algorithmen sind herstellerspezifisch, in jedem Fall aber vom Rest des Computers aus weder sichtbar noch beeinflussbar. Dieses Verteilungs-Verfahren gibt es in verschiedenen Ausbaustufen. So verwendet eine Flashfestplatte häufig komplexere Controller als ein USB-Stick und sehr wenige Wechseldatenträger auch gar keinen . Hier können dann Software-Lösungen wie in Windows Vista oder das Dateisystem JFFS2 unter Linux aushelfen.

Je nach Ausbaustufe führt das Verfahren zu einer Haltbarkeit, die konventionellen Festplatten nahe kommt oder sie übertrifft . Eine Ausfallvorhersage wie bei konventionellen Festplatten (z. B. durch S.M.A.R.T.) fehlte bei SSDs jedoch. Bei Laufwerken über 1000 € hat sie MTron daher vor einigen Jahren und SiliconSystems im Jahr 2007 durch eine vergleichbare ergänzt . Letztere ist jedoch kein Standard und auf diesen Hersteller begrenzt. Die Prüfung ist im Vergleich zu konventionellen Festplatten sehr übersichtlich: Es wird ausschließlich geprüft, ob von den 2 bis 4 Prozent Reserveblöcken noch mehr als 95 Prozent übrig sind . Ist dies nicht mehr der Fall, geht das Laufwerk sicherheitshalber in einen Nur-Lese-Modus über. Da bei guten „Wear-Levelling“-Verfahren alle normalen Sektoren zu ähnlicher Zeit abgenutzt sind, ist ein Ausfall nach der Verwendung erster Reservesektoren vermutlich nahe.

Ein Nebeneffekt aller Verteilungs-Verfahren ist, dass kein sicheres Löschen mehr möglich ist. Der Hintergrund ist im folgenden Abschnitt Sicheres Löschen und Defragmentierung erläutert.

Dateien werden immer als Bitfolge geschrieben. Heute enthält eine Flashzelle meist 2 Bits (ein Viertel Byte), welche in Blöcken von 2.000 oder 4.000 Byte zusammengefasst sind. Angesprochen werden vom Controller immer ganze Blöcke. Beim Lesen einzeln, beim Schreiben werden sie abermals zusammengefasst – zu einem „Erasable Block“. Dieser enthält 32 oder 64 Blöcke. Bei jeder Änderung in einem seiner Blöcke wird der zunächst nicht gelöscht, sondern als unaktuell markiert. Geschrieben wird in den nächsten freien Block desselben Erasable Block. Erst, wenn alle seine Blöcke unaktuell sind, wird er einmal komplett gelöscht. Somit müssen bei jedem geänderten Byte mehrere Kilobyte (der nächste Block) neu geschrieben werden. Und damit entstünde eine inakzeptable Haltbarkeit. Im folgenden Beispiel wird eine Textdatei viermal überarbeitet und gespeichert.

Dynamic Wear Levelling Soll ein Erasable Block beschrieben werden, wird hier von den noch nicht belegten der am wenigsten abgenutzte ausgewählt. Dies ist vergleichsweise einfach im Controller umzusetzen. Es hat den Nachteil, dass bei gut gefülltem Laufwerk der wenige freie Platz schneller abgenutzt wird. Die Schreibzyklen steigen um den Faktor 25 gegenüber fehlendem Wear-Levelling.

Static Wear Levelling Soll ein Erasable Block beschrieben werden, wird hier der am wenigsten abgenutzte ausgewählt. Ist dieser schon belegt, werden dessen Daten auf einen anderen umverlagert, dann die neuen Daten geschrieben. Dies erfordert einen etwas komplexeren Controller, führt aber zu sehr gleichmäßiger Abnutzung. Die Schreibzyklen steigen um den Faktor 100 gegenüber fehlendem Wear-Levelling.

Defekte Blöcke Scheitert ein Schreibversuch auf einen Block, wird dieser wie bei konventionellen Festplatten als nicht mehr benutzbar markiert und ein Reserveblock aktiviert.

Gewöhnliche Betriebssysteme löschen nicht den Dateiinhalt selbst, sondern entfernen lediglich den Eintrag im Inhaltsverzeichnis des Dateisystems. Dies beschleunigt den Löschvorgang, ermöglicht aber auch eine Wiederherstellung der Datei. Um dies zu verhindern gibt es Programme welche die Dateien tatsächlich komplett überschreiben. Dieses Überschreiben leiten Flashspeicher mit Nutzungsverteilung dann aber auf die bisher am wenigsten benutzten Blöcke, nicht auf jene, in denen die Datei steht.

Um dieses Sicherheitsleck zu nutzen und auf die so gelöschte Datei zugreifen zu können, müsste aber das Laufwerk geöffnet und der Controller gegen einen ausgetauscht werden, der alle Blöcke ausliest. Zudem fehlt die Information, welche Blöcke zu einer durch „Überschreiben“ gelöschten Datei in welcher Reihenfolge gehören. Kryptographiehersteller warnen trotzdem vor dem Einsatz solcher Laufwerke, da zumindest Schlüssel auffindbar sein könnten.

Behebbar ist das Problem erst durch einen Controller, der auf Wunsch vorübergehend die Nutzungsverteilung abschalten kann und so ein „Secure Erase“ ermöglicht. Entsprechende Laufwerke sind aber nur im Hochpreissegment zu finden, etwa von M-Systems. Diese enthalten dann auch Löschalgorithmen nach US-Airforce- oder Navy-Standard.

Für den Heimgebrauch dürfte es bereits genügen, das Laufwerk einmalig mit Dateien zufälligen Inhalts vollständig zu beschreiben. Somit wird jeder Sektor einmal überschrieben, unbesehen seines Nutzungsgrades. Ab Windows XP leistet dies etwa DiskBench . Ein Nebeneffekt ist das unberührt bleibende Inhaltsverzeichnis des Dateisystems, das alle Datei- und Verzeichnisnamen enthält. Dieser Nebeneffekt tritt nicht auf, wenn die zufälligen, hinreichend großen Datenmengen nicht in eine Datei, sondern direkt in die Partition geschrieben werden, so dass alle Informationen innerhalb dieser Partition zuverlässig zerstört werden. Behauptungen, dass die Verwendung von Dateien wichtig sei, weil ein dateisystemloses Beschreiben nicht den gewünschten Effekt habe, entbehren einer plausiblen Begründung.

Eine Defragmentierung ist aufgrund der marginalen Lese-Zugriffszeiten nicht nötig. In Bezug auf die Schreibleistung differieren die Herstellerangaben jedoch. So warnt OCZ die Nutzer seiner MLC-basierten Core-Serie vor dem Defragmentieren , während MTron für seine SLC-basierten Produkte ein Defragmentieren sogar empfiehlt .

Im Folgenden sind die derzeit aktuellen Verfahren zum Vergleich aufgeführt, der Hochpreissektor der Solid State Drives bleibt dabei unberücksichtigt. Ein Video-Vergleich ist ebenfalls verfügbar .

Die in der Tabelle angegebenen Werte sind in der Regel Bestwerte. Insbesondere die Geschwindigkeiten können je nach Modell auch deutlich niedriger liegen.

Bei Betriebssystem-, Programmstarts und wo immer Zugriffszeiten eine Rolle spielen, sind diese Solid-State-Verfahren den Festplatten überlegen. Prinzipbedingt gelingt es ihnen, die obigen Geschwindigkeiten bei zufällig verteilten Zugriffen aufrecht zu erhalten.

Für die CompactFlash-Variante ergibt sich eine weitere Anwendungsmöglichkeit. Dank Adaptern, die als Slotblende befestigt werden, kann die CF-Karte von außen ausgetauscht werden – die Verkabelung bleibt im Gehäuse. Da der Adapter außerdem weder PCI- noch andere Kontaktleisten hat, kann er ganz nach Platzangebot eingebaut werden. Das ist ein Unikum dieser Solid-State-Variante und ermöglicht so Anwendungen, Benutzer oder Betriebssysteme sauber und sicher voneinander zu trennen. Denn so kann jeder Benutzer seine bevorzugte Betriebssystem- und Arbeitsumgebung mitbringen, wobei er gleichzeitig keinerlei Daten im PC hinterlässt, da er die „Festplatte“ einfach mitnimmt. Zusätzlich sind CompactFlash-Karten viel robuster und handlicher als ihre „Vorfahren“, die Festplatten im Wechselrahmen .

Zum Seitenanfang



RAID

RAID Level 0

Ursprünglich redundant array of inexpensive disks, heute redundant array of independent disks, deutsch: Redundante Anordnung unabhängiger Festplatten. Ein RAID-System dient zur Organisation mehrerer physischer Festplatten eines Computers zu einem logischen Laufwerk, das eine höhere Datensicherheit bei Ausfall einzelner Festplatten und/oder einen größeren Datendurchsatz erlaubt als ein einzelnes physisches Laufwerk. Während die meisten in Computern verwendeten Techniken und Anwendungen darauf abzielen Redundanzen (das Vorkommen doppelter Daten) zu vermeiden, werden bei RAID-Systemen redundante Informationen gezielt erzeugt, damit beim Ausfall einzelner Komponenten das RAID als Ganzes seine Integrität und Funktionalität behält.

Der Begriff wurde von Patterson, Gibson und Katz 1987 an der University of California, Berkeley in ihrer Arbeit A Case for Redundant Arrays of Inexpensive Disks (RAID) zum ersten Mal verwendet (frei übersetzt: Redundanter Verbund kostengünstiger Festplatten). Darin wurde die Möglichkeit untersucht, kostengünstige Festplatten im Verbund als logisches Laufwerk zu betreiben, um die Kosten für eine große (zum damaligen Zeitpunkt teure) Festplatte einzusparen. Dem gestiegenen Ausfallrisiko im Verbund sollte durch die Speicherung redundanter Daten begegnet werden, die einzelnen Anordnungen wurden als RAID-Level diskutiert.

Die weitere Entwicklung des RAID-Konzepts führte zunehmend zum Einsatz in Serveranwendungen, die den erhöhten Datendurchsatz und die Ausfallsicherheit nutzen, der Aspekt der Kostenersparnis wurde dabei aufgegeben. Die Möglichkeit, in einem solchen System einzelne Festplatten im laufenden Betrieb zu wechseln, entspricht der heute gebräuchlichen Übersetzung: Redundant Array of Independent Disks (Redundante Anordnung unabhängiger Festplatten).

Die genaue Art des Zusammenwirkens der Festplatten wird durch den RAID-Level spezifiziert. Die gebräuchlichsten RAID-Level sind RAID 0, RAID 1 und RAID 5. Sie werden unten beschrieben.

Aus Sicht des Benutzers oder eines Anwendungsprogramms unterscheidet sich ein logisches RAID-Laufwerk nicht von einer einzelnen Festplatte.

Von Hardware-RAID spricht man, wenn das Zusammenwirken der Festplatten von einem speziell dafür entwickelten Hardware-Baustein, dem RAID-Controller, organisiert wird. Der Hardware-RAID-Controller befindet sich in physischer Nähe der Festplatten. Er kann im Gehäuse des Computers enthalten sein. Häufiger befindet er sich aber in einem eigenen Gehäuse, einem Disk Array, in dem auch die Festplatten untergebracht sind.

Vermehrt werden in den letzten Jahren auch Festplatten-Controller unter der Bezeichnung RAID-Controller auf Hauptplatinen (engl. mainboards) für den Heimcomputer- und Personal-Computer-Bereich verbaut sowie als Kartenerweiterung im Niedrigpreis-Sektor angeboten. Üblicherweise sind diese häufig auf RAID 0 und RAID 1 beschränkt. Um die Karten im nichtprofessionellen Bereich so erschwinglich wie möglich zu machen, überlässt man hier jedoch oft die RAID-Logik der CPU. Ein weiterer Nachteil ist bei diesen auch, dass man an den Controller gebunden ist und bei einer Fehlfunktion desselben die Gefahr eines Datenverlustes besteht. Solche Controller werden im Linux-Jargon daher oft auch als Fake-RAID bezeichnet (vgl. auch die sogenannten Win- oder Softmodems).

Von Software-RAID spricht man, wenn das Zusammenwirken der Festplatten komplett softwareseitig organisiert wird. Auch der Begriff Host based RAID ist geläufig, da nicht das Speicher-Subsystem, sondern der eigentliche Computer die RAID-Verwaltung durchführt. Die meisten modernen Betriebssysteme, wie FreeBSD, OpenBSD, Apple Mac OS X, HP HP-UX, IBM AIX, Linux, Microsoft Windows ab Windows NT oder SUN Solaris, sind dazu in der Lage. Die einzelnen Festplatten sind in diesem Fall entweder über einfache Festplattencontroller am Computer angeschlossen oder es werden externe Storage-Geräte wie Disk Arrays von Firmen wie EMC, Promise, AXUS, Proware oder Hitachi Data Systems (HDS) an den Computer angeschlossen. Die Festplatten werden dann als sogenannte JBODs („just a bunch of disks“) ins System integriert.

Der Vorteil von Software-RAID ist, dass kein spezieller RAID-Controller benötigt wird. Die Steuerung wird von einer RAID-Software erledigt, diese ist entweder schon Teil des Betriebssystems oder wird nachträglich installiert. Dieser Vorteil kommt besonders beim Disaster Recovery zum tragen, wenn der Raid-Controller defekt und nicht mehr verfügbar ist – alle derzeit verfügbaren Software-RAID-Systeme benutzen die Festplatten so, dass diese auch ohne die spezielle Software ausgelesen werden können. Auch bleibt der Festplatten-Cache aktiviert.

Bei Software-RAID werden bei Festplattenzugriffen neben dem Hauptprozessor (CPU) des Computers auch die System-Busse (PCI) stärker belastet als bei Hardware-RAID. Bei leistungsschwachen CPUs und Bus-Systemen verringert dies deutlich die Systemleistung; bei leistungsstarken, wenig ausgelasteten Systemen ist dies belanglos. Storage-Server sind in der Praxis oft nicht voll ausgelastet, somit können Software-RAID-Implementierungen auf solchen Servern unter Umständen sogar schneller sein, als Hardware-RAID-Implementierungen. Ein weiterer Nachteil ist, dass bei Software-RAID als Cache nur der Arbeitsspeicher genutzt werden kann. Es besteht daher keine Möglichkeit eine Pufferbatterie nur für den Cache und den Controller zu installieren, wie es bei hochwertigen RAID-Controllern oder Disk Arrays mit integriertem Cache üblich ist. Dies hat zur Folge, dass Daten, die bei einem Systemabsturz im Cache liegen, verloren gehen.

1987 veröffentlichten D. A. Patterson, G. Gibson und R. H. Katz von der University of California, Berkeley, USA einen Vorschlag, um die langsamen Plattenzugriffe zu beschleunigen und die Mean Time Between Failures (MTBF) zu erhöhen. Dazu sollten die Daten auf vielen kleineren (billigeren) Platten anstatt auf wenigen großen (teuren) abgelegt werden; deshalb die ursprüngliche Leseweise als „Arrays of Inexpensive Disks“ (heute Independent), im Gegensatz zu den damaligen SLEDs (Single Large Expensive Disk). Die Varianten RAID 0 und RAID 6 wurden erst später von der Industrie geprägt. Seit 1992 erfolgt eine Standardisierung durch das RAB (RAID Advisory Board), bestehend aus etwa 50 Herstellern.

Streng genommen handelt es sich bei RAID 0 nicht um ein wirkliches RAID, da es keine Redundanz gibt.

RAID 0 bietet gesteigerte Transferraten, indem die beteiligten Festplatten in zusammenhängende Blöcke gleicher Größe aufgeteilt werden, wobei diese Blöcke quasi im Reißverschlussverfahren zu einer großen Festplatte angeordnet werden. Somit können Zugriffe auf allen Platten parallel durchgeführt werden (engl. striping, was „in Streifen zerlegen“ bedeutet, abgeleitet von stripe, der „Streifen“). Die Datendurchsatz-Steigerung (bei sequentiellen Zugriffen, aber besonders auch bei hinreichend hoher Nebenläufigkeit) beruht darauf, dass die notwendigen Festplatten-Zugriffe in höherem Maße parallel abgewickelt werden können. Die Größe der Datenblöcke wird als Striping-Granularität (auch chunk size oder interlace size) bezeichnet. Meistens wird bei Raid 0 eine chunk size von 64 KB gewählt.

Fällt jedoch eine der Festplatten durch einen Defekt (vollständig) aus, kann der RAID-Controller ohne deren Teildaten die Nutzdaten nicht mehr vollständig rekonstruieren. Eine teilweise Restauration ist unter Umständen jedoch möglich, nämlich genau für die Dateien, die nur auf den verbliebenen Festplatten gespeichert sind, was typischerweise nur bei kleinen Dateien und eher bei großer Striping-Granularität der Fall sein wird. (Im Vergleich dazu würde die Benutzung von je einem getrennten Dateisystem pro Festplatte bei einem Ausfall eines einzelnen Speichermediums die nahtlose Benutzbarkeit der verbliebenen Medien bzw. der dortigen Dateisysteme garantieren, während der vollständige Ausfall eines einzelnen und entsprechend größeren Speichermediums einen vollständigen Verlust aller Daten zur Folge hätte.) RAID 0 ist daher nur in Anwendungen zu empfehlen, bei denen Datensicherheit kaum von Bedeutung ist oder durch eine geeignete Form von Datensicherung anderweitig gewährleistet wird. Auch wenn überwiegend lesende Zugriffe auftreten (während ändernde Zugriffe durch entsprechende Verfahren redundant auch auf einem anderen Medium ausgeführt werden), kann RAID 0 empfehlenswert sein. Die bei einfachem RAID 0 unvermeidbare Betriebsunterbrechung in Folge eines Festplatten-Ausfalls (auch einzelner Platten) sollte bei der Planung berücksichtigt werden.

Der Einsatzzweck dieses Verbundsystems erstreckt sich demnach auf Anwendungen, bei denen in kurzer Zeit besonders große Datenmengen vor allem gelesen werden sollen, z. B. auf die Musik- oder Videowiedergabe und die sporadische Aufnahme derselben.

Die Ausfallwahrscheinlichkeit eines RAID 0 aus n Festplatten in einem bestimmten Zeitraum beträgt 1 − (1 − p)n. Das gilt nur unter der Annahme, dass die Ausfallwahrscheinlichkeit p einer Festplatte statistisch unabhängig von den übrigen Festplatten ist. Herleitung: Die Wahrscheinlichkeit, dass eine Festplatte nicht ausfällt, ist (1 − p). Die Wahrscheinlichkeit, dass alle n Festplatten nicht ausfallen, ist (1 − p)n. Die Wahrscheinlichkeit, dass mindestens eine Festplatte ausfällt und damit der RAID-0-Verbund ausfällt, ist dann 1 − (1 − p)n.

Beispiel: Eine Platte vom Typ X hat in den ersten 3 Jahren eine Ausfallwahrscheinlichkeit von 2%. Ein RAID-0-Verbund aus 2 dieser Platten hat dann eine Ausfallwahrscheinlichkeit von 4%. Bei 4 Platten sind es 8%, bei 16 Platten schon 28%. Dieses Modell ist allerdings ungenau, da das Belastungsprofil der einzelnen Platte anders ist als im Verbund.

RAID 1 ist der Verbund von mindestens 2 Festplatten. Ein RAID 1 speichert auf alle Festplatten die gleichen Daten (Spiegelung) und bietet somit volle Redundanz. Die Kapazität des Arrays ist hierbei höchstens so groß wie die kleinste beteiligte Festplatte.

Fällt eine der gespiegelten Platten aus, kann jede andere weiterhin alle Daten liefern. Besonders für sicherheitskritische Echtzeitanwendungen ist das unverzichtbar. RAID 1 bietet eine hohe Ausfallsicherheit: zum Totalverlust der Daten führt erst der Ausfall aller Platten.

Aus historischen Gründen wird zwischen Mirroring (alle Festplatten an demselben Controller) und Duplexing unterschieden, was heute jedoch nur bei Betrachtungen über den Single Point of Failure eine Rolle spielt: Festplatten-Controller fallen im Vergleich zu mechanisch beanspruchten Teilen (also Festplatten) relativ selten aus, so dass ein Controller-Ausfall auf Grund seiner geringen Wahrscheinlichkeit häufig noch toleriert wird.

Zur Erhöhung der Leseleistung kann ein RAID-1-System beim Lesen auf mehr als eine Festplatte zugreifen und gleichzeitig verschiedene Sektoren von verschiedenen Platten einlesen. Bei einem System mit zwei Festplatten lässt sich so die Leistung verdoppeln. Die Lesecharakteristik entspricht hierbei einem RAID-0-System. Diese Funktion bieten aber nicht alle Controller oder Softwareimplementierungen an. Sie erhöht die Lese-Geschwindigkeit des Systems enorm, geht aber auf Kosten der Sicherheit (vergl. nächsten Absatz). Eine solche Implementierung schützt vor einem kompletten Datenträgerausfall, aber nicht vor Problemen mit fehlerhaften Sektoren, zumindest falls diese erst nach dem Speichern (read after write verify) auftreten.

Zur Erhöhung der Sicherheit kann ein RAID-1-System beim Lesen stets auf mehr als eine Festplatte zugreifen (wenn die Antworten vorliegen, werden die beiden Datenströme verglichen, und bei Unstimmigkeiten wird eine Fehlermeldung ausgegeben, da die Spiegelung nicht länger besteht). Diese Funktion bieten nur wenige Controller an, auch reduziert sie die Geschwindigkeit des Systems geringfügig.

Eine Spiegelplatte ist kein Ersatz für eine Datensicherung, da sich auch versehentliche oder fehlerhafte Schreiboperationen (Viren, Stromausfall, Benutzerfehler) augenblicklich auf die Spiegelplatte übertragen. Dies gilt insbesondere für unvollständig abgelaufene, schreibende Programme (etwa durch Stromausfall abgebrochene Update-Transaktionen auf Datenbanken ohne Logging-System), wobei es hier nicht nur zu der Beschädigung der Spiegelung, sondern auch zu einem inkonsistenten Datenzustand trotz intakter Spiegelung kommen kann. Abhilfe schaffen hier Datensicherungen und Transaktions-Logs.

RAID 5 bietet sowohl gesteigerten Datendurchsatz beim Lesen von Daten als auch Redundanz bei relativ geringen Kosten und ist dadurch die beliebteste RAID-Variante. In schreibintensiven Umgebungen mit kleinen, nicht zusammenhängenden Änderungen ist RAID 5 nicht zu empfehlen, da bei zufälligen Schreibzugriffen der Durchsatz aufgrund des zweiphasigen Schreibverfahrens deutlich abnimmt (an dieser Stelle wäre eine RAID-0+1-Konfiguration vorzuziehen). RAID 5 ist eine der kostengünstigsten Möglichkeiten, Daten auf mehreren Festplatten redundant zu speichern und dabei das Speichervolumen effizient zu nutzen. Dieser Vorteil kommt allerdings aufgrund hoher Controlleranforderungen und -preise oft erst bei mehr als vier Platten zum Tragen. Für den Preis eines RAID-5-Controllers mit (mindestens) drei Platten ist meistens bereits eine vierte Festplatte für ein RAID 10 zu bekommen. Neuere Chipsätze unterstützen jedoch zunehmend auch RAID-5, so dass der preisliche Vorteil des RAID-10 Systems im Schwinden begriffen ist.

Die nutzbare Gesamtkapazität errechnet sich aus der Formel: (Anzahl der Festplatten-1) × (Kapazität der kleinsten Festplatte).

Rechenbeispiel mit vier 500 GB Festplatten: (4-1) × (500 GB) = 1500 GB Nutzdaten und 500 GB Parität.

Die Nutzdaten werden wie bei RAID 0 auf alle Festplatten verteilt. Die Paritätsinformationen werden jedoch nicht wie bei RAID 4 auf einer Platte konzentriert, sondern ebenfalls verteilt. Die Berechnung der Parität erfolgt durch die XOR-Verknüpfung, die wiederum zu einer leichten bis erheblichen Verminderung der Datentransferrate im Vergleich zu RAID 0 führt. Da die Paritätsinformationen beim Lesen nicht benötigt werden, stehen alle Platten zum parallelen Zugriff zur Verfügung. Dieser (theoretische) Vorteil greift allerdings nicht bei kleinen Dateien ohne nebenläufigen Zugriff, erst bei größeren Dateien oder geeigneter Nebenläufigkeit tritt eine nennenswerte Beschleunigung ein. Der Schreibzugriff erfordert entweder ein Volumen, das genau (n-1) korrespondierende Datenblöcke ausfüllt, oder ein zwei-phasiges Verfahren (alte Daten lesen; neue Daten schreiben).

Bei RAID 5 ist die Datenintegrität des Arrays beim Ausfall von maximal einer Platte gewährleistet. Nach Ausfall einer Festplatte oder während des Rebuilds auf die Hotspare-Platte (bzw. nach Austausch der defekten Festplatte) lässt die Leistung deutlich nach (beim Lesen: jeder (n-1)-te Datenblock muss rekonstruiert werden; beim Schreiben: jeder (n-1)-te Datenblock kann nur durch Lesen der entsprechenden Bereiche aller korrespondierenden Datenblöcke und anschließendes Schreiben der Parität geschrieben werden; hinzu kommen die Zugriffe des Rebuilds: (n-1) × Lesen; 1 × Schreiben). Bei dem Rebuild-Verfahren ist daher die Berechnung der Parität zeitlich zu vernachlässigen; im Vergleich zu RAID 1 dauert somit das Verfahren unwesentlich länger und benötigt gemessen am Nutzdaten-Volumen nur den (n-1)-ten Teil der Schreib-Zugriffe.

Eine noch junge Methode zur Verbesserung der Rebuild-Leistung und damit der Ausfallsicherheit ist präemptives RAID 5. Hierbei werden interne Fehlerkorrekturstatistiken der Platten zur Vorhersage eines Ausfalls herangezogen (siehe S.M.A.R.T.). Vorsorglich wird nun die Hot-Spare-Platte mit dem kompletten Inhalt der ausfallverdächtigsten Platte im RAID-Verbund synchronisiert, um zum vorhergesagten Versagenszeitpunkt sofort an deren Stelle treten zu können. Das Verfahren erreicht bei geringerem Platzbedarf eine ähnliche Ausfallsicherheit wie RAID 6 und andere Dual-Parity-Implementierungen. Allerdings wurde präemptives RAID 5 aufgrund des hohen Aufwands bislang nur in wenigen „High-End“-Speichersystemen mit server-basierten Controllern implementiert. Zudem zeigt eine Studie von Google (Februar 2007), dass S.M.A.R.T.-Daten zur Vorhersage des Ausfalls einer einzelnen Festplatte nur eingeschränkt nützlich sind .

Bei NRAID (auch als linear mode oder concat(enation) bekannt) werden – wie bei RAID 0 – mehrere Festplatten zusammengeschlossen. Im Gegensatz zu RAID 0 bietet NRAID aber keinen Gewinn beim Datendurchsatz. Dafür kann man Festplatten unterschiedlicher Größe ohne Speicherverlust miteinander kombinieren (Beispiel: eine 10-GB-Festplatte und eine 30-GB-Festplatte ergeben in einem NRAID eine virtuelle 40-GB-Festplatte, während in einem RAID 0 nur 20 GB (2 × 10 GB) angesprochen werden könnten). Der Ausfall einer Platte führt zu Datenverlust, jedoch wäre es möglich einen Teil der Daten wieder zu restaurieren, solange sie komplett auf der funktionierenden Platte liegen. NRAID ist weder einer der nummerierten RAID-Levels, noch bietet es Redundanz. Man kann es aber durchaus als entfernten Verwandten von RAID 0 betrachten. NRAID macht aus mehreren Festplatten eine einzige, deren Datenkapazität der Summe der Kapazitäten aller verwendeten Platten entspricht. Heutzutage sind Controller, die mit der Eigenschaft NRAID verkauft werden, in der Lage, dies zu tun.

RAID 2 spielt in der Praxis keine Rolle mehr. Das Verfahren wurde nur bei Großrechnern verwendet. Die Daten werden hierbei in Bitfolgen fester Größe zerlegt und mittels eines Hamming-Codes auf größere Bitfolgen abgebildet (zum Beispiel: 4 Bit für Daten und noch 3 Bit für die ECC-Eigenschaft). Die einzelnen Bits des Hamming-Codeworts werden dann über einzelne Platten aufgeteilt, was prinzipiell einen hohen Durchsatz erlaubt. Ein Nachteil ist jedoch, dass die Anzahl der Platten ein ganzzahliges Vielfaches der Hamming-Codewortlänge sein muss, wenn sich die Eigenschaften des Hamming-Codes nach außen zeigen sollen (diese Forderung entsteht, wenn man einen Bit-Fehler im Hamming-Code analog zu einem Festplatten-Ausfall im RAID 2 sieht).

Der kleinste RAID-2-Verbund benötigt drei Festplatten und entspricht einem RAID 1 mit zweifacher Spiegelung. Im realen Einsatz sah man daher zumeist nicht weniger als zehn Festplatten in einem RAID-2-Verbund.

RAID 3 ist der Vorläufer von RAID 5. Im RAID 3 wird die Redundanz auf einer zusätzlichen Festplatte gespeichert. Als Redundanz bezeichnet man hier die bitweise Addition der einzelnen Bits der anderen Festplatten. Die bitweise Addition berechnet Summen von Einzelbits, die den Wert 0 und 1 enthalten können, und befolgt die Rechenregeln des mathematischen Zahlkörpers (GF(2)=Z/2Z), welcher nur die Elemente 0 und 1 enthält und bei dem die folgenden Rechenregeln gelten: 1 + 1 = 0, 0 + 1 = 1, 1 + 0 = 1, 0 + 0 = 0. In der Mikroelektronik ist dies identisch mit der XOR-Verknüpfung.

Der Gewinn durch ein RAID 3 ist folgender: Angenommen, der RAID-3-Verbund besteht aus n datentragenden Festplatten und einer dedizierten Paritätsplatte mit Nummer n + 1. Bei einem Ausfall einer der ersten n Festplatten (mit der Nummer i) werden, nach Austausch dieser Festplatte, alle Daten auf die neue (i-te) Festplatte zurück synchronisiert, ausgehend von den Paritätsinformationen der n + 1-ten Festplatte und den übrigen, unversehrten n-1 Daten-Festplatten. Der Ausfall der Paritätsplatte selbst wird, nach Ersetzen der Festplatte, repariert durch einfache Neuberechnung der Paritätsbits.

RAID 3 ist inzwischen vom Markt verschwunden und wurde weitgehend durch RAID 5 ersetzt, bei dem die Parität gleichmäßig über alle Platten verteilt wird. Die dedizierte Paritätenfestplatte stellte einen Flaschenhals dar (performance bottleneck). Vor dem Übergang zu RAID 5 wurde RAID 3 zudem partiell durch RAID 4 verbessert, bei dem Ein-/Ausgabe-Operationen mit größeren Blockgrößen aus Geschwindigkeitsgründen standardisiert wurden.

Zusätzlich sei hier bemerkt, dass ein RAID-3-Verbund aus lediglich zwei Festplatten per Definition identisch ist mit einem RAID 1 aus zwei Festplatten.

Es werden ebenfalls Paritätsinformationen berechnet, die auf eine dedizierte Festplatte geschrieben werden. Allerdings sind die Einheiten, die geschrieben werden, größere Datenblöcke (engl. chunks) und nicht einzelne Bytes, was die Gemeinsamkeit zu RAID 5 ausmacht.

Ein Nachteil bei klassischem RAID 4 besteht darin, dass die Paritätsplatte bei allen Schreib- und Leseoperationen beteiligt ist. Dadurch ist die maximal mögliche Datenübertragungs-Geschwindigkeit durch die Datenübertragungs-Geschwindigkeit der Paritätsplatte begrenzt. Da bei jeder Operation immer eine der Datenplatten und die Paritätsplatte verwendet werden, fällt die Paritätsplatte häufiger aus.

Wegen der fest definierten Paritätsplatte bei RAID 4 wird stattdessen fast immer RAID 5 bevorzugt.

Eine Ausnahme bildet ein Systemdesign, bei dem die Lese- und Schreiboperationen auf ein NVRAM erfolgen. Das NVRAM bildet einen Puffer, der die Übertragungsgeschwindigkeit kurzfristig erhöht, die Lese- und Schreiboperationen sammelt und in sequenziellen Abschnitten auf das RAID-4-Plattensystem schreibt. Dadurch werden die Nachteile von RAID 4 vermindert, und die Vorteile bleiben erhalten.

NetApp nutzt RAID 4 in ihren NAS-Systemen, das verwendete Dateisystem WAFL wurde speziell für den Einsatz mit RAID 4 entworfen. Da RAID 4 nur bei sequentiellen Schreibzugriffen effektiv arbeitet, verwandelt WAFL wahlfreie Schreibzugriffe (random writes) im NVRAM-Cache in sequentielle – und merkt sich jede einzelne Position für den späteren Abruf. Beim Lesen tritt allerdings das klassische Fragmentierungsproblem auf: Zusammengehörige Daten stehen nicht notwendigerweise auf physisch hintereinanderliegenden Blöcken, wenn sie im nachhinein aktualisiert bzw. überschrieben wurden. Die verbreitetste Beschleunigung von Lesezugriffen, der cache prefetch, ist daher ohne Wirkung. Die Vorteile beim Schreiben ergeben somit einen Nachteil beim Lesen. Das Dateisystem muss dann regelmäßig defragmentiert werden.

RAID 6 (unter diversen Handelsnamen angeboten, z.B. Advanced Data Guarding) funktioniert ähnlich wie RAID 5, verkraftet aber den gleichzeitigen Ausfall von bis zu zwei Festplatten. Insbesondere beim intensiven Einsatz hochkapazitiver SATA/IDE Festplatten kann die Wiederherstellung der Redundanz nach einem Plattenausfall viele Stunden bis hin zu Tagen dauern, währenddessen kein Schutz gegen einen weiteren Ausfall besteht.

Im Gegensatz zu RAID 5 gibt es bei RAID 6 mehrere mögliche Implementierungsformen, die sich insbesondere in der Schreibleistung und dem Rechenaufwand unterscheiden. Im allgemeinen gilt: Bessere Schreibleistung wird durch erhöhten Rechenaufwand erkauft. Im einfachsten Fall wird eine zusätzliche XOR-Operation über eine orthogonale Datenzeile berechnet, siehe Grafik. Auch die zweite Parität wird rotierend auf alle Platten verteilt. Eine andere RAID 6 Implementierung rechnet mit nur einer Datenzeile, produziert allerdings keine Paritätsbits, sondern einen Zusatzcode, der 2 Einzelbit-Fehler beheben kann. Das Verfahren ist rechnerisch aufwändiger. Zum Thema Mehrbit-Fehlerkorrektur siehe auch Reed-Solomon-Code.

Für alle RAID 6 Implementierungen gilt gemeinsam: Der Performance-Malus bei Schreiboperationen (Write Penalty) ist bei RAID 6 etwas größer als bei RAID 5, die Leseleistung ist bei gleicher Gesamtplattenzahl geringer (eine Nutzdatenplatte weniger), bzw. der Preis pro nutzbarem Gigabyte verteuert sich um eine Festplatte je RAID Verbund, also im Schnitt um ein Siebtel bis zu einem Fünftel. Ein RAID 6 Verbund benötigt mindestens vier Festplatten.

Bei RAIDn handelt es sich um eine Entwicklung der Inostor Corp., einer Tochter von Tandberg Data. RAIDn hebt die bisher starre Definition der RAID-Level auf.

Dieses RAID wird definiert durch die Gesamtzahl der Festplatten (n) sowie die Anzahl der Festplatten, die ohne Datenverlust ausfallen dürfen (m). Als Schreibweise hat sich RAID(n,m) oder RAID n+m eingebürgert.

RAID DP (double parity) ist eine von NetApp weiterentwickelte Version von RAID 4. Hierbei wird eine zweite Parität nach der selben Formel wie die erste Parität P berechnet, jedoch mit anderen Datenblöcken. Die erste Parität wird horizontal, die zweite Parität Q diagonal berechnet. Zudem wird bei der Berechnung der diagonalen Parität jeweils die erste Parität mit einbezogen, dafür aber abwechselnd eine Festplatte nicht. Da in einem RAID DP zwei beliebige Festplattenfehler kompensiert werden können, ist die Verfügbarkeit eines solchen Systemes gegenüber einer Single-Paritätslösung (also z. B. RAID 4 oder RAID 5) um das 2000- bis 4000-fache (je nach RAID-Set-Größe) gesteigert.

RAID DP Sets bestehen in der Regel aus 14 + 2 Platten. Somit liegt der Brutto/ Netto Verschnitt ähnlich niedrig wie bei RAID4 / RAID5.

Der RAID DP vereinfacht die Wiederherstellung. Hierbei werden zuerst mit der diagonalen Parität die Daten der ersten ausgefallenen Festplatte berechnet und danach aus der horizontalen Parität der Inhalt der zweiten Festplatte.

Die Rechenoperationen beschränken sich im Gegensatz zum RAID 6, wo ein Gleichungssystem zu lösen ist, auf einfache xor-Operationen. RAID DP kann jederzeit auf RAID 4 umgeschaltet werden (und umgekehrt), indem man einfach die zweite Paritätsplatte abschaltet (bzw. wiederherstellt). Dies geschieht ohne ein Umkopieren oder Umstrukturieren der bereits gespeicherten Daten im laufenden Betrieb.

Details zu RAID DP können in der USENIX Veröffentlichung Row-Diagonal Parity for Double Disk Failure Correction gefunden werden.

RAID-DP erfüllt den SNIA RAID 6 Standard.

Obwohl die RAID-Level 0, 1 und 5 die weitaus größte Verwendung finden, existieren neben den Leveln 0 bis 6 noch „RAID-Kombinationen“. Hier wird ein RAID nochmals zu einem zweiten RAID zusammengefasst. Beispielsweise können mehrere Platten zu einem parallelen RAID 0 zusammengefasst werden und aus mehreren dieser RAID-0-Arrays z. B. ein RAID-5-Array gebildet werden. Man bezeichnet diese Kombinationen dann etwa als RAID 05 (0+5). Umgekehrt würde ein Zusammenschluss von mehreren RAID-5-Arrays zu einem RAID-0-Array als RAID 50 (oder RAID 5+0) bezeichnet werden. Auch RAID-1- und RAID-5-Kombinationen sind möglich (RAID 15 und RAID 51), die beliebtesten Kombinationen sind allerdings das RAID 01, bei dem je zwei Platten parallel arbeiten und dabei von zwei anderen Platten gespiegelt werden (insgesamt vier Platten), oder RAID 10, bei dem zwei Platten gespiegelt werden und dabei um zwei weitere gespiegelte Platten zu einem Ganzen ergänzt werden.

RAIDs können auch mit mehr als nur zwei Layern zusammengefasst werden (z. B. RAID 100), allerdings wird dies kaum verwendet.

Ein RAID-00-Verbund bildet ein großes RAID 0 (Upper-Level) aus mehreren kleinen RAID 0 (Lower Level). Die Eckdaten entsprechen dem RAID 0, allerdings werden mindestens vier Festplatten benötigt. Entwickelt wurde RAID 00 von IBM.

Ein RAID-01-Verbund ist ein RAID 1 über mehrere RAID 0. Es werden dabei die Eigenschaften der beiden RAIDs kombiniert: Sicherheit (evtl. geringer als beim RAID 10) und gesteigerter Datendurchsatz.

Die Nutzdaten werden dabei ebenso wie die gespiegelten Daten RAID-0-typisch über die Platten A, B und C verteilt (striped). Bei Ausfall einer Platte sind immer noch alle Daten vorhanden.

Ein RAID-10-Verbund ist ein RAID 0 über mehrere RAID 1. Es werden dabei die Eigenschaften der beiden RAIDs kombiniert: Sicherheit und gesteigerte Schreib-/Lesegeschwindigkeit.

Ein RAID-10-Verbund benötigt mindestens vier Festplatten.

Während die RAID-1-Schicht einer RAID-0+1-Implementation nicht in der Lage ist, einen Schaden in einem untergeordneten RAID 0 differenziert den einzelnen Festplatten zuzuordnen, bietet RAID 10 gegenüber RAID 0+1 eine bessere Ausfallsicherheit und schnellere Rekonstruktion nach einem Plattenausfall, da nur ein Teil der Daten rekonstruiert werden muss. Auch hier hat man - wie bei RAID 0+1 - nur die Hälfte der gesamten Festplattenkapazität zur Verfügung.

RAID 03 ist gleichwertig mit RAID 30.

Ein RAID-05-Verbund besteht aus einem RAID-5-Array, das aus mehreren striped RAID 0 besteht. Er benötigt mindestens 6 Festplatten. Bei RAID-05 besteht doppeltes Risiko im Vergleich zu einem herkömmlichen RAID-5 aus Einzelplatten, da bei einem RAID-0 schon beim Defekt eines Laufwerkes alle Daten verloren sind.

Die Firma Highpoint entwickelte zusätzlich noch das RAID 1.5, nicht zu verwechseln mit RAID 15. Es stellt eine Kombination von RAID 0 und RAID 1 dar, die schon mit nur 2 Festplatten verwendet werden kann. Dabei werden 2 Platten in einfacher Geschwindigkeit wie bei RAID 1 gespiegelt beschrieben, während beim Lesen beide Platten mit hohem Datendurchsatz wie bei RAID 0 genutzt werden.

Clevere RAID-1-Implementationen wie die unter Linux und Solaris lesen bereits im RAID-1-Modus von allen Platten, sodass RAID 1.5 keinen Extra-Vorteil bietet.

Das RAID-15-Array wird gebildet, indem man mindestens drei RAID-1-Arrays als Bestandteile für ein RAID-5 verwendet; es ist im Konzept ähnlich wie RAID 10, außer dass das Striping mit einer Parität erfolgt.

Bei einem Acht-Festplatten-RAID-15 dürfen bis zu drei beliebige Platten gleichzeitig ausfallen (insgesamt bis zu fünf, sofern zwei der Platten zu einem gemeinsamen Mirrorset gehören).

Ein RAID-15-Verbund benötigt mindestens sechs Festplatten.

Der Datendurchsatz ist gut, aber nicht sehr hoch. Die Kosten sind mit denen anderer RAID-Systeme nicht direkt vergleichbar, dafür ist das Risiko des eines kompletten Datenverlustes recht gering.

Beim RAID 1E werden einzelne Datenblöcke auf die jeweils nächste Festplatte gespiegelt. Es dürfen hierbei weder zwei benachbarte noch die erste und die letzte Festplatte gleichzeitig ausfallen. Für ein RAID 1E wird immer eine ungerade Anzahl von Festplatten benötigt. Die nutzbare Kapazität reduziert sich um die Hälfte. Es gibt allerdings noch andere Versionen von RAID 1E, die flexibler sind als die hier dargestellte Variante.

Bei einem RAID 1E0 werden mehrere RAID 1E mit einem RAID 0 zusammengeschaltet. Die maximale Anzahl der redundanten Platten und die Nettokapazität entspricht dem zugrundeliegenden RAID 1E.

RAID 30 wurde ursprünglich von AMI entwickelt. Es stellt eine striped Variante von RAID 3 dar (das heißt ein RAID 0, welches mehrere RAID 3 zusammenfasst).

Ein RAID-30-Verbund benötigt mindestens sechs Festplatten (zwei Legs mit je drei Festplatten). Es darf eine Festplatte in jedem Leg ausfallen.

Ein RAID-45-Verbund fasst, ähnlich dem RAID 55, mehrere RAID 4 mit einem RAID 5 zusammen. Man benötigt hierfür mindestens 3 RAID-4 Legs zu je drei Festplatten und damit neun Festplatten. Bei neun Festplatten sind nur vier Festplatten nutzbar, das Verhältnis verbessert sich allerdings mit der Anzahl der verwendeten Festplatten. RAID 45 wird daher nur in großen Festplattenverbänden eingesetzt. Die Datensicherheit ist sehr hoch, da mindestens drei beliebige Festplatten, zusätzlich eine Festplatte in jedem Leg und dazu noch ein komplettes Leg ausfallen dürfen.

Ein RAID-50-Verbund besteht aus einem RAID 0-Array, das aus mehreren striped RAID 5 besteht.

Ein RAID-50-Verbund benötigt mindestens sechs Festplatten, beispielsweise zwei RAID-5-Controller mit jeweils drei Platten pro Controller zusammengeschaltet mit einem Software-Stripe RAID 0. Das garantiert einen sehr hohen Datendurchsatz beim Schreiben und Lesen, da die Rechenarbeit auf zwei XOR-Units verteilt wird.

Ein RAID-50-Verbund wird bei Datenbanken verwendet, wo Redundanz und Schreibdurchsatz im Vordergrund stehen.

Der RAID-51-Verbund wird ähnlich wie RAID 15 gebildet, indem man die gesamte Reihe eines RAID 5 spiegelt, und ist ähnlich zu RAID 01, abgesehen vom Paritätsschutz.

Bei einem Acht-Festplatten-RAID-51 dürfen bis zu drei beliebige gleichzeitig ausfallen. Darüber hinaus dürfen fünf Festplatten ausfallen, solange keine aus dem gespiegelten RAID-5-Verbund betroffen sind.

Ein RAID-51-Verbund benötigt mindestens sechs Festplatten.

Die Datenübertragungs-Leistung ist gut, aber nicht sehr hoch. Die Kosten sind mit denen anderer RAID-Systeme nicht direkt vergleichbar.

RAID 53 ist eine in der Praxis gängige Bezeichnung für ein RAID 30.

Der RAID-55-Verbund wird ähnlich wie RAID 51 gebildet, indem mehrere RAID 5-Systeme über ein weiteres RAID 5 zu einem RAID 55 zusammengeschaltet werden. Im Gegensatz zu RAID 51 ist der Overhead geringer, und es ist möglich, schneller die Daten zu lesen.

Bei einem Neun-Festplatten-RAID-55-System dürfen bis zu drei beliebige Festplatten gleichzeitig ausfallen. Darüber hinaus dürfen fünf Festplatten ausfallen. Ein RAID 55-Verbund benötigt mindestens neun Festplatten (drei Legs zu je drei Festplatten). Die Datenübertragungs-Geschwindigkeit ist gut, aber nicht sehr hoch. Die Kosten sind mit denen anderer RAID-Systeme nicht direkt vergleichbar.

RAID 5E ist die Abkürzung für RAID 5 Enhanced. Es kombiniert ein RAID 5 mit einem Hot-Spare. Der Hot-Spare wird dabei allerdings nicht als getrenntes Laufwerk ausgeführt, sondern auf die einzelnen Platten aufgeteilt. Anders ausgedrückt wird auf jeder Platte Speicherplatz für den Fall eines Ausfalles reserviert. Sollte eine Festplatte ausfallen, wird der Inhalt dieser Platte im freien Speicherplatz mit Hilfe der Parität wiederhergestellt, und das Array kann als RAID 5 weiterbetrieben werden.

Der Vorteil liegt nicht in einer gesteigerten Sicherheit gegenüber RAID 5, sondern in der höheren Geschwindigkeit durch ständige Nutzung aller vorhandenen Plattenspindeln, inklusive der üblicherweise leer mitlaufenden Hot-Spare-Platte.

Die Technik wird schon lange bei IBM für RAID-Controller eingesetzt, jedoch immer mehr durch RAID 5EE ersetzt.

RAID 5EE arbeitet ähnlich wie RAID 5E. Allerdings wird hierbei der freie Speicherplatz nicht am Ende der Festplatten reserviert, sondern ähnlich der RAID-5-Parität über die Platten diagonal verteilt. Dadurch bleibt beim Ausfall eine höhere Übertragungsgeschwindigkeit bei der Wiederherstellung der Daten.

Es ist aber anzumerken, dass mittlerweile IBM selbst vom Einsatz von RAID 5EE abrät. Im Fall eines Ausfalls einer Platte sind bei etlichen Kunden nicht wiederherstellbare Partitionen zurückgeblieben. Einzig das Neuaufsetzen des RAID löst dieses Problem.

RAID 5DP ist die von Hewlett Packard verwendete Bezeichnung der Implementierung für RAID 6 in den Speicher-Systemen der VA-Baureihe. Durch die Übernahme von Compaq AG durch Hewlett Packard ging die für die durch Compaq entwickelte RAID-6-Variante RAID ADG für die Compaq Smart Arrays ebenfalls in das geistige Eigentum von Hewlett Packard über. Das Akronym ADG steht hier für Advanced Data Guarding.

Ein RAID-60-Verbund besteht aus einem RAID 0-Array, welches mehrere RAID 6 kombiniert. Hierzu sind mindestens zwei Controller mit je 4 Festplatten, also gesamt 8 Festplatten, notwendig. Prinzipiell skalieren sich die Unterschiede von RAID 5 und RAID 6 hoch auf die Unterschiede zwischen RAID 50 und RAID 60: Der Durchsatz ist geringer, während die Datensicherheit höher ist. Der gleichzeitige Ausfall von 2 beliebigen Laufwerken ist jederzeit ohne Datenverlust möglich; weitere Ausfälle sind nur dann unkritisch, wenn maximal 2 Platten je gestriptem RAID 6 betroffen sind.

Ab dem Intel ICH6R-Southbridge ist seit etwa Mitte 2004 erstmals eine Technik integriert, die als „Matrix-RAID“ vermarktet wird und die Idee von RAID 1.5 aufgreift. Sie soll die Vorteile von RAID 0 und RAID 1 auf nur zwei Festplatten vereinen. Jede der beiden Platten wird vom Controller zu diesem Zweck in zwei Bereiche aufgeteilt. Ein Bereich wird dann auf die andere Festplatte gespiegelt, während im verbleibenden Bereich die Daten auf beide Platten aufgeteilt werden. Man kann dann z. B. im aufgeteilten Bereich sein „unwichtiges“ Betriebssystem und Programme installieren, um von RAID 0 zu profitieren, während man im gespiegelten Bereich dann seine wichtigen Daten abspeichern kann und auf die Redundanz von RAID 1 vertrauen kann. Im Falle eines Plattencrashes müsste man dann nur sein Betriebssystem und Programme neu aufspielen, während die wichtigen Daten im anderen Festplattenbereich erhalten bleiben.

Mit mehreren Festplatten kann man in einem Matrix-RAID auch andere RAID-Typen einsetzen und beispielsweise ab drei Festplatten eine Partition als RAID 5 betreiben.

RAID S bzw. Parity RAID, manchmal auch als RAID 3+1 bzw. RAID 7+1 bezeichnet, ist ein proprietäres striped Parity RAID des Herstellers EMC. Ursprünglich nannte EMC diese Form RAID S bei den Symmetrix-Systemen. Seit dem Marktauftritt der neuen Modelle DMX heißt diese RAID-Variante Parity-RAID. Inzwischen bietet EMC auch Standard-RAID-5 an. Laut Angaben von EMC dürfen bei Parity-RAID bis zu zwei Festplatten ausfallen.

RAID S stellt sich wie folgt dar: Ein Volume ist jeweils auf einem physischen Laufwerk, mehrere Volumes (meistens drei bzw. sieben) werden willkürlich zu Paritätszwecken kombiniert. Dies ist nicht mit RAID 5 zu verwechseln.

Eine Parity RAID 3+1 beinhaltet drei Daten Volumes und ein Paritätsvolume. Hiermit ist eine 75 % Nutzung der Kapazität möglich. Beim Parity RAID 7+1 hingegen sind sieben Datenvolumes und ein Paritäts-Volume vorhanden. Hiermit ist jedoch eine 87,5 % Nutzung der Kapazität möglich, bei geringerer Ausfallsicherheit.

Darüber hinaus bietet EMC noch als Option für diese RAID-Varianten die Hypervolume Extension (HVE) an. HVE erlaubt mehrere Volumes auf demselben physischen Laufwerk.

Hinweis: A1, B1, et cetera stellen einen Datenblock dar; jede Spalte stellt eine Festplatte dar. A, B, et cetera sind gesamte Volumen.

RAID TP bzw. RAID Triple Parity ist ein proprietäres RAID mit dreifacher Parität vom Hersteller easyRAID. Laut Herstellerangaben können bei RAID TP bis zu drei Festplatten ausfallen.

Die Datenblöcke und die Paritäten werden parallel jeweils auf die einzelnen physischen Festplatten geschrieben. Die drei Paritäten werden auf verschiedene Stripes auf unterschiedlichen Platten abgelegt. Der RAID-Triple-Parity-Algorithmus benutzt einen speziellen Code mit einem Hamming-Abstand von mindestens 4.

Hinweis: A1, B1, et cetera stellen einen Datenblock dar; jede Spalte stellt eine Festplatte dar. A, B, et cetera sind gesamte Volumen.

Hierzu benötigt man mindestens vier Festplatten. Die Kapazität errechnet sich aus Festplattenanzahl minus drei.

Ein von Sun Microsystems im Dateisystem ZFS integriertes RAID, ähnlich dem Aufbau von RAID 5. Gegenüber einem RAID-5-Array ist RAID-Z gegen Synchronisations-Probleme („write hole“) geschützt. Der Begriff write hole bezeichnet eine Situation, die bei Schreibzugriffen entsteht, wenn die Daten bereits auf die Festplatten geschrieben wurden, die dazugehörige Paritätsinformation aber noch nicht. Sollte während dieses Zustands ein Problem beim Berechnen oder Schreiben der Paritätsinformation auftreten, passen diese nicht mehr zu den gespeicherten Datenblöcken.

Anmerkung: Die RAIDs 3 und 4 können prinzipiell auch mit 2 Festplatten benutzt werden, allerdings erhält man dann exakt die gleiche Datensicherheit wie mit RAID 1 bei der gleichen Anzahl Festplatten. Dabei ist aber RAID 1 technisch einfacher und würde in dem Fall immer bevorzugt werden. Dasselbe trifft für übergeordnete Arrays oder Legs in Kombinations-RAIDs zu.

Anmerkung: Die für Smin angegebenen Fälle, welche Geräte genau ausfallen, dienen zur anschaulichen Darstellung. Die Werte geben lediglich an, dass in jedem beliebigen Fall genau diese Anzahl an Geräten ausfallen kann, ohne dass Daten verloren gehen. Die Angabe erhebt nicht den Anspruch darauf, dass in dem speziellen Fall nicht noch weitere Festplatten ohne Datenverlust ausfallen können.

Eine Schreib-Anforderung wird heute üblicherweise bereits quittiert, wenn die Daten im Cache angelangt sind und somit bevor die Daten tatsächlich permanent gespeichert wurden; weiterhin kann es vorkommen, dass der Cache nicht in der Reihenfolge bereinigend entleert wird, in der er gefüllt wurde; hierdurch kann eine Zeit entstehen in der bereits als gespeichert angenommene Daten durch einen Strom- oder Hardware-Ausfall verloren gehen können, was zu fehlerhaften Datei-Inhalten führen kann (etwa wenn das Datei-System von einer Verlängerung der Datei ausgeht, obwohl aber die entsprechenden Daten noch gar nicht geschrieben wurden). In Enterprise-Speichersystemen überlebt der Cache daher Resets. Der Schreib-Cache bringt einen Geschwindigkeitsgewinn, solange der Cache (RAM) nicht voll ist, oder solange die Schreib-Anforderungen in sub-optimaler Reihenfolge oder überlappend eingehen, da das Schreiben in den Cache schneller ist als das Schreiben auf Platte.

Der Lese-Cache ist heute in Datenbank-Anwendungen oft von großer Bedeutung, da hierdurch fast nur noch zum Schreiben auf das langsame Speichermedium zugegriffen werden muss.

Von VIA wird in seiner RAID-Konfiguration unter anderem die Option SPAN angeboten. Sie dient zur Kapazitätserweiterung ohne Leistungsgewinn wie bei Raid 0 (Striping). Während bei Raid 0 die Daten gleichzeitig auf mehrere Festplatten verteilt werden, gelangen die Daten bei SPAN zusammenhängend auf eine Festplatte. Bei RAID 0 sollten nach Möglichkeit gleich große Festplatten verwendet werden, da die überschüssige Kapazität des größeren Datenträgers verloren geht. Bei SPAN sind unterschiedlich große Festplatten ohne Kapazitätsverlust zu einer großen Festplatte zusammenfassbar, und entspricht somit Linear Mode oder NRAID (s.o.).

Mit dem Drive Extender des Microsoft Windows Home Servers findet sich eine Art virtuelles RAID, das aber auf JBOD basiert. Neue Dateien landen in der Regel zunächst auf der Systemplatte (d:\shares\freigabe\, z. B. d:\shares\Software\), und werden dann erst später auf eine der anderen Festplatten (c:\fs\alphanum. zeichen, z. B. c:\fs\T) verschoben, hinterlassen aber einen Verweis (Tombstone), der vier kB Festplattenspeicher belegt. Der Benutzer kann dadurch arbeiten, als wenn der Server über eine einzige große Festplatte verfügen würde.

Die Stripe-Size bezeichnet die Größe des aus einem oder mehreren Datenblöcken bestehenden Datenbereichs (Striping-Granularität), der auf die RAID-Speichermedien verteilt wird. So wird bei einem aus vier Festplatten bestehenden Array mit einer Stripe-Size von 64 kB ein Datenblock in einer Größe von 16 kB auf jede Festplatte geschrieben. Bei einer Vergrößerung der Stripe-Size wächst der maximale Durchsatz, gleichzeitig erhöht sich aber die Zugriffszeit. Heute üblich sind Stripe-Größen von 2 kB bis 256 kB.

Die Chunk-Size bezeichnet den kleinsten Datenblock pro Schreibzugriff, der auf eine individuelle Festplatte geschrieben wird. So besitzt ein aus vier Festplatten bestehendes Array mit einer Chunk-Size von 64 kB eine Stripe-Size von 256 kB.

Hot Swapping ist die Möglichkeit, Festplatten im laufenden Betrieb auszutauschen. Dazu muss der Bus-Controller Hot-Plugging unterstützen (i. d. R. nur SCSI, SAS oder SATA). Damit es nicht zu Datenverlust führt, ist ein Austausch nur in Arrays mit redundanter Datensicherung möglich.

Das Hot-Spare-Laufwerk ist ein unbenutztes Reservelaufwerk. Fällt ein Laufwerk innerhalb des RAID-Verbundes aus, wird es durch das Reservelaufwerk ersetzt. Dadurch ist die Redundanz schnellstmöglich wiederhergestellt. Während der Rebuild-Phase hat man allerdings keine Redundanz. Zur Vermeidung dieses Problems kann ein RAID 6 oder RAID DP statt RAID 5 verwendet werden, da hier zwei Paritätsplatten vorhanden sind. Außerdem gibt es Speichersysteme, die intern ständig alle Plattenbereiche prüfen. Sollte ein Datenblock „dirty“ sein, so wird die Platte bis zu diesem Bereich kopiert, der Dirty-Block aus der Prüfsumme bzw. der Spiegelplatte rekonstruiert und dann weiter kopiert. Dadurch kann die Wiederherstellungszeit reduziert werden.

In größeren RAID-Systemen, in denen die Möglichkeit besteht, an einem RAID-Controller mehrere unterschiedliche RAID-Arrays einzurichten, gibt es darüber hinaus auch die Möglichkeit, dass ein Hot-Spare-Laufwerk entweder einem einzelnen RAID-Array oder einer Geräteeinheit (Shelf, Enclosure) zugeordnet ist oder für die Verwendung im gesamten RAID-System zur Verfügung steht. In diesem Fall spricht man dann von einem Local-Spare-Laufwerk oder auch Dedicated Hot-Spare-Laufwerk (bei Zuordnung zu einem bestimmten Array) oder einem Global-Spare-Laufwerk (wenn das Laufwerk für alle Arrays verwendet werden kann).

Viele RAID-Controller bieten die Möglichkeit, auftretende Laufwerksfehler durch Medien-Tests oder den S.M.A.R.T.-Status frühzeitig zu erkennen. Wenn ein Laufwerk zu viele dieser meist korrigierbaren Fehler liefert, besteht die Möglichkeit, das betroffene Laufwerk schon vor dem endgültigen Ausfall zu ersetzen. Dazu kopiert der Controller alle vorhandenen Daten der einen Festplatte auf ein bisher unbenutztes Spare-Laufwerk. Beim Ausfall der original Festplatte verkürzt sich dadurch die Wiederherstellungszeit und damit auch die kritische Zeit für einen weiteren Ausfall auf ein Minimum.

Zertifizierter Standard von Intel zur Verwendung der vorhandenen Anschlüsse. Es wird nur der fehlende I/O-Controller (mit 0 Kanälen) nachgerüstet. Kostengünstige und ökonomische Variante.

Zum Seitenanfang



Source : Wikipedia