Nur Steintafeln halten ewigDigitale Amnesie
Die Vergänglichkeit des Digitalen
Nur Steintafeln halten ewig
Wir schreiben das Jahr 2528. Archäologen stoßen bei Ausgrabungen auf eine DVD-ROM. Unsere Nachfahren vermuten richtig, dass es sich bei der dünnen Scheibe um einen archaischen Datenspeicher aus den Anfängen des Jahrtausends handelt. Aber an die Informationen darauf kommen die Forscher nicht heran. Aufzeichnungen darüber, wie eine DVD funktioniert, gibt es nicht mehr. Und die Informationen auf der Scheibe haben sich längst verflüchtigt übrig bleibt eine leere Hülle.
Die Vergänglichkeit des DigitalenNichts ist so vergänglich wie digital gespeicherte Daten. Mit unlesbaren Medien werden sich nicht nur unsere Nachfahren herumschlagen müssen das Problem plagt viele Computeranwender bereits heute. Gemeinsam ist digitalen Speichermedien trotz aller Versprechen um ihre Haltbarkeit nur eines: Bei keinem lässt sich hundertprozentig sicherstellen, dass es sich nach mehr als fünf Jahren noch auslesen lässt. Das betrifft nicht nur DVDs, sondern auch Streamer-Tapes, Festplatten und Flash-Sticks, denen Anwender und Unternehmen wichtige Daten anvertrauen. Und das Vertrauen wächst, denn immer mehr Daten werden digital gespeichert.
Ein Datenberg von 161 Milliarden Gigabyte Tatsächlich ist es ein gigantischer Datenberg, der in digitalen Speichern ruht: 161 Milliarden Gigabyte, so groß ist laut IDC-Marktforschung der aktuelle Datenbestand der Welt. Bis 2010, so schätzt das Institut, soll die Datenflut auf 988 Milliarden Gigabyte anwachsen, umgerechnet sind das 988 Exabyte. Rund 70 Prozent der digitalen Informationen wird dabei von Privatleuten produziert, beispielsweise durch Websurfen, Fotografieren oder Filmen. Bei 85 Prozent der Daten unterliegt die Speicherung aber Firmen, die selbst für die Sicherheit der Informationen und die Einhaltung von Datenschutz-Richtlinien verantwortlich sind. Auf Papier landet nur noch ein winziger Bruchteil der Daten: Schon 1993 wurden nur 0,01 Prozent der in diesem Jahr produzierten Daten auf Papier gespeichert.
Nur Steininschriften halten ewig Während Papier unter günstigen Umständen noch nach vielen hundert Jahren lesbar ist und Steintafeln sogar Millennien unbeschadet überstehen, verlieren Magnetbänder ihre Speicherfähigkeit schon nach 20 bis 30 Jahren. Wie lange Festplatten halten, hängt extrem von ihren Einsatzbedingungen ab. Sind die Daten beispielsweise auf CD gespeichert, greifen chemische Reaktionen das Trägermaterial an, so dass sie nach vielleicht 25, vielleicht 80 Jahren unlesbar sind. Selbstgebrannte CDs schaffen nur einen Bruchteil dieser Zeit. In einem Langzeittest von PCpro zeigt sich, dass selbstgebrannte CDs auch bei optimaler Lagerung schon nach einem halben Jahrzehnt einen Teil ihrer Daten verlieren können. Die Amnesie greift besonders schnell bei No-Name-Produkten um sich.
Digital ist viel komfortabler Keine Frage, digitales Speichern ist unbestritten praktisch. Daten sind schnell verfügbar und benötigen weniger Lagerfläche. Statt beispielsweise im dicken Brockhaus-Lexikon umständlich nach dem Gesuchten zu blättern, schlägt man das Stichwort schnell in der Digital-Ausgabe nach. Und statt eines kompletten Regalmeters begnügt sich der Digi-Brockhaus mit einer schmalen DVD-Hülle.
Auf diese Vorteile muss man trotz der Anfälligkeit digitaler Medien nicht verzichten. Mit den geeigneten Strategien lassen sich Informationen auch über lange Zeit sicher aufbewahren. PCpro erklärt, wie Sie Ihre Daten am besten vor Verlust schützen und wie langlebig Speichermedien wie CD, Festplatten und Flashspeicher wirklich sind. Auch für den Unternehmenseinsatz gibt es Lösungen, die eine längere und rechtskonforme Haltbarkeit der Daten versprechen.
Defekte frühzeitig erkennen Außerdem zeigen wir Ihnen, wie Sie frühzeitig Defekte von Datenträger erkennen oder zumindest erahnen. Das ist bei digitalen Medien besonders wichtig, da man ihnen Schäden äußerlich nicht ansieht. Im Gegensatz dazu ist bei analogen Medien der Übergang zwischen »Funktionieren« und »Defekt« fließend: Eine PCpro-Ausgabe aus dem Jahr 1999 lässt sich auch dann noch lesen, wenn einzelne Heftteile nicht mehr fest in der Bindung sitzen, Seiten geknickt oder einzelne Wörter bereits verblasst sind. Hier erkennt man klar, wann die Informationen verloren gehen und kann weiterem Verfall vorbeugen, indem man einzelne Seiten kopiert oder den Einband erneuert. Die Kontrollmöglichkeit hat man bei digital gespeicherten Inhalten nicht.
Häufig migrieren oder Hardware behalten Häufiges Umkopieren von Daten mag lästig erscheinen, ist aber eine wirksame Methode zur Sicherung des Speicherbestands. Wenn Sie zum Beispiel wichtige Daten auf einer Diskette gespeichert haben, finden Sie schon bei aktuellen Rechnern kein passendes Laufwerk mehr. Fein raus sind nur Anwender, die ihre Original-Hardware behalten oder die Daten migriert haben.
Gewöhnliche digitale Speichersysteme dienen nur der reinen Archivierung, ohne Rücksicht auf spätere Systemwechsel. Früher oder später sind die Daten dann aber unlesbar und damit wertlos. Das musste schon die NASA in den 90er Jahren leidvoll erfahren, als sie auf Daten der Saturnmission der Raumsonde »Pioneer« nicht mehr zugreifen konnte. Trotz redundanter Speicherung auf verschiedenen Datenträgertypen waren keine Lesegeräte mehr verfügbar.
Persönliches sicher speichern: CDs & DVDs
Nur Steintafeln halten ewig
Ob CD, DVD, Festplatte oder Flash digitale Speicher gehen meist früher als später kaputt. Bleibt die Frage, welchem dieser Medien der Anwender seine Daten noch am ehesten anvertrauen kann.
Wenn unsere Enkel in 50 Jahren versuchen, Digitalbilder oder Filme anzuschauen, die wir heute archivieren, scheitern sie unter Umständen daran, dass sich der Datenträger nicht mehr lesen lässt. Genau das wird auch passieren, wenn man ein und dasselbe Speichermedium verwendet weder optische Medien, Festplatten noch Flash-Speicher halten so lange durch.
Das Märchen von der CD-Haltbarkeit
CD-ROMs verlieren selbst unter optimalen Lagerbedingungen schon nach wenigen Jahren ihre Daten. Das hätte auch das deutsche Musikarchiv nicht vermutet. Seit 1983 nimmt man dort ein Exemplar von jeder hierzulande erschienenen Audio-CD auf. Die Sammlung ist inzwischen auf stattliche 373 000 Tonträger gewachsen, allein 2006 kamen 20 000 neue dazu. Allerdings sind mittlerweile 200 der Audio-CDs, die in den ersten drei Jahren eingegangen sind, unlesbar in weniger als 25 Jahren zerstört durch aggressive Lacke des Label-Aufdrucks, die die Deckschicht des Mediums buchstäblich aufgelöst haben.
Gerade Sammlern entpuppt sich die Kurzlebigkeit der Datenträger als Katastrophe. Ihre sorgsam gehegten Alben und Filme zerfallen langsam und unmerklich und Jahre früher als bislang angenommen. Hier hilft nur noch, die Originale recht
zeitig zu kopieren. Auf Audio-CDs und Video-DVDs neueren Datums verhindern das Kopierschutzmechanismen leider recht effektiv.
Selbstgebranntes in Gefahr
Wenn bereits gepresste CDs so kurzlebig sind, wie sieht es dann erst mit CD- und DVD-Rohlingen aus? Eine kurze Umfrage in der PCpro-Redaktion ergibt ein eindeutiges Bild: Wenn Probleme auftauchen, dann speziell mit einmal beschreibbaren Medien wie CD-Rs und DVD-Rs, und das teilweise schon kurz nach dem Brennen. Der Autor dieses Artikels speichert seine Musikfiles beispielsweise seit zwei Jahren auf DVDs. Beim Versuch, die Soundfiles jetzt auf Festplatte umzukopieren, lassen sich einzelne Dateien nicht mehr lesen hier haben sich die Informationen bereits verflüchtigt.
Wiederbeschreibbares hält länger durch
Nach den Langzeit-Erfahrungen der Tester sind wieder beschreibbare Medien wie CD-RWs, DVD-RWs, DVD+RWs und DVD-RAMs deutlich widerstandsfähiger. Das belegt auch ein Dauertest von PCpro, in dem DVD-Medien über Monate hinweg gelöscht und wieder beschrieben werden. Obwohl die Scheiben nur bis 1000 Schreib-Lösch-Zyklen verkraften sollen, halten einige, wie der 4x-DVD+RW-Rohling von Ricoh, 10-mal länger durch als vorgesehen. Wer wichtige Daten auf optische Medien speichern will, sollte aber zur DVD-RAM greifen. Dieses Medium hält wegen seiner Sektorierung und der physikalischen Anordnung der Daten deutlich länger durch als die Konkurrenz – rund 100 000 Zyklen sollen es sein.
Auch die Nachfolge-Technologie garantiert keine ewig sicheren Daten: Weil sich der physikalische Aufbau von Blu-Ray-Disks und vor allem HD-DVDs grundlegend kaum von CDs und DVDs unterscheidet, kann man ihnen eine ähnlich begrenzte Lebensdauer attestieren.
Spricht man Rohlingshersteller auf die Langlebigkeit ihrer Produkte an, will keiner eine Garantie geben, die sich über die gesetzliche Gewährleistung von zwei Jahren hinaus erstreckt. Treuherzig verweist man stattdessen auf Labortests, die CD- und DVD-Rohlingen unabhängig vom verwendeten Dye-Material wie Phtalocyanin oder Azo eine Lebensdauer von bis zu 50 Jahren attestieren.
So richtig traut man den eigenen Studien ohnehin nicht: Ein Ricoh-Produktmanager gab an, spätestens alle fünf Jahre wichtige Daten von einer CD auf ein frisches Medium umzukopieren.
Kauftipp: Zerkratzen Sie Ihren Rohling
Welche Rohlinge sollte man also kaufen? Die Dye-Farbe hat keinen entscheidenden Einfluss auf die Langlebigkeit, die Verarbeitung allerdings sehr wohl. Machen Sie mit einem oder zwei Exemplaren einer Rohlings-Charge den Praxistest: Je leichter sich die Labelschicht mit einem scharfen Gegenstand zerkratzen lässt, desto unsicherer sind Ihre Daten. Auf der Etikettenseite des Mediums befindet sich nämlich auch die Reflexionsschicht. Ist sie beschädigt oder fehlt, läuft der Laserstrahl ins Leere. Verzichten Sie zudem darauf, den Rohling mit einem Stift zu beschriften. Selbst der Farbstoff von ausgewiesenen CD-Markern kann chemische Prozesse auslösen, die die Deckschicht angreifen.
Greifen Sie beim Kauf zu Markenprodukten. Lediglich A-Brands wie Philips, Ricoh, Sony und Verbatim unterhalten eigene Produktionsstätten. Sicher ist: Damit bekommt man keine Rohlinge zweifelhafter Herkunft untergeschoben. Gefertigt wird mit eigenen Stampern. Das erlaubt eine exakte Produktion und ein präzises Finish wichtig für die Langlebigkeit der Medien. Wird beispielsweise die Lackschicht zur Versiegelung des Rohlings nicht optimal aufgetragen, kann dessen Reflexionsschicht korrodieren.
Fazit: Kurzlebig und zu empfindlich
Trotz ausgereifter Fehlerkorrektur-Mechanismen genügen bereits Korrosionsschäden, Verfärbungen oder wenige Kratzer auf CD- und DVD-Rohlingen, um sie unlesbar zu machen. Auch bei sorgfältiger Aufbewahrung muss man teilweise schon nach einem Jahr mit Datenverlusten rechnen. Festplatten sind hier die bessere Wahl nicht zuletzt, weil die Speicherkapazität der CDs und DVDs enge Grenzen setzt.
Persönliches sicher speichern: Festplatten
Nur Steintafeln halten ewig
Bis zu 60 Monate Garantie geben Hersteller wie Seagate und WD ihren Desktop-Festplatten mit auf den Weg. Aber egal, ob 3,5-Zoll-, 2,5-Zoll- oder 1,8-Zoll-Laufwerk, mit mindestens drei Jahren Haltbarkeit ist man immer dabei. Speziell die Mini-Festplatten eignen sich als sichere Datenspeicher: Je kleiner der Formfaktor, desto geringer die Masse, entsprechend höhere Beschleunigungen und Verzögerungen verträgt das Gerät. Bei 2,5-Zoll-Laufwerken wie der Fujitsu MHV2200BT sind es üblicherweise um die 900 G im ausgeschalteten Zustand. Desktop-Laufwerke vertragen nur rund 250 G. Ein Freibrief für sorglosen Umgang ist aber selbst der höchste Beschleunigungs-Wert nicht. 900 G können zum Beispiel schon dann auftreten, wenn man die Festplatte aufrecht auf den Tisch stellt und umkippt. Behandeln Sie Ihre Festplatte daher möglich sorgsam. Nur bei einem Flashspeicher muss man sich keine Sorgen um die gespeicherten Daten machen, wenn das Gerät vom Tisch fällt.
100 000 Festplatten im Test
Wann erliegen Festplatten tatsächlich einem Defekt und was sind die Ursachen dafür? Um das herauszufinden, haben Mitarbeiter des Google-Konzerns die SMART-Werte von mehr als 100 000 Laufwerken ausgewertet, die beim Suchmaschinenprimus seit bis zu für Jahren im Dauereinsetz sind. Smart (Self Analysis And Reporting Technology) ist eine Selbstdiagnosefunktion, die unter anderem Lesefehler, die Anzahl der Betriebsstunden und die Start-Stop-Zyklen einer Festplatte protokolliert. Alle aktuellen Parallel- und Serial-ATA-Laufwerke sind mit dieser Technologie ausgestattet.
Es lohnt sich durchaus, häufig die Smart-Werte der Festplatte zu checken beispielsweise mit einem Tool wie HDTune. Denn Laufwerke, die das erste Mal einen Scanfehler über Smart melden, fallen innerhalb der nächsten 60 Tage 39-mal so häufig aus wie ihre intakten Kollegen. Der Festplatten-Gesundheitscheck ist aber keine Allzweckwaffe: Bei immerhin 36 Prozent der ausgefallenen Festplatten meldete Smart keinen Defekt.
Entweder sofort oder sehr spät defekt
Wer wichtige Daten auf Festplatte sichert, wird zwangsläufig alle paar Jahre auf ein neues Modell migrieren. Zum einen, weil mehr Speicherplatz gefordert ist. Zum anderen nimmt die Lebenserwartung eines Laufwerks deutlich ab, wenn die 5-Jahres-Grenze beziehungsweise 60 Monate Garantiefrist überschritten ist. Erfahrungsberichte vieler Anwender zeigen aber auch: Viele Festplatten erliegen bereits wenige Tage bis Wochen nach dem Kauf einem Defekt. Das bestätigt sich mit der Google-Studie: Die Wahrscheinlichkeit eines Defekts ist bei frischen Laufwerken und Geräten, die schon fünf Jahre und länger laufen, am höchsten. Neugeräte bleiben auf der Strecke, weil sich mögliche Produktionsfehler während der »Burn-in«-Phase offenbaren.
Burn-in-Test für neue Hardware
Um sicherzugehen, dass Ihre neue Festplatte frei von Kinderkrankheiten ist, sollten Sie das Laufwerk einem
Härtetest unterziehen. Gut dafür geeignet ist das kostenlose Tool SiSoft Sandra XI Lite, das einen speziellen Burn-in-Test anbietet. Dabei werden ausgewählte Systemkomponenten, darunter die Festplatte, fortlaufend und stark durch Benchmarks belastet. Je länger der Stresstest dauert, desto höher ist die Beanspruchung der Hardware, aber desto leichter lassen sich auch fehlerhafte Laufwerke ausmachen.
Festplatten-Oldies zwingen weniger Produktionsfehlern, sondern schlicht die Materialermüdung in den digitalen Ruhestand. Nach spätestens zehn Jahren ist endgültig Schluss: Etwa zu diesem Zeitpunkt ist die Flüssigkeit des Festplattenlagers restlos verdunstet. Ist das Laufwerk erst einmal in diesem Zustand, kommt man nur noch mit professioneller Hilfe von Datenrettungslabors an seine Daten.
Tipp: Wer wichtige Daten auf seine Festplatte speichert und sie anschließend ins Regal stellt, sollte sie nach maximal einem Jahr wieder anschließen. Je länger das Laufwerk ungenutzt herumliegt, desto größer die Gefahr, dass die Lagerflüssigkeit aushärtet.
Ausfallsicherer mit hoher MTBF-Zahl
Geht es darum, die Fehleranfälligkeit von Festplatten zu verdeutlichen, wird gerne der MTBF-Wert herangezogen (Mean Time Between Failures). Dieser taucht üblicherweise im Datenblatt einer Festplatte auf und gibt an, nach welchem Zeitraum statistisch gesehen ein Lesefehler auftritt. Achten Sie beim Kauf einer Festplatte daher auf einen möglichst hohen MTBF-Wert: Je höher, desto ausfallsicherer läuft das Gerät. 2,5-Zoll-Laufwerke kommen üblicherweise auf rund 300 000 Stunden, SCSI-Festplatten und für Dauerbetrieb ausgelegte Desktop-Laufwerke beziffern Hersteller mit 1,2 Millionen Stunden. Rechnet man nach, müsste ein Defekt also erst nach etwas mehr als 138 Jahren auftreten. MTBF bezieht sich allerdings auf eine ganze Laufwerkscharge. Anschaulicher und deshalb immer häufiger in den Datenblättern angegeben ist der AFR-Wert. Dieser gibt an, welcher Prozentsatz einer produzierten Menge an Festplatten innerhalb eines Jahres ausfällt je niedriger, desto besser.
Fazit: Sicher für einige Jahre
Schnell, preiswert und sicher: Festplatten speichern ihre Daten für etwa fünf Jahre unfallfrei im passenden RAID-Verbund lässt sich die Ausfallsicherheit noch erhöhen. Wer das Risiko eines Defekts minimieren will, greift zu einem 3,5-Zoll-Laufwerk: Festplatten in dieser Klasse bieten mit 1,2 Millionen Stunden die höchsten MTBF-Werte und sind damit am ausfallsichersten. Üblicherweise sind das Laufwerke, die für den Dauerbetrieb ausgelegt sind, beispielsweise Hitachi Deskstar E7K500 oder Seagate Barracuda 7200.10. Laufwerke mit kleineren Formfaktoren wie 2,5 Zoll kommen nur auf MTBF-Werte von etwa 300 000 und sind daher weniger zuverlässig als die 3,5-Zoll-Kollegen.
Festplatten bieten zudem nicht nur wesentlich mehr Speicherplatz als CDs, DVDs oder Flashspeicher, sondern sind auch wesentlich flotter beim Datentransfer. Trotz der gebotenen Leistung gibt es die Laufwerke für wenig Geld 1 GByte Speicher ist umgerechnet schon für weniger als 30 Cent zu haben.
Persönliches sicher speichern: Flashspeicher
Nur Steintafeln halten ewig
Flash-Speicher sind deutlich unempfindlicher als Festplatten, da sie ohne bewegliche Bauteile auskommen. Wegen ihrer geringen Masse überstehen sie auch grobe Behandlungen schadlos. Zudem widersteht Flash großer Hitze und arbeitet ebenso lautlos wie energiesparend.
Lebenserwartung zehn Jahre
Bei der Langlebigkeit von Flashspeichern sind die Erfahrungen auf Anwenderseite durchwegs positiv. Auch die PCpro-Redaktion setzt viele USB-Sticks ein für schnellen, weil unkomplizierten Datentransport, in der U3-Variante als mobiles Büro, aber auch für Backups. Ihre Zuverlässigkeit macht die Flashspeicher dabei sehr beliebt. Ausgefallen ist bislang fast kein Stick lediglich ein Kollege berichtet von einem 64-MByte-Speicherstift, der binnen Jahresfrist kaputt ging.
Tipp: Melden Sie einen USB-Stick immer beim Betriebssystem ab, bevor sie ihn abziehen. Das schont nicht nur den Controller und sorgt für eine höhere Lebenserwartung, sondern verhindert auch Datenverlust. Das Abmelden stellt sicher, dass auch alle Informationen auf den Stick geschrieben werden.
Mit konkreten Aussagen zur Lebenserwartung ihrer Produkte tun sich die Hersteller schwer. Zwar gibt beispielsweise Kingston zehn Jahre Garantie auf seine Produkte, ebenso wie Transcend mit der Jet-Flash-Produktreihe. Die Garantie erstreckt sich jedoch nur auf die Funktionsfähigkeit des Speichers, nicht auch die Datenintegrität. Zudem ist die Langlebigkeit nicht unumstritten: Laut Transcend, mit rund 11 Prozent Marktanteil in Deutschland kein kleines Licht, gibt es kaum Rücklauf an defektem Speicher. Mit ihren Garantieangaben vertrauen die Anbieter aber auf die Schnelllebigkeit der Branche und den Preisverfall. So bleibt die Frage, ob man bei Versagen eines Flashspeichers nicht einfach zu einem noch günstigeren und mit mehr Speicherplatz ausgestatteten Produkt greift statt den Defekt zu reklamieren. Für die Langzeitarchivierung eignet sich aber ohnehin nur ein bestimmter Speichertyp.
SLC-Flash fit für Langzeitnutzung
Die beste Empfehlung für den Kauf eines Flashspeichers, der möglichst lange durchhalten soll, lautet: Greifen Sie zu Produkten, die SLC-Chips einsetzen (Single Level Cell). Diese halten durchschnittlich 100 000 Schreib-Lösch-Zyklen pro Speicherzelle aus. Integrierte Controllerchips erkennen zudem, wann ein Speicherblock defekt ist und markieren ihn entsprechend genutzt wird er anschließend nicht mehr. Benachbarte Zellen beeinträchtigt das nicht. Dadurch erhöht sich die Anzahl der Schreib-Lösch-Zyklen auf 3 bis 4 Millionen. Mancher Anbieter will unter Laborbedingungen sogar schon welche in zweistelligen Millionenhöhe erreicht haben.
MLC-Speicher haben anders als SLC-Chips eine deutlich geringere Lebenserwartung. Hier kommt man mit Controller-Logik nur auf rund 300 000 bis 600 000 Schreib-Lösch-Zyklen pro Speicherzelle.
Tipp: Erkundigen Sie sich vor dem Kauf unbedingt nach dem Typ des Flashspeichers. Auf den Webseiten der Flash-Anbieter findet man oft allerlei Produkt-Spezifikationen, im seltensten Fall aber auch den Speichertyp. Hier heißt es im Zweifelsfall nachfragen.
Fazit: Robuster Speicher mit Potenzial
Mit ihrer Unempfindlichkeit gegen mechanische Beschädigungen und die große Zahl an Schreib-Lösch-Zyklen sind Flashspeicher empfehlenswerter als CDs oder DVDs. Noch sind die Kapazitäten aber zu gering und die Preise zu hoch, um die Festplatte als Backupmedium abzulösen.
Backups im Unternehmen: Einleitung
Nur Steintafeln halten ewig
Wer viele Daten hortet, will eines ganz bestimmt nicht: Alles durch einen Gerätedefekt verlieren. Dem sollen sichere RAID-Systeme, Streamer und sogar Online-Backups abhelfen.
Geht es um zuverlässige Backup-Speicher, sind Festplatten für Heimanwender die erste Wahl. Aber auch Unternehmen setzen neben zuverlässigen Bandspeichern (Streamer und Tapes) zunehmend auf die schnellen Laufwerke. Immer öfter kommen dabei S-ATA- statt SCSI-Geräte zum Einsatz.
Auf die Frage, ob Festplatten langfristig Streamer obsolet machen, halten Hersteller wie HP, Quantum oder Tandberg aber dagegen, dass je nach Aufgabe oder Backup-Szenario nach wie vor kein Weg am erprobten Tape vorbeiführt.
Wer es sich ganz bequem machen will, legt die Verantwortung für Datensicherung in fremde Hände. Genauer, in die Hände von Profis, die Online-Backup-Dienste betreiben.
Backups im Unternehmen: Server-Festplatten
Nur Steintafeln halten ewig
Fileserver setzten lange Zeit ausschließlich auf die Schnittstelle Ultra 320 SCSI. Das bewährte SCSI ist schnell und gilt bei vielen Unternehmen noch als die zuverlässigste Lösung für den Dauerbetrieb. Doch sowohl bei Lebenserwartung und Geschwindigkeit nehmen sich SCSI-Laufwerke und »normale« Festplatten mittlerweile wenig.
S-ATA 2 schickt SCSI in Rente
S-ATA-2-Systeme bieten mittlerweile die gleiche Performance und Zuverlässigkeit wie SCSI-Arrays, sind aber deutlich günstiger.
Wirft man bei Festplatten-Herstellern einen Blick auf die AFR-Werte ihrer Produkte, zeigt sich Erstaunliches. Die AFR (Annualized Failure Rate) ist der reziproke Wert der MTBF (Mean Time Between Failures) und gibt an, welcher Anteil einer Laufwerkscharge pro Jahr ausfällt. Je niedriger dieser Wert, desto zuverlässiger die Festplatte. Beispielsweise kommt die SCSI-Laufwerksreihe Seagate Cheetah 15K.5 auf eine AFR-Zahl von 0,62. Die auf S-ATA-2 basierende Desktop-Reihe Barracuda 7200.10 stuft der Hersteller mit einem Wert von 0,34 sogar als zuverlässiger ein. Noch größer ist der Unterschied beim Preis: Die 150-GByte-Version des SCSI-Laufwerks kostet allerdings 600 Euro, während es die gleiche S-ATA-Festplatte für ein Zehntel dieses Preises gibt.
SCSI nur in Ausnahmefällen sinnvoll
In Zeiten schrumpfender IT-Budgets hat die SCSI-Technik einen wesentlichen Nachteil: Sie ist für viele Anwendungsgebiete schlicht zu teuer. SCSI lohnt sich auch nur dann, wenn man die Performance beispielsweise mit einer Oracle-Datenbank ausreizt. Für einen Fileserver mit überschaubaren Benutzerzahlen reicht S-ATA-2 allemal. Zwei SCSI-Festplatten, etwa die erwähnte Cheetah 15K.5 mit zusammen 300 GByte Speicherplatz kosten rund 1300 Euro. Für das gleiche Geld bekommt man aber schon ein komplettes RAID-System mit acht S-ATA-2-Festplatten inklusive Controller.
Technisch auf gleicher Höhe
S-ATA-2 bietet eine Übertragungsrate von rund 300 MByte/s und ist damit nur unwesentlich langsamer als SCSI mit 320 MByte/s. Zum Vergleich: Der schnellste P-ATA/IDE-Standard bot nur 133 MByte/s und die erste S-ATA-Generation war mit 150 MByte/s auch nicht gerade ein Rennpferd. Erst mit S-ATA-2 ist die serielle Schnittstelle also auch für RAID-Systeme schnell genug. Hot Plugging wird ebenfalls unterstützt, somit lassen sich in RAID-Arrays ausgefallene Festplatten während des Betriebs tauschen. Aktuelle S-ATA-2-Festplatten beherrschen sogar Funktionen wie Native Command Queuing (NCQ). Eine ähnliche Technik setzt SCSI schon seit Jahren erfolgreich ein. Bei NCQ werden eingehende Befehle in eine Warteschlange gestellt, sortiert und in optimierter Reihenfolge abgearbeitet. Das bringt dann einen Performanceschub, wenn viele Benutzer gleichzeitig auf den Server zugreifen, weil die Leseköpfe der Festplatten nicht unnötig hin- und herfahren.
RAID 5 ist die erste Wahl
Mit empfehlenswerten RAID-Controllern wie Areca ARC-1120 oder Promise FastTrak SX8300 lassen sich bis zu acht S-ATA-2-Festplatten im Verbund betreiben. Ein Katastrophe wäre da ein Festplattendefekt, der alles vernichtet. Schutz davor bieten redundante RAID-Arrays. Sie fassen nicht nur mehrere Festplatten zu einem logischen Laufwerk zusammen, sondern speichern je nach RAID-Variante noch redundante Daten. Für den Einsatz im Fileserver ist RAID 5 momentan noch erste Wahl. Die Daten werden zwar ähnlich wie bei RAID 0 per Data-Striping auf verschiedene Festplatten verteilt, dabei werden aber auch redundante Informationen gespeichert. Der Ausfall einer Festplatte ist unkritisch, erst wenn sich eine zweite verabschiedet, sind die Daten futsch.
Fazit: Als Backup-Medium ideal
S-ATA-2-Festplatten arbeiten mittlerweile so sicher wie ihre SCSI-Pendants, und das zu einem Bruchteil der Kosten. Ein auf redundantes Speichern getrimmtes RAID-System ist eine durchaus sichere Bank. In punkto Skalierbarkeit und Archivierung hapert es dagegen. Tapes halten nicht nur länger, sondern sind obendrein auch preiswerter.
Backups im Unternehmen: Streamer
Nur Steintafeln halten ewig
Trotz wachsender Beliebtheit von RAID-Systemen auf S-ATA-Basis sind Bänder nach wie vor das am häufigsten eingesetzte Sicherungsmedium. Das kommt nicht von ungefähr, denn sie sind langlebig und ausfallsicher. Aktuelle Streamer wie der Quantum DLT-S4 kommen auf einen Datendurchsatz von rund 60 MByte/s. Das passende 800-GByte-Tape ist bei diesem Tempo nach rund drei Stunden gefüllt und schon für rund 90 Euro zu haben. Umgerechnet sind das nur 11 Cent pro GByte, deutlich preiswerter als bei Festplatten, die im günstigsten Fall auf 30 Cent pro GByte kommen.
Die Vorteile von tape-basierten Backup-Systemen erstrecken sich nicht nur auf den niedrigen Gigabyte-Preis. Während sich ein RAID-System nur bedingt skalieren lässt, kann man die Streamer-Kapazität durch weitere Tapes beliebig erweitern. Zudem sind die Bänder robuster als Laufwerke und lassen sich unkompliziert transportieren. Schließlich sorgt die Trennung von Medien und Laufwerk für mehr Datensicherheit.
Günstige Tapes, teure Hardware
Richtig teuer wird es jedoch bei der Hardware: Bänder sind preiswert, die passenden Streamer gehen jedoch ins Geld. Rund 4000 Euro muss man für ein Laufwerk mit Toptechnologie wie LTO-3 (Linear Tape Open Utrium 3), SAIT1 (Super Intelligent Advanced Tape) oder DLT-S4 (Digital Linear Tape S4) schon einplanen, zum Beispiel für den Quantum DLT-S4.
Konkurrenzmodelle schonen nur dann den Geldbeutel, wenn man eine kleinere Datenmenge, zum Beispiel bis 200 GByte, sichern will und auf ältere Formate wie LTO-2, SDLT600 oder AIT-4 setzt. Die bringen zwar nicht den Datendurchsatz der aktuellen Tape-Generation. Im Normalfall spielt die Geschwindigkeit aber ohnehin nur eine untergeordnete Rolle, weil die Sicherung normalerweise über Nacht und ohne Benutzereingriffe erfolgt.
Streamer als 6-TByte-Schnäppchen
Band-Systeme, die auf ältere, aber keineswegs veraltete Technologien wie LTO-2 setzen, können sich trotz hoher Laufwerkskosten als Schnäppchen erweisen. Ein LTO-2-Bandsystem ist bei gleicher Kapazität preiswerter als ein vergleichbares S-ATA-2-System. Rund 400 Euro lassen sich beim Tape-Beispielsystem sparen.
An Bandsicherung führt kein Weg vorbei, wenn man Datenmengen größer als 6 TByte speichern will. Warum dieser Wert? Die Kapazität von Festplatten-Systemen auf RAID- und
S-ATA-2-Basis ist gegenüber den beliebig skalierbaren Tape-Systemen klar begrenzt. Aktuelle S-ATA-2-Controller wie der Areca ARC-1120 nehmen maximal acht Laufwerke auf. Das Ende der Fahnenstange markieren derzeit 750-GByte-Festplatten bis zu 6 TByte lassen sich damit speichern.
20 000 statt 1 Million Lese-Zyklen
Tapes setzen Festplatten eine deutlich höhere Lebenserwartung entgegen: Bei korrekter Lagerung sollen sich Bänder der Formate AIT, DLT und LTO bis zu 30 Jahre lang unbeschadet aufbewahren lassen. Festplatten behalten ihre Daten dagegen nur für etwa zehn Jahre. Eine Garantie für die Lebenserwartung seiner Tapes will allerdings kein Hersteller geben, zumal alle Versprechen einmal mehr auf Labortests und statistischen Annahmen basieren.
Auch wenn ein Band eine Lebensdauer von 30 Jahren erreichen kann, beschränkt sich seine Nutzungsdauer auf eine begrenzte Anzahl von Schreib-Lese-Zyklen. Bänder sollen bis zu einer Million Zyklen durchhalten. Tatsächlich ist ein DLT-Tape aber nur für rund 21 000 Durchläufe gut.
DLT- und LTO-Tapes speichern ihre Daten in parallel liegenden Spuren. Sobald bei der Aufzeichnung das Bandende erreicht wird, wechselt der Schreib-Lese-Kopf auf die benachbarte Spur und schreibt in entgegengesetzter Richtung weiter. Bei einem Backup ergeben sich dadurch leicht viele Durchläufe einer ist vollendet, wenn das Band von Anfang bis Ende umgespult wird. Wenn Hersteller wie Imation ihren DLT-Tapes also eine Haltbarkeit von einer Million Zyklen bescheinigen, liegt die tatsächliche Zahl weit darunter: Bei 384 Tracks und acht parallelen Spuren ergeben sich 48 Durchläufe pro Zyklus; die tatsächliche Lebensdauer sinkt von einer Million auf rund 21 000 Zyklen.
Alte Hardware fördert Verschleiß
Ein weiteres Problem: Die Schutzschicht eines Tapes wird durch Benutzung abgeschliffen. Das legt nach und nach die darunter liegende Speicherschicht frei, auf der Daten über magnetisch gepolte Metallpartikel binär kodiert sind. Ohne schützenden Überzug oxidiert die Metallschicht, das Tape »vergisst« seine Daten.
Der Verschleiß verstärkt sich, wenn die eingesetzte Server-Hardware nicht mithalten kann. Dann kommt es zum gefürchteten Stop-and-Go-Effekt, bei dem die Performance massiv einbricht. Können die Daten nicht schnell genug vom Server abgeliefert oder geholt werden, muss das Laufwerk ständig stoppen, zurückspulen, neu positionieren und dann weiter lesen oder schreiben. Das ist eine unnötige Belastungsprobe für Laufwerk und Medien. Erst bei leistungsfähiger Hardware beispielsweise einem mit 3,4 GHz getakteten Xeon-Rechner mit zwei CPUs und 4 GByte RAM tritt das Problem nicht auf.
Fazit: Erste Wahl zum Archivieren
Günstiges Verhältnis von Preis pro Gigabyte, Skalierbarkeit und Robustheit: Streamer und Tapes erreichen zwar nicht den Datendurchsatz eines RAID-Systems, eignen sich wegen ihrer physikalischen Eigenschaften aber deutlich besser für langfristiges Archivieren.
Backups im Unternehmen: Online-Backups
Nur Steintafeln halten ewig
Welche Vorteile bietet Online-Archivierung? Herkömmliche Datensicherungskonzepte sind speziell mit Bandlaufwerken sehr wartungsintensiv. Zudem fehlen gerade kleineren Firmen oft das Know-how und die Zeit für eine ordentliche Administration. Es liegt also nahe, die Sicherung komplett auszulagern. Per Online-Backup ist das besonders komfortabel. Die Haftung für wichtige Daten übernimmt der Anbieter gleich mit.
Ein Vergleichstest in PCpro-Ausgabe 4/2007 (siehe hier) zeigt, dass Firmenkunden mit Online-Backups kein größeres Risiko eingehen als mit herkömmlichen Bandlösungen. Professionell arbeitet jeder der untersuchten Anbieter. Dennoch sollte man sich im Zweifelsfall genau ansehen, ob es ein Anbieter auch wirklich ernst mit sicherer Datenspeicherung meint: Wo und mit welchen Methoden werden die Daten aufbewahrt? Und was taugt die Upload-Software?
Verantwortung auslagern
Deutlicher Pluspunkt für das Online-Backup ist die einfache Erreichbarkeit via Internet. Für Außendienstmitarbeiter macht sich das bezahlt: Sie können wichtige Daten jederzeit und unterwegs sichern. Gut ist auch die größere räumliche Trennung der Produktions- und Sicherungsdaten, was sich bei einer Sicherung in Eigenregie nicht so einfach realisieren lässt. Weiterer Vorteil: Der Provider überwacht die Durchführung des Backups. Vorteilhaft sind beim Online-Backup auch die niedrigen Einstiegskosten bei geringen Datenmengen. Erst wenn die Internet-Verbindung zusammenbricht, erweist sich die Online-Sicherung als Nachteil gegenüber Datenbeständen im eigenen Haus.
Günstig bei kleinen Datenmengen
Für Firmen mit einem überschaubaren Datenvolumen sind Online-Backups ideal. Als »preiswert« gelten in diesem Segment jedoch andere Maßstäbe als bei der Eigensicherung: Anbieter wie Arvato Online Backup übernehmen die Sicherung von 50 GByte für 145 Euro pro Monat günstiger geht es derzeit nicht. Bei größerem Datenvolumen wird es dann allerdings schnell teuer. Unverständlich, zumal es Festplatten- und Bandspeicherplatz inzwischen für wenig Geld gibt.
Der Flaschenhals beim Online-Backup ist die Internet-Anbindung zumindest theoretisch. Die Praxis zeigt, dass sich bereits mit 256 KBit/s Upload dank geeigneter Kompression rund 200 MByte pro Stunde sichern lassen. Standard-DSL-Zugänge mit 16 000 KBit/s bieten sogar Upstream-Raten von 1024 KBit/s, woraus eine Sicherungsleistung von bis zu 800 MByte pro Stunde resultiert.
Fazit: Bequem, aber noch zu teuer
Sie zahlen und der Provider übernimmt die Sicherung. Anbieter wie Web2Know nehmen das richtig ernst und lagern ihren Datenbestand in einem ehemaligen Atomschutzbunker. Und wie der Test zeigt, gibt es unter den Online-Backup-Anbietern kaum schwarze Schafe. Aber noch ist dieser Service gerade bei großen Datenmengen zu teuer.
Archivieren an Hochschulen: TU München
Nur Steintafeln halten ewig
Mit welchen Problemen eine wissenschaftliche Einrichtung beim Thema Langzeitarchivierung zu kämpfen hat und wie sie gelöst werden, zeigt sich eindrucksvoll beim Leibniz-Rechenzentrum (LRZ). Das in München ansässige LRZ ist IT-Dienstleister für alle Münchener Universitäten und kooperiert mit anderen öffentlichen Einrichtungen wie der Bayerischen Staatsbibliothek, deren Daten es zum Großteil archiviert.
Zwei Millionen Gigabyte im Archiv
Die Datenmengen, die das LRZ insgesamt verwaltet, sind gigantisch »Wir nähern uns gerade der Grenze von 2000 Terabyte, die Hälfte davon sind Archivdaten«, sagt Werner Baur, Leiter der Gruppe Datei- und Speichersysteme. DVDs kommen bei diesen Datenmengen als Speichermedium nicht in Frage. Ein kleines Rechenbeispiel zeigt, warum: Um 2000 TByte mehr als 2 Millionen GByte auf DVDs zu archivieren, müsste man fast 470 000 Medien brennen. Stattdessen setzt das LRZ auf das klassische Magnetband. Mit der modernen Bandtechnologie lassen sich bis zu 1000 GByte Daten pro Magnetband speichern.
Festplatten-Archivierung lohnt sich nicht
Theoretisch kommen zwar auch Festplatten als Datenträger in Frage. »Das ist allerdings von den Energiekosten her bei unseren Datenmengen nicht effizient genug«, gibt Baur zu bedenken. »Im Gegensatz zu Bändern muss man in Platten nicht nur Energie hineinstecken, um sie am Laufen zu halten. Man muss auch die Wärme, die dabei entsteht, wieder abführen. Wenn Sie Tausende von Festplatten betreiben, brauchen Sie dafür eine große, teure Klimaanlage«.
Daten
bewahren die Wissenschaftler am Leibniz-Rechenzentrum zehn Jahre lang auf. Dies empfehlen auch die Richtlinien der Deutschen Forschungsgemeinschaft (DFG) für wissenschaftliche Daten. Einzelne Einrichtungen müssen ihre Daten allerdings länger halten die Unikliniken beispielsweise mindestens 30 Jahre.
Automatisiert per Software-Steuerung
Die Verwaltung der Archivdaten erfolgt mit einer speziellen Software, dem Tivoli Storage Manager von IBM. Damit lassen sich individuelle Richtlinien definieren: Wie lange werden welche Daten aufbewahrt, wie viele Versionen soll es geben oder wann werden sie gelöscht. »Wir haben vorgegebene Standard-Einstellungen, etwa, dass die Daten zehn Jahre archiviert werden«, sagt Baur. »Wenn unsere Kunden andere Anforderungen haben, vereinbaren wir individuelle Regeln. Die Daten werden dann anderen Management-Klassen zugeordnet«.
Auf Nummer sicher mit Mehrfach-Backups
Um digitale Daten über Jahrzehnte hinweg zu erhalten, sieht das LRZ nur eine praktikable Lösung: Die Informationen müssen nach einigen Jahren auf neue Datenträger migriert werden. In der Regel verbleiben die Daten nicht mehr als fünf Jahre auf dem gleichen Medium.
Mit dieser Strategie schlägt das LRZ zwei Fliegen mit einer Klappe: Man senkt die Wahrscheinlichkeit, dass Daten infolge mangelnder Haltbarkeit des Datenträgers verloren gehen. Und vor allem: Man bleibt auf dem aktuellen Stand der Technik, was die Lesegeräte betrifft.
Aufbewahrt werden die Bänder in Räumen, in denen konstante Temperatur und Luftfeuchtigkeit herrschen, die mehrfach gegen alle möglichen Katastrophen abgesichert sind. Sollte es trotz aller Vorsichtsmaßnahmen doch einmal zu einer völligen Zerstörung des Rechenzentrums kommen, bleiben immer noch die Nachbarn: Die wichtigsten Daten werden an das einige hundert Meter entfernte Rechenzentrum der Max-Planck-Gesellschaft in Garching geschickt.
Archivieren an Hochschulen: analoges digitalisieren
Nur Steintafeln halten ewig
Mit der Bayerischen Staatsbibliothek führt das LRZ mehrere gemeinsame Projekte durch. In einem davon geht es um Backups des eingescannten Schriftguts. Im Rahmen eines von der DFG geförderten Projekts scannt die Bayerische Staatsbibliothek deutsche Literatur des 16. Jahrhundert ein und archiviert sie. Hierzu wurden Scan-Roboter beschafft, die im 24-Stunden-Einsatz die Buchseiten automatisch umblättern und einlesen. Die Seiten werden anschließend als Bilddaten im TIFF-Format gespeichert. TIFF nutzt man, weil es relativ weit verbreitet und zukunftssicher ist sowie eine sehr gute Farbtreue aufweist. Später sollen die TIFF-Buchseiten per OCR-Software eingelesen werden, um Textpassagen per Volltextsuche zu erreichen.
Das LRZ übernimmt den technischen Part und kümmert sich um die langfristige Archivierung der Daten. Die Schnittstelle ist als hierarchisches Filesystem realisiert. »Die Staatsbibliothek hat ein Netzlaufwerk, das mit uns verbunden ist, und speichert ihre Daten wie auf eine normale lokale Festplatte ab«, erklärt Werner Baur. »Wir übernehmen das Ganze und machen die Migration der Daten auf die Magnetbänder«.
Lösung: Formatunabhängig speichern
Mit dem Vorgehen der Staatsbibliothek, Daten als Bilddokumente einzulesen und später per OCR plattformübergreifend lesbar zu machen, ist man auf der sicheren Seite. Nur so lässt sich vermeiden, dass Dokumente irgendwann nicht mehr gelesen werden können, weil der Hersteller die Unterstützung für ein Format aufgekündigt hat.
Dennoch ist es in der Praxis meist sinnvoll, Textdokumente in dafür geeigneten Formaten zu archivieren. Hier empfiehlt sich die Beschränkung auf Standardformate. Erste Wahl sind herstellerunabhängige Standards, die von anerkannten Organisationen wie der ISO oder dem W3C spezifiziert sind, zum Beispiel ASCII, Unicode, SVG und XSL. Einige herstellerabhängige Formate haben sich als Quasi-Standards am Markt durchgesetzt wie PDF (Portable Document Format) von Adobe. Die Spezifikation ist ebenfalls frei verfügbar, steht aber unter der alleinigen Kontrolle des Eigentümers.
Sonderrolle für PDF
PDF kommt eine besondere Bedeutung bei der Archivierung zu. 2005 hat die ISO das PDF/A-Format (»A« steht für Archive) als Standard für die Langzeitarchivierung von Dokumenten zertifiziert. Seitdem wird dieses Format im Markt hoch gehandelt. Viele Hersteller sind bereits von den Vorteilen des PDF/A-Formates überzeugt und haben ihre Produktpalette entsprechend angepasst oder erweitert.
Der neue Standard PDF/A (ISO Standard 19005-1) basiert auf PDF 1.4, schließt aber einige Funktionen davon aus, da sie eine langfristige Darstellbarkeit beeinträchtigen könnten. So ist beispielsweise die Verwendung externer Ressourcen oder aber spezifischer Ressourcen wie eingebetteter Fonts nicht erlaubt. Durch diese und andere detaillierte Vorschriften soll eine langfristige Lesbarkeit der Dokumente garantiert sein und zwar unabhängig davon, mit welcher Anwendungssoftware und auf welchem Betriebssystem sie ursprünglich erstellt wurden.
Archivierungs-Projekte in aller Welt
Mittlerweile gibt es verschiedene Initiativen, die sich in Europa und den USA mit dem Thema Langzeitarchivierung digitaler Informationen beschäftigen. In Deutschland sind das neben dem LRZ und der Bayerischen Staatsbibliothek vor allem das Kompetenznetzwerk Langzeitarchivierung und Langzeitverfügbarkeit digitaler Ressourcen – kurz: Nestor – sowie das Projekt Kopal (Kooperativer Aufbau eines Langzeitarchivs digitaler Informationen).
Auch auf EU-Ebene gibt es eine Reihe von Projekten. So fördert zum Beispiel das EU-Projekt DigitalPreservationEurope (DPE) die Zusammenarbeit zwischen zahlreichen bestehenden nationalen Initiativen innerhalb von Europas Forschungslandschaft.
Tipps für die Langzeitarchivierung
Nur Steintafeln halten ewig
Backups einfach gemacht. Beherzigen Sie die folgenden Tipps, um Ihre wichtigen Daten sicher aufzubewahren.
[1] Prüfen Sie Speichermedien per Burn-in-Test auf Fehler, bevor Sie wichtige Daten darauf ablegen.
[2] Speichern Sie wichtige Daten lieber auf Festplatte statt auf CD oder DVD. In Unternehmen empfehlen sich Magnetbänder.
[3] Verwenden Sie zum Speichern auf CDs und DVDs Tools wie DVDisaster, die zusätzliche Fehlerkorrekturdaten ablegen.
[4] Grundsätzlich sollte das Backup regelmäßig aktualisiert und geprüft werden.
[5] Redundanz schafft mehr Sicherheit: Legen Sie Archive mindestens doppelt an.
[6] Das Backup sollte man räumlich getrennt vom Original aufbewahren. Lagern Sie das Backup schonend und an einem sicheren Ort.
[7] Alle drei bis fünf Jahre sollte der Anwender das komplette Archiv samt Backup vom alten Datenträger auf einen neuen migrieren.
[8] Im professionellen Bereich bieten sich zur Verwaltung des Archivs Dokumentenmanagementsysteme oder Online-Backups an.
[9] Verwenden Sie möglichst wenige Datenformate und möglichst solche, die offen und standardisiert sind. Also statt doc, xls oder bmp besser das OpenDocument-Format (ODF), PDF oder TIFF.
[10] Halten Sie sich bei der Vergabe von
Dateinamen an den 8.3-Standard: Acht für den Namen, drei für den Dateityp, etwa: beispiel.pdf