Ansichten eines Informatikers

Magnetbandarchivierung

Hadmut
2.11.2021 13:12

Leser fragen – Danisch weiß es auch nicht.

Ein Leser fragt an:

Hallo Herr Danisch,

gerne würde ich mal Ihre Meinung dazu hören.. Seit Jahren habe ich das Problem, dass mir die Datenmengen an Fotos, Videos, Tonaufnahmen etc. über den Kopf wachsen. Besonders seit ich die Fuji XT-3 habe, bei der ich gelegentlich mal Videos mit 400 Mbps aufnehme, stapeln sich die HDDs in meinem Schutzkoffer..

Außerdem wächst die Angst, dass mal eine der HDDs den Geist aufgibt. Habe mir damals sogar die Mühe gemacht, alles doppelt auf Blu Rays zu brennen (neben der HDD). Aber das hat zu viel Zeit gefressen..

Nun habe ich vor einiger Zeit mal was von diesen Magnetbändern gehört, die wohl schon seit langer Zeit zur Archivierung im professionellen Bereich Anwendung finden. Leider gibt’s dazu nicht all zu viele Informationen. Auch Geräte sowie Speichermedien dafür werden auf Amazon nur spärlich beschrieben..

Ich hätte an eine Kombination an HDD-Archivierung (zur gelegentlichen Sichtung und Bearbeitung) und eine parallele Archivierung auf Magnetband (für größere Sichtungen nach mehrjähriger Sammlung) gedacht.

Dafür hatte ich mir folgendes Gerät ausgesucht, wobei ich weder weiß, ob damit eine Beschreibung sowie das Ablesen von Datenbändern möglich ist, noch, welche Kassetten ich dafür verwenden kann:

Vielen Dank für Ihre Zeit und die Einschätzung Ihrerseits.

Weiß ich nicht.

Ich kenne diese Dinger nicht. Was wohl daran liegt, dass es keine Bänder sind. (s.u.)

Ich habe früher sehr viel mit Backup-Bändern gemacht. Zunächst an der Uni noch mit einem von diesen uralten Bandgeräten mit den riesigen Spulen, wie man sie noch aus den alten 70er- und 80er-Jahre-Filmen als Computerdarsteller kennt. Noch so ganz urprünglich mit tar. mt und dump und restore.

Das haben wir dann ersetzt durch modernere, viel kleinere, aber teure Exabyte-Laufwerke, die man aber mit denselben Befehlen steuerte. Basierte mechanisch auf den damals üblichen digitalen Videokassetten für Camcorder.

Privat war mir das zu teuer, ich hatte damals ein noch kleineres Bandlaufwerk, das auf DAT-Kassetten beruhte (falls sich noch jemand daran erinnert: Sollte der Nachfolger der Compact-Kassette für digitale Musikaufzeichnung werden und wurde dann durch MP3-Player erledigt). Habe ich so um 2002 dann eingestampft.

Aber ehrlich gesagt, ich habe selbst in eigener Tätigkeit und unmittelbar seit 20 Jahren mit Bandlaufwerken nichts mehr zu tun, ich habe das immer nur noch Kunden und anderen gepredigt, irgendeine Form des Backups zu machen, notfalls mit Bändern. Man könnte sagen, ich habe die nicht mehr selbst benutzt, sondern benutzen lassen.

Seither sind mir im beruflichen Umfeld eigentlich nur noch die LTO-Bänder in ihren verschiedenen Versionen untergekommen, die mir – bis auf spezifische Ausnahmen, auf die ich gleich komme – auch als ziemlich zuverlässig bekannt sind.

Vor allem haben diese LTO-Bänder eine Besonderheit: Die Laufwerke sind teuer, aber die Bänder sind – im Verhältnis zu Festplatten gleicher Kapazität – relativ günstig. Man kann sich also ausrechnen, ab welcher Zahl sich das rentiert.

Die Langzeitarchivierung ist nicht ganz unproblematisch, man braucht nämlich dann immer auch passende Laufwerke. Bis zur neuesten Generation galt so eine Regel, dass Laufwerke (weiß nicht mehr genau) die letzte Version auch schreiben und die vorletzte noch lesen können. Ist nicht mehr so. Irgendwann steht man mit den Bändern da und hat kein passendes Laufwerk.

Außerdem gab es da ja neulich mal diesen Fall einer Universität, die sich ihren gesamten Storage geschrottet hat, und dachte, es wäre ja kein Problem, weil man Backup-Bänder habe. Aber nicht bedacht, dass man da irgendwie ein anderes Laufwerk verwendet hatte und das dann nun Bandsalat produzierte. Alles futsch.

Ich bin da etwas skeptisch. Keinesfalls sollte man SSDs oder sonst Flash-Speicher zur Archivierung oder als Backup verwenden, weil die davon abhängig, dass die dann und wann mal Strom bekommen und einen Refresh machen können.

Diese Tandberg QuikStor-Laufwerke kenne ich noch nicht und kann sie überhaupt nicht beurteilen.

Sie erscheinen mir aber verdächtig, weil die Laufwerke so billig und dafür dann die Bänder überteuert sind. Was, bei näherer Betrachtung, daran liegen dürfte, dass es anscheinend gar keine Bänder sind, sondern Wechselfestplatten, deren Cartridge nur wie eine Bandkassette aussieht, und dafür sauteuer sind. Anscheinend simulieren die nur ein Bandlaufwerk, um mit Software für Bandlaufwerke zu funktionieren. Über 400 Euro für 4TB finde ich derb, da müsste man erst mal begründen, was an denen so besonders sein soll.

Ich neige da eher dazu, mir ordinäre externe USB-Festplatten zu kaufen (2,5-Zoll-Laufwerke mit 5TB liegen so knapp über 100 Euro), sie einmal zu beschreiben und einzulagern, ab und zu mal kontrollzulesen. Die nämlich haben herstellerunabhängige Standardinterfaces wie USB oder intern meist SATA, die es noch über Jahre und auch von anderen Herstellern geben dürfte (Ich hatte über die letzten 20 Jahre schon dreimal den Fall, dass Platten nicht mehr lesbar waren, wobei aber nur einmal die Platte selbst kaputt war. In zwei Fällen lag es am Gehäuse und dem USB-SATA-Adapter, und die Platte konnte nach Aufbrechen des Gehäuses und Ausbau der Platte an einem gewöhnen USB-SATA-Adapter wieder normal gelesen werden.)

Generell neige ich aber dazu, das nur als second-level-Backup zu betrachten.

Eigentlich sollte man sich ein Online-Device mit viel Speicher als Spiegel bauen, je nach Vorliebe und persönlichen IT-Kenntnissen als NAS oder Server mit RAID-/ZFS, weil die Mehrzahl der Fälle, in denen man das braucht, in der Praxis nicht gleich Wohnung-abgebrannt sind, sondern versehentich gelöscht oder Lesefehler auf der Platte. Wenn man dann noch ein System hat, das „snapshots“ kann, hat man schon mal einige der Störfälle abgedeckt.

Wichtig ist dabei eine ausreichende Redudanz. Weil man bei den heutigen Plattengrößen trotz guter Fehlerwahrscheinlichkeit immer wieder mal Lesefehler bekommt. Blanke Stochastik. Deshalb halte ich es für ratsam, (spätestens) als Spiegelmedium etwas zu verwenden, was Prüfsummen und doppelte Redundanz hat, damit bei Ausfall einer Platte immer noch genug Redundanz da ist, um die auf den verbliebenen Platten hochwahrscheinlichen statistischen Lesefehler zu erkennen und auszugleichen. Gibt Leute, die schwören da auf ZFS mit RAIDZ2, also ein Dateisystem, was den Ausfall von zwei Platten verkraften (dann aber keine Lesefehler mehr korrigieren kann, weil das als Ausfall einer dritten Platte gilt) kann, also auch nach einem Defekt noch statistische Lesefehler auf einer weitere Platte ausgleichen kann. Dazu ECC-RAM, damit auch im Hauptspeicher nichts anbrennt.

Und davon kann man dann ab und zu oder regelmäßig Backups ziehen, ob nun auf externen Platten, die man auch für den Fall eines Blitzschlages galvanisch und für den Fall eines Feuers räumlich getrennt aufbewahrt, oder auf Bändern. Wenn man sich das Laufwerk leisten kann, sind LTO sicherlich eine gute Wahl, aber auch die sollte man separat lagern und für die Verfügbarkeit passender Lesegeräte sorgen. Für Firmen sollte dann auch eine Tape-Library in Betracht kommen.

Man kann es natürlich auch exotischer treiben und gleich sein Speichersystem verteilt und redundant aus mehreren Knoten aufbauen. Am besten noch skalierbar. Das ist aber dann für Privatleute nichts mehr.