Ansichten eines Informatikers

Sommerloch im Blog

Hadmut
25.8.2011 12:01

Nun fragen schon Leute an, was mit meinem Blog los wäre, ich würde ja kaum noch schreiben.

Ja, stimmt. Hat aber ganz verschiedene Gründe.

  • Es täuscht. Ich habe nur in den letzten ca. 3 Monaten besonders viel geschrieben, auch um das mal auszuprobieren. Ich kann aber nicht immer so viel Zeit aufwenden.
  • Es ist nur ein Hobby. Wie auch bei anderen Hobbys hat man mal mehr, mal weniger Lust dazu.
  • Ich hatte in letzter Zeit zu viel von der Sorte zu tun, wo man nicht aufhören möchte, sondern bis spät nachts dran hängt.
  • Man muß auch mal das Hirn lüften. Wenn man ständig viel schreibt, bekommt man mehrere qualitative Probleme. Eines ist, daß man manchmal auch einfach Mist schreibt, nur um unbewußt an die Tagesquote zu kommen, die man sich angewöhnt hat. Könnte sogar in Richtung schlechte Angewohnheit oder gar Suchtverhalten gehen, so wie manche Facebook-süchtig werden. Gibt sicher Leute, die nicht mehr davon abkönnen, jeden Tag, jede Stunde irgendwas zu bloggen. Zu denen will ich dann auch nicht gehören.

    Außerdem muß man aufpassen, daß man nicht zu sehr im eigenen Saft schmort und sich ständig wiederholt oder immer denselben Käse schreibt. Man muß sich auch mal „den Cache leeren”.

  • Es ist gerade Sommerloch und Urlaubszeit, da merkt man sehr deutlich, daß die Zahl der Kommentare und Leser runtergeht. Warum also nicht mal etwas weniger schreiben?

    Zumal mir saison-bedingt auch etwas der Input fehlt. Merkt man ja auch bei Politik und Medien, daß die im Sommerloch versuchen, jede Kleinigkeit aufzubauschen. Muß jetzt auch nicht sein.

  • Die letzten drei Tage war ich auch in großen Teilen damit beschäftigt, völlig widersinnig und mutwillig einen seit Jahren völlig stabil und zuverlässig laufenden PC auseinanderzunehmen und ihm ein neues Board, eine neue CPU, neuen Lüfter, mehr Speicher zu implantieren. Statt vor einem betagten AMD Athlon 64 mit 4GB RAM sitzte ich nun vor einem Core i7 2600K mit 16 GB RAM. Das führte natürlich dazu, daß erst mal einiges an der Software nicht ging oder geradegezogen werden muß, läuft noch nicht alles (beispielsweise kein Ton auf HDMI). Ich habe stundenlang darüber gegrübelt, ob ich mir Sorgen darüber machen muß, daß mir memtest86+ nun bei 16GB RAM 2 Bits (also 2 von 137.438.953.472 Bit) als gelegentlich fehlerhaft anmeckert, oder ob das bei so großen Speichermengen einfach unvermeidlich ist und mich eine Rückgabe des Speichers auch nicht weiterbringen oder die Sache noch verschlimmern würde.

    Es ist schon bei Festplatten so, daß die ehemals astronomisch entfernt wirkenden Fehlerquoten durchaus sehr real werden, wenn man in den Terabyte-Bereich kommt, und man bei einer normalen Fehlerquote wie in den Datenblättern von Festplatten angegeben, schon bei einer 2TB-Platte zwangsläufig Fehler hat. Deshalb habe ich meine Daten längst mehrfach gespiegelt – was bei den inzwischen schon lächerlich niedrigen Festplattenpreisen ja auch kein ernsthaftes Problem ist.

    Die Konsequenz daraus wäre, auch den – ebenfalls lächerlich billigen, 16GB habe ich für 80 Euro gekauft – Hauptspeicher redundant auszulegen. Was man gelegentlich ja sogar macht, mein HP-Mini-Server frißt nämlich den elitären ECC-RAM. Mein PC-Board nicht. Im Gegensatz zur Festplatte gibt es bei normalem ECC-freiem Speicher auch nicht drei Zustände (0, 1, Fehler) sondern nur 0 und 1. Wenn also von zwei Speicherriegeln einer 0 und einer 1 meldet, weiß man noch nicht, was richtig wäre.

    Ich war ja kürzlich mal beim Münchner Filmfest auf Veranstaltungen zum digitalen Filmen. Auch die haben darüber diskutiert, daß man bei den riesigen Datenmengen, die dabei anfallen, es nicht dabei belassen darf, Dateien einfach umzukopieren, sondern jeden Kopiervorgang durch mehrfaches Lesen und Prüfsummenbildung nochmal verifizieren muß.

    An sowas wird man sich gewöhnen müssen. Denn gegen Fehler im RAM helfen mir auch meine Spiegelplatten nichts, denn wenn Daten aus dem Hauptspeicher falsch rausgeschrieben werden oder die Software für das Dateisystem Bit-Krätze bekommt, stehen die Daten auf beiden Platten falsch. Spiegelplatten sind Redundanz auf den unteren Schichten, und man braucht bei diesen Datenmengen daher notwendigerweise auch zusätzlich Redundanz auf den oberen Schichten, etwa so ab 4 aufwärts.

    Und über solchen Gedanken und Problemen vergißt man manchmal auch das Bloggen – was hiermit ja nachgeholt wäre.

7 Kommentare (RSS-Feed)

HF
25.8.2011 15:32
Kommentarlink

Zum Ausgleich sind Deine Beiträge ziemlich lang.
Aber nicht langweilig!

Ich hatte mal ( lange her ) ein ext2-FS zu reparieren,
bei dem alle paar tausend Zeichen ein “A”,
und nur ein “A”, zu einem “@” mutierte.
Komischerweise waren die Metadaten dabei völlig in Ordnung,
der Fehler trat nur in großen Textdateien auf. Grübel.


yasar
25.8.2011 20:48
Kommentarlink

Wer macht den auch sowas, einen funktionierenden Rechner auseinandernehmen, nur um sich hinterher mit dem Zeug rumzuärgern. 😉

Ich bin damit ein paar mal auf die Schnauze gefallen und seitdem stelle ich den komplett neuen Rechner nebendran, teste den, ob er stabil läuft und mit der “alten Software” geht, bevor ich den “alten” Rechner abschalte.Erspart manches Kopfweh.


John
27.8.2011 1:12
Kommentarlink

Schreibt spiegeln nicht den gleichen Schrott auf beide Datenträger?


Hadmut
27.8.2011 11:34
Kommentarlink

@John: Doch, Spiegeln schreibt den gleichen Schrott auf beide Datenträger – deshalb nennt man es ja so. Aber nur, solange die Datenträger selbst in Ordnung sind, denn es ist ja nur eine Sicherung gegen defekte Datenträger, nicht gegen Schrott-Schreiben.

Es ist aber nunmal so, daß Datenträger – RAM wie Festplatten – eine gewisse Fehlerquote haben, die in den letzten Jahren nicht wesentlich besser geworden ist (wohl auch, weil man sie sowieso nicht konkret bestimmen kann, obwohl mir aufgefallen ist, daß ich früher 1 bis 2 defekte Festplatten pro Jahr privat, im Institut entsprechend mehr, hatte, mir das nun aber schon lange nicht mehr passiert ist). Gleichzeitig steigt aber die Größe erheblich, womit auch die Wahrscheinlichkeit steigt, daß es einen erwischt. Weil gleichzeitig die Preise fallen, wäre es sträflich, nicht zu spiegeln.


John
27.8.2011 1:16
Kommentarlink

Ich hatte auch schon Spaß bei der Neuinstallation nach einem Festplattentausch.

Das System beschloss einfach, sich nicht mehr korrekt installieren zu lassen (Online-Update-Treiber-Mist). Selbst mit einer neueren Version ging nichts mehr.

Letztendlich hab ich schweren Herzens das Altsystem auf die neue Platte gespiegelt.


John
28.8.2011 0:04
Kommentarlink

Die einzige Möglichkeit sich auf Windows Systemen gegen defekte Festplatten abzusichern, wäre wohl ein HBA + ein Storage, welches die Integrietät der Daten Blockweise sicherstellt + entsprechendes Backup-System.

Dazu noch Fehlerkorrektur im RAM. Schon hat man zumindest (die kritischeren?
) paar Punkte ausgemerzt.

Ich muss mich mal näher mit Fehler bei Festplatten auseinandersetzen.

Hatte nicht ZFS das Ziel, Schrott auf HDDs entgegenzuwirken?


yasar
30.8.2011 9:28
Kommentarlink

Apropos Fehler bei Festplatten:

Mir kommen in letzter Zeit verstärkt festplatten unter (>500GB), bei denen Windows nicht mehr bootet. -> Bluescreen mit irgendwelchen nichtssagenden Fehlercodes.

Im Endeffekt ist es nur ein Lesefehler auf Dateien die Windows nur einmal schreibt, und dann nie mehr verändert, d.h. nur noch liest.

Ich habe festgestellt, daß die Platten bei einem Nur-Lese-Test, z.B. Backup mit dd_rescue den Sektor immer fehlerhaft lesen.

Wenn man dann aber eine Festplattentool vom Hersteller drüberlaufen läßt, der einen Schreib-und-Lese-Test macht, dann werden die Sektoren anscheinend realloziiert und dann die Platte als “fehlerfrei” meldet. S.M.A.R.T. sagt dann auch, die Platte wäre in Ordnung. Der Lesefehler ist zwar dokumentiert, aber weil der “defekte” Sektor weit unter dem limit der maximal “erlaubten” defakten Sektoren liegt, wird die Platte als “gut” eingestuft.

Mit Herstellern/Distributoren habe ich da verschiedene Erfahrungen gemacht. Manche akzeptieren so eine Platte zum Austausch ohne Probleme, auch wenn S.M.A.R.T. sagt, “Alles o.k.”. Andere wiederum zicken herum.

Ich war immer der Ansicht, daß die Firmwares der Festplatten normalerweise bei den ersten (korrigierbaren) Lesefehlern automatisch die Sektoren realloziieren, oder zumindest wieder neu schreiben, um die Magnetisierung aufzufrischen. Das schein tnicht mehr so zu sein.

Ich wünscte mir, man könnte wie früher bei MFM/RLL-Platten zumindest auf die badblocks-liste der Festplatte zugreifen, um selbst rechtzeitig Maßnahmen treffen zu können.

Ach ja: Ein Aspekt der Geschichte, daß die Speichermedien von heute angeblich fehlerfrei sind, ist, daß die meisten Betriebssystem keinen oder fast keinen Code mehr haben, der mit fehlerhaften Medien sinnvoll umgehen kann. Da wurde früher einfach die badblocksliste um Einträge ergänzt und die Daten auf einen anderen Sektor geschrieben. Heutzutage bekommt man stattdessen bluescreens und core-dumps.