Ansichten eines Informatikers

Einführung in die Binärzahlen

Hadmut
22.7.2020 22:48

Ein Einblick in die Welt der Informatik.

Viele denken ja, Informatik beruhe auf Nullen und Einsen.

Das stimmt nur zu einem zwar wichtigen, aber doch kleinen Teil. Es ist ein Trugschluss zu glauben, dass die Informatik darauf angewiesen wäre oder darauf beruhe. Nullen und Einsen, genauer Systeme mit zwei Werten – Null und Eins ist bereits eine Zuordnung von Zahlen zu Zeichen, weshalb man eigentlich O und L statt 0 und 1 schreibt, wenn man den technischen Aspekt betrachtet, haben sich einfach nur als ein besonders günstiges, logisch eindeutiges und technisch robust zu bauendes System erwiesen. Drei- oder mehrwertige Logiken sind eine schon komplexe und schwierig umzusetzende Sache, und dreiwertige analoge Systeme sind sehr stabil. Zweiwertige sind eindeutig und selbstabilisierend, deshalb lassen sich Flipflops, Speicherzellen, logische Schaltkreise lassen sich einfacher und effektiver herstellen, wenn ein Zustand entweder am oberen oder unteren Ende des Spannungspegels stabil anliegt und alle Werte dazwischen als unzulässig gelten.

Gängig, aber etwas unkorrekt ist der Begriff der Binärzahl. Binär meint alles, was aus zweiwertigen Symbolen dargestellt ist. Stellt man Zahlen aber gestaffelt nach Potenzen einer Basis dar, redet man eigentlich von Dezimal- (10), Hexadezimal- (16), Oktal- (8) oder eben Dualzahlen (2), wobei Informatiker die Dual-, Oktal- und Hexadezimalzahlen so lieben, weil man damit direkt und ohne große Umrechnerei die technischen binären Zustände und Zahlenwerte darstellen kann. Erschwert wird das etwas dadurch, dass in der Informatik englische Begriffe üblich sind, man im Englischen aber nicht so trennscharf unterscheidet. Im Englischen verwenden sie zwar auch decimal, hexadecimal, octal, aber nicht dual, sondern binary numbers. Wobei sie sowas wie dual als Begriff zwar haben, es aber eher umgekehrt gebrauchen, nämlich als doppelt, und dual numbers wieder was anderes sind. Im Deutschen gibt es die dann auch, was die Sache noch unübersichtlicher macht.

Wobei es, und darauf habe ich zu meiner Uni-Zeit immer großen Wert gelegt, eigentlich falsch ist, von einer Dezimal- oder Binär- oder Hexadezimalzahl zu sprechen. Genau genommen gibt es die gar nicht. Eine Zahl ist eine Zahl und hat nichts mit einer Zahlenbasis zu tun. Erst eine Zahlendarstellung findet in einem System und damit zu einer Basis (oder eben auch nicht, vergleiche römische Zahlen) statt. Es gibt also keine Dezimalzahlen, sondern nur die Darstellung von Zahlen im Dezimalsystem, um genau zu sein. 25 bleibt in jedem Zahlensystem die 25, aber ich brauche hier eine Darstellung aus irgendeinem System, um die Zahl hier überhaupt hinschreiben zu können. Ich könnte die Zahl 25 oder jede beliebige andere hier nicht hinschreiben, ohne eine Notation, eine Zahlendarstellung in einem zwischen dem Leser und mir vereinbarten Darstellungssystem zu haben. Oder eine Maschine beizubringen, damit zu rechnen. Deshalb verwendet man Dezimalzahlen in der Informatik eigentlich auch nur dann, wenn man Zahlen für Menschen darstellen will.

Was soll jetzt das Geschwurbel, wird der Leser fragen.

Nun, ich möchte den Leser einfach mental vorbereiten auf die geballte Last, die ich ihm aufbürde mit einem Video zur Einführung in die Binärzahlen, die Welt der Nullen und Einsen, auf das mich ein Leser aufmerksam gemacht wird. Es liefert dem Leser – oder dann Zuschauer – einen Einblick in die moderne Informatik.