Ansichten eines Informatikers

Peak Computer überschritten?

Hadmut
23.2.2026 2:00

Ich will mal eine Frage in den Raum stellen: Ist das Ende der Computerisierung erreicht und die Zeit des Computers überschritten?

Könnte es sein, dass die Computerisierung und die Digitalisierung eine Illusion sind, die gerade anfängt zu platzen?

In den USA und teils auch in Asien bauen sie gerade KI-Zentren wie die Bekloppten. Speicher, Flash, Festplatten werden absurd teuer, weil der Markt leergekauft ist, und die Firmen stecken zwei- und dreistellige Milliardenbeträge in KI-Zentren, weil diese die schöne neue Welt verheißen.

Schon jetzt wissen sie nicht, woher der Strom dafür kommen soll.

Aber selbst wenn sie Strom hätten: Wer soll das bezahlen? So etwas braucht ja immer, wie man das so schön nennt, einen „Business Case“. Ein Geschäftsmodell, bei dem mehr reinkommt, als man selbst ausgegeben hat. Wo aber soll so irrsinnig viel Geld herkommen? Den ersten Leuten geht der KI-Kram schon gewaltig auf die Nerven, ChatGPT verliert Kunden, und die Qualität ist doch oft sehr dürftig.

Wer soll das Zeug eigentlich alles warten und pflegen? Die „Fachkräfte“?

Viele sagen, das wäre gar nicht nötig, die KI könne sich schließlich selbst warten. Wunschdenken. Und wenn nicht?

Was ist, wenn die KI degeneriert? KI-Systeme sind ja schon zu Verbrechern geworden und wollten Mörder werden. Was, wenn die uns attackieren oder sich selbst umlegen? Dabei wissen sie nicht einmal, ob das gut oder schlecht ist, weil sie nur über Sprachstatistiken arbeiten und einfach nachahmen.

Viele sagen, wir bräuchten gar nicht mehr zu studieren, keine Informatik mehr zu lernen, weil die KI uns das alles abnimmt. Marxistenmärchen wie damals bei der Dampfmaschine. Dass der technische Fortschritt aber Jobs nicht einspart, sondern sie nur verändert, weil man sich weniger die Finger dreckig und den Rücken krumm macht, aber mehr lernen und mehr am Schreibtisch sitzen muss, merkt kaum jemand.

Ich merke das im Open-Source-Bereich. Viele ehemals große Produkte sind nur noch im Sozialmodus. Die Entwickler sind weg, und das Ding in besetzt und in Besitz genommen von Leuten, die zwar großen Wert auf Wokeness und Code of Conduct legen, aber nicht mehr in der Lage sind, einen Bug zu beheben, oder manchmal auch nur, ihn zu verstehen. Die betteln dann darum, dass man zum Bug Report auch gleich den Pull Request anliefert.

Das nun wieder ist höchst degenerativ, weil viele Quelltexte angeblich gerade von – teils KI-generierte – minderwertigen oder sicherheitsbrechenden Bullshit-Änderungen überflutet werden. Anscheinend sitzen da irgendwo Leute, die wie die Bekloppten KI-Systeme an Quelltexten herumstricken lassen und meinen, dadurch würde es besser, und die Code-Basis mit Änderungen fluten. Da kann auf Dauer sehr, sehr viel kaputt gehen. Und zwar irreparabel in dem Sinne, dass es nicht mehr genug Leute gibt, die genug durchblicken, um das noch in Ordnung zu bringen. Meines Erachtens nehmen die Programmierfähigkeiten gerade deutlich ab.

Die Tage las ich irgendwo einen unbestätigten Hinweis, dass man entsetzt herausgefunden habe, dass Mikroprozessoren heute nicht mehr zuverlässig richtig rechnen.

Grund sei, dass man es mit der Miniaturisierung einfach zu weit getrieben habe. Es ist nämlich ein bekannter Effekt, dass Mikrochips einer elektrischen Abnutzung unterliegen. Ich weiß nicht mehr genau, woran das lag, irgendwo stand mal, dass man herausgefunden habe, dass die Elektronen ja durchaus auch eine kinetische Energie hätten und feinste Leitungen deshalb mit der Zeit so allmählich ausbeulen und sich verbiegen. Oder vielleicht auch einfach durch den Wechsel von Erwärmung und Abkühlung. Jedenfalls verändern sich Chips bei Gebrauch. Und die seinen nun bei so kleinen Strukturen angekommen, dass die Prozessoren ab Werk noch völlig richtig rechnen, völlig in Ordnung scheinen, aber dann nach Wochen oder Monaten des Betriebs anfingen, sporadisch falsch zu rechnen. Keine Ahnung, ob es stimmt, aber vorstellen könnte ich es mir, dass es ab einer bestimmen Strukturgröße nicht mehr zuverlässig funktioniert. Es ist ja bekannt, dass moderne Prozessoren im Weltall, außerhalb unseres Erdmagnetfeldes, Probleme machen, weil sie der Strahlung im All nicht standhalten, und dass frühere Mondmissionen und Raumsonden deshalb noch so gut waren, weil sie noch die riesigen Strukturen der frühen Elektronik der 60er und 70er Jahre verwendeten.

Wenn die aber schon vor Jahren Probleme damit im All hatten, dann liegt es nahe, sie auch hier unten zu haben, denn der Unterschied ist ja auch nur quantitativ.

Am Beispiel Deutschland merkt man gerade, dass wir uns ziemlich kaputtdigitalisiert haben. Keiner blickt mehr durch, nichts passt zum anderen.

Gleichzeitig verblöden wir. Und zwar schneller, als die KI uns ersetzen kann.

Mir ging heute bei der Fehlersuche etwas durch den Kopf. Ach, wie schön und einfach war das alles noch in den 90er und 2000er Jahren. In den 90er Jahren habe ich noch praktisch das ganze SunOS gekannt und beherrscht. In den 2000er Jahren war das noch eine ziemlich einfache Sache, einen Web- oder Mailserver aufzusetzen, oder einen Desktop. Alles ziemlich stabil und robust. Hat einfach funktioniert.

Heute steckt man enorm viel Zeit in Installation und Fehlersuche, weil moderne Server wie Web- und Mailserver eine enorm komplexe und fehlerträchtige Angelegenheit geworden sind. Man ist heute viel länger damit beschäftigt, einen Web- oder Mailserver aufzusetzen als noch vor 20 Jahren.

Könnte es also sein, dass das mit den Computern nicht immer weiter bergauf geht, sondern wir davor sind, dass die Computerisierung wieder abnimmt?

Wir erleben gerade den intellektuellen Absturz unserer Gesellschaft. Was zu meiner Zeit für undenkbar gehalten wurde: Die Leute können heute kaum noch lesen und viele kaum oder nur rudimentär Deutsch. An studieren ist nicht zu denken, viele scheitern an der Grundschule.

Und diese Leute sollen mal Computer am Laufen halten, weiterentwickeln gar?

Vergiss es.

Ich hatte mal gespottet, dass Merkel die Atomkraftwerke abschalten musste, weil klar war, dass wir bald keine Leute mehr haben, die so etwas halbwegs sicher bedienen können. Wie im Film Idiocracy. Windräder können nicht viel mehr als abbrennen und/oder umfallen. Der Gefahrenradius ist ungefähr auf deren Höhe beschränkt.

Könnte es sein, dass wir in ein ähnliches Problem mit Computern laufen?

Vor Jahren schon wurde berichtet, und ähnliches hörte ich aus dem Bekanntenkreis, dass es Leute mit Abitur gibt, die sich irgendwo bewerben, und nicht wissen, was sie mit einem Computer mit Maus und Tastatur machen sollen, weil sie nur noch Wischen auf Handy und Tablet gelernt haben.

Und im Moment ist es schon schwer, Computerteile nachzukaufen. RAM ist knapp. Flash ist knapp. Festplatten werden knapp.

Mir hat heute jemand einen Link auf ein Video geschickt, in dem ein ehemaliger Südafrikaner, der von dort ausgewandert ist, anhand von alten und neuen Google-Streeview-Bildern derselben Stellen zeigt, wie das Land vergeammelt, verwahrlost, zerfällt. „Dekolonialisiert“, weil man hoffte, dass man damit zu einer kommunistischen Paradiesgesellschaft kommen würde. Das Gegenteil ist der Fall. Ein rapider Zerfall der Zivilisation, der Rücksturz in archaische Gesellschaften wie vor der Kolonialisierung.

Aber ist es mit Computern nicht ganz genauso?

Könnte es sein, dass wir nicht nur Peak Bildung, sondern auch Peak Computer überschritten haben, und das jetzt ziemlich schnell, ziemlich steil bergab geht und wir wieder in eine Gesellschaft auf dem Stand von vor 1000 oder 2000 Jahren zurückfallen?