Hadmut Danisch

Ansichten eines Informatikers

Vom Verfall der Informationstechnik

Hadmut
28.6.2020 11:51

Die Digitialisierung wird in nicht allzu ferner Zukunft in sich zusammenstürzen.

Alle schreien sie „Digitalisierung” und „Internet”.

Das aber wird es nicht mehr lange geben. Es war ein Projekt des Weißen Mannes, und den schafft man gerade ab.

Am deutlichsten merke ich das gerade an Ubuntu 20.04. Eigentlich ist das normal, dass eine neue Version, vor allem eine größere Zwischenversion (LTS), die ein paar Jahre halten soll, anfangs ein paar Macken hat, die die Beta-Phase überlebt haben, und die man dann bis zur .1-Version behebt. Aber ich kann mich nicht erinnern (und ich benutze Ubuntu von Anfang an und vorher Debian), jemals eine so schlampige, fehlerstrotzende Version erlebt zu haben. Viele inkompatiblitäten, Fehler, Eigenschaften, die nicht produktiv-fähig sind. Das hat mich in den letzten Wochen (und schon bei 19.10) viel Zeit gekostet, Fehler einzugrenzen, Workarounds zu finden, bug reports zu schreiben und so weiter. Man hat aber auch nur noch selten den Eindruck, dass bug reports noch irgendwen interessieren. Und auch bei Design-Entscheidungen interessiert sich fast niemand mehr für Anforderungen.

Beispiel: Ubuntu stellt immer mehr Software vom alten Debian-Paket-Format (deb) auf deren snap-Format um, das zwar seine Vorteile hat, aber auch nicht unproblematisch ist, zumal man keine anderen Softwarequellen angeben kann und es oft keine Möglichkeit gibt, Bugs zu melden. Es funktioniert auch nicht alles fehlerfrei. Während man bei den normalen debian-Pakete einstellen kann, ob das System automatisch aktualisieren, nur hinweisen oder gar nichts von selbst machen soll, aktualisieren sich die snaps zwangsweise, standardmäßig täglich. Man kann das nur kurzzeitig, temporär unterbrechen (und selbst das ist nicht ordentlich dokumentiert). Das ist von Übel, weil die Snaps in manchen Fällen durchaus in die Größe eines GB kommen können. snap unterstützt aber (meines Wissens) nicht die Verwendung eines Proxy als Cache. Das heißt, wenn da eine neue Release rauskommt, lädt jeder Rechner für sich gnadenlos ein GB runter. Ob man da gerade in einer Videokonferenz steckt, im Hotel auf WLAN steckt, per Handy oder im Auslandsroaming unterwegs ist, interessiert die nicht. Theoretisch gibt es tief in den Geheimnissen des Network-Managers die Möglichkeit, eine Verbindung auf „metered” (Abrechnung nach Volumen) zu stellen, nur ist das weder dokumentiert, noch war es – bis kürzlich, jetzt sehe ich das – in der GUI als Option zugänglich. Und ich kenne bisher außer mir selbst und zwei, drei Entwicklern niemanden, der davon überhaupt weiß und den Zusammenhang kennt. Das kann besonders auf Reisen zur (Finanz-)katastrophe werden, etwa wenn man im Flugzeug sitzt und dort für teuer Geld Mail lesen will, oder damit irgendeinen kleinen Hotelbetreiber ruiniert, der pro Volumen zahlen muss und das seinen Gästen gratis anbietet. Ich hatte das mal als Bug gemeldet – interessiert die nicht. Aus Sicherheitsgründen müssten die Anwendungen immer aktuell sein (was nicht stimmt, wenn es kein Server ist und man nur lokal eigene Dateien mit irgendwas bearbeitet oder die Software schlicht nicht benutzt). Basta. Da sitzen irgendwelche Sesselfurzer in Firmen oder Wohngegenden mit Gigabit-Anbindungen und können sich nicht vorstellen, dass es Leute gibt, die das nicht haben. Hier in Berlin habe ich das, aber ich habe Freunde, die auf dem Land wohnen, bei denen die Telefonverbindung abbricht, wenn sie während des Telefonats eine E-Mail runterladen.

Noch ein Beispiel: Ich habe 2014 (!) einen Bug gemeldet. Wenn man einen server per WebDav einbindet, legt der client dafür ein Verzeichnis unter /var/cache/davfs/URL an, wobei URL eben der URL ist, unter dem das liegt. Ist der URL aber länger als die maximale Länge von Dateinamen des jeweiligen Dateisystems, kann man das nicht einbinden. Ich hatte damals das Problem, auf einen Sharepoint-Server zugreifen zu müssen, wo die URLs sehr lang werden, und es ging mit Ubuntu schlicht nicht.

Diese Woche, 6 Jahre später, wird der Bug geschlossen. Begründung: Upstream (also da, wo die Software selbst geschrieben und verwaltet wird) habe ich seiner gemeldet, der dasselbe Problem hatte. Der aber schrieb, er habe das Problem lösen können, weil dort der Webserver von seinem Kumpel betrieben wurde und er dem sagen konnte „mach mal den URL kürzer”. Also entschied man, dass ein workaround gefunden sei, und man den Bug schließen könne.

Woodrow Shen (woodrow-shen) wrote on 2020-06-27: #2

Due to the bug was also reported by upstream, and it seems making a shorten URL is reasonable for upstream, so here I’d like to close it like the upstream bug.

[1] https://savannah.nongnu.org/support/?109941

Auf die Idee, dass man als jemand, der auf einen DAV-Server zugreift, nicht gleichzeitig auch der Admin ist und dort die Software umstricken kann (z.B. Sharepoint), und es einfach eine Schnapsidee ist, den URL zwangsweise als Dateipfad zu verwenden, weil URLs prinzipiell nicht längenbeschränkt sind, Dateinamen aber schon, kommen die nicht mehr. Geht nicht mehr in die Birne rein.

Es fällt mir immer häufiger auf, dass die Leute nicht mehr in der Lage sind, verallgemeinert zu denken. Die Leute sind krankhaft egozentrisch und meinen, wenn das in ihrem lokalen individuellen Anwendungsfall so ist, müsste das für alle anderen auch passen.

Und oft ist es mir auch schon passiert, dass bug reports mehr so als soziale Interaktion aufgefasst werden. Dann meldet sich einer, der sich um einen „kümmert” und möchte, dass man sich gut fühlt, einem das Gefühl vermitteln will, dass jemand da ist, der aber so gar keine Ahnung hat, nicht versteht, worum es geht, und einfach irgendeinen Mist googelt. Ich habe an einer Stelle einen kleinen Rechner mit 2xHDMI-Ausgänge und 1xDisplayPort. Die HDMI-Ausgänge gehen nur bis FullHD, der DisplayPort kann höhere Auflösungen verwenden. Weil ich dort einen Monitor mit höhere Auflösung (2560 in der Breite, Höhe weiß ich gerade nicht auswendig) habe, hing der am DisplayPort. Hat einwandfrei funktioniert. Bis Ubuntu 18.04. Damit ging der DisplayPort nicht mehr. Notgedrungen habe ich den Monitor an einen HDMI-Ausgang gehängt, der aber nur FullHD (1920×1080) kann, weshalb das Bild dann unscharf wird, weil der Monitor von interpoliert. Also bug report aufgemacht. Es meldete sich einer in so einem Sozio-ton und erklärt mir, dass ich was falsch verstanden hätte und mir das eingebildet haben müsse. Er habe sich beim Hersteller die Beschreibung des Rechners herausgesucht, und die HDMI-Ausgänge könnten nicht mehr als 1920×1080, das sei eben hardwarebedingt so und ich müsse mir das eingebildet haben. Als ich versuchte dem klarzumachen, dass ich das weiß und dass es darum geht, dass der Monitor genau deshalb am DisplayPort hängen soll, der das kann, aber mit 18.04 nicht funktioniert, kamen nur noch political correctness-Erklärungen, teils per E-Mail, dass ich ihn zu respektieren hätte, er sich bemüht und ich das zu wertschätzen hätte. Es geht nicht mehr darum, das Problem zu verstehen oder zu lösen, das ist nur noch so ein Sozialding. Er hat – weitgehend sachkundelos – irgendwas gemacht und geblubbert, kam sich in seiner Dummheit noch überlegen vor, weil er googeln könne und ich nicht, und darauf gekommen sei, dass die HDMI-Ausgänge nur FullHD könnten, und erwartete dafür Dankbarkeit und dass ich die Sache als wunderbar erledigt ansehe. Nichts gefixt, sondern ich solle mich einfach damit abfinden, dass es nicht geht. (Obwohl es mit 16.04 noch ging.)

Auch mit dem auf Dateiebene verschlüsselnden Dateisystem ecryptfs gibt es Probleme, obwohl sogar Bestandteil des Linux-Kernels selbst. Das ist eigentlich sehr wichtig, weil man damit Home-Verzeichnisse pro Benutzer und nicht nur die Platte insgesamt verschlüsseln konnte und auch verschlüsselte Dateien auf Fileservern ablegen konnte. Das hatte aber nur einer entwickelt, und der hat die Firma gewechselt, seitdem können sie das nicht mehr weiterentwickeln und pflegen. Dazu kommt, dass sie alle wie die Bekloppten auf systemd gestiegen sind, Werk eines Psychopathen, der sich um Fehler und Inkompatibilitäten nicht schert, und sie deshalb ecryptfs nicht mehr zuverlässig betreiben können. Man sieht, wie Linux degeneriert, denn vor Jahren war das mal eine zuverlässig funktionierende Funktion von Linux/Ubuntu. Überhaupt kann ich mich erinnern, dass ich Ubuntu so bis 2008, 2010 herum völlig problemlos verwenden konnte, das hat alles total robust und zuverlässig funktioniert. Heute herrscht ziemliches Durcheinander und bewährte robuste Lösungen wie ifupdown oder /etc/init.d wurden durch schräges Zeugs ersetzt, das voller Fehler und Lücken ist, lausig dokumentiert und undurchsichtig, kaum noch zu debuggen.

Die Software- und Open-Source-Szene verblödet im Galopp.

Gerade geht es durch die Branche, dass man wegen Black Lives Matters ganz dringend davon abrücken muss, Systeme als Master-Slave zu bezeichnen oder in Git-Repositories den Haupt-Branch nicht mehr „master” nennen dürfe (war bisher die Standard-Einstellung). Um die Sache selbst kümmern die sich nicht mehr.

Ich wage gar nicht mir auszumalen, was passiert, wenn sie dahinterkommen, dass man bei Kameras einen „Weißabgleich” machen muss, damit das Bild richtig aussieht.

Wir werden die Digitalisierung nicht aufrecht erhalten können, weil die nachrückende Generation dafür schlicht zu blöd ist.

Wir können noch Schriften lesen, die 2000 Jahre oder älter sind, wenn in Stein gemeißelt oder auf Papyrus geschrieben, auch Wandinschriften in Pompeji hat man gefunden. Aber unseren Digitalkram werden wir nicht aufbewahren können, weil die neue Generation und der nachrückende Kulturwandel damit nicht mehr umgehen können. Man wird dann auch noch die Bibliotheken als Machwerke weißer Männer niederbrennen und dann wieder auf einen mittelalterlichen Stand zurückfallen. Früher oder später wird man nicht mehr in der Lage sein, große Häuser zu bauen oder die Stromversorgung aufrecht zu erhalten.

Software und die Fähigkeit, Informationstechnik zu betreiben, gehen gerade genauso den Bach runter wie viele anderer unserer Kulturtechniken.

Eine zentrale Ursache dabei ist die Verblödung der Universitäten. Selbst Informatikfakultäten sind immer weniger in der Lage, das nötige Wissen zu vermitteln.