Hadmut Danisch

Ansichten eines Informatikers

Denk-Kurzsschluss bei Geisteswissenschaftlern

Hadmut
3.11.2016 23:15

Ging mir in den letzten Tagen auch auf den Wecker.

Erst die Grünen, dann noch Anne Will: Jetzt kommen sie alle mit diesen Denkmodellen um die Ecke, ob das selbstfahrende Auto lieber das kleine Mädchen auf der Straße überfahren oder ausweichen, gegen die Wand fahren und die drei Passagiere umbringen sollte, so als Beispiel für Unentscheidbarkeit. Vor ein paar Tagen kam ja so eine Abstimm-Verhandlung über einen fiktiven Piloten, der ein Flugzeug abgeschossen hat um einen Anschlag zu vermeiden (was ja schon zeigt, dass die Fragestellung nicht Roboterspezifisch ist, aber von Laien wie diesem Roboter-Professor gerne als solche verkauft wird).

Mal abgesehen davon, dass die Frage dämlich und extrem weit hergeholt (ich fahre seit 32 Jahren und habe nie auch nur annähernd sowas erlebt, zumal man einem Auto auch nicht beibringen würde, die Fahrbahn zu verlassen, das Ziel wäre wohl immer die computergesteuerte Vollbremsung; das Fahrzeug kann sich ja auch nicht ne schöne Wand suchen, gegen die es jetzt ersatzweise fährt, und auch nicht wissen kann, ob das nicht ein Zelt mit 20 Personen drin ist) und das eigentlich nur dazu da ist, dass sich Laien gruseln.

Und auch abgesehen davon, dass wir sowas längst machen, weil beispielsweise in der Luftfahrt ja Gefährdungen auch bestehen bleiben, bis es so viel Tote gibt, dass der Personenwert zu einem vorgegebenen Personenwert die Kosten für die Verbesserung übersteigen. Das Grundprinzip ist immer das selbe: Man bewertet alle Handlungsoptionen mit einem Malus (Penalty) und sucht sich die Option mit dem geringsten Strafwert. Übrigens das gleiche Prinzip wie bei Textverarbeitung, TeX entscheidet nach genau diesem Prinzip, ob es ein Wort noch in die Zeile quetscht oder in die nächste schiebt oder einen Absatz auf die nächste Seite verschiebt, und dann Schusterjungen und Hurenkinder in Kauf nimmt. Also abgesehen davon, dass eine solche Problemstellung beim Autofahren nicht auftaucht, weil das Auto ja nicht alle Menschen um sich herum scannt und vorausberechnet, wer alles stirbt, wenn man dies oder jenes macht, wäre das Problem, wenn es das überhaupt gäbe, softwaretechnisch längst gelöst. Es ist damit vor allem eine Laiendiskusion: Mangels Kenntnis in Algorithmentechnik scheitern sie an einem Problem, das sich so nicht stellt.

Ich will aber auf etwas ganz anderes heraus. Es geht gar nicht um die Frage, wie sich das Auto verhalten und wen es opfern sollte.

Es geht darum, dass die Fragestellung die Geisteswissenschaftler strategisch überfordert.

Geisteswissenschaftler sind strukturell Oppositionspolitiker. Sie machen nichts, sondern warten, bis andere was machen, und beschweren sich dann darüber. Ich habe den Effekt schon oft unter dem Begriff Juristenstaat beschrieben: Deutschland macht im Internet gar nichts, wartet ab, bis die Amis was machen, und beschwert sich dann darüber und überlegt sich, wie es das verbieten kann.

Geisteswissenschaftler sind nicht lösungsorientiert, sie sind keine Ingenieure, die vorher was überlegen, planen, bauen. Sie sind Mecker- und Beschwerdeverwalter. Die kommen hinterher und meinen, man hätte es gerade andersherum machen sollen.

Und genau das ist das Problem beim Auto: Es ist eigentlich völlig egal, ob man das kleine Mädchen auf der Straße über den Haufen fährt, oder gegen die Wand fährt und die Insassen tötet. Weil man in beiden Fällen verdonnert wird. Es wird einem hinterher immer vorgehalten, dass man es hätte anders machen müssen, weil sich das halt so leicht und billig behaupten lässt, dazu muss man nichts wissen und auch nicht Recht haben, es reicht einfach, erst nachträglich dazuzukommen und dann den Besserwisser zu spielen.

Auf der Straße ist das egal: Egal wie man sich entscheidet, man geht in den Knast. Weil man hinterher leicht behaupten kann, man hätte anders müssen.

Und jetzt kommen Software und Robotik:

Plötzlich muss man vorher entscheiden, was laufen soll. Man muss plötzlich alle Verhaltensweisen betrachten und sich für eine entscheiden, und das auch dokumentieren, programmieren, und kann sich hinterher nicht einfach über die eine Variante, die gelaufen ist, beschweren. Plötzlich muss man vorausplanen und eine richtige Verhaltensweise festlegen und vertreten.

Und das können Geisteswissenschaftler nicht. Das ist Ingenieurdenken. Das ist wie Kurzschluss für die: Wie die Musik in Mars Attacks, oder Yeah Baby in Austin Powers. Da platzen die, da brennen die durch.

Diese Denkmodelle sind kein Problem der Robotik.

Sie sind ein Problem der Geisteswissenschaftler (Juristen, Journalisten, Politiker, Philosophen,…), die sich davor gruseln, mal klipp und klar vorher zu sagen, was sie eigentlich wollen.