Die Boeing 737 und ihre Treibstoffschalter
Neue Erkenntnisse zu einem Absturz.
Aero zu einem Absturz einer chinesischen 737-800 im Jahr 2022: Absturz der Boeing 737 von China Eastern: Neue Daten deuten auf Abschalten der Triebwerke hin
Sie wollen herausgefunden haben, dass kurz vor dem Absturz des Flugs MU5735, dem keinerlei Hinweise auf oder Meldungen über technische Probleme vorausgingen, die beiden Treibstoffschalter der Triebwerke gleichzeitig abgeschaltet worden seien und außerdem das Steuerhorn so bedient wurde, dass das Flugzeug in einen unkontrollierbaren Sturzflug ging.
Also wieder ein eindeutiger Fall von absichtlichem Pilotenselbstmord. Mit dem Hersteller, Flugzeugtyp und -muster hat es damit gar nichts zu tun, denn am Flugzeug selbst wahr wohl alles in Ordnung. Wenn ein Flugzeug abstürzt, weil der Pilot die Triebwerke abstellt und das Flugzeug in einen nicht mehr abzufangenden Sturzflug drückt, liegt das nicht am Flugzeug und nicht am Hersteller. Das kann kein Flugzeug überstehen.
Es wird aber nicht mehr lange dauern, bis irgendwelche regelungswütigen Politiker irgendwelche KI-Kontrollsysteme fordern, als ob ein Kontrollsystem einen suizidalen Piloten davon abhalten könnte, das Flugzug zu killen und dazu tödliche Pilotenfehler absichtlich zu begehen. Vermutlich werden diese Systeme dann mehr schaden als nutzen.
Interessanter wäre es, ob die Selbstmordabsichten berufsbedingt waren, oder ihre Ursache eher im Privatleben oder psychischen Krankheiten fanden. Denn wenn man einen suizidalen Piloten vom Flugzeugsuizid abhalten will, kann man das eigentlich nur, in dem man ihn am Betreten des Flugzeugs hindert, bevor der das Flugzeug besteigt. Ob solche Maßnahmen dann in der Bilanz nützlich oder schädlich sind, wäre die nächste Frage.
Ich bin mir aber ziemlich sicher, dass man über kurz oder lang KI-Systeme entwickeln wird, die Psychologische oder Psychiatrische Gutachten erstellen, etwa allgemeine Daten wie Social-Media-Äußerungen auswerten, Gespräche führen und so weiter, und dann Leute auf sicherheitsrelevanten Posten auf Suizidgefahr untersuchen. Dann wird man vorschreiben, dass jeder Pilot einmal im Monat beim KI-Psychoanalytiker auf die virtuelle (oder echte?) Couch muss und sich durchleuchten lassen.
Ob das dann funktioniert und die Ergebnisse stimmen, ist eine andere Sache. Dann haben wir aber das nächste Datenschutzproblem, denn was, wenn ein Mensch erst einmal von einer KI (fälschlich oder richtig) als suizid- oder amokgefährdet eingestuft worden ist?