Hadmut Danisch

Ansichten eines Informatikers

Über weibliche künstliche Intelligenz

Hadmut
1.8.2018 0:21

Mal wieder was aus der Informatik.

Über die seltsame Professorin und Bahn-Vorständin Sabina Jeschke, die mit der dubiosen Dissertation, dem irren Blick und dem Kunstrasen im Büro habe ich ja schon einige Male geschrieben, etwa hier und hier und hier. Laut dem zitierten Video ist ihr Fachgebiet die Informatik im Maschinenbau und dabei die Künstliche Intelligenz.

Das ist schon deshalb seltsam, weil Maschinenbau und Künstliche Intelligenz eigentlich zwei verschiedene Dinge sind. Man kann zwar schon darauf kommen, Bilderkennung oder Bewegungssteuerung in der Robotik mit KI anzugehen, aber eigentlich will man es im Maschinenbau eher klar definiert. Mit Fuzzy Logic hatte man es mal probiert, so eine Art weit entfernter KI-Vorläufer, um Züge sanft anfahren zu lassen.

Aus irgendwelchen Gründen, die sich mir – als echtem Informatiker – nicht erschließen, wird die Frau als KI-Expertin ausgegeben.

Das Handelsblatt schreibt nun, wie sie mit künstlicher Intelligenz die Bahn und die Welt retten will.

Der Klimawandel zeigt sein Gesicht. Mit immer häufigeren Gewittern, Stürmen und Starkregen, an die wir uns bereits gewöhnen. Besonders anfällig für Witterungsextreme ist der Bahnverkehr, bestätigte kürzlich das Potsdamer Institut für Klimafolgenforschung. Umso mehr muss die Digitalisierung im Schienenverkehr Antworten auf die Zukunftsfragen geben. Warum eigentlich erkennt eine Schiene heute nicht, dass gerade ein Baum auf ihr liegt?

Warum kommuniziert sie diesen Zustand nicht geeignet weiter? Und schließlich: Warum werden nicht automatisch Prozesse ausgelöst, um das Gleis wieder schnell freizubekommen?

In der analogen Welt sind solche Szenarien undenkbar. Die aktuelle technologische Entwicklung aber lässt automatisierte Abfolgen dieser Art durchaus zu, quasi als „Dreisprung“.

Bestehend aus – erstens – Sensorik, die vollständige Transparenz herstellt, über alles und alle Zustände, überall, jederzeit. Zweitens aus umfassenden Kommunikationsnetzen, die einen vollständigen Informationsfluss über ebendiese Zustände an jeder Stelle erlauben. Und drittens künstliche Intelligenz, kurz KI, die die Umwelt wahrnehmen, bewerten und letztlich sinnvolle Aktionen in Echtzeit steuern kann.

Es braucht keine Raketenwissenschaft, um mit KI riesige Potenziale zu heben. Insbesondere Verfahren, die auf Datenanalysen basieren, erobern bereits Banken und den Medizinsektor – von Hause aus datengetriebene Bereiche. Jetzt dringen sie auch in klassische Industriebereiche wie Produktion und Logistik vor.

Bessere Planbarkeit und Zuverlässigkeit

Gerade für die Mobilitätsbranche bietet KI enorme Chancen. Die zentralen Wünsche der Menschen auf ihren täglichen Wegen von A nach B sind Planbarkeit und Zuverlässigkeit. Künstliche Intelligenz ist wahrscheinlich der größte Hebel, den wir je hatten – für Prozesse, Kapazität und das Gesamtsystem Mobilität.

In Zukunft sprechen Züge digital mit den Stellwerken und Weichen. Sensoren melden frühzeitig, dass ein Baum die Strecke blockiert – und die KI dahinter fordert auch gleich den „Kettensäge schwingenden Mitarbeiter“ an. Die Instandhaltung erfolgt nicht mehr nach Plan, sondern nach Bedarf. Potenzielle Defekte werden so frühzeitig erkannt und Reparaturzeiten kurz gehalten. Warum mit der Bahn nicht genauso umgehen wie mit der eigenen Gesundheit?

Das könnte schief gehen.

Denn das meiste, was da beschrieben wird, hat – wie auch der Leser richtig anmerkte, der mir den Hinweis auf diesen Artikel schickte – mit KI überhaupt nichts zu tun, sondern mit normaler Steuerungs- und Regelungstechnik. Und eben Sensorik.

Man kann das mit einem Patienten nicht vergleichen, der Symptome erzählt, zu denen man dann nach Erfahrungswerten einen Computer die Krankheit raten lassen kann. Und ob eine Schiene ihren Zustand weiterkommuniziert ist auch keine Frage der KI, sondern der Sensorik und der Vernetzung.

Und wenn ein Gleis blockiert ist, geht es auch nicht darum, die KI mal nach ihrer ersten Meinung zu fragen, sondern den Zug nicht fahren zu lassen, bevor es zu einem Unglück kommt.

Stellt Euch das mal vor: Die Sensoren sagen, das Gleis ist kaputt. Fragen wir mal die KI, ob die meint, dass man da was machen sollte. Und wann.

Das Problem dabei ist, dass man nicht vorhersagen kann, wie sich KI verhält, denn sonst wär’s ja voll deterministisch und durchspezifiziert. KI macht man, wenn man nicht so genau weiß, wie es geht, und einen buest guess riskieren will. Und was ist, wenn’s schief geht?

Für den Leser, der mir den Hinweis schickte, und ebenso für mich, hört sich das, passend zu den früheren Artikeln, danach an, als ob die Frau nicht gerade weiß, wovon sie da redet, sondern sich da einfach als Expertin für irgendeinen Hype-Begriff ausgibt.

Stellt Euch vor, es gibt wieder ein Zugunglück wie damals bei Eschede, und es kommt heraus, dass die Sensoren zwar erkannt hatten, dass ein Radreifen kaputt ist, aber die KI meinte, dass es das nicht wichtig ist? Und niemand sagen kann, wie die KI darauf kommt, aber sie das jetzt alle machen, weil sie jetzt alle auf KI hören?

Ich halte das für eine ziemlich bekloppte Idee (über den Umstand, dass vieles von dem, was da gesagt wird, fachlich einfach falsch ist). KI ist etwas, was man noch lange nicht im Griff hat (und vermutlich nie im Griff haben wird, weil es ja keine KI mehr wäre, wenn man es im Griff hätte).

Vor allem unterliegt das alles einem Denkfehler. KI ist nämlich erst mal dumm. Man muss sie trainieren, mit bestehendem Wissen füttern. Das kann man bei Krankheiten, weil man viele Ärzte und Diagnosen hat, und man die KI einfach mal eine Weile echten Ärzten „zugucken” lassen kann. Man kann aber KI nicht etwas lösen lassen, was der Mensch bisher nicht lösen kann, weil es dann an der Trainingsmöglichkeit fehlt. Man hat neulich KI GO lernen lassen, indem man den Computer einfach gegen sich selbst spielen ließ, bis er gut war, aber da gab es erstens fest vorgegebene Spielregeln und zweitens keinen Schaden dafür, dass der Computer erst mal ein paar hunderttausend (oder mehr) Partien hundsmiserabel spielte, um sich dem Ziel anzunähern. Sich also im Prinzip seinen Trainings- und Erfahrungsschatz durch Versuch und Irrtum selbst erarbeitete, weil der Misserfolg keinen realen Schaden erzeugte. Man hat dann halt das Spiel verloren und nicht den Zug, und wenn man zehn Millionen virtuelle Spiele verliert, schadet das auch nicht.

Beide Situationen haben wir aber bei der Bahn nicht. Sie haben keine bestenden Menschen mit guten Entscheidungen oder wohldokumentierte Entscheidungen mit anschließenden Pathologien oder Therapieergebnissen (wie bei Ärzten), an denen man das System trainieren könnte, sonst wäre die Bahn ja pünktlich und hätte nicht den Verzweiflungsbedarf nach einer Lösung. Und man kann auch nicht nach dem Schema „probier mal” arbeiten. So nach dem Motto, dass das System nach dem fünfzigsten verunglückten Zug so langsam mal anfängt zu verstehen, dass es irgendwas nicht gut macht und mal ein paar Änderungen probieren sollte.

Man kann das auch nicht ohne weiteres durch Simulation trainieren. Lernt ein KI-System Go zu spielen, dann kann es das, wei Go aufgrund exakt definierter und einfach zu erfassender Regeln exakt zu simulieren ist. Es läuft in der Simulation genau so wie auf dem Spielfeld. Es ist nicht so, dass es da überraschungen gibt wie dass der Gegner nießen muss weil es regnet oder irgendsowas. Das hat man bei der Bahn nicht. Das System ist so komplex und nicht präzise zu beschreiben, dass man es nicht exakt simulieren kann. Denn es geht ja immer um das Unvorhergesehene.

KI ist kein Hokus Pokus und auch keine mythischer Ersatz für alles, was wir nicht verstehen. Das ist kein Experte, der vom Himmel fällt. Es ist eine schnöde Vorurteilsmaschine, die anhand dessen urteilt, womit man sie gefüttert hat, und das muss man erstens haben, und sich zweitens damit abfinden, dass da auch ganz viel Mist herauskommen kann und das System schon bei geringsten Abweichungen vom Trainingsszenario völlig versagt. Habt Ihr neulich diese surealen Traumbilder gesehen, die durch überempfindlich parametrisierte und trainierte KI-Software entstanden? Plötzlich halluzinierte die Software überall das, worauf sie trainiert war. Wie unter LSD.

Was ist, wenn die KI-Software den Bahnverkehr zusammenbrechen lässt, weil sie überall Gleisschäden wähnt und empfiehlt, erst mal das ganze Bahnnetz auszutauschen, und deshalb alle Signale auf Rot stellt? Oder auf grün? Weil sie meint, wenn alles gleich kaputt ist, gibt es keine Prioritäten mehr?

Aber ich habe einen Trost für die Bahn: Wenn’s mit KI nicht geht, dann nimmt man halt die BlockChain. Das machen jetzt auch alle, damit geht auch alles.