Hadmut Danisch

Ansichten eines Informatikers

Politische KI

Hadmut
1.8.2018 0:36

Als ich gerade so über die KI bei der Bahn geschrieben habe, fiel mir etwas auf.

Wir sind meines Wissens heute nicht in der Lage, das in einem KI-System niedergeschlagene „gelernte Wissen” auszulesen und genau zu beschreiben. Das System macht etwas, was im Prinzip in einer Vielzahl von trainierten Werten, Parametern, niedergeschlagen ist, aber wir können das nicht für jegliche Eingaben vorhersagen, was daraus entsteht, wenn wir es nicht ausprobieren, und dafür könnten es einfach zu viele sein. Man kann beispielsweise nicht vorhersagen, wie sich ein bei Facebook oder Google auf die Erkennung von Pornographie trainiertes System verhalten wird, weil man es schlicht weder verstehen noch mit allen möglichen Bildern austesten kann.

Woher weiß man also, dass diese Systeme nicht sabotiert oder manipuliert sind?

Man könnte sie beispielsweise heimlich trainieren. Rassistisch oder männerfeindlich oder sowas. Dass beispielsweise Züge mit Frauen drin höhere Priorität bekommen als die männlicher Berufspendler. Oder die Männer eher auf defekte Gleise geschickt werden. Sowas in der Art. Es gab mal einen nicht so sonderlich gelungenen, aber von der Idee her guten Film aus den 70ern, „Nur Computer morden leise”.

Beispielsweise bei weißen älteren Männern falsche Diagnosen zu stellen. Oder Medikamente zu verschreiben, die Herzinfarkte begünstigen.

Wer sorgt eigentlich für die Trainingsintegrität der Systeme?

(Erinnert mich an den Papagei, den man im Zoogeschäft gekauft hat und der dann zuhause anfängt, übelst daherzufluchen, weil ihm das irgendwer beigebracht hat.)