Hadmut Danisch

Ansichten eines Informatikers

Suche

Kategorien

Spenden

Wer mein Blog unterstützen möchte, kann spenden:


Per Überweisung:
Hadmut Danisch
Berliner Bank
Konto 305193500
BLZ 10070848
IBAN DE45100708480305193500
BIC/SWIFT DEUTDEDB110


Per Paypal:


(Paypal zieht Provision ab)

Sexistische Algorithmen

Hadmut
19.1.2016 2:01

Neues Feindbild: Algorithmen. Die Informatik muss wohl künftig ohne auskommen.

Huähähä.

Was macht man, wenn man durch Feminismus und Frauenquote kompetenz- und leistungsfrei durch die Hochschulkarriere geschossen wurde, nun unkündbar auf einer Beamtenstelle hockt, aber nicht weiß, was man damit anfangen könnte?

Man schimpft auf Algorithmen.

Als „Informatik-Professorin”. (Oder was man heute halt so darunter versteht…)

Golem berichtet darüber, was Corinna Bath gerade mal wieder treibt. Über die hatte ich es ja schon öfters. Die ist da an der Gender-Korruptionsachse Bremen-Hamburg-Berlin entlanggeschliddert und gehört zu der Fraktion, die sich darüber beklagt, dass Informatik so technisiert sei, damit Frauen ausgrenze. Die Informatik müsse auf Technik verzichten und sich dafür den Sozialen Themen öffnen, damit Frauen auch mitmachen könnten. Heißt ja im Prinzip nichts anderes, als dass Frauen keine Informatik könnten und deshalb die Informatik informatiklos sein müsse, damit auch solche Feministinnen behaupten können, Informatiker zu sein (und an die Geldmittel kommen).

So richtig begründen konnte das ja noch niemand. Vor einigen Jahren hieß es noch, dass Frauen ja „kommunikationsbegabt” seien, weil sie soviel reden. Deshalb könnten sie Benutzerschnittstellen so viel besser machen als Männer. Man wartete also auf ein feministisches Schnittstellendesign, da kam aber exakt nichts.

Obwohl: Nicht ganz exakt nichts. In irgendeinem Buch habe ich mal was drüber gelesen, dass sie meinten, die üblichen rechteckigen Fensterschnittstellen von Software seien ja männlich-patriarchalisch, weil gerade Linien gewalt antäten und diese Ordnung ja nur Hierarchien beförderten. Also hatte man als Alternative eine kreisrunde Schnittstelle entworfen, in der die Beschriftung rundherum geschrieben war und man die Kopf nach links und rechts drehen musste, um sie lesen zu können. Damit hat man Leute befragt, welche besser sei. Und die Leute (auch Frauen) fanden die eckige viel besser, die runde sei ja unübersichtlich, unleserlich, verwirrend,… Danach kam nur noch das große Heulen. Heute noch irgendwas von feministischen Benutzerschnittstellen gehört?

Was macht man also, wenn man nichts kann? Wie immer, irgendwas als sexistisch beschimpfen.

“Wir gehen davon aus, dass Technik neutral ist”, sagt Corinna Bath. Sie ist Informatikerin und forscht zu Technikentwicklung und Gender an der TU Braunschweig. “Aber es gibt keine neutralen Algorithmen.” Bath zufolge ist Technik immer auch von sozialen Umständen beeinflusst. Doch die wenigsten machen sich das bewusst.

Klar. Wenn man nicht verstanden hat, was Algorithmen sind, sagt sich sowas leicht.

Natürlich kann man dann ja den Standpunkt einnehmen, dass Sortieralgorithmen ja total patriarchalisch sind, weil sie eine Rangordnung durchsetzen.

Oder numerische Verfahren, Rechenverfahren. Totaaaal politisch, sexistisch, machtorientiert, ausgrenzend, weil sie eine Lösung ausspucken und diese als richtig, und damit alle anderen als falsch hinstellen.

Dabei können Algorithmen durchaus gefährlich sein, wenn sie so programmiert sind, dass sie rassistische oder sexistische Entscheidungen treffen. Dies muss nicht absichtlich geschehen: Meist sind sich die Programmierer nicht bewusst, dass ihre Vorurteile sich auf den Code auswirken.

Oh ja. Rassistische und sexistische Entscheidungen in Algorithmen. Kommt davon, wenn man seine Computerbildung aus „Tron” bezieht.

Bei der Google-Suche nach dem Begriff CEO findet die Suchmaschine etwa überproportional viele Bilder von weißen Männern. In der Realität sind etwa 27 Prozent aller CEOs in den USA weiblich. Laut einer Untersuchung der University of Washington tauchen bei der Bildersuche allerdings nur in elf Prozent aller Fälle Bilder von Frauen auf – einer der ersten Treffer ist übrigens die Barbie-CEO-Puppe.

27% der CEOs sind weiblich, aber sie tauchen nur in 11% der Bilder auf.

Und was sagt uns das?

Na?

Kommt, Leute, strengt Euch mal an. Ich schreib mir hier seit Jahren die Finger wund, über Korrelationen, Kausalitäten und Statistik. Ihr habt das doch gelesen.

Was bedeutet das also?

Na?

Genau.

Es bedeutet exakt gar nichts.

Nur weil man die Zahlen sieht, weiß man nämlich noch lange nicht, warum sie so sind. Das kann ja alle möglichen Ursachen haben. Vielleicht haben die weniger Bilder von sich auf ihren Webseiten. Vielleicht treten sie seltener auf Events auf. Vielleicht sind Frauen nur halb so auffällig. Es könnte aber auch sein, dass 11% der CEOs die Frauen sind, die was können, und die anderen 16% nur Quoten-Tussis, die keiner erwähnt, weil sie gar nichts können. Vielleicht können sie auch alle nichts, und die 11% teilen sich auf Barbie und die negativen Nachrichten über die Yahoo-Chefin Marissa Mayer auf, die es geschafft hat, den eh schon kaputten Laden Yahoo ganz auf Null runterzufahren (der Wert von ganz Yahoo übersteigt nicht den Wert ihrer Anteile an Alibaba. Diese Anteile sind also der einzige Wert, sonst ist nichts mehr da. Dafür hat sie aber irgendwie sowas um die 100 Millionen kassiert.) Für die Jüngeren unter den Lesern, die Yahoo nicht mehr kennen: Die haben früher mal… also die haben… also eigentlich haben die mal sowas wie ein Inhaltsverzeichnis des Internet erstellt, in dem man thematisch nachgucken konnte, welche Webseiten es zu dem Thema gibt. Das ging nur, als das Internet noch ganz jung und ganz winzig klein war. Danach haben sie… ja irgendwie haben sie… ja eigentlich auch nicht. Im Studentenwohnheim wohnte im Zimmer neben mir ein Verfahrenstechniker. Der hat in seinem Beruf keinen Job gefunden und ist als Redakteur zu Yahoo. Ich habe nie herausgefunden, wofür die dem da eigentlich Geld gegeben haben. Er konnte es mir auch nicht sagen. Irgendwann hieß es, nur noch eine Frau kann sie retten, und sie haben Marissa Mayer als CEO eingestellt und ihr ganz viel Geld gegeben.

Deshalb gibt es jetzt ganz viele böse Artikel über sie und ganz viele Bilder. Sie ist zwar nicht kompetent, und auch nicht beliebt, aber sieht nicht schlecht aus. Deshalb gibt es die Artikel fast immer mit Bild. Siehe hier und hier und hier und hier. Ganz viele Bilder. Das ist aber die Ausnahme. Carly Fiorina hat HP versaut, und man musste damals sehr, sehr viele Artikel lesen, bis man mal sehen konnte, wie die eigentlich aussieht. Und das waren nicht Algorithmen, das waren Menschen. Journalisten. Und die Google-Suche kann auch nur liefern, was sie auf Webseiten findet.

Meint Bath allen Ernstes, die Suchalgorithmen wären so programmiert, dass die lieber Männer zeigen?

Mal wieder der übliche soziologische Denkschaden. Wer irgendwelche Korrelationen, ach was, einfach irgendwelche Zahlen findet, darf sich eine beliebige Kausalität ausdenken und einfach irgendwas behaupten. So arbeiten die da immer.

Hat sie mal geprüft, ob es nicht eher an der Eingabe lag, nämlich den Webseiten, die Google abgrast? Also den Journalisten, die schreiben? Oder den CEOs selbst? Vielleicht machen die Frauen ja tatsächlich weniger.

Die Zahlen legen ja sogar den Gedanken nahe, dass da eben nur ein kleinerer Teil wirklich tauglich arbeitet und der Rest der Quoten-CEOs – so wie deutsche Quotenprofessorinnen – einfach nur dasitzt, Geld kostet und gar nichts macht. Schuld sind – wie immer – automatisch die anderen.

Was aber wäre die Konsequenz aus Baths Gemecker?

Frauenquoten in den Google Such-Ergebnissen.

Und damit würden die „Algorithmen” erst sexistisch. Denn dann müssten sie unterscheiden, wer Mann und wer Frau ist.

Wird aber nicht mehr lange dauern, nein, offenbar fangen sie ja gerade damit an, Frauenquoten für Google-Ergebnisse zu fordern. Egal, was man künftig googelt, die Antwort ist immer, dass Frauen die Hälfte davon gemacht haben. Frauen gebären 52% der Kinder.

“Die technische Entwicklung geht immer weiter und wenn wir nicht bald anfangen, Algorithmen auf ihre ethische Tauglichkeit zu untersuchen, könnte das ein großes Drama werden”, sagt Bath.

Ja, das wäre nett, wenn Informatik-Quoten-Professorinnen überhaupt mal anfangen würden, irgendetwas zu arbeiten. Das Spiel geht seit über 10 Jahren in hoher Intensität, und sie machen einfach gar nichts. Außer sich über alles mögliche zu beschweren. Machen sollen es dann aber – wer sonst – die Männer.

Hätte sie vielleicht mal ein konkretes Beispiel?

Irgendeine stichhaltige Analyse?

Verbesserungsvorschläge?

Konkrete Verfahren?

Objektive, sauber definierte Kriterien?

Null. Nichts. Gar nichts. Nur Gepinse darüber, dass zu wenig Frauen in der Google-Suche auftauchen und die aus der Luft gegriffene Behauptung, dass es an sexistischen Algorithmen läge.

Vielleicht ist das Problem eher, dass auch hier mal wieder feministische Lebenslügen zusammenbrechen und die Zahlen eben zeigen, dass das alles nicht funktioniert hat. Gibt gerade ein nettes Video auf Youtube: Google hat enormes Geld in seine Diversity-Offensive gesteckt, 260 Millionen Dollar, und rausgekommen ist: Ungefähr gar nichts.

Vielleicht ist das Problem, dass die Suchalgorithmen im Allgemeinen doch eher neutral sind und der Gender-Hokus-Pokus daran scheitert? Vielleicht ist das ja auch gar kein Zufall, dass das jetzt hochpoppt, nachdem Mayer gescheitert ist und das bei Google selbst auch nicht klappt? Vielleicht will man jetzt einfach nur, dass die Suchergebnisse so manipuliert werden, dass es im Ergebnis so aussieht, als wären Frauen erfolgreich? In Berlin muss ja auch die Hälfte der Straßen nach Frauen benannt werden, es wird nicht gefragt, ob sie auch gleich viel geleistet haben. (Dieselben Leute schreien aber „Gleicher Lohn für gleiche Arbeit!”)

Sie beobachtet zum Beispiel, dass in der Technikentwicklung oft antiquierte Geschlechterrollen reproduziert werden – dass Algorithmen also sexistischer sind als unsere heutige Gesellschaft. Und auch die Menschen, die Algorithmen nutzen, hinterfragen diese in der Regel nicht, sondern nehmen die gelieferten Ergebnisse als wahr und richtig hin.

Da würde mich jetzt mal ein Beispiel interessieren. Ach, sie hat eines:

Gibt man bei der Google Suche ‘Frauen sollten’ ein, wird die Anfrage automatisch vervollständigt zu Formulierungen wie “Frauen sollten nicht studieren”, “Frauen sollten keine Hosen tragen”, “Frauen sollten keine Rechte haben”. Google zufolge werden Vorhersagen in der Autovervollständigung automatisch von einem Algorithmus generiert, ohne jegliches menschliches Zutun.

Ohne menschliches Zutun?

Das ist aber falsch. Denn die Eingabe stammt von Menschen. Vielleicht von bösen Menschen, oder vielleicht auch Feministinnen, die sowas plakativ provozieren (denn bekanntlich manipulieren die Google-Indizes usw. ja am meisten). Aber dafür kann doch der Algorithmus nichts. Wenn das nun einmal die meistgestellten Fragen sind. Ich glaube auch nicht, dass die „Algorithmen” da irgendetwas semantisch verstehen und nach männlich und weiblich unterscheiden. Das sind einfach Worttabellen, die nach Tupel-Wahrscheinlichkeiten sortiert sind (Huch, schon wieder Sortieralgorithmen), meines Wissens ohne Semantik. Sie erkennen meines Wissens bedeutungsgleichheiten um Konjugationen, Deklinationen und ein paar Synonyme zu erkennen. Aber dieses Ergebnis liegt an den Eingaben und nicht am Algorithmus. Da muss man schon ein ziemlich kaputtes, oder gar kein Verständnis für Algorithmen haben. Ich habe das aber schon häufig erlebt, dass Quoten-Informatikerinnen überhaupt nicht verstanden haben, was Algorithmen, Turing-Maschinen usw. sind. Die hat ja bei Heidi Schelhowe promoviert, und Schelhowe hält ja die Turing-Maschine für sexistisch, weil sie keine Interrupts kennt, Frauen aber Interaktivität bevorzugten, für die man Interrupts bräuchte. Einfach gar nichts verstanden, aber unkündbar.

Also ob sich die Algorithmen da einen Spaß draus machten, Frauen zu empfehlen, keine Hosen zu tragen.

Wisst Ihr, was das ist?

Animismus. Magischer Aberglaube.

Die Überzeugung, das irgendwelche Sachen – vor allen, wenn deren Komplexität über der eigenen Verständnisfähigkeit liegt – beseelt sind und eine Absicht verfolgen. So in der Art von „Dieser verdammte Automat will mich ärgern” oder „Das Auto mag mich nicht”.

Sie verstehen Algorithmen nicht, aber unterstellen ihnen menschliche Eigenschaften und böswillige Entscheidungsfähigkeiten, das Klabautermann-Syndrom. Der Algorithmus ist ein Artefakt, was das Böse in sich hat. So ne Art Männer-Horcrux.

Dazu Google weiter:

Der Algorithmus basiere auf etlichen objektiven Faktoren, unter anderem der Häufigkeit, mit der ein Wort gesucht werde. Deshalb könnten die angezeigten Suchbegriffe ‘seltsam oder überraschend’ wirken. Eine andere Bezeichnung dafür wäre diskriminierend. Die Organisation UN Women kritisierte diese angebliche “Autocomplete-Wahrheit” schon 2013 in einer großen Kampagne: Frauen sollten heutzutage überall als gleichberechtigt angesehen werden – auch auf Google.

Was hat das aber mit Gleichberechtigung zu tun, wenn die Suchergebnisse zugunsten von Frauen manipuliert werden müssen?

Steckt dahinter am Ende eine Art weibliche Unfähigkeit, die Absichtslosigkeit toter Gegenstände zu verstehen und zu akzeptieren? Böswillig könnte man fragen, ob es ein Indiz dafür ist, dass Männer außerhalb jagen gehen und Frauen sich um Kinder kümmern, daher auf Umgang mit Lebendem programmiert sind? Es heißt ja, dass Frauen empathischer seien, weil sie schneller und zuverlässiger Emotionen aus Gesichtsabdrücken ablesen können. Könnte das sein, dass manche von ihnen dazu neigen, das zu übertreiben und Emotionen in toten Gegenständen zu sehen? Neulich gingen ja mal irgendwo eindrucksvolle Bilder herum, bei denen man neuronale Netze übertrainiert und auf inhaltslose Bilder losgelassen hat, und plötzlich haben die überall Hunde, Vögel und so weiter erkannt. Neigen Frauen eher als Männer dazu, Emotionen und Absichten auch in toten Gegenständen und abstrakten Konstruktionen zu sehen?

Und es geht noch drastischer: Eine Untersuchung der Carnegie Mellon University zeigt, dass Frauen bei Google weniger Anzeigen für gut bezahlte Jobs mit Führungspositionen angezeigt bekommen als Männer. Google-Suchen nach Namen, die afroamerikanisch klingen, werden häufiger mit Anzeigen verknüpft, die einen Eintrag im Vorstrafenregister implizieren, so eine Studie von Harvard-Professorin Latanya Sweeney aus dem Jahr 2013.

Wie kommt das wohl? Dazu müsste man die bisherigen Eingaben (Informatikersprech: Den Zustand des Automaten) und den Algorithmus kennen. Dann wüsste man’s auch. Sie stellen sich aber doof an, wie ein Kind, dass auf ein Spielzeug einprügelt, weil es nicht macht, was es soll, ohne irgendetwas verstanden zu haben.

Bei der Suche nach dem Wort Hand zeigt Google größtenteils Bilder von Händen mit heller Hautfarbe. Solche Symbolbilder, auch Stockfotos genannt, werden genutzt, um Texte zu illustrieren, in denen es etwa um medizinische Themen, Kosmetik oder Schmuck geht, aber auch, wenn ein Smartphone oder eine Spielfigur gehalten werden müssen oder die Verbundenheit mehrerer Menschen bildlich dargestellt werden soll.

Tja, dann sollte man das mal analysieren und nicht einfach irgendwas behaupten, weil man es nicht versteht. Denn so bewegt man sich im Bereich der Mystik und der bösen Mächte.

Braune oder schwarze Hände werden für solche Zwecke kaum verwendet.

Das wohl. Nicht schön. Aber was können die Algorithmen dann dafür? Sollen sie Hände erfinden? Umfärben? Die Häufigkeit umsortieren?

Dass Dinge wie diese passieren, liegt Bath zufolge an der Technikentwicklung selbst. Die Programmierer sind oft weiße Männer, also Mitglieder einer sehr homogenen Gruppe. Sie entwickeln Produkte in der Annahme, dass die späteren Nutzer ähnliche Interessen und Kompetenzen haben wie sie selbst. Außerdem haben Entwickler oft keine realen Personen im Kopf, sondern Stereotype.

Schwachsinn. Purer Schwachsinn. Als ob weiße Männer da programmieren würden, dass man zu „Hände” nur „weiße” Hände bekommt.

Und wenn sie meint, dass das daran läge, dass das vor allem weiße Männer programmierten: Warum machen die dann kein Gegenprodukt? Wenn man will, dass andere programmieren, dann müssen diese anderen das auch machen. Weiße Männer können ja nicht „Frauenprogrammieren”, das müssen Frauen schon selbst machen.

Tun sie aber nicht. Beschränkt sich auf quengeln und beschweren.

Feministisch-Genderistische Suchalgorithmen? Würde ich gerne mal sehen.

Doch nicht immer funktioniert das: So wurden Fotos von schwarzen Personen von Flickr mit dem Schlagwort Affe und von Google mit dem Schlagwort Gorilla versehen. Weiße Menschen wurden nicht mit Tieren verwechselt.

Weil der optische Unterschied größer ist. Mit welchem Tier sollte man sie verwechseln können? Da können doch die Algorithmen nichts dafür, wenn da die Distanz größer ist. Auch hier wieder Null Verständnis, nur meckern, dass einem die Ergebnisse politisch nicht passen.

Da wird ein Blödsinn verbreitet, das ist unbeschreiblich. Algorithmen als neues Bös-Wort beschimpfen, aber nicht verstanden haben, was es ist.

Und immer dran denken: Solche Leute müssen wir als Informatik-Professorinnen lebenslang und unkündbar bis ins Grab bezahlen. Und damit nicht genug: Jede dieser Quoten-Tanten nimmt einem befähigten Menschen die Stelle ab.

Neulich berichtete mir ein Informatik-Student von einer anderen „Informatik-Professorin”, die unter „Informatik” versteht, dass sie sich ganz viel mit allen Leuten einfach über irgendwas unterhält, und das alles in ihr Notizbuch schreibt, also „Informationen sammelt”, denn das seien doch »Informationen«, das also mithin »Informatik«. Dass das irgendwas mit Rechnern, Mathematik, Algorithmen zu tun hat, ist ihr nicht klar. Programmieren kann sie gar nicht. Aber Informatik-Professorin ist sie.


Ein Kommentar (RSS-Feed)

[…] Mit der Statistik ist es wie mit der Informatik. Beginnen wir mit der Informatik. Die Informatik diskriminiert Frauen, wie wir gleich sehen werden. Die Informatik  muss daher auf Technik verzichten und sich dafür den Sozialen Themen öffnen, damit Frauen auch mitmachen könnten (Hadmut Danisch, Sexistische Algorithmen): […]