Hadmut Danisch

Ansichten eines Informatikers

Künstliche Intelligenz

Hadmut
10.10.2018 23:17

Amazon wollte die Rekrutierung neuer Mitarbeiter einem eigens erstellten KI-System überlassen, das sie aber sofort wieder abschalteten, als sie merkten,

dass es was gegen Frauen hat und Männer bevorzugt. Sie hatten es mit den Bewerbungen der letzten 10 Jahre gefüttert und es damit – so meinen sie jedenfalls – auf Männer trainiert:

A year later, however, the engineers noticed something troubling about their engine — it didn’t like women. This was apparently because the AI combed through predominantly male resumes submitted to Amazon over a 10-year period to accrue data about who to hire.

Consequently, the AI concluded that men were preferable. It downgraded resumes containing the words “women’s,” and filtered out candidates who’d attended two women’s only colleges.

Vielleicht ist das aber auch einfach die emotionslose Quintessenz. Vielleicht ist das richtig so, einen Bogen um Feministinnen zu machen. Denn es war nicht auf Quote, sondern auf Qualifikation getrimmt:

“They literally wanted it to be an engine where I’m going to give you 100 resumes, it will spit out the top five, and we’ll hire those,” one source told Reuters.

Vielleicht haben Frauen von Frauenuniversitäten oder die irgendwas mit Genderstudien zu tun haben (laufen in den USA oft unter women’s studies) einfach nichts mit den Top Five von Hundert zu tun.

Geliefert wie bestellt?