Ansichten eines Informatikers

Das neue erbärmliche Niveau der Ruhr-Uni Bochum

Hadmut
4.5.2022 14:58

Die galt auch mal als was.

Die kommen jetzt mit „digitaler linguistischer Forensik“ daher.

Sie wollen mit KI Schimpfwörter und Hassrede erkennen. Was ich für ziemlich töricht halte. Riecht auch schon so frauenquotig.

Fünf Kategorien schädigender Sprache

Die erste Kategorie beinhaltete aufwiegelnde Sprache, etwa Passagen wie „violence is 100000% justified now“ (Gewalt ist jetzt zu 100000% gerechtfertigt). Die zweite Kategorie umfasste abwertende Begriffe wie „scum“ (Abschaum) oder „retarded“ (zurückgeblieben). In der dritten Kategorie fasste das Team Ausdrücke zusammen, die an sich nicht abwertend sind, aber in dem Kontext, in dem sie auftraten, abfällig gemeint waren – etwa „they are a sickness“ (sie sind Krankheiten). Eine vierte Kategorie war dem sogenannten Othering gewidmet: Bemerkungen, die genutzt werden, um eine Gruppe Menschen von einer anderen abzugrenzen, wie in dem Beispiel: „Are women banned from this chat? If not, why the fuck not?“ (Sind Frauen aus diesem Chat ausgeschlossen? Falls nicht, warum verdammt noch mal nicht?). Die letzte Kategorie umfasste Insiderformulierungen, die eine Gruppe von Gleichgesinnten verwendet, um sich von anderen abzugrenzen und das Gruppengefühl zu stärken. Trump-Anhänger nutzen den Begriff „Patriot“ etwa auf eine bestimmte Art.

Die auf diese Weise kodierten Kommentare ließen die Forscherinnen auch von automatisierten Verfahren labeln, wie Tech-Firmen sie nutzen, um Hassrede oder beleidigende Sprache ausfindig zu machen. 4.505 Nachrichten gingen in den Vergleich ein. 3.395 davon stuften sowohl die Wissenschaftlerinnen als auch die automatisierten Verfahren als nicht schädigend ein, bei 275 waren sie sich einig, dass sie schädigende Sprache enthielten. 835 Nachrichten hingegen bewerteten Mensch und Maschine unterschiedlich: Etwa die Hälfte stuften die Algorithmen fälschlicherweise als Hassrede oder Beleidigung ein; den Rest erkannten sie – anders als die Wissenschaftlerinnen – nicht als schädigende Sprache.

Erstens ist das sehr gefährlich, weil „Künstliche Intelligenz“ keineswegs „intelligent“ in dem Sinne, ist, den man sich so vorstellt, sondern Muster erkennt, auf die man es zuvor trainiert hat. Und da die Universitäten inzwischen durchweg linksextrem-marxistisch sind, dürft Ihr dreimal raten, worauf die trainiert werden. Ganz sicher nicht, um „alter weißer Mann“ als Beleidigung zu erkennen.

Zweitens ist es falsch, dass man Beleidigungen und so weiter anhand von Wortmustern hinreichend genau erkennen kann. Dabei nämlich kommt es juristisch auf den Kontext an. Und den kann KI nicht nur nicht verstehen, weil die KI noch nicht so weit ist, Inhalte zu verstehen oder gar Bilder zu interpretieren. Vor allem dann nicht, wenn der Kontext woanders steht. Wenn jemand beispielsweise zu einem Foto sagt „Ist die fett…!“, oder sich auf einen anderen Kommentar, gar auf eine andere Webseite oder ein gedrucktes Buch bezieht, kann das gar nicht funktionieren.

Drittens ist der ganze Ansatz dumm, eine KI auf Beleidigungen zu trainieren, solange man nicht weiß, was Beleidigungen sind.

3.395 davon stuften sowohl die Wissenschaftlerinnen als auch die automatisierten Verfahren als nicht schädigend ein, bei 275 waren sie sich einig, dass sie schädigende Sprache enthielten. 835 Nachrichten hingegen bewerteten Mensch und Maschine unterschiedlich: Etwa die Hälfte stuften die Algorithmen fälschlicherweise als Hassrede oder Beleidigung ein; den Rest erkannten sie – anders als die Wissenschaftlerinnen – nicht als schädigende Sprache.

Seit wann wären „Wissenschaftlerinnen“ in der Lage, Beleidigungen zu detektieren und als Maßstab zu gelten? „Wissenschaftlerinnen“ sind schon mit Prüfungsrecht überfordert, können erfahrungsgemäß und in der Regel nicht mal ihren eigenen Beruf rechtskonform ausüben. Und ausgerechnet die will man als Maßstab hernehmen? Leute, die durch linkes Dauerfeuer und das Gendergehampel auf links gezogen wurden wie ein Pulli in der Waschmaschine?

Was soll das überhaupt sein? „Schädigende Sprache“?

Da wird einfach irgendein Mist zusammengerührt und „KI“ draufgepappt.

Wahrheit jetzt auch

Auch Falschmeldungen wollen sie da jetzt mit KI erkennen.

Woher soll die KI wissen, ob eine Aussage wahr oder falsch ist? Am Sprachmuster erkennen?

Im Kampf gegen Desinformationen schließen sich das gemeinnützige Recherchezentrum CORRECTIV und Wissenschaftsteams der RUB sowie der Technischen Universität Dortmund in dem Projekt „noFake“ zusammen. Mithilfe von Crowdsourcing und Künstlicher Intelligenz (KI) sollen Falschmeldungen erkannt und widerlegt werden. Das Projekt wird vom Bundesforschungsministerium innerhalb des Forschungsrahmenprogramms zur IT-Sicherheit „Digital. Sicher. Souverän.“ mit 1,33 Millionen Euro gefördert und ist am 8. März 2022 mit einem Kick-off-Treffen der Projektpartner offiziell gestartet.
Faktenchecks durch Bürgerinnen und Bürger

Manipulative Falschinformationen untergraben die Demokratie und gefährden den gesellschaftlichen Zusammenhalt. Faktenchecks wirken dem entgegen, indem sie Desinformationen aufdecken. Die Bevölkerung ist zunehmend für das Thema sensibilisiert – und mit noFake sollen engagierte Bürgerinnen und Bürger nun selbst als Crowdworker Fakten checken. Dafür schaffen die Projektpartner die Plattform „CORRECTIV.Faktenforum“, auf der die menschliche Intelligenz der Crowdworker mit Künstlicher Intelligenz zusammenkommt.

Die Wissenschaftlerinnen und Wissenschaftler entwickeln in Zusammenarbeit mit CORRECTIV KI-gestützte Assistenzsysteme, die etwa bei der Erkennung potenzieller Falschinformationen, deren Kategorisierung sowie der Text- und Bildanalyse helfen. Seminare mit professionellen Faktenprüfern und -prüferinnen von CORRECTIV stärken die Medienkompetenz der Crowdworker.

Die RUB ist der Projektkoordinator von noFake. Sie ist mit der Arbeitsgruppe Kognitive Signalverarbeitung um Prof. Dr. Dorothea Kolossa und der Arbeitsgruppe Digitale Forensische Linguistik um Prof. Dr. Tatjana Scheffler vertreten.

Derselbe Laden.

Da wird irgendein Mist produziert, indem man KI auf irgendwelche Sprachmuster trainiert, die völlig willkürlich und nach politischer Überzeugung irgendwelcher „Wissenschaftlerinnen“ ausgesucht wurden, also effektiv nur ein elektronischer Stellvertreter für durchgeknallte Feministinnen gebaut, und das dann auf die Öffentlichkeit losgelassen.

Und helfen soll dann die „Bevölkerung“. Die dann mit Sicherheit genauso repräsentantiv, neutral und politisch gleichverteilt ist, wie die Autoren der Wikipedia. Also ganz links außen.

Mir fällt da ein Treffen ein. Hatte ich schon mal im Blog erzählt. Als ich noch bei München gewohnt habe, war ich dort mal auf einem Treffen von Fotojournalisten, die sich über Reise- und Tierfotografie unterhielten. Ich weiß nicht mehr, wie, irgendwie kamen wir auf Spinnen und ich hatte die Bananenspinne erwähnt, die mit Bananenlieferungen auch bei uns auftauchen kann und oft tödlich ist.

Schallend haben sie mich ausgelacht, was für ein Lügenbaron ich sei, was für einen Käse ich erzählte, ob ich sie für doof hielte, ihnen so einen Quatsch aufzutischen, das hätte ich wohl aus der „Spinne in der Yucca-Palme“ geklaut.

Just damals hatte ich mein erstes Android-Smartphone, auch dabei, und habe noch an diesem Stammtisch, als die mich noch auslachten, die Berichte gegoogelt. Kurz zuvor nämlich hatte irgendwo in Deutschland die Feuerwehr einen Supermarkt gesperrt. Irgendwo hatten sie wegen so einer Spinne auch mal einen ganzen Supermarkt in Plastikfolie eingewickelt und mit irgendeinem Gas geflutet, weil sie das Vieh nicht finden konnten und sicherstellen wollten, dass es tot ist. Die gibt es nämlich wirklich, gehören angeblich irgendwie zu den brasilianischen Wanderspinnen, sind wirklich hochaggressiv und tödlich. Und weil sie so aggressiv sind, sind sie zwar nicht die giftigsten, aber die tödlichsten Spinnen, weil sie für die meisten Toten durch Spinnen verantwortlich sind.

Die Gesichter hättet Ihr sehen sollen.

Entschuldigt hat sich natürlich keiner, so richtig eingestanden hat den Fehler auch keiner. Tonfall mehr so „jetzt hat er seinen Willen“, aber kein Einsehen. Die waren richtig angekottert, dass der Typ da so ein neumodisches Telefon hat, mit dem man Googeln kann, und nicht mehr der Mehrheitskonsens die Wahrheit diktiert.

Es war aber klar, was passiert ist:

Die kannten alle das Buch „Die Spinne in der Yucca-Palme“, und waren, wie viele Journalisten, dadurch darauf trainiert, alles für „urban legends“ zu halten, was sich so ähnlich anhört. Die waren auf Muster trainiert.

Was übrigens so schon falsch ist. Irgendwelche Leute haben sich mal dran gemacht, die Stories zu untersuchen und haben dabei festgestellt, dass die allermeisten Stories, die da als Lügenmärchen hingestellt werden, keine Lügen sind, sondern einen wahren, nachweisbaren Kern haben. Dass also eher der Glaube, dass es sich um Lügen handele, ein urban legend sei, als die Geschichten selbst.

Und wenn dann eine – wahre und belegbare – Story daherkommt, die in das „Spinne in der Yucca-Palme“-Schema passt, sind sich sofort alle Zuhörer sicher, dass das Fake ist, weil sie das Muster erkennen. Obwohl kein einziger von ihnen Ahnung von der Sache oder irgendetwas überprüft hat.

Das Kuriose daran ist ja, dass der ganze linke Komplex ständig schimpft, die Leute hätten ja alle nur „Vorurteile“. Egal, was man sagt, es ist immer „Vorurteil“, weil der linke Komplex ja grundsätzlich allen Leuten die Urteilskraft abspricht, die irgendwas an links kritisieren. Man kann nicht genug prüfen, anschauen, alt sein, Erfahrung haben, um das Prädikat „Urteil“ zu bekommen, alles nur ein Vorurteil.

Und dann gießt man eine Vorurteilsmaschine in Software, die einen Text nicht prüft, sondern allein aufgrund der Ähnlichkeit zu früheren Vorgängen einstuft.

Aber wehe dem Polizisten, der aufgrund seiner Erfahrung einen Schwarzen oder Araber am Bahnhof kontrolliert. Dann schreien sie alle racial profiling.

Die Uni Bochum ist auch weit abgestiegen.