Degeneration durch digitale Inzucht – droht die digitale Epilepsie?
Aus der Natur und vom Menschen wissen wir, dass man durch Inzucht, durch eine Art genetischen Eigenplagiats, degeneriert. Man produziert Idioten oder degenerierte Visagen (berühmt die „Unterlippen“, eigentlich die ganzen vorstehenden Unterkiefer und gleichartigen Gesichter der Habsburger).
Nun scheint es so einen Effekt in der KI zu geben.
Hier beschreibt einer, dass die Bilder, die ChatGPT erzeugt, immer gelbstichiger werden.
Warum?
Weil es auf Webseiten immer mehr KI-erzeugte Bilder gibt, auf die dann wieder KI trainiert wird, und die dann einen Trend immer mehr verstärken. Ich könnte mir vorstellen, dass viele Leute bevorzugt warme Töne ausgesucht haben, Holz und so etwas, und es dadurch zu einer Art digitalen Inzucht kommt, weil sich die KI auf KI-erzeugte Bilder trainiert, und das Ganze dann degeneriert. Es gibt schon eigene Software, um ChatGPT-Fotos nachträglich zu korrigieren (siehe
Und dieser Effekt wird stark zunehmen, je mehr KI-Fotos auf den Webseiten erscheinen.
Denselben Degenerationseffekt werden wir aber auch bei Texten erleben.
Ich hatte es gerade davon, dass die KI auffällig oft juristische Entscheidungen halluziniert, die Leute dem aber immer mehr glauben.
Und ich hatte schon berichtet, dass die KI versucht, gefällig zu sein, dass sie – gerade dann, wenn man da einen eigenen Account hat und Stammkunde ist – zumindest bei manchen Systemen versucht, sich dem Kunden anzupassen, dem Kunden zu erzählen, was er hören will – er will ja wieder kommen. Ich habe das schon erlebt, dass wenn ich einer KI widerspreche, sie sich sofort entschuldigt und in meine Richtung „korrigiert“.
Und damit kann dann die Rechtsprechung auf links gebügelt werden.
Denn Leute werden von der KI, die lernt, was der Kunde will, halluzinierte Gerichtsentscheidungen bekommen, die ihnen „passen“. Die werden sie dann auf Webseiten und in Foren zitieren. Dort wird sie die KI dann wieder als Trainingsmaterial auflesen – und der Inzucht-Kreislauf beginnt.
So, wie die Bilder von ChatGPT vergilben, so werden die Texte von KI nach links wegkippen. Und weil immer mehr Richter, Journalisten, Social-Media-Schreiber aus KI abschreiben, wird dann die gesamte Meinungslage degenieren.
Dazu braucht man nicht erst KI, das ganze Rumgelinkse und der Feminismus sind schon durch Inzucht und Eigenkopie erzeugte Verblödung. Wir erleben ja die ganze Zeit schon geistige Inzucht, weil die nur noch sich selbst zuhören.
Mit KI wird das dann aber im großen Maßstab Einzug in die Meinungsbildung haben.
Und es wird nicht nur die Meinung betreffen. Auch Back- und Kochrezepte, Musik, Gedichte und so weiter werden degenerieren. Zum Beispiel ins Vegane abdriften oder nur noch in Gendersprache. Das ist übrigens ein hübscher Gedanke, dass wenn man KI in so einer Loopback-Schleife mit Gender-Sprache füttert, dass dann noch mehr verblödet als durch Feministen alleine.
Und das wird dann richtig übel, wenn das ein Ausmaß annimmt, an dem Menschen Teil dieser Feedback-Schleife werden, weil sie selbst anfangen, der KI zu glauben. Und im Prinzip sind sie das ja auch schon, weil die meisten Bilder ja noch nicht von KI selbst auf Webseiten gepackt werden, sondern da immer noch Menschen dazwischen sind, die sie aus der KI auf die Webseite kopieren.
Eigentlich ein wunderbares Thema für einen dystopischen Roman.
Und eine Riesengefahr: Denn wir sind gerade dabei, Industrie und Verwaltung auf KI umzustellen. Was aber, wenn sich die KI in Feedback-Schleifen hochschaukelt und eskaliert, es also quasi zu einer Art Epilepsie der KI kommt und alles ausfällt oder durchdreht?
Kennt Ihr noch den Film Wargames?
Wo man – sehr prophetisch – die Kriegführung einem Computer überlässt und der dann nicht mehr zwischen Spiel, Simulation und Atomkrieg unterscheiden kann und gerade noch – Hollywood Happy End – rechtzeitig selbst einsieht, dass es „Spiele“ gibt, die man nicht gewinnen kann, und deshalb vom Atomkrieg absieht und doch lieber Schach spielt.
Was aber, wenn die KI sich in einen Krieg steigert?
Oder sich hineinsteigert, Bankkonten zu kündigen, wenn sie gewisse Zahlungsmuster erkennt? Dass man jeden kündigt, der an einem 14. des Monates eine Überweisung tätigt, die genau doppelt so viel wie eine Überweisung am 8. desselben Monats beträgt? Weil es mal Verbrecher gab, bei denen das zufällig so war, und die KI lernt, dass das mit Kündigungsgrund korrelliert, und dann hochschaukelt?
Wir gehen gerade schnurstracks in eine riesige Gefahr, nämlich die große Feedback-Schleife.
(Spätestens) aus der Systemtheorie wissen wir, dass positiv rückgekoppelte Systeme instabil sind und praktisch immer eskalieren, statt zu konvergieren.
Das dürfte noch zu einem KI-Crash führen. Ähnlich einem Börsencrash. Aber weil die Börse ja auch schon auf KI macht, könnte das zusammenfallen. Und dann alles zusammenfallen.