Ansichten eines Informatikers

Die stabilen Pfade evolutionärer Gesichtsdegenerationen

Hadmut
26.11.2025 14:56

Noch ein Experiment.

Oder: Die arme Mona Lisa …

Leserzuschrift:

KI-Degeneration

Hallo, Herr Danisch,
ich nehme Bezug auf den Artikel “KI-Degeneration” vom 24.11.2025.

Mir kam das ein wenig komisch vor, daß das angebene aus 1000 Einzelbildern bestehende Video bestimmte Merkmale einer Degeneration zu bestätigen scheint, und daher habe ich ein eigenes angefertigt, ebenfalls aus 1000 Einzelbildern, aber der Prompt lautete: “make an exact copy, dont change anything”. Und das Modell war nicht von MidJourney, sondern nennt sich “REALISTIC VISION V5.1”. (Die “Seed” war jeweils “Random”).

Das Ausgangsbild war eine AI-Reproduktion der Mona Lisa (absichtlich simpel gehalten) des o.g. Modells, und dann wurde sich von Kopie zu Kopie gehangelt:

https://www.youtube.com/watch?v=XqzovfOx3n4

Wie man sehen kann, sind die ersten Iterationen noch recht pittoresk ..

anschließend neigt das Modell zu einer gollum-artigen Glubschäugigekeit, scheint Alterungen zu durchlaufen und wieder zurückzuspringen, teilt das Bild urplötzlich auf und vereinigt es wieder.. am Ende sieht es aus wie eine Brillen-Werbung und geht dann über in was, was aussieht wie “Schminktipps für Teenager” … dann hab ich keine Lust mehr gehabt. 1000 Bilder waren ja auch erreicht.

Die Iterationen scheinen sich über weite Strecken nur minimal um ein paar Fixpunkte zu drehen – es passiert einfach nichts Entscheidendes.
Und dann plötzlich gibt es eine Art auffälligen “Fehler”, der sich dann fortsetzt.

Das erinnert mich an das “Long-Term Evolution Experiment (LTEE) von Richard Lenski”, der E.Coli seit 75000 Generationen entwickelt, (Das bekannteste Ergebnis war die Entwicklung einer Citrat-Verwertung unter sauerstoffreichen Bedingungen – etwas, was die ursprünglichen E. coli nicht konnten.)

Das ist eine interessante Frage, ob es gerade die Fehler sind, die KI da macht, und dann auch mit Versuch-und-Fehler (weil die Leute das nicht mögen oder nicht schauen), der gerade deshalb, weil er Fehler macht und dadurch Variationen erzeugt, zusammen mit der anschließenden Auslese, eine Art Evolution durchläuft. Denn auch in der Natur war und ist das durchaus so, dass die meisten evolutionären Variationen und Mutationen Fehlschläge und nicht oder schlecht lebensfähig sind, nur ganz wenige erfolgreich sind, sich dann aber – survival of the fittest – mit mehr Erfolg als die anderen fortpflanzen.

Könnte es also sein, dass gerade die Fehlerhaftigkeit der KI, die Unfähigkeit, Daten exakt zu reproduzieren, über die Selektion durch Zuschauerbeliebtheit eine Art evolutionären Prozess durchläuft?

Interessant finde ich wieder, welche Eigenschaften sehr schnell verloren gehen, und welche sich als stabil (evolutionär vielleicht erfolgreich, was das Zuschauerinteresse angeht) erweisen, wo es in diesen Iterationen „stabile Pfade“ gibt. In der linearen Algebra würde man so etwas als Eigenvektoren bezeichnen: Vektoren, die unter einer Transformation auf sich selbst bzw. ein Vielfaches von sich selbst abgebildet werden, während sich der Rest darum dreht oder verschwindet.

Kann es also sein, dass die KI-Systeme sich an Bildern festfressen, auf die sie stark trainiert wurden, und sie eben besonders viele solcher direkter Portraits bekamen, sie deshalb eine Art „Narren an Portraits gefressen“ haben, von Portraits besessen sind? Und dass sie vielleicht viele Bilder der Simpsons, von Gollum oder Macaulay Culkin bekommen haben? Oder vielleicht gelernt, dass die Leute aus den in vielen KI-Systemen auf einen Prompt angebotenen 2 oder 4 Variationen immer das mit den großen Augen wählen?

Manche regen sich ja so gerne über faule Schönheitsideale auf, die den Leute durch Werbung und Social Media aufgezwungen werden. Könnte durch KI gerade wieder passieren, aber vielleicht in Richtungen, die außer der KI gar keiner schön findet?