Die Möwen sind zu groß
Auch das noch: Ein Fake.
Ich hatte im Artikel über Pappdrohnen diesen Tweet eingebunden:
Angeblich hat die Ukraine mit solchen Pappdrohnen eine ganze Reihe sehr teurer russischer Kampfflugzeuge zerstört. Die Russen fahren jetzt ihre Panzer und Schiffe mit Schutzgittern gegen solche Drohnen:
Патрульный катер «Грачонок » ВМФ России, с антидроновой решёткой, очень понравился крымским чайкам, которые теперь испражняются прямо на головы экипажу. pic.twitter.com/r34peLZiD8
— Hаталья Поклонская 💎 (パロディー) (@Poklonskaya80) May 12, 2026
Es gibt viele Bilder davon, dass Russen und Ukrainer mit Netzen und Gittern arbeiten, um sich vor Drohnen zu schützen. Ganze Straßenzüge sind unter zwischen den Häusern gespannten Netzen, und es gibt auch Fotos von Panzern, auf die man Schutzgitter montiert hat, damit Drohnen nicht mehr nahe genug an den Panzer kommen, damit deren Sprengladungen ernsthafen Schaden anrichten können. Das ist bekannt und eine generelle Taktik gegen Drohnenangriffe.
Es gibt jede Menge Fotos davon, etwa hier und hier. Oft von den Soldaten selbstgebastelt, weshalb die sehr individuell und improvisiert aussehen, teils aber auch geplant. Manche haben auch ein quaderförmiges Gestell, an dem irgendwelche Ketten oder Schläuche herunterhängen, um eine Art Vorhang zu bilden.
Der Gedanke ist also nicht so fernliegend, dasselbe mit Schiffen zu tun. Wenn es bei Panzern hilft, dürfte es bei Schiffen auch helfen.
Ein Leser führt eine längere Diskussion mit mir, weil er sich darüber aufregt, dass das Bild von diesem Schiff doch ein offensichtlicher KI-Fake sei: Die Möwen seien im Verhältnis viel zu groß. Die Viecher müssten über einen Meter groß sein und eine Spannweite von 3 Metern haben, um so auszusehen. Außerdem habe ihm die KI bestätigt, dass die Möwen zu groß sind.
Nun hatte ich mit Möwen zwar sehr selten, aber in Australien schon aus nächster Nähe zu tun. Bei Essen setzte sich mal eine vor mir auf den Tisch, um an meinem Essen mitzuessen. Nahm sich von meinen Pommes. Und schaute mich dabei immer kommunikativ an als wollte sie sagen „Die sind gut, gell?“. Dieses Vieh war so groß, und auch dessen Schnabel, dass ich es nicht auf eine Auseinandersetzung ankommen lassen wollte und lieber ein paar Pommes geopfert habe.
Wikipedia:
Die Mantelmöwe ist mit 61–78 cm Körperlänge und einem Gewicht von meist 1,5–2 kg die größte Möwenart.
So weit von einem Meter sind die nicht weg, aber im Vergleich zu den Fenstern und der Tür könnten die Möwen auf dem Bild trotzdem zu groß sein.
Wie dem auch sei:
Ich halte es für Beschäftigungsangriffe, wenn Leute zu sehr und zu ausführlich darüber diskutieren, ob ein Bild ein KI-Fake sei. Das führt nämlich nicht zu einem Ergebnis, weil wir dann nur noch damit beschäftigt sind, Bilder zu prüfen, und nicht mehr über den Inhalt nachdenken. Es ging im Artikel nicht um Möwen, sondern um Pappdrohnen.
Ich hatte das neulich schon mal (Stichwort „vergifteter Brunnen“), dass Leute immer öfter meine, dass wenn das Medium gefälscht ist, auch die Botschaft falsch sein müsse, also ob ein als gefälscht erkanntes Bild ein Beweis dafür sei, dass die Nachricht darin falsch, unwahr sein muss, aber die Möglichkeit außer acht lässt, dass es trotzdem wahr sein könnte.
Der Knackpunkt: Die Social Media haben sich so verändert, dass man Aufmerksamkeit nur noch mit Bildern bekommt, nicht mehr mit Text alleine. Ich merke das ja selbst, weil ich weder Lust habe, jeden Artikel mit gekauften Agenturfotos zu verzieren, noch mit KI-generierten Fotos. Ohne Bilder aber säuft man ab.
Also ist das bei all der Fake-Flut durchaus nachvollziehbar, dass Leute versuchen, auch eine wahre, aber unbebilderte Nachricht mit KI-Bildern aufzumotzen, damit sie in den Social Media noch Leser findet.
Anders gesagt: Der Gebrauch von KI zur Erzeugung von Fotos ist nicht auf Lügner beschränkt. Das Erkennen eines KI-generierten Fotos ist damit noch kein Beweis dafür, dass dessen Inhalt unwahr ist.
Ich halte es für sehr problematisch, wenn die Leute sich darauf zurückziehen, Bilder nach KI-Erzeugung zu untersuchen und nach Erkennungsmerkmalen von KI-Fotos zu suchen, statt die Ausssage selbst auf Wahrheit zu prüfen.
Nicht nur, weil man zu leicht auf die „vergifteter Brunnen“-Methode hereinfällt, nämlich dass jemand, der ein Interesse daran hat, dass man eine wahre Aussage nicht glaubt, erkennbare KI-Bilder davon verbreitet. Sondern auch, weil es nicht zielführend ist, denn die nächste Generation von KI wird solche „Anfängerfehler“ nicht mehr machen. Beispiel:
- Der Klassiker sind die Finger. Nahezu jedes KI-Bild aus früheren Zeiten, das einen Menschen zeigte, vermurkste die Finger. Zuviele Finger, zuviele Gelenke, Gelenke falsch herum, Finger vertauscht, oder auch mal drei Arme, eine Hand zuviel, eine Hand an der falschen Stelle, n Personen mit mehr als 2n Beinen, und all so einen Kram.
Aber wann habt Ihr das letzte Mal ein aktuelles KI-Bild mit vermurksten Fingern oder Gliedmaßen gesehen? Das hat doch drastisch abgenommen.
- Ich habe früher KI-Fakes immer an Asymmetrien erkannt. Wenn zum Beispiel Leute eine Brille aufhaben, die links und rechts unterschiedliche Scharniere hat. Oder ein Gebäude eine Treppe, die links und rechts andere Ränder hat. Autos, die links und rechts unterschiedlich geformt sind. Solche Fehler habe ich aber schon länger nicht mehr gesehen.
Solche Vorgehensweisen werden nicht mehr lange funktionieren. Die nächste KI-Version macht die Möwen richtig.
Mit keinem Wort aber sagt der Leser etwas dazu, ob die Information an sich, ob da Schiffe mit Gittern gegen Drohnen geschützt werden (oder, was mir egal war, aber im Tweet behauptet wurde, sich die Möwen darauf niederlassen und der Besatzung durch das Gitter hindurch auf den Kopf scheißen) wahr oder unwahr ist. Und entgegen der unplausiblen Größe der Möwen auf dem Foto erscheint mir alles drei plausibel, nämlich die Gitter, die Möwen und deren Fallenlassigkeiten.
Man wird nicht weit kommen, wenn man sich zu sehr darin verliert und verheddert, zu prüfen, ob ein Bild KI-erzeugt ist oder nicht, weil die Kriterien dafür weiter schwinden werden, und das eben immer weniger funktioniert, aber auch nicht sagt, ob die Aussage darin an sich wahr oder unwahr ist.
Schon vor der KI hatten wir 30 Jahre Photoshop. Früher sagte man, wenn man einem Bild nicht glauben wollte, das sei „gephotoshopped“. Die meisten störten sich daran aber nicht so sehr wie an einem KI-Foto.
Kurioserweise ist mir kein Fall bekannt, in dem jemand den Wetterbericht als unwahr ablehnte, weil er sagte, dass die Wettergraphiken doch eindeutig von jemandem gemacht und keine echten Fotos seien.
Wir müssen sehr aufpassen, dass wir uns nicht darin verheddern, KI-Bilder zu erkennen, statt die Aussage darin zu prüfen, weil wir das erstens nicht mehr lange werden tun können, die werden nämlich immer besser, und wir im Umkehrschluss dazu neigen, ein Bild für einen Beweis zu halten, wenn wir es nicht als KI erkennen, obwohl es in der normalen Fotografie schon gar so viele Tricks und Methoden gibt, die Unwahrheit zu fotografieren, ohne das Bild nachher noch verändern zu müssen. Und das „Freistellen“ von Bildobjekten, dass man sie so fotografiert, dass man sie danach gut ausschneiden und woanders reinpappen kann, ist schon lange Standard in der Fotografie. Im Prinzip könnte man Fotos auch mit der Behauptung ablehnen „das ist ja nicht echt, das ist doch nur ein Foto!“, und zu dem Schluss kommen, dass es Löwen nicht gibt, weil man immer nur Fotos von Löwen und noch nie einen in echt gesehen hat.
Wir müssen sehr aufpassen, dass wir uns nicht darin verzetteln und verlieren, nur noch die Darstellung der Information und nicht die Information selbst zu prüfen. Denkt mal an Fernsehzeitschriften: Deren Titelbilder sind in der Regel allesamt Fake. In einer Zeitschrift über Bildbearbeitung (Doc irgendwas) wurde das mal erläutert, wie dort gepfuscht und manipuliert wird, die ganze Bibliotheken an Haaren, Nasen, Brüsten haben, mit denen auch der traurigste Porträtschuss so aufgepumpt wird, dass es nach Fernsehzeitschrift aussieht. Und? Ist das ein Grund, das Fernsehprogramm darin für falsch zu halten?
Andererseits allerdings rechtfertigen viele der Frauenklatschblätter ihre Falschinformationen, ihre offenkundigen Lügen, damit, dass ihre Fotomontagen so grausam schlecht seien, dass doch jeder merke, dass die nicht echt sind, wenn also beispielsweise eine kinderlose Prinzessin mit einem schlecht reinmontiertem Baby im Arm gezeigt wird. Da ist das dann schon Grund, an der Information zu zweifeln, sogar Ausrede, warum es keine Lüge sondern Spekulation sei.
KI-Fotos werden nicht mehr weggehen.
Im Gegenteil, sie werden – ich hatte ja gerade diese beiden überraschend guten Informationsbilder, die mir ein Leser zu zwei Blogartikeln gemacht hatte, und die mir sehr gefallen haben – Teil des Arbeitsprozesses werden, so wie man bisher schon Graphiken, Schaubilder und so weiter als Teil der Darstellung verwendete.
Langer Rede kurzer Sinn: Auch wenn die Möwen zu groß und das Bild ein KI-Fake ist – sagt es was darüber aus, ob dort im Krieg auch Schiffe mit Gittern gegen Drohnen geschützt werden, wie man es bei Panzern tut?
Kurzer Rede langer Sinn: Denken wir das mal fort. Spinnen wir den Gedanken des Lesers mal weiter. Wir könnten also künftig nur noch solche Bilder überhaupt zur Kenntnis nehmen, die wir irgendwie überprüfen können. Alles, woran wir irgendetwas auszusetzen haben, müssen wir von der Kenntnisnahme und Besprechung ausnehmen.
Was bleibt dann aber übrig? Kommen wir dann nicht an den Punkt, an dem wir uns so eingraben, dass wir gar nichts mehr zur Kenntnis nehmen und in eine Psychose geraten, in der wir einfach alles um uns herum ablehnen? Woher weiß ich etwa, ob es tatsächlich einen Ukraine-Krieg – oder überhaupt eine Ukraine – gibt, und das nicht alles nur Medienfake ist?
Wenn man sich auf das beschränkt, was man nachprüfen kann, ist man in seiner Wahrnehmung sehr schnell auf Armlänge begrenzt und irgendwann auf dem Niveau derer, die die Erde für eine Scheibe halten, weil sie die Kugel anzweifeln. Oder sich darin verheddern, die Mondlandung für Fake zu halten.
Es ist die falsche Herangehensweise, sich darin zu vergraben, was man alles aus irgendeinem Grund ablehnen, oder, wie die Genderspinner sagen, „hinterfragen“ könne. Die Strategie, um jeden Preis Fehler vermeiden zu wollen, wird nicht funktionieren, weil man dann auch keinen Fortschritt mehr hat. Wer aus lauter Angst davor, etwas Vergiftetes zu essen, nicht mehr isst, verhungert. Und wer aus Flugangst kein Flugzeug besteigt, wird es kaum auf andere Kontinente schaffen.
Der Punkt ist: Wir müssen alle sterben. Irgendwann wird es uns passieren. Nehmen wir das Risiko aber in Kauf, haben wir bis zum Eintreten des Todes immerhin gut gegessen und schöne Länder bereist. Es geht darum, das spieltheoretische Maximum aus dem Leben herauszuholen und nicht jede Todesursache ausschließen zu wollen, weil wir sonst an dem sterben, was wir alles nicht machen. Nichts zu essen ist tödlicher als zu essen.
Und genauso ist es mit der Information. Wenn wir aus lauter Angst vor Fehlern Informationen nicht mehr verarbeiten, ist das Hirn tot. Wir können das Optimum, oder wenigstens ein vernünftiges Maß, nur dann erreichen, wenn wir auch Fehler in Kauf nehmen, und zwar so, dass wir aus Fehlerprüfung und Nutzen eine möglichst nah am optimalen liegende Strategie entwickeln. Es gäbe keine Wissenschaft, keine Ingenieurdisziplinen, wenn man nicht auch Fehler in Kauf nähme. Man muss sich aber über einen längeren Zeitraum hinweg selbst überwachen und mit anderen Informationen auf Konsistenz prüfen, und wenn möglich, dabei Fehler detektieren und beheben.
Ich halte es deshalb für einen fatalen Fehler, keine Fehler machen zu wollen. Das funktioniert so wenig wie der Versuch, nichts mehr essen zu wollen, um nichts Falsches zu essen.
Es ist, wenn man leben, arbeiten, produzieren will, schlichtweg unvermeidlich, auch Fehler in Kauf zu nehmen, solange man damit vernünftig umgeht. Und oft ist es auch so, dass aus der Erkennung eines gemachten Fehlers erst neues Wissen entsteht. Wissenschaft funktionert so.
Deshalb glaube ich, dass wir mit diesen KI-Fotoerkennern nicht so wirklich ans Ziel kommen, weil der Schaden größer als der Nutzen sein könnte.
Spieltheoretisch wird es nicht funktionieren, alles abzulehnen, woran wir irgendetwas auszusetzen haben oder was nicht geprüft ist. Das geht nur in Sonderfällen wie Hochsicherheitsbereichen. Der König kann einen Vorkoster einsetzen. Es gibt Berichte, wonach besonders gefährdete Vorkoster ihrerseits eigene Vorkoster hatten. Aber man kann das nicht endlos delegieren. Irgendwann muss einer reinbeißen, und irgendwann wird die Kette so lang, dass das Essen beim König dann kalt oder der Teller leer ist.
Es hilft uns nicht weiter, bei jedem KI-Bild zu intervenieren, weil es KI sei, wenn uns das dabei lähmt, die Information selbst zu bewerten. Und die Information war, dass billige Pappdrohnen den Gegner massiv gefährden, und nicht, wie groß Möwen werden können.