Ansichten eines Informatikers

KI-Fotos als neue Methode der Fotoverrechnung

Hadmut
8.4.2023 14:32

Ein technischer Gedanke.

Schon seit langer Zeit gibt es verschiedene Techniken, um – mit unterschiedlicher Zielsetzung – Fotos nicht einfach zu fotografieren, sondern aus mehreren Fotos zusammenzurechnen. Beispiele:

HDR
Aus mehreren Fotos, die dasselbe zeigen und sich nur in der Belichtung unterscheiden, wird ein High Dynamic Range-Foto errechnet, also eines mit einem größeren Dynamiumfang, als der Sensor es aufnahmen oder der Bildschirm oder Drucker es darstellen können.
Panorama
Aus mehreren Fotos, die sich nur im Blickwinkel unterscheiden, wird ein großes Panoramabild errechnet, dessen Blickwinkel größer als der der Kamera ist.
Focus-Stacking
Aus mehreren Fotos, die sich nur in der Focus-Einstellung unterscheiden, wird ein Bild errechnet, dessen Schärfentiefe größer ist, als die Kamera es leisten kann.
Zeit-Kombinationen
Aus mehreren Fotos, die sich nur geringfügig im Aufnahmezeitpunkt unterscheiden, wird ein Bild kombiniert, aus dem störende Einflüsse eliminiert werden, beispielsweise um eine von Touristen belebte Szenerie von Touristen zu befreien, indem man zeitversetzt so aufnimmt, dass man von jeder Stelle der Ansicht mindestens ein Foto ohne Touristen hatk, und dann die touristenfreien Stellen zu einem Gesamtfoto kombiniert.

Dazu gehören auch unmögliche Fotos wie die bekannten Fotos von Frauen, die scheinbar nur ein Kleid aus schwappender Milch anhaben. Die werden erzeugt, indem die Frauen möglichst bewegungslos stehen bleiben, ein Assistent sie von der Leiter aus abschnittsweise mit Milch begießt, und die Teile der Bilder so kombiniert, dass ein geschlossenes Kleid aus Milch entsteht.

Zielfotos
Man kennt die seltsam anmutenden Fotos der Zieleinläufe bei Sportveranstaltungen, bei denen die Sportler und der Hintergrund seltsam verzerrt aussehen. Während ein normales Foto im Zeitpunkt konstant ist und auf der X-Achse die reale X-Achse eines Ortes zeigt, zeigen Zielfotos einen konstanten Ort und bilden auf der X-Achse die Zeit ab. Früher verwendete man dafür eine Schlitzkamera mit umlaufendem Film an der Ziellinie. Heute verwendet man Hochgeschwindigkeitsvideokameras, und verwendet aus jedem Videobild die vertikale Spalte in der Mitte, die man nebeneinander setzt.
Auflösungserhöhung
Manche Kameras verwenden ihren Antrieb zur Verschiebung des Bildsensors, der eigentlich dazu gedacht und gebaut ist, Erschütterungen während des Fotos auszugleichen, indem der Sensor mitbewegt wird, um mehrere Aufnahmen (vom Stativ) zu machen und dabei den Sensor jeweils um einen Bruchteil einer RGB-Pixel-Größe – also etwa um die Größe eines Einzelpixels – zu verschieben, diese zu kombinieren und damit ein Bild in höher Auflösung als der des Sensors aufzunehmen.

Es ist also nicht ungewöhnlich und seit der Digitalisierung Stand der Technik, dass man Fotos erzeugt, indem man mehrere bestehende Fotos kombiniert.

So gesehen könnte man die KI-Technik, mit der man Fotos synthetisiert und damit effektiv die Fotos kombiniert, mit denen die KI trainiert wurde, auch als nur eine neue Methode betrachten, bestehende Fotos zu kombinieren.

Ein wesentlicher Unterschied ist aber, dass man bei den beschriebenen Techniken die Ausgangsfotos alle selbst macht, während man bei der KI im Prinzip fremde Fotos zusammenplagiiert.

Es wäre aber durchaus interessant, ob es ausreichend ist, eine KI auf das Archiv eines Fotografen zu trainieren.

Es würde mich beispielsweise auch sehr interessieren, wie gut eine Text-KI Texte erstellen kann, die man ausschließlich mit den 20.000 Artikeln meines Blogs trainiert hat. Das mus sich unbedingt mal irgendwann ausprobieren.