Ansichten eines Informatikers

Paradigmenwechsel in der Fotographie

Hadmut
24.12.2009 1:59

Fotographie ist auch nicht mehr das, was sie mal war. Und das ist toll.

Vor etwa 10 Jahren haben die Digitalkameras angefangen, die chemische Fotographie abzulösen – anfangs belächelt und teuer. Meine erste Digitalkamera habe ich im Herbst 1999 gekauft, Speicher war teuer, die Möglichkeiten beschränkt und die Ergebnisse ziemlich lausig – verglichen mit chemischer Fotographie. Seit etwa 5 Jahren werden kaum noch herkömmliche Kameras gebaut. Und seit etwa 2-3 Jahren kann man davon sprechen, daß die Digitalfotographie den chemischen Film qualitativ überholt. Mittlerweile ist das der Fall, sowohl was die Auflösung im niedrig-empfindlichen Bereich angeht, als auch die Hochempfindlichkeit über 1600 ASA. Die Entwicklung der Digitalphotographie ist an einem Punkt angekommen, an dem sie als nahe an ausgereift gelten kann (was man u.a. auch daran bemerkt, daß Kameras einfach wieder wie Kameras und nicht wie Laserwaffen und Tricorder aus Science Fiction aussehen), und inzwischen ist der Digital-Teil auch nicht mehr unbedingt der Teil, der die Bildqualität limitiert, sondern die Physik und die verfügbaren Glassorten. Der Teil der Entwicklung von Digitalkameras, der das Ersetzen von herkömmlichen Kameras betrifft, kann als mehr oder weniger abgeschlossen angesehen werden. Das zeigt sich unter anderem daran, daß die Kamerahersteller sich irgendwelchen Schnickschnack wie Gesichts-, Personen- und Lächelerkennung einbauen, um einen künstlich hohen Innovationszyklus aufrechtzuerhalten. Früher gab es Kameramodelle jahrelang. Dann kam die Entwicklung der Digitalkameras, die im Halbjahresrhythmus neue Modelle hervorbrachten um mit der Entwicklung Schritt zu halten. Weil das nicht mehr geht, werden jetzt solche Kuriositäten entwickelt.

Es gibt aber noch eine ganz andere Entwicklung, die wirklich interessant ist: Die Bildverarbeitungsalgorithmen. Damit meine ich nicht den üblichen Tünnef der Bildmanipulation oder der Beauty-Retusche, sondern eine Kategorie von bestimmten Verfahren, die nicht nachträglich bildverändernd, sondern bilderzeugend sind, und die die Fotographie durchaus verändern:

  • Panoramabilder entstehen aus dem Zusammenfügen mehrerer Einzelbilder. Zugegeben, es gab früher schon Panoramakameras mit chemischem Film (beispielsweise die mit umlaufendem Schlitz) und schon die erste reguläre Digitalkamera von Canon, die Digital Ixus von 2000, hatte Unterstützung für solche Panoramaaufnahmen und entsprechende Software. Aber damals war das qualitativ noch nicht überzeugend und wurde auch nicht so ernst genommen. Heutige Methoden liefern eine viel bessere Qualität. Zwar ändert das noch nicht das Fotographieren als solches, aber der Ausschnitt ändert sich fundamental. Der Fotograph ist nicht mehr an Ausschnitt und Format gebunden, sondern macht es selbst.
  • Inzwischen kommen die HDR-Aufnahmen in Mode, die Bilder mit einer Dynamik erzeugen, der weit über das Vermögen eines Films oder eines Sensors hinausgehen.

    Das heißt aber, daß klassische Regeln der Fotographie wie die Vermeidung von Gegenlicht, das Aufhellen durch Reflektoren, die Spotmessung, Handbelichtungsmessung, das Zonensystem, also vieles von dem, was früher mal das Handwerk des Fotographen war, massiv an Bedeutung verloren hat. Man verändert nicht mehr das Objekt, bis es vom Blendenumfang her fotographierbar ist, sondern man fotographiert Belichtungsreihen rauf und runter, bis man alles „im Kasten hat”, und macht dann hinterher am Rechner etwas, was in den begrenzen Kontrastumfang von Bildschirm oder Papier paßt.

    Manche sagen, daß HDR-Fotographie die Realität verfälscht. Sieht ja oft auch irreal aus. Tatsächlich aber erlaubt sie das Fotographieren einer Realität, in die der Fotograph sehr viel weniger eingreifen muß.

  • Normalerweise spielt die Tiefenschärfe (die vor einigen Jahren in Schärfentiefe umbenannt wurde) eine sehr große Rolle bei der Bildgestaltung. Sowohl als kreatives Mittel zur Bildgestaltung im positiven Sinne, als auch als physikalische Schranke des Machbaren im negativen Sinne.

    Wollte man früher etwas fotographieren, das von vorne bis hinten scharf sein sollte, mußte man zu Tricks greifen. Beispielsweise mehr Licht oder längere Belichtungszeit um auf kleinere Blenden zu kommen, die die Schärfentiefe steigern. Und wenn das nicht reicht, spezielle Objektive mit einer Blendenöffnung vom Durchmesser einer Nadel. Oder die Schärfentiefedehnug nach Scheimpflug mit Balgenkameras oder Tiltobjektiven. Aber alles irgendwo begrenzt. Manche Produktfotographen fotographieren deshalb nicht mehr, sondern digitalisieren und raytracen das Produkt fotorealistisch, weil man beim Raytracen natürlich volle Schärfe bekommen kann.

    Inzwischen gibt es Software, die verschiedene Bilder auf eine dritte Weise kombiniert, nämlich nach ihren Schärfeebenen. Man stellt verschiedene Fotos mit verschiedenen Entfernungseinstellungen her, und die Software kombiniert sie (was aber eigentlich nicht richtig funktionieren kann, denn wenn ich den Hintergrund scharf habe, ist der Vordergrund unscharf und deckt damit mehr von Hintergrund ab, als wenn der Vordergrund scharf ist…).

  • Auch etwas anderes kommt wieder in Mode. Stereofotographie gab es eigentlich schon im 19. Jahrhundert, vor allem bei der Aktphotographie. Da gab es dann so kleine erotische Schweinereien, die man mit der Stereobrille betrachten konnte. Dann waren sie lange aus der Mode und inzwischen kommen sie wieder, es gibt inzwischen von Fujifilm sogar eine digitale 3D-Kamera.

    Zugegeben, das Prinzip ist nicht neu, einfach zwei Bilder zu machen ist keine Innovation und nicht digital-spezifisch. Aber vermutlich wird es jetzt erstmals für die Allgemeinheit einfach verfügbar werden. Kameras sind billig, und die Doppelaufnahme kein technisches Problem mehr.

    Das bedeutet aber, daß man die Art zu fotographieren ändern kann. Früher hat man mit Schärfentiefe gespielt, um ein wichtiges Objekt von einem unwichtigen Hintergrund abzuheben. Vorne scharf, hinten unscharf. Vorne hell, hinten dunkel. So in der Art. Das muß man aber nicht mehr, wenn das wichtige Objekt aufgrund der dreidimensionalen Darstellung ersichtlich im Vordergrund steht. Plötzlich kann der Hauptgegenstand vorne stehen und genauso scharf, genauso hell, genauso strukturiert wie der Hintergrund sein, er steht trotzdem vorne.

Das heißt, daß die Technik sich inzwischen weitgehend auf die Bildgestaltung auswirkt – das gab es in den letzten ca. 140 Jahren der Fotographie so nicht. Oft hört man die (ebenso flache wie falsche und blöde) Aussage, daß nicht die Kamera, sondern der Fotograph das Bild macht. Das hat so noch nie gestimmt, jeder Handwerker weiß, daß gutes Werkzeug die Voraussetzung guter Arbeit ist. Aber nun beeinflußt die Technik nicht mehr nur die Bildqualität, sondern die ganze Bildgestaltung. Bisher war es so, daß ein Foto ein zweidimensionales rechteckiges Abbild war, und die Technik nur eine untergeordnete Rolle spielte. Blende, Belichtungszeit, Brennweite, Filmempfindlichkeit, Standpunkt. Das war es im wesentlichen für 130 – 140 Jahre. Und nun ist das ganz anders. Das Paradigma Fotographieren ändern sich gerade fundamental.

Ich für meinen Teil hätte nun gerne eine Insektenaugenkamera mit einigen hundert oder tausend Facetten, die aber nicht nur eine Photozelle, sondern in jeder Facette eine komplette kleine Digitalkamera haben. Ein Schuß und Aufnahmen von allen Seiten.

2 Kommentare (RSS-Feed)

yasar
28.12.2009 11:24
Kommentarlink

Meinst Du jetzt eine “Insektenauge”, daß nach allen Seiten fotografiert und damit eine rundu8msicht in alle Richtungen hat, oder so etwas wie die kugelförmigen Detektoren in Teilchenbeschleunigern, die das im Zentrum von allen Seiten “fotografieren”, d.h. eine große Kugel als Fotoapparat, daß das Objekt in seinem Mittelpunkt von allen Seiten fotografiert? So jedenfalls könnte man Deinen letzten Satz auch interpretieren.

😉


Steffen
3.1.2010 22:56
Kommentarlink

Vom menschlichen Sehapparat wurde mal gesagt, daß das Auge an sich ein ziemlich lausiges optisches Gerät sei, daß aber die Bildverarbeitung dahinter genial ist.

Mit diesen Bildverarbeitungsalgorithmen dürfte man sich einen Schritt weiter an das annähern, was im Hirn bei der Weiterverarbeitung passiert. Außerdem ist das Auge ja gerade keine statische Kamera, sondern die Bildempfindung ist Ergebnis eines sehr dynamischen und rückgekoppelten Vorganges.

Panoramabilder: Simuliert das Bewegen des Auges, und das Hin- und Herschwenken des Kopfes bzw. des ganzen Körpers beim Betrachten einer Szene.

HDR: Simuliert den Effekt, daß die Lichtempfindlichkeit des Auges sofort nachgeregelt wird, je nachdem ob man in den hellen Himmel oder in eine dunkle Ecke schaut.

Multiple Fokusebenen: Simuliert den Effekt, daß beim Betrachten eines Gegenstandes das Auge sich sofort auf den jeweiligen betrachteten Bildbereich fokussiert.

Stereo 3D Fotographie: Natürlich ganz direkt die Aufteilung in zwei Bilder für die beiden Augen, die dann von Hirn zu einer 3D-Empfindung zusammengesetzt werden.

Das derzeit ultimative Bild wäre also wohl ein Panoramabild in HDR, mit vollständiger Tiefenschärfe und als Stereoaufnahme…