Ansichten eines Informatikers

Ein „Lichtfeldobjektiv“?

Hadmut
30.11.2021 23:23

Einige Leser fragen an, ich solle mal was dazu sagen.

Einigen Lesern ist aufgefallen, dass auf Golem ein Artikel erschienen ist, wonach Informatiker, ein Spin-Off des Max-Planck-Instituts, über Kickstarter gerade ein Lichtfeldobjektiv für Vollformat-DSLR anbieten.

Ich solle doch mal was dazu sagen und das erklären.

Ja, Leute, ich weiß ja auch nicht, was die Genossen da treiben. Aber irgendwas werden sich die Genossen da schon gedacht haben.

Die Sache ist die, dass ich noch nicht (sicher) verstanden habe, was Lichtfeldfotografie überhaupt ist. Ich lese immer nur, was man damit alles tolles machen können soll, nämlich die Schärfe in einem Bild nachträglich, nach dem Fotografieren, in der Postproduction, festlegen.

Da gehen bei mir als Informatiker gewisse Warnlampen an, denn dazu muss zusätzliche Information gespeichert werden, ohne dass dazu mehr Speicherplatz zur Verfügung steht (weil es ja immer noch als ein einzelnes Foto mit einem Auslesevorgang des Sensors und nicht etwa als Video oder Bildsequenz gespeichert wird). Da muss dann zwangsläufig irgendwas anderes fehlen.

Mir fällt dazu vor allem die „Lytro“ bzw. die Firma Lytro ein, die zwei Kameramodell dafür anbot. Ich war drauf und dran, mir eine davon zu kaufen, habe es dann aber doch bleiben lassen, weil ich nicht herausfinden konnte, was ich damit eigentlich machen konnte. Man hört immer so theoretisches Blabla und Pseudographiken, wonach die Kamera das Licht speichert, wie es in die Kamera fällt, aber ich habe damals keine vernünftige Erklärung gefunden, was da passiert.

Ich habe lediglich eine Vermutung, eine reine Interpretation meinerseits, eine Vorstellung davon, wie ich das zuerst auslegen würde, aber keine Ahnung, ob das stimmt.

Ich habe dazu an die Funktionsweise des vor Jahrzehnten bei analog-Kameras ohne Autofokus noch üblichen Schnittbildindikators gedacht, bei dem ich früher auch mal eine Weile gerätselt hatte, wie der eigentlich funktioniert (eigentlich sehr banal, nicht die Funktion ist kompliziert, sondern sie zu verstehen). Es geht beim Scharfstellen einer Kamera eigentlich gar nicht so sehr um die Frage, ob etwas scharf oder unscharf ist, sondern eher um die Frage, wo es scharf abgebildet wird. Auf der Film-/Sensorebene, davor oder dahinter. Denn Unschärfe entsteht nicht (nur) aus Mängeln oder Unzulänglichkeiten des Objektivs, sondern vor allem daraus, dass die Ebene, auf der scharf abgebildet ist, vor oder hinter der Filmebene liegt, und sich dann auf der Filmebene die Lichtstrahlen nicht in einem Punkt treffen, sondern mathematisch einen Kegelschnitt bilden. Man kann sich die Lichtstrahlen, die von einem realen punktförmigen Objekt durch das Objektiv in die Kamera geworfen werden, als Kegel (mathematisch: Doppelkegel, also zwei Kegel, die sich an den Spitzen treffen) vorstellen, bei dem die Schärfeebene genau an der Spitze liegt. Und wenn der Film/Sensor dann eben nicht exakt in der Spitze liegt, sondern außerhalb der Spitze, dann ist der Kegelschnitt, also die Schnittmenge zwischen der Sensorebene und dem Lichtstrahlendoppelkegel eben kreisförmig, und das umso größer, je weiter die Schärfeebene (=Kegelspitze) vom der Film-/Sensorebene entfernt ist.

Verblüffend, wo einem die klassischen mathematischen Kegelschnitte (Hyperbel, Parabel, Kreis, Ellipse) so begegnen. Aber sie erklären den Schnittbildindikator.

Der nämlich besteht aus zwei halb geschnittenen Zylinderprismen, bei denen der eine das Licht aufnimmt, das von Links auf die Mattscheibe (die bei runtergeklapptem Spiegel an der Stelle der Bildebene liegt) fällt, und der andere von rechts. Ist das Bild scharf, dann treffen sich die Lichtstrahlen an derselben Stelle, weshalb beim Lichtbildindikator das Licht von links und das von rechts genau zusammentrifft, also beide Hälften im Indikator zusammenpassen.

Liegt das Bild aber hinter oder vor der Bildebene (=Mattscheibe), und ist es unscharf, dann liegt das daran, dass Bildebene nicht genau an der Spitze des Lichtstrahlenkegels liegen und deshalb nicht an derselben Stelle auf der Mattscheibe einschlagen. Weil der Schnittbildindikator nur selektiv das Licht von links oder rechts zeigt, sieht man da, dass die Lichtstrahlen gegeneinander verschoben sind, also ein unscharfes Bild liefern würden, wenn sie zusammen auf den Film träfen.

Verstanden?

Wenn ja: Glückwunsch! Dann habt Ihr auch den Phasenautofokus moderner Spiegelreflexkameras verstanden, die nämlich auch Pixel haben, die in die verschiedenen Richtungen gehen. Die Kamera macht eine schnelle Korrelation um zu erkennen, um wieviel die Bilder verschoben sind, und kann mittels Kennfeld oder Formel daraus direkt errechnen, um wieviel sie das Objektiv scharfdrehen muss, damit es passt, ohne sich da durch Ausprobieren langsam ranpirschen zu müssen wie beim Kontrastautofokus. Deshalb ist der Phasenautofokus auch schneller und effektiver.

Mein Verdacht ist nun, dass eine Lichtfeldkamera letztlich darüber funktioniert, dass da ganz viele kleine Prismen darauf sind, die nach dem Prinzip des Schnittbildindikators funktionieren. Ich weiß aber nicht, ob das stimmt und ob ich das richtig verstanden habe. So könnte man nämlich ein Objekt nicht mehr wie beim klassischen Foto scharf oder unscharf aufnehmen, sondern jeweils je nach Abstand von der Kamera unterschiedlich stark verschoben. Statt einem Bild hat man viele kleine Bilder, auf denen Objekte je nach Entfernung vom Objektiv verschoben sind (entlang der Ausrichtung der Prismen). Durch Korrelation (also Nachahmung dessen, was moderne Spiegelreflexkameras oder spiegellose Digitalkameras mit dem Phasenautofokus vor dem Foto machen) könnte man dann ausrechnen, wie weit ein Objekt von der Kamera entfernt ist. Im Prinzip eine Korrelation, das Errechnen, um wieviele Pixel das Objekt auf den Teilfotos verschoben ist. Quasi, als würde man die untere und die obere Hälfte des Schnittbildindikators als separate Bilder speichern und dann vergleichen. Man könnte damit also wie bei einer 3D-Kamera ein dreidimensionals Pseudobild aus Bildelementen in Ebenenausschnitten erstellen, also würde man solche Pappfiguren von Menschen gestaffelt hintereinander stellen, und die dann mit gewünschter Schärfe und Unschärfe zum Bild zusammenrechnen.

Ich weiß aber nicht, ob das so stimmt, weil ich noch keine brauchbare Beschreibung von Lichtfeldkameras gefunden habe. Das ist allein eine Überlegung, wie ich mir aus meinem Fotowissen etwas plausibel vorstellen könnte, was den beworbenen Eigenschaften vielleicht nahekommen könnte. Vor allem Lytro hat da ja ein Geschäftsgeheimnis draus gemacht. Das ist nur ein Gedanke, der aus meinem Fotowissen entspringt. Vor allem meinem Wissen über das manuelle und automatische Scharfstellen, denn damit hat es ja zu tun.

Weil aber von Mikroprismen die Rede ist, würde das meiner Vermutung nahekommen.

Der Knackpunkt ist: Ich habe bis heute kein einziges ordentliches Bild einer Lytro gesehen. Irgendwo hieß es mal, die seien pleite, anderenorts hieß es, sie seien der Patente wegen von Google gekauft (und verdaut) worden. Ich habe aber keinen einzigen Fall in Erinnerung, in dem jemand ernstlich mit dieser Lichtfeldkamera (oder den beiden, sie hatten ja dann zwei im Angebot) fotografiert hätte. Die Dinger sind irgendwie nie in der Praxis aufgetaucht.

Wenn sowas nun als Wechselobjektiv auftaucht, bin ich etwas skeptisch. Weil ich nämlich eigentlich denken würde, dass die Prismenstruktur zum Sensor passen und auf den abgestimmt sein müsste.

Wenn das Ding mit Carl Zeiss Jena entwickelt wird, dann ist das kein Mist, denn die wissen, was sie tun. Die können.

Ob man sowas haben will, ist eine andere Frage.

Ich will es mal so sagen:

Für normales Fotografieren springt mich das jetzt nicht so an, da würde ich mir für das Geld eher ein 24-70/2.8 oder 70-200/2.8 (habe ich ja und weiß, wie toll die sind). Zumal ich fürchte, dass die Bildqualität sehr leidet, weil es da ja auch im Video heißt, dass das Ding quasi 9 Fotos macht (wohl eine vereinfachte Darstellung). Da bräuchte man schon eine sehr hochauflösende teure Kamera, damit dann noch was ordentlich ankommt. Und viel Licht.

Andererseits könnte ich mir vorstellen, dass das bei Videoaufnahmen Vorteile hat, wenn man da nachträglich den Fokus auf Details lenken kann.

Und ich könnte mir vorstellen, dass man per Software mit den Tiefenebenen, die man damit erkennen und separieren kann, digital erstaunliche Effekte hinbekommen kann, die mit herkömmlicher Fotografie nicht möglich sind.

Das sind jetzt aber rein hypothetische Gedanken.

Wenn man viel Geld hat oder das nicht selbst zahlen muss und auf irgendeinen Forschungs- oder Firmenetat abrechnen kann, dann kann man sich das kaufen und mit rumspielen. Sollte aber bedenken, dass Lytro mit seinen Lichtfeldkameras nicht der Brüller war.

Da die aber schon ihre Finanzierung zusammen haben und das Ding dann eh gebaut wird, würde ich zur Geduld raten und einfach mal abwarten, was man damit machen kann. Statt überlegen und verstehen zu wollen, wie die Dinger funktionieren, würde ich da pragmatisch eher abwarten und mir die Ergebnisse mal anschauen, ob die einem passen.

Es gibt auch einige Firmen, die Fotoausrüstung vermieten. Anzunehmen, dass die dann auch sowas haben und man sich das dann einfach mal eine Woche mietet, um damit rumzuspielen. Denn erfahrungsgemäß stehen solche Dinge nach der ersten Begeisterung oder Ernüchterung auch gerne dann rum und fangen Staub.

Ich würde da – auch wenn das Ding später mehr kostet als auf Kickstarter – ganz pragmatisch abwarten, bis man mal echte Fotos (und nicht Marketing-Blabla) von echten Anwendern sieht, sich klarmachen, was man damit machen kann, und sich dann überlegen, ob man das braucht und es einem das Geld wert ist – oder man sowas mietet.

Heißt effektiv, dass ich dazu derzeit eigentlich gar nichts sagen kann.