Ansichten eines Informatikers

Nikon D800 ohne Anti-Aliasing Filter?

Hadmut
13.10.2011 13:10

Mich bläht gerade aktuell eine Überlegung: Falls die Gerüchte um die D800 zutreffend sind, nehme ich sie dann mit oder ohne Anti-Aliasing Filter?

Mit der Digitalfotografie ist das so eine Sache.

Gegen Ende der Analogfotografie (die mit dem chemisch zu entwickelnden Rollfilm, falls den noch jemand kennt…) gab’s da einfach keine technischen Neuerungen mehr. Das war fast nicht mehr innovationstauglich. Neue Modelle von Profikameras gab es ungefähr alle 10 Jahre.

Dann kam der große Umstieg von analog auf digital. Runde 10 Jahre gab es damit ständig Fortentwicklungen, man konnte jedes Jahr neue Kameras kaufen, wie wirklich irgendwas mehr oder besser konnten, neue Features hatten, ein Fortschritt waren. Irgendwann waren die digitalen aber ausgereift, und insbesondere an die physikalischen Grenzen (u.a. Abbildungsleistung von winzigen Objektiven mit billigem Glas, Beugung am Spalt usw.) angekommen. Seit ein paar Jahren kommt nichts wirklich neues mehr, und der Pixel-Wahn hat sich auch als Sackgasse erwiesen, man geht wieder zurück.

Im Consumer-Bereich kommen die ganzen Software-Gimmicks, wie Video, Gesichtserkennung, automatisch Auswahl des besten Bildes, HDR, Panorama, alles in der Kamera. Ist genaugenommen aber nicht mehr Fotografie, sondern Nachbearbeitung des Aufgenommenen. Echten technischen Fortschritt gibt’s gerade nicht mehr so. Dafür werden die Produktzyklen wieder länger, Investitionen verdunsten nicht mehr so.

Allerdings mühen sich die Hersteller inzwischen ziemlich ab, noch irgendwelche „Neuigkeiten” zu finden – oder vorzugaukeln. Das ist doppelt schwierig, weil es nicht nur hunderte Kameras auf dem Markt gibt, gegen die man sich durchsetzen muß, sondern weil inzwischen nahezu jeder Mensch in den Industriestaaten mindestens drei Kameras und zwei Fotohandys hat, und man ihm erst mal erklären muß, warum er schon wieder Geld ausgeben soll. Mißtrauen gegenüber echten und vermeintlichen Neuigkeiten ist angebracht.

Derzeit brodeln die Gerüchte hoch, daß Nikon demnächst den Nachfolger der D700 vorstellt. D800 soll er heißen.

Darauf warte ich schon lange. Als ich 2009 mein altes Kameragelump zum Teufel gejagt und mir was neues gekauft habe, habe ich lange gegrübelt, ob Nikon oder Canon. Canon macht die besseren Kameras, Nikon die besseren Objektive (grob und im Durchschnitt gesagt, jetzt nicht wieder irgendwelche Detaildiskussionen anzetteln). Die Überlegung war, neben einer Reihe mal besserer Objektive zwei Gehäuse zu kaufen, weil man einfach zwei braucht. Als Ausfallersatz, um nicht ständig Objektive wechseln zu müssen, um schneller zu sein, damit kein Dreck reinkommt und sie einem nicht herunterfallen. Ich wollte dazu eine mit kleinem und eine mit großem Sensor. Bei Canon gab’s genau was, was ich wollte, die EOS 7D und die EOS 5D Mark II. Hab mich aber wegen der Objektive für Nikon entschieden. Und bei denen gab’s da die D300s und die D700, die meines Erachtens beide den jeweiligen Canons unterlegen sind. Die D700 ist zwar eine sehr gute Kamera, aber für vieles veraltet. Kein Video, eine für meine Einschätzung (das würde aber auch ein separater Artikel) zu niedrige Auflösung bezogen auf Vollformat. Also hab ich mir schweren Herzens die D300s gekauft, auch einige nur DX-taugliche Objektive und beschlossen, auf den Nachfolger der D700 zu warten. Fukushima kam noch dazwischen.

Nun brodelt’s aber heftig.

Canon wird in den nächsten Tagen irgendwas großes neues ankündigen, Nikon ebenfalls. Da ich den ganzen Nikon-Krempel schon habe und noch ein Vollformat-Gehäuse brauche, ist das klar, daß es auf eine D800 hinausläuft, wie auch immer die aussehen wird.

Etwas im Magen liegt mir das Gerücht, daß sie um die 40 Megapixel haben soll. Nicht, daß ich das nicht schätzen würde. Ich habe auch Objektive, die sowas von der Abbildungsleistung packen. Und gegenüber den bisherigen 12 wäre es ein Schritt, der eine merkliche und nicht nur eine eingebildete Verbesserung bringt, aber auch heftige Nachteile wie Rauschen und geringere Empfindlichkeit. Und nur etwa 4 Bilder pro Sekunde soll sie schaffen. Na gut, wir schauen’s uns an.

Jetzt der springende Punkt:

Angeblich soll es sie in zwei Versionen geben, mit und ohne Anti-Aliasing Filter.

Vor der Entscheidung stand ich noch nie.

Was ist das überhaupt? Schwer zu erklären.

Ein Kamera-Sensor betreibt die Abtastung eines Signals. Und zwar nicht räumlich kontinuierlich, sondern nur an endlich vielen Stellen, nämlich den Pixeln. Und damit kommt man in das sogenannte „Abtasttheorem” (gehört in den Bereich Signalverarbeitung, Fouriertransformation und so). Das Abtasttheorem besagt, daß man mit einer Abstastung nur Frequenzanteile bis maximal zur halben (präziser gesagt unterhalb der halben) Abtastfrequenz aufnehmen kann. Wenn man also beispielsweise mit 20 kHz ein Tonsignal aufnimmt, kann man damit nur Frequenzen bis zu 10 kHz eindeutig aufnehmen. Frequenzen, die darüber liegen, werden dummerweise nicht ausgeblendet. Hohe Frequenzen erzeugen natürlich ebenfalls Meßwerte, die aber ebenso aussehen wie die niedrigeren. Wenn ich mit 10kHz abtaste, dann erzeugt ein Signal mit 12 kHz dieselben Meßwerte wie eines mit 8 kHz. Man kann also beim Abspielen dann ein 8kHz-Signal hören, das gar nicht da war, weil die Meßwerte die gleichen sind.

Deshalb ist es beim Messen unheimlich wichtig, Signale oberhalb der halben Meßfrequenz auszublenden, wenn die Gefahr besteht, daß sie auftauchen. Dazu verwendet man beispielsweise einen vorgeschalteten Tiefpaß, der nur die niedrigen durchläßt. Dann wird’s zwar etwas dumpf, aber störsignalfrei.

Bei der Fotografie gibt es solche Effekte auch. Moire-Muster. Wenn man (man merkt es vor allem in den niedrig aufgelösten Monitoren von Videokameras) jemand mit gestreiftem Hemd aufnimmt, kann es zu gruseligen Störeffekten kommen. Das sind dann diese Frequenzechos, die zusätzlich noch Schwebungen erzeugen können. Ganz widerlich und problematisch. Manche professionelle Fernsehstudios schreiben ihren Gästen vor, keine klein gestreifte Kleidung zu tragen.

Die Gegenmaßnahme ist – der Tiefpaß. In diesem Fall ein optischer.

Zyniker sagen, daß die meisten Kameraobjektive so schlecht und unscharf sind, daß sie selbst schon den Tiefpaß bilden und es daher bei billigen Kameras gar nicht mal so darauf ankommt. Fachleute wissen, daß die Zyniker da recht haben.

Trotzdem hat man im allgemeinen vor den Digitalsensoren noch einen „Anti Aliasing Filter”, (siehe auch Wikipedia), der das Bild einfach künstlich etwas unschärfer macht, also ein Tiefpaß ist. Obwohl ein solcher Filter das Bild natürlich im Prinzip schlechter macht, sieht es besser aus, weil die Störsignale durch Frequenzen, die sich an der Abtastfrequenz spiegeln, unterdrückt werden.

(Das ganze wird noch dadurch kompliziert, daß normale Digitalkameras keine einheitliche Abtastfrequenz haben. Normale Sensoren können pro Pixel nur einen Grauwert messen und bekommen dazu Farbfilter in Rot, Grün oder Blau, nach dem sogenannten Bayer-Pattern. Weil das Auge für grün am detailempfindlichsten ist, spendiert man mehr grüne als andere Pixel. Deshalb haben die Kameras für grün eine höhere Abtastfrequenz als für die anderen Farben, und nicht alle Pixel sind äquidistant.)

Was hat nun Nikon vor, wenn sie ein Modell ohne diesen Filter anbieten?

Schwer vorherzusehen, wie sich das auswirkt.

Man könnte freilich unterstellen, daß sie mit einer 40MP-Kamera im Kleinbildformat ohnehin schon an die Grenze der Objektive gehen und deshalb kein zusätzlicher Filter mehr nötig ist. Oder sie sind doch nicht an der Grenze und wollen diese künstliche Unschärfe entfernen, um das wirklich knackscharf zu bekommen – weil heute so auf die Qualität geguckt wird, daß jeder über 40 Megapixel spotten würde, wenn die nicht rasiermesserscharf rüberkommen. Oder sie büßen durch die hohe Auflösung soviel Lichtstärke ein (bzw. gewinnen zu wenig dazu), daß sie versuchen, diesen Dämpfungsfilter aus dem Strahlengang zu eliminieren um schlichtweg mehr Licht reinzukriegen und vielleicht ne halbe Blende zu gewinnen.

Kann gut sein, daß die effektive Bildqualität dadurch besser wird, aber man mehr Nachbearbeitung am PC benötigt, weil Aliasing-Effekte nun nicht mehr optisch, sondern algorithmisch entfernt werden müssen.

Ob das Gerücht aber stimmt und wie sich das dann tatsächlich auswirkt – weiß ich auch nicht. Die ganze Spekulation ist derzeit nutzlos. Man wird abwarten müssen, bis die Modelle raus sind und sich dann einfach angucken, welche Bilder einem besser gefallen.

Man muß sich mit der Fouriertransformation und Signaltheorie nicht auskennen. Aber manchmal hilft’s etwas beim Verständnis.

14 Kommentare (RSS-Feed)

SH
13.10.2011 15:17
Kommentarlink

> Allerdings mühen sich die Hersteller inzwischen ziemlich ab, noch irgendwelche „Neuigkeiten” zu finden – oder vorzugaukeln.

Ein höherer Dynamikumfang des Sensors wäre zur Abwechslung mal ganz nett, damit z.B. ein Bild mit Sonne drauf nicht wahlweise aussieht, (a) als wäre da ein undefinierbarer großer weißer Fleck am Himmel oder (b) als wäre alles andere, was ein bisschen dunkler ist, tiefschwarz.


Hadmut
13.10.2011 18:24
Kommentarlink

@SH: Mehr Dynamik wär toll, aber das kann man nicht einfach mal so bauen.

Dynamik setzt nämlich einen größeren Signal-Rauschabstand voraus, und den bekommt man derzeit aber nur durch größere Pixel hin, die wiederum die Auflösung verringern und andere Probleme haben.

Irgendein Hersteller, ich glaube Fuji, hat Sensoren, bei denen es zu jeder Farbe immer zwei Pixel gibt, ein großes und ein kleines, die miteinander verrechnet werden um mehr Dynamik zu bekommen. Dadurch wird aber noch viel mehr Platz auf dem Chip verbraucht und die Auflösung geht runter,

Ich fände es dazu nützlicher, wenn die Kameras HDR besser unterstützen würden und schnelles Bracketing mit obengelassenem Spiegel könnten. Als Nikon kürzlich mal aufgefordert hat, Wünsche für neue Kamera-Features einzureichen, habe ich denen eine Liste geschickt, u.a. auch das. Wenn ich aber sehe, daß sie auf 4 Bilder / Sekunde runtergehen, wird das eher schlimmer als besser.


Robert
13.10.2011 17:01
Kommentarlink

Wer wissen möchte, wie Bilder und Frequenzen überhaupt zusammenhängen, dem sei folgende Einleitung in das Thema Fourier-Theorie ans Herz gelegt:
http://sharp.bu.edu/~slehar/fourier/fourier.html

Erst nach dieser Einleitung hat das ganze Gerede vom Frequenzraum für mich Sinn ergeben. An meiner Uni wurden nämlich die entscheidenden Grundlagen überhaupt nicht eingeführt; trotzdem wurde ständig von Frequenzen und dem Frequenzraum geredet.

Viele Operationen machen jetzt auch erst richtig Sinn, z.B. Laplacian Pyramids machen im Frequenzraum plötzlich ungemein viel Sinn.


Christian Sädtler
13.10.2011 19:50
Kommentarlink

Es gibt Anbieter welche Kameras entsprechend umbauen. So könntest du mit einer Gebrauchten das Ganze testen. Das gibt es auch für den Infrarotfilter in der Kamera.
Frag mich nicht nach einem Link. Ein bekannter hatte mir nur davon erzählt, da dieser sich mit Infrarotfotografie befasst hatte.


Eldoran
13.10.2011 20:08
Kommentarlink

Ich besitze eine Olympus E-P1 (mico 4/3). Allerdings ist bei einem gutem Objektiv auch bei dieser Pixelgröße (ca 1/4 der Fläche und 12 Megapixel) definitiv der Antialiasing Filter notwendig. Die Nachfolgemodelle haben einen schwächeren Filter, dafür aber mehr Moire…


SH
14.10.2011 10:25
Kommentarlink

@Hadmut: ich weiß, dass das kein einfaches Problem ist. Aber das, was sonst noch so an marginalen Neuerungen kommt (z.B. ob man das Display ausklappen und schwenken kann), interessiert mich einfach nicht. Und so bleibe ich erst mal bei meiner 50D, bis da mal signifikante Fortschritte gemacht werden. Ist ja zur Abswechslung auch mal ganz schön, nicht andauernd über einen Kameraneukauf nachdenken zu müssen 😉


Hadmut
14.10.2011 11:11
Kommentarlink

@SH: Da hast Du völlig Recht.

Aber ich habe ja noch keine digitale Vollformatkamera. Es geht also nicht (bzw. endlich nicht mehr) „andauernd über einen Neukauf nachdenken” zu müssen, sondern einmalig über einen, der ein paar Jahre hält.

Die D300s hab ich nun fast zwei Jahre und bisher ist die prima, stabil, dauerhaft und hält locker nochmal 2-3 Jahre, aber ich brauche eben ein Doppel und dazu etwas, was mal länger hält. Insofern würde mir das mit der D800 vermutlich schon ins Konzept passen, und dann wäre mal 5 Jahre Ruhe.


Stecki
14.10.2011 10:38
Kommentarlink

Zu

> Echten technischen Fortschritt gibt’s gerade nicht mehr so.

leicht OT die Frage, ob nicht Entwicklungen im Bereich Lichtfeldfotographie ( http://www.raytrix.de/ / http://www.lytro.com/ ) doch noch erhebliches Potential bieten?


Hadmut
14.10.2011 11:13
Kommentarlink

@Stecki: Die beobachte ich schon die ganze Zeit.

Ich hab aber kürzlich erfahren, daß die angeblich nur eine ganz niedrige Auflösung hinbekommen, die nur zu Web-Bildchen taugt. Momentan eine schöne Spielerei, aber eben nur Spielerei. Und wir aus systematischen Gründen der normalen Fotografie immer drastisch hinterherhinken müssen, weil die auch nur die bestehende Sensortechnologie nutzen können, dafür aber viel Mehr Informationen aufnehmen müssen, die man dann wieder selektiv wegwirft um eine bestimmte Schärfeebene auszurechnen.

Sehr interessant das Ding, aber derzeit nur als Zusatzspielzeug.


Knut Grunwald
14.10.2011 11:13
Kommentarlink

40 MP bei den nikontypischen 14 Bit pro Pixel etwa 70 MB im RAW. Die lassen sich zwar auf um die 40 MB verlustlos komprimieren, aber mehr ist da eher nicht drin. Also sind 4 B/s 160MB/s. Mechanisch würden sicher mehr Bilder gehen, aber die benötigte Prozessor und Speicher/IO-Leistung würde wahrscheinlich die Akkulaufzeit ziemlich drücken. Die schnellere Variante kommt dann in zwei bis drei Jahren.

Da die Einzelpixel nicht kleiner werden als bei einer 18MP APS-C Kamera, sehe ich die Pixelgröße als Grund für die Option den AA-Filter wegzulassen nicht so richtig. Es sei denn, hier spielen die Effekte am Rand des Sensors eine Rolle. Durch den im Vergleich zur Mitte flacheren Winkel ist es eventuell schwieriger den AA-Filter so zu konstruieren, dass er gleichmäßig wirkt. Ein Software-Antialiasing kann das natürlich leichter berücksichtigen und damit vermeiden, das Objekte in den Ecken des Bildes stärker ungeschärft werden.


Hadmut
14.10.2011 11:19
Kommentarlink

Jain. Ein physikalischer Filter behandelt Frequenzen ober- und unterhalb der Meßfrequenz als Tiefpaß unterschiedlich. Software kann sie nachträglich wegen des Abtasttheorems nicht mehr unterschiedlich behandeln.

Aber lassen wir uns einfach überraschen. Falls die das wirklich machen, werden sie ja wohl dazusagen, warum sie es tun und wonach man sich entscheiden soll.


Du sollst nicht dem Rüstungswahn frönen sondern fetzige Bilder machen.

Carsten

http://thumulla.com/photoAMZ/album/
http://thumulla.com/photoAMZ2/album/


Robert Dahlem
14.10.2011 14:15
Kommentarlink

Wegen der von Christian Sädtler erwähnten Umbauten schau mal hier: http://maxmax.com/nikon_d200hr.htm

Die schreiben, dass Infrarotfilter und AA-Filter normalerweise verbacken sind. Das Teil bauen die im Reinraum aus und ersetzen es durch einen reinen IR-Filter. Da sind ein paar eindrucksvolle Beispiele drunter.

Unter http://maxmax.com/hot_rod_visible.htm gibts dann auch nochmal eine Erklärung mit Zeichnung und ein Beispiel für das Moiré, das man sich damit einkauft.

@Hadmut: die pimpen Dir auch noch Deine D300. 🙂


Hadmut
14.10.2011 14:40
Kommentarlink

Bei nachträglichen Umbauten durch Dritte bin ich da immer sehr, sehr skeptisch…