Ansichten eines Informatikers

Abtasttheorem

Hadmut
9.4.2008 18:06

In der Informatik hat man gelegentlich das Problem, daß die Theorie zu wenig mit der Realität zu tun hat. Es gibt aber auch Fälle, in denen die Realität gnadenlos der Theorie unterliegt. Zum Beispiel in der Photographie (schreibt man das aktuell jetzt eigentlich Fotographie oder Fotografie?).

Das Abtasttheorem beschreibt den Zusammenhang zwischen der Abtastrate eines analogen Signals und dessen Zusammensetzung aus verschiedenen Frequenzen. Man kann jedes stetige Signal als Summe (Integral) von Sinus-förmigen Einzelsignalen darstellen, wenn dafür “alle” Frequenzen und Phasen (schreibt man das jetzt Fasen?) zur Verfügung stehen. Die Phase kann man darstellen, in dem man das Frequenzsignal in zwei phasenverschobene Teilsignale (z. B. Cosinus und Sinus) zerlegt. Ist ein Signal zyklisch, dann besteht seine Darstellung im Frequenzspektrum nur aus Signalen, die Vielfache einer Grundfrequenz sind. Ist das Signal im Signalraum zyklisch, ist es im Frequenzraum diskret und umgekehrt.

Ein zweiter Zusammenhang liegt in der “Detailschärfe” des Signals: Je höher die Einzelfrequenzen in der Frequenzdarstellung, desto detaillierter und “schärfer” ist das Signal und umgekehrt.

Möchte man ein Signal digitalisieren, muß man wissen, wie es aufgebaut ist. Je detaillierter es ist, desto höhere Frequenzanteile enthält es, die bei der Abtastung nicht verloren gehen dürfen. Um einen Frequenzanteil zu erfassen, muß man mit mehr als der doppelten Frequenz abtasten. Mit genau der doppelten Frequenz geht schon die Hälfte verloren. Tastet man mit zu niedriger Frequenz ab, bekommt man Fehler, weil Frequenzanteile oberhalb der halben Abtastfrequenz genauso erscheinen wie die Anteile darunter. Tastet man mit zu hoher Frequenz ab, schadet das zwar nicht direkt, aber es bringt auch nichts.

Und das schlägt gerade gnadenlos bei Digitalkameras zu. Der herstellerdiktierte Trend geht zu immer mehr Megapixeln. Wer hip sein will, braucht heute mindestens 12. Einmal aus Wettbewerbsgründen, 8 Megapixel gehen heute gerade mal so als Kinderspielzeug oder Supermarkt-Knipse durch. Und aus Verdrängungsgründen, denn dem, der mit seiner 7-Megapixel-Kamera eigentlich zufrieden wäre, muß klargemacht werden, daß er hoffnungslos veraltet ist und sich dringend eine neue kaufen muß. Wer will sich schon mit einer 7 auf der Kamera blicken lassen, wo das doch immer groß draufsteht. Als hätte man eine rote Umweltplakette am Auto. Kann sich wohl kein neues Gerät leisten. Bäh!

Der Fehler dabei: Die Megapixel-Zahl beschreibt, mit welcher Abtastfrequenz man das Bild abtastet, das das Objektiv auf den Chip abbildet. Und diese Frequenz sollte in einem ordentlichen Verhältnis zu den Frequenzanteilen stehen, die das Bild nach dieser Abbildung noch haben kann. Mehr abzutasten bringt nur Datenschrott.

Und da fängt das Problem an.

Wir haben noch keine bezahlbaren Glassorten, Gehäuse und Herstellungsverfahren um Objektive für den Massenmarkt mit solcher Abbildungsschärfe herzustellen, daß das auf den Chip geworfene Bild auch scharf genug wäre, um solche Abtastraten zu rechtfertigen. Zwar gibt es hochqualitative sehr teure Objektive, die auch die 20 oder 24 Megapixel mit einem Kleinbildformatsensor 24x36mm (=864 mm2) oder sogar 40-60 Megapixel in einem Mittelformatsensor hergeben. Aber das sind eben große Objektive, die ein großes Bild auf einen großen Sensor werfen. Und dazu muß man richtig Geld ausgeben. Die erweitern den Frequenzraum damit vor allem am unteren und nicht am oberen Ende. Rechnet man das Abbildungs- und Auflösungsvermögen dieser Glassorten entsprechend auf kleine Sensoren um, wie sie in dem Amateurkameras verbaut sind (ca. APS-C-Format) oder noch kleinere in den Taschenknipsen (z. B. 7,2×5,3 oder 5,8×4,3 mm = ca. 25-40 mm2) kommt man auf Auflösungen um
1-2 Megapixel, die das Glas schafft. De facto ist es etwas mehr, weil die Grenze bei den Kleinbildformaten auch nicht allein durch die Glassorten, sondern auch durch andere Effekte begrenzt wird.

Dazu kommen jetzt noch physikalische Effekte, die die Bildqualität bei den kleinen Knipsen begrenzen:

  • Schon fertigungstechnisch besteht kaum Spielraum bei der Blende. Die Blende ist das Verhältnis zwischen Brennweite und Blendenöffnung. Durch den winzigen Chip und damit die winzige Abbildung haben die Objektive auch winzige Brennweiten. Und damit winzige Blenden. Das bedeutet winzige Mechanik, auch beim Fokus, was nicht mit der nötigen Präzision herzustellen ist. Weil das ganze miniaturisiert ist, kann man nicht die gleiche Fertigungsqualität wie bei einer großen Kamera erreichen. Dazu soll das ganze ja noch billig sein und außerdem bitteschön das Objektiv beim Abschalten ganz einfahren. Kleine Kameras sind deshalb nicht einfach die herunterverkleinerte Version einer großen Kamera (erinnert sich noch jemand an das 4×4 Mini-Sondermodell der doppeläugigen 6×6 Rolleiflex? Da ging das gerade noch.). Die Fertigungstoleranzen bei diesen 300-Euro-Knipsen sind bezogen auf die Bildgröße um ein Vielfaches größer als bei einer guten Spiegelreflex mit gutem Objektiv in der 10.000-Euro-Klasse.
  • Eine so kleine Kamera kann nicht über die Sensorik und Rechenleistung einer großen Kamera verfügen. Das äußert sich z. B. darin, daß der Autofokus einer kleinen Kamera viel weniger genau ist und es weniger Fokus-Einstellungen gibt. Das Objektiv kann nicht scharf genug stellen.
  • Ein gutes Zoom-Objektiv hat einen Blendenbereich von ca. 2,5 oder 3,5 bis etwa 22. Sehr gute Festbrennweiten von 1,4 bis 32 oder so. Die Mini-Objektive haben einen Bereich von vielleicht 4 bis 8. Weiter auf können sie nicht machen, weil sie die Tiefenschärfe brauchen, um überhaupt noch ein akzeptables Bild hinzubekommen, und weil sie klein und billig sein müssen. Weiter zu können sie nicht machen, weil es dann schon zur Lichtbeugung am Spalt kommt und jedes Bilddetail einen welligen Saum bekommt, eben den bekannten Beugungsmustern. Während die bei großen Kameras zwar theoretisch existieren aber praktisch nicht sichtbar sind, werden die bei kleinen Kameras sichtbar. Je kleiner der Spalt, desto größer und intensiver das Beugungsmuster.
  • Weil dann die großen Blenden nicht zur Verfügung stehen, und außerdem nur schwache Blitzgeräte, kommt es meist zu längeren Belichtunszeiten (was Verwacklungsunschärfe mit sich bringt) oder höher eingestellten Empfindlichkeiten (was das Bildrauschen verstärkt, von manchen als “Verwacklungsschutz” verkauft). Auch bei Digitalkameras gilt dieselbe Regel wie bei den alten analogen Kameras, daß man im Bermuda-Dreieck aus Körnung (Empfindlichkeitsrauschen), fehlender Tiefenschärfe und Bewegungsunschärfe gefangen ist. Man könnte allerdings sagen, daß bei den Digitalkameras noch eine vierte Komponente dazukommt, nämlich die Stärke des Rauschunterdrückungsalgorithmus, der dann dafür andere Details mit wegschmirgelt. Jede Verbesserung geht immer zu Lasten der anderen. Verbessern kann man nur durch mehr Licht – pro Bild und pro Pixel. Eine große Kamera hat ein stärkeres Blitzgerät, ein größeres Objektiv und einen größeren Sensor. Fängt also auch mehr Licht ein.
  • Und weil die Pixel selbst bei so kleinen und hochauflösenden Sensoren auch viel kleiner sind, kommt es zu viel größeren Fertigungstoleranzen, Meßfehlern und zu thermischem Rauschen. Die Anzahl der Photonen, die ein Pixel für ein Bild abzählen kann, ist einfach viel geringer. Der Signal-Rauschabstand und die Zählfehler wirken sich einfach viel stärker aus. Und wenn bloß 5 Photonen reinkommen, kann man daraus keine Dynamik mit 5 Blenden machen.

Und das ist der Grund, warum bei den kleinen Kameras (und sogar bei manchen größeren) die neuen Modelle schlechtere Bilder liefern als die alten.

Interessant wird die Frage, wann der Wahn aufhört. Wenn wir jetzt bei den 12-Megapixel-Taschenknipsen sind, wird irgendwann auch die 20-Megapixel-Kamera kommen, was einem Schrumpfungsfaktor von 0.77 entspricht. Das und mehr bekommen die Chipfabriken locker hin. Die Frage ist, wie lange die Käufer das mitmachen. Ich fürchte, die machen das auch bis 30 noch mit.

URLs:

Ein Kommentar (RSS-Feed)

Casino 1242792988…

Casino 1242792988…