Hadmut Danisch

Ansichten eines Informatikers

Politisch korrekte Schwarzweißfotografie

Hadmut
31.8.2017 22:38

Eine Besprechung.

Ich habe im vorangegangenen Artikel darüber geschrieben, welchen Unsinn manche Leute gerade mit der Behauptung verzapfen, Fototechnik wäre rassistisch. Dazu hat mir nun ein Leser dieses Foto geschickt:

Und er schreibt, das sei von 9gag, was auch immer das sein mag. Googelt man nach dem Ursprung des Bildes, dann findet man zwar keinen direkten Ursprung, jede Menge Quellen, in denen das (anscheinend seit 2011) zum Thema „Probleme gemischter Paare“ herumvagabundiert – und damit anscheinend zu dem Gerücht beiträgt, Fotografie wäre rassistisch. Man sollte es näher betrachten. Und durch Lösungswege darstellen, dass „Fotografie“ nicht solche Fehler produziert.

Ist es echt?

Auf den ersten Blick sehen wir vier typisch vermurkste Fotos. Ich habe aber den Eindruck, dass da jemand nachgeholfen hat, indem er entweder absichtlich falsch belichtet oder die Bilder übertrieben manipuliert hat. Das ist aber schwierig zu beurteilen, solange man nicht die Originalbilder mit den entsprechenden Einstellungen (Blende, Belichtungszeit) hat. Oben links ist insgesamt unterbelichtet, da wäre schon die Frage, welche Messmethode eingesetzt wurde. Linksunten ist so überbelichte, sowas würde keine Kamera produzieren.

Insofern wäre meine Vermutung, dass links oben und rechts unten so aus der Kamera kamen (und vermutlich sogar beschnitten sind), während rechts oben und links unten anscheinend ursprünglich ebenso belichtet und nachträglich aufgehellt wurden, aber handwerklich miserabel.

Selbst wenn die Bilder „echt“ sind, wäre trotzdem die Frage, ob nicht bereits durch die Auswahl manipuliert hat, denn wenn man 20 Bilder gemacht hat und davon vier schlecht sind, und dann nur die zeigt, wäre das auch schon unwahr. Man müsste schon darlegen, dass es nicht besser ging – und warum man eigentlich keine Belichtungswerte dazwischen sieht.

Tun wir zum Zwecke der Betrachtung mal so, als wären die echt und realistisch.

Fehleranalyse

Sie verkaufen es als Hautfarbenproblem, das Hauptproblem ist aber ein ganz anderes, nämlich eine klassische Schatten-Gegenlicht-Situation. Er steht so da, dass ihm die Sonne auf die Birne knallt, sie dagegen steht so eingedreht, dass sie wirklich nur Schatten abkriegt. Schaut man sich das Bild unten rechts an, und zwar an der Stelle, an der sich beide im Gesicht berühren, dann sieht man, dass bei gleichem Licht die Hauttöne viel weniger auseinander liegen als auf den anderen Bildern. Die krassen Belichtungsfehler werden also hauptsächlich durch das Licht und nicht durch die Hautfarben verursacht. Die kommen hier natürlich erschwerend hinzu, sind in der Wirkung aber viel geringer als dargestellt.

In dieser Situation wäre auch eine Blondine im Schatten „abgesoffen“.

Eine ziemlich eindeutige Fehlerursache ist auch, dass die Bilder nach ihrem Aussehen nicht vom Sensor schlecht aufgenommen, sondern fehlerhaft in JPEG gewandelt und (rechts oben, links unten) danach noch manipuliert wurden, und Bilder nach der JPEG-Wandlung noch nachzubearbeiten geht sowieso schief, dann kommt nämlich so ein Mist dabei heraus. Viele der Probleme, die wir hier sehen, sind auf Pfusch bei der Nachbarbeitung zurückzuführen, und nicht auf „rassistische Kameras“.

Ein ganz zentrales Problem ist aber die Erwartungshaltung des Betrachters, denn die ist nicht erfüllbar. Wir sehen hier Kontrastunterschiede, die locker bei 5,6,7 Blenden Unterschied liegen, denn die Bilder sind ja am hellen Ende weiß ausgfressen und saufen am dunklen Ende schwarz ab. So ist dann auch die Situation bei solchen Sonnenstand.

Man kann so eine Situation (bisher) nicht naturgetreu darstellen, weil man auf Papier oder andere Druckmedien eben nur mit höchstens 3, 4 Blenden Kontrastumfang drucken kann, weil das Papier nur reflektiv funktioniert und nicht selbst leuchtet. Auch normale Computerbildschirme schaffen solche Konstrastumfänge nicht, da kommt nichts mehr an. Und so sieht’s ja auch aus. Inzwischen kommen gerade HDR-Monitore und -Fernseher auf den Markt, die könnten das vielleicht.

Das heißt, dass es zunächst mal völlig egal ist, wie gut oder schlecht die Kamera ist, sie kann das Bild nicht wahrheitsgetreu abbilden, weil es keine Darstellungsmethode gibt, die das Bild naturgetreu darstellen kann. Dafür können Film und Kamera schlicht nichts.

Ein anderes Problem ist nämlich, dass wir in der Realität logarithmisch sehen und unser Helligkeitsemfinden der Umgebung anpassen. Das funktioniert aber nicht mehr, wenn wir ein Foto sehen, das verarbeitet das Gehirn nur einheitlich. In der Realität würden wir die Szene als schönen Sommertag wahrnehmen, auf dem Foto als falsch belichtet, obwohl das dann so ausgesehen hat. Beispielsweise halten wir in der Realität die blendende Reflektion der Sonne an der glänzenden Stirn für natürlich und normal, auch wenn wir da nichts mehr sehen, während wir auf dem Foto nur einen weißen, überbelichteten Fleck sehen, denn die echte Sonne fehlt, die dem Gehirn eine Ursache dafür vermittelt und das als plausibel erscheinen lässt.

Trotzdem kann das Bild auch durch eine billige Schrott-Kamera verursacht sein könnte, denn gerade die Sensoren im untersten Preisbereich haben häufig eine kastrierte Dynamik. Außerdem sollte man berücksichtigen, dass die Fotos spätestens 2011 gemacht wurden, und da waren Handy- und Billig-Kameras noch nicht so der Brüller.

Die Situation

Geübte Fotografen und Profis würden solche Fotos normalweise vermeiden und sie nur machen, wenn es nicht anders geht, weil das einfach ganz eindeutig Gegenlicht ist und vermutlich auch noch vor- oder nachmittags aufgenommen ist, die Reflektion an seinem Kopf und ihr Schatten deuten auf eine Sonneneinstrahlung hin, bei der die Sonne schon oder noch relativ niedrig stand, aber eben immer noch hoch genug, um derbe Schlagschatten zu werfen.

Sofern möglich, würde man sich einen andere Zeit (goldene Stunde) auswählen oder die zwei einfach aus einer anderen Richtung mit der Sonne im Rücken fotografieren.

Hilfslicht

Das zählt jetzt nicht so ganz, denn im Artikel des Tagesspiegels wurde ja gemobbert, dass Kameras so schlecht wären, dass man für die Haut Schwarzer Zusatzlicht braucht.

Aber: Das hat mit der Hautfarbe nichts zu tun, das liegt an der Situation und der Aufstellung der beiden. Das bräuchte man genauso, wenn sie eine Euro-Blondine wäre.

Diese Situation wäre eine typische Situation für Aufhellblitzen. Ich persönlich mag das nicht und mache das äußerst selten, aber hier wäre so ein „Fill-In“-Licht genau richtig. Man braucht aber unter Umständen ein relativ starkes Blitzgerät. Die kleinen Mini-Blitze in den Kameras könnten damit überfordert sein. Ggf. Kurzzeitblitzen (für Belichtungszeiten unterhalb der Synchronzeit)

Würden Profis mit genug Zeit und Ausrüstung so eine Situation fotografieren müssen, würden sie zwei Schirme verwenden. Einen milchig-transparenten, den sie über das Paar halten, damit von oben weiches, diffuses Licht kommt, und einen Aufheller von rechts unten, damit die Frau Licht abbekommt. Man kann sich da auch mit kleineren Falt-Aufhellern behelfen, und wenn’s gar nicht anders geht, mit einer silber-goldenen Rettungsfolie (auspacken, eng zusammenknautschen, fest drücken, wieder auseinanderziehen, damit sie verkrumpelt ist, und so kein einzelnes schwarfes Bild der Sonne wirft, und irgendwem in die Hand drücken).

Einzelnes Bild – JPEG-Wandlung

Eine eindeutige Ursache der Fehler an diesen Bildern ist die Wandlung nach JPEG, die normalerweise schon in der Kamera stattfindet.

Der Sensor einer wenigstens mittelprächtigen Kamera, besonders aber einer Profi-Kamera, hat ein Dynamikvermögen, mit denen so eine Situation zwar nicht in bester Qualität, aber zumindest grundsätzlich erfassen kann. Erst durch die Wandlung des Bildes in JPEG und die damit verbundene Konstrastreduzierung und -kappung auf 8 Bit entstehen meist die ausgefressenen Stellen.

Es gibt zwei Ansätze, wie man das Problem vermeiden kann.

Der erste ist, erst gar keine JPEG-Konversion zu machen, sondern Bilder als RAW-Dateien zu speichern (und dann haben sie den vollen Umfang, den der Sensor gemessen hat, sowohl in Kontrast, als auch in Auflösung, beispielsweise 14 Bit), und sie am PC nachträglich zu wandeln, etwa mit den Programmen der Hersteller oder Adobe Lightroom oder Corel Aftershot. Dann nämlich kann man entsprechende – flachere oder nichtlinear – Gradationskurven anwenden und Spitzlichter und dunkle Stellen besser abbilden.

Ich habe das schon häufig gehabt, dass man solche scheinbar über- oder unterbelichteten Stellen im Bild hat, die in der RAW-Konversion aber so kompensiert, dass die volle Informatino herauskommt und die dann ganz normal fotografiert aussehen, weil die RAW-Daten das richtig darstellen. Es liegt oft eben nicht an der Aufnahme, sondern an der JPEG-Wandlung.

Eine Sondervariante wäre dabei ein sogenanntes Pseudo-HDR, bei dem der hohe Kontrastumfang des RAW-Bildes mithilfe von HDR-Algorithmen, die eigentlich mit Belichtungsreihen arbeiten, durch Dynamikkompression in ein Bild zu packen.

Selbst wer unbedingt sofort ein JPEG aus der Kamera haben will, kann das Ergebnis deutlich verbessern, weil viele Kamerahersteller Algorithmen anbieten, die vor der Wandlung (oder sogar vor der Aufnahme) eine Dynamikkompression durchführen und dafür sorgen, dass solche extremen Stellen trotzdem noch mit Zeichnung dargestellt werden (im Prinzip das automatisch machen, was ich oben zu RAW-Bearbeitung dargestellt habe. Bei Nikon heißt das D-Lighting. Es dreht sich alles um das Problem, wie man den großen Dynamikumfang eines RAW-Bildes (also der Messwerte, die aus dem Sensor kommen) in den leider sehr kleinen Dynamikumfang eines JPEG quetscht. Die Standardmethode ist, einfach oben und unten abzuschneiden, es gibt aber intelligentere Methoden.

Belichtungsreihen – High Dynamic Range(HDR)

Wenn der Dynamikumfang des Sensors für das Bild nicht reicht, ist die Kunst noch nicht zu Ende, dafür hat man die Technik der HDR-Fotos (High Dynamic Range) entwickelt.

Entweder macht man Belichtungsreihen (also verschiedene über- und unterbelichtete Bilder nehmen einem korrekt belichteten) als RAW-Bilder, und fügt sie später am PC zu einem Gesamtbild zusammen, das sich – vereinfacht gesagt – aus jedem Einzelbild das passende holt. Nicht ganz einfach, wenn sich die Fotografierten bewegen.

Oder man hat eine neuere Kamera, die das schon eingebaut hat und direkt hintereinander zwei Fotos macht, ein über- und ein unterbelichtetes, und daraus dann das ganze Bild zusammenfügt. Sogar bessere Handys können das heute.

Fazit

Da hat sich so eine Internet-Meme gebildet, Kameras als rassistisch zu beschimpfen, dabei liegt es in der Regel nicht an den Kameras.

Natürlich braucht man eine Kamera, die was taugt. Es gibt zwar die Anekdote, dass Helmut Newton in einem Restaurant vom Koch angesprochen wurde, dass er eine tolle Kamera haben müsse, weil er so schöne Bilder macht, und verschnupft geantwortet hat, dass der Koch tolle Töpfe haben müsse, weil sein Essen so gut schmeckt. Das wird gern als Beweis zitiert, dass es auf den Fotografen und nicht auf die Kamera ankäme, obwohl es nur sagt, dass es nicht auf die Kamera allein ankäme. Ich habe aber Zweifel an der Story, weil sich das zu sehr nach Geizhals-Weltbild anhört und Newton das nicht war, zumal der Top-Kameras wie Leica hatte. Es kommt nämlich sehr wohl (auch) auf die Kamera an. Hier: Dynamik.

Und damit muss man aber auch umgehen können und nicht einfach nur Knopf-Drücken und Super-Bilder erwarten.

Es mag Euch überraschen, aber der Grund, warum Leute mit dunkler Hautfarbe dunkler aussehen, ist, dass sie weniger Licht reflektieren. Deshalb sehen sie dunkler aus. (Erstaunlich, nicht?) Das hat auch mit dem biologischen Zweck der Pigmente zu tun, nämlich die darunterliegenden lebenden Hautschichten vor schädlichen UV-Strahlen zu schützen. Deshalb absorbieren sie. (Theoretisch könnten sie auch reflektieren, dann sähen die Leute eben verspiegelt aus, das hat die Natur aber nicht gebaut.)

Und damit muss einfach die Abbildung zu Papier oder Monitor anders ablaufen. Und das liegt nicht an der Kamera oder dem Film, sondern es liegt daran, dass das Urbild einen höheren Dynamikumfang hat, als wir da darstellen können. Unsere Kameras der letzten 10 Jahre kommen verblüffend gut damit klar – wenn man damit umgehen kann. Nur haben das all die Social Justice-Schneeflöckchen nicht verstanden. Weil es in deren Welt nicht mehr vorkommt, etwas zu lernen oder zu beherrschen, sondern da Schlaraffenland-mäßig immer alles perfekt und moralisch rein vom Himmel zu fallen habe.

Ein Leser schrieb mir, was die wirkliche Aussage des Tagesspiegel-Artikels und anderer solcher Artikel sei:

Also, die Frau, die meint das so:

“Hätten Afrikaner oder Chinesen oder Einwohner anderer Kontinente die Photographie entwickelt, dann hätten sie so lange daran herumgefrickelt, bis sie sich gegenseitig prima auch im Dunkeln hätten fotografieren können, aber Weiße nicht. Ham se aber nicht, und das ist Schuld der Weißen, weil die schneller waren. Und deshalb müssen sie in sich gehen und das ändern (was ja wohl heute möglich wäre, da andere Technik) – und nicht etwa die, die ein Interesse daran hätten, also beispielsweise die Afrikaner. Die Japaner und Chinesen machen’s ja auch nicht. Deswegen schreiben die Europäer ja immer noch auf chinesischem Papier” .

Da mag er Recht haben.

Die Frage wäre dann aber: Warum sollte es eigentlich die Aufgabe der Weißen sein, allein für die Fotografie aller anderen zu sorgen? (Mal abgesehen davon, dass sie es tatsächlich getan haben und unsere Kameras solche Situationen durchaus fotografieren können, wenn man sie richtig bedient.) Warum eigentlich kommt da kein Beitrag aus den entsprechenden Ländern, wenn die das doch so bräuchten?

Die Fotografie ist inzwischen fast 200 Jahre alt. Und in diesen 200 Jahren haben alle möglichen Leute in unglaublicher Intensität ständig neue Dinge erfunden. Was, wenn es doch angeblich ein Rassismus-Problem ist, hätte dann schwarze Erfindet davon abgehalten, solche Filme oder Kameras zu entwickeln? Niemand hätte sie daran gehindert. Das ist nicht so, dass das ein Monopolgeschäft ist, denn ständig schießen Startups aus dem Boden, die irgendwas neues anbieten.

Ich habe das schon beschrieben, was mir an Südafrika, vor allem Kapstadt, aufgefallen ist, besonders bei meiner ersten Reise dorthin (damals bei der Namibia-Reise). Die sind dort regelrecht besessen von der Fotografie. Ich kann mich nicht erinnern schon mal eine Stadt gesehen zu haben, in der so viele Leute fotografieren oder gleich Filme drehen. Und deren Fotozeitschriften sind einfach exzellent. Die sind richtig gut. Die beherrschen das.

Trotzdem kommt von dort keinerlei Entwicklung einer „rassismusfreien“ Kamera, die Schwarze besser funktioniert.

Was doch konsequenterweise bedeutet, dass sie

  • Entweder das Problem gar nicht existiert, und darauf deutet hin, dass sie es mit den verfügbaren Kameras wunderbar und spitzenmäßig schaffen, Schwarze und Weiße und alle miteinander in allerbester Qualität zu fotografieren, nämlich weil sie es können,
  • oder das Problem kein politisch-rassistisches ist, sondern ein technisch-physikalisches.

    Dagegen aber spricht, dass es ja teure Spezialkameras (etwa für Astronomie) gibt, die einen sehr hohen Dynamikumfang haben. Warum benutzt die dann niemand zur Personenfotografie?

    Selbst im normalen Profibereich gibt es Kameras, die einen höheren Dynamikumfang haben, meines Wissens etwa die Hasselblads. Dann müssten doch afrikanische Fotografen – und da gibt’s auch Reiche – eigentlich bevorzugt mit Hasselblad fotografieren. Tun sie aber nicht.

    Warum greifen afrikanische Profifotografen nicht zu Kameras mit höherem Dynamikumfang, wenn es doch angeblich das rassistische Problem gibt, dass normale Kameras Schwarze nicht abbilden?

Zählt man alles zusammen, kann man nur zu dem Ergebnis kommen, dass der ganze Quatsch von vorne bis hinten frei erfunden ist und uns der Tagesspiegel hier zum Wahlkampf gewollt Blödsinn auftischt.

Wenn die dann noch mit ihrer „Tagesspiegel-Fotografin“ daherkommen, dann muss man das eigentlich als „Fake News“ einstufen, denn Fotografen müssten das aufgrund ihrer Ausbildung eigentlich besser wissen und können.

Nachtrag: Es mag zwar sein, dass Weiße leichter zu fotografieren sind, weil sie eben in ihrem Reflexionsverhalten und ihrer Hauthelligkeit nahe an den 18% Reflektion liegen, auf die die Kamera eingestellt ist (siehe vorhergehenden Artikel), aber andere Helligkeitsstufen zu fotografieren ist Grundgeschäft eines Fotografen (vgl. Zonensystem nach Ansel Adams), das muss man beherrschen. Aber aus Leuten mit dunkler Haut ist fotografisch einfach mehr rauszuholen, das werden oft bessere Bilder. Weil die Hauttöne bessere Abstufungen bieten.

Warum wohl pinseln sich Bodybuilder für ihre Wettbewerbe von oben bis unten mit brauner Farbe an?

Warum würden sie das tun, wenn Kameras sie dann nicht richtig ablichten könnten? Sie wollen doch gerade fotografiert werden.

Sie tun es, weil sie damit besser ausehen. Auch auf Fotos. Die ganze Rassismusnummer ist erstunken und erlogen.