Hadmut Danisch

Ansichten eines Informatikers

Bildrate 25/50 oder 30/60 Bilder pro Sekunde?

Hadmut
6.10.2021 13:27

Beim Rumhocken im Corona-Loch zuhause war es nicht so wichtig, aber inzwischen hadere ich wieder zutiefest mit der Frage: 25/50 oder 30/60?

Zur Erinnerung:

Es gibt auf der Welt seit der Frühzeit der Fernseher zwei große Bildnormen, die dann auch unterschiedliche Farbcodierungen entwickelten: PAL und NTSC. (Noch ein paar andere, aber die sind für das Problem hier nicht relevant.)

Deren unterschiedliche Farbcodierungen und auch deren unterschiedlichen Bildformate haben sich seit Einführung des Digitalfernsehens erledigt, und spielen eigentlich nur noch dann eine Rolle, wenn man alte Filme und Aufnahmen auf digital umkopiert. Inzwischen sind FullHD mit 1920×1080 und 4K mit jeweils dem doppelten Standard. (Kino kocht eigene Suppe, lasse ich hier jetzt auch mal weg.)

Erhalten hat sich aber die Bildrate. In manchen Ländern ist der Standard, 30 Vollbilder oder 60 Halbbilder (interlaced, immer abwechselnd die geraden und die ungeraden Zeilen) zu zeigen, seit Digitalfernsehen auch 60 Vollbilder pro Sekunde. Beispielsweise Amerika, Teile von Asien.

Und in anderen Ländern zeigt man 25 Voll oder 50 Halbbilder, inzwischen auch 50 Vollbilder pro Sekunde (dafür zu analogen Zeiten eine höhere Bildauflösung).

Die Frage ist: Warum? Warum machen die einen 25/50 und die anderen 30/60?

Das hat zwei verschiedene Gründe, die aber beide mit der Stromnetzfrequenz zusammenhängen:

  • In der Anfangszeit der Fernseher konnte man – zumindest in der Massenproduktion und für Normalkunden bezahlbar – noch keine stabilen analogen Schaltungen bauen, die die Bild- und Zeilenfrequenz exakt erzeugten. Deshalb musste man sie noch aus der Wechselstromfrequenz ableiten, die in manchen Ländern und Regionen (z. B. Europa) 50 Hz und in anderen (z. B. USA) 60 Hz beträgt. Wer mindestens mein Alter hat, kann sich noch an die Schwarzweißfernseher erinnern, die nicht nur Bildröhren, sondern Röhenschaltungen hatten, die nach dem Einschalten noch brauchten, bis sie aufgewärmt waren, man so eine halbe oder ganze Minute warten musste, bis ein Bild kam. An denen musste man immer vorne und auf der Rückseite schrecklich viel analog an Spulen und Potentiometern (und an der Dachantenne) einstellen, bis das Bild überhaupt stabil stand und nicht durch lief, dazu Höhe, Breite, dass es nicht schief aussieht. Und das fast täglich oder auch bei jedem Senderwechsel noch nachstellen. Weil das alles ungenaue Analogschaltungen waren. Und die bezogen ihren Takt noch aus der Stromversorgung.
  • Bedingt durch eben diese Netzfrequenz haben (oder hatten) wir überall da, wo es elektrisches Licht gibt, ein Flackern in eben dieser Frequenz, weniger bei den alten Glühlampen, aber besonders stark bei Leuchtstoffröhren und ähnlichen, damit auch bei den früher üblichen Energiesparlampen und teilweis auch bei den heute üblichen LED-Lampen, je nach Kondensatorausstattung, Leistung und Hersteller. Wir haben kein kontinuierliches Licht, sondern ein ständiges Blitzen und Flackern in der Netzfrequenz.

    Deshalb sollte man Videos immer mit der Netzrate aufnehmen, weil es sonst zu Interferenzen zwischen der Blinkfrequenz der Beleuchtung und der Bildfrequenz der Kamera und damit zu ganz ekligen Flackereffekten kommen kann, die die Aufnahme unbrauchbar machen oder die Kamera zu Fehlmessungen bringen. Einen ähnlichen Effekt hat man, wenn ein Fernseher im Bild zu sehen ist, der dann ebenfalls grausig flackert, wenn der Fernseher mit 50Hz anzeigt und die Kamera mit 60Hz aufnimmt. (Flicker gibt’s auch noch.)

Deshalb hat man in Europa 50 Hz als Bildfrequenz am Fernseher und in den USA 60 Hz.

Oder hatte, bevor das Farbfernsehen kam. Bei amerikanischen NTSC legte man die Farbinformation auf eine Subcarrier-Frequenz von 3.579545 MHz±10 Hz, und hatte gute gründe für die komische Frequenz, nämlich einmal, weil man mit der damaligen Elektronik nur einfache ganzzahlige Frequenzteiler bauen konnte und die 5×7×9/(8×11) MHz = 315/88 MHz betrug, die man leicht rausfiltern und getrennt verarbeiten konnte, das Bild aber auch auf alten Schwarzweißfernsehern, die das nicht filtern konnten, nicht wesentlich störte. Aus Gründen, die ich jetzt auch noch nicht bis komplett ganz durchverstanden habe, passte das aber wegen der Bandbreite und der Trägerfrequenz nicht in das Bandbreitenschema und irgendeinem Interferenzproblem, weshalb man die Bildfrequenz ein klein wenig strecken und verlangsamen musste, nämlich von 30 Bildern pro Sekunde auf 30.000 / 1.001, als ob man also 30.000 Bilder nicht mehr in 1000, sondern 1001 Sekunden anzeigt, was schief, aber so gering ist, dass die schon existierenden Schwarzweiß-Fernseher das ohne weiteres noch tolerierten. So kam seit dem amerikanischen Farbfernsehen die komische Frequenz von (gerundet) 29,97 statt 30 Bildern zustande.

Und weil die Filmindustrie, die bis dahin mit 24 Bildern pro Sekunde drehte, die man durch Wiederholung jedes vierten Bildes recht einfach auf die 30 Bilder pro Sekunde hochdudeln kann, damit man Kinofilme auch im Fernsehen zeigen konnte, passte sich an und drehte seither mit 23,976 Bildern pro Sekunde. Dreisatzaufgabe.

Das war eine massive Fehlentscheidung, aber dabei ist es geblieben. Mehr oder weniger. Denn die Sache mit der Farbträgerfrequenz ist seit der Digitalisierung längst erledigt, aber aus Gründen der Rückwärtskompatibilität blieb man dabei und nannte das dann vereinfachend 30 fps. Wenn also irgendwo von 30fps (frames per second) die Rede ist, weiß man nie so genau, ob sie 30 oder 29,97 meinen.

Mittlerweile sind FullHD und 4K Standard (4K im Fernsehen heißt 2*1920 also 3840 in der Breite, während 4K im Kino 4096 meint) und alles digital codiert, also nichts mehr mit subcarrier Frequenzen, aber aus Gründen der Rückwärtskompatibilität und der Interferenzen mit dem Umgebungslicht und im Video abgebildeten Fernsehern ist es immer noch so, dass die Fernsehnorm hier bei 50 Hz und in den USA bei 60 Hz (oder was auch immer die unter „60“ gerade verstehen) liegt. Deshalb unterschieden sich auch in der Digitalzeit beispielsweise DVDs noch danach, ob sie für die USA oder für Europa gemacht waren, weil die auch noch auf eine feste Frequenz eingestellt waren. Dazu noch der Countrycode. Ich hatte mir damals auf finsteren Kanälen einen DVD-Spieler beschafft, der nach Eingabe eines geheimnisvollen Zahlencodes beide abspielen konnte.

Aber, ach.

Dann kam die Generation Youtube und Video auf allen Webseiten, und die Trennung der Frequenzen nach Kontinenten und Regionen ließ sich nicht mehr durchhalten. Und weil die Frequenz technisch nur bei der Aufnahme eine Rolle spielt, beim Abspielen aber eigentlich nicht mehr, weil Computer und Digitalfernseher das längst alles abspielen können, hat sich da ein Standard von 30 fps durchgesetzt.

Könnte man meinen.

Schaue ich mir das in der Realität an, sind viele Webvideos mit 30 oder 60, andere mit 29,97 und wieder andere mit 25 oder 50 aufgenommen. Kreuz und quer durcheinander.

Viele Kameras, vor allem Handys, Drohne, Actioncams, die nicht so viele Einstellungen haben, unterstützen nur noch die 30 fps und lassen gar keine Einstellungen mehr auf 25 oder 50 zu, und dann weiß man nie, ob sie daraus dann 30 oder 29,97 machen.

Umgekehrt gibt es Kameras, die für den europäischen Markt gemacht sind und nur 25/50 kennen. (Einige Panasonics kann man mit geheimnisvollen Tastenkombinationen so umstellen, als wären sie in den USA verkauft, dann bieten sie 30/60 an, aber irgendwas anderes ist dann auch anders.)

Kurz: Es ist schwer, überhaupt eine Frequenz zu finden, mit der der ganze Kamerapark, den man so hat, klarkommt.

Und wenn man sie auf 30/60 stellt, drehen manche Kameras durch, wenn sie elektrische Beleuchtung bekommen oder ein Fernseher im aufgenommen Bild zu sehen ist, weil sie mit der anderen Frequenz nicht klarkommen. Einige neuere Kameras können das dann aber.

Alles in allem:

Ich weiß immer noch nicht, ob man Videos heute am besten mit 25/50 oder mit 30/60 Bildern pro Sekunde macht. Wie man es macht, macht man irgendwas verkehrt. Es gibt keine übergreifende Norm, und sie können sich nicht mal darauf einigen, ob „30fps“ nun 30 oder 29,97 bedeuten soll.

Was macht man denn nun?