Ansichten eines Informatikers

“Warnung! Dies ist ein Produkt der Klasse A”

Hadmut
17.8.2013 22:09

Mir leuchtet da was zum HDMI noch nicht ein.

Ich konnte nicht widerstehen und habe mir heute umzugsbedingt einen Fernseher gekauft. Einen großen. Ich hatte nämlich keinen großen (Fernseher!). Vor zwei Jahren hab ich meinen alten großen Röhrenfernseher verschrottet und seither einen ursprünglich als Computer-Monitor gedachten, aber dafür ungeeigneten (s.u.) 24-Zoll-Fernseher an dessen Stelle gestellt, weil das Bild effektiv dieselbe Größe hatte. Nachdem alles in 16:9 kommt, hatte der Röhrenfernseher dicke Dauerbalken, weshalb der 24-Zoll-LCD-Fernseher dieselbe Bildgröße lieferte wie mein alter Röhrenfernseher, den ich übrigens 1994 gekauft hatte und der bis 2011 durchhielt, weil er an einem DVB-C-Digitalreceiver mit Scart-Ausgang ein immer noch verblüffend gutes und farbtolles Bild lieferte, also echte 17 Jahre lief. Dann wurde er aber unscharf und bekam Farbstörungen. Und als dann absehbar wurde, dass ich irgendwann umziehe, wollte ich natürlich vorher keinen Fernseher kaufen. Dann hatte ich in meiner temporären Unterkunft so einen Wahnsinns-Monster-Riesenfernseher oben an der Zimmerdecke, und das Ding hat mir gefallen. Also wollte ich mal was haben, was der Größe meines neuen Wohnzimmers angemessen ist.

Eigentlich wollte ich einen Samsung, den ich vor 2 Monaten in einem Blödmarkt in Berlin gesehen hatte, aber gerade nicht kaufen konnte, weil ich keinen Platz dafür hatte. Die hatten dort 3 Regale umgeräumt und mal feucht durchgewischt, und das als Vorwand genommen, „Wiedereröffnungsangebote” zu machen und einen tollen Samsung 40″ mit allem Schnick und Schnack und 2 3D-Brillen für einen günstigen Preis. Der hätte mir genau gepasst. Sie hatten den aber nur am Eröffnungstag und der andere Blödmarkt hier in der Nähe meinte, das kriegen sie zu dem Preis nicht mehr.

Nun hatten sie gerade was anderes im Angebot. Einen günstigeren Fernseher, mit 47″, auch 4 HDMI, allerdings nur 2 USB (der Samsung hat 3), DVB-C,S,T, auch zwei 3D-Brillen, allerdings mit einer einfacheren 3D-Technik: passive Polfilterbrillen statt aktiven Shutterbrillen. Die sind billig, brauchen keine Batterien, funktionieren immer (auch die aus dem Kino), müssen sich nicht synchronisieren und rufen angeblich weniger Kopfschmerzen hervor. Liefern dafür aber nur die halbe Auflösung, weil jedes Pixel entweder für links oder rechts polisiert ist. Meinetwegen. Ist doch nur ne Spielerei, man nimmt’s halt so mit, weil’s jetzt fast jeder hat. Dafür war der Fernsehr auch 85 Euro billiger als der schon günstige Samsung, hat aber ein durchaus gutes Bild. Die “Billig-Marke”: Grundig. Als ich so 6 oder 7 Jahre alt war, haben wir damals unseren ersten Farbfernseher gekauft. Farbfernsehen war ja gerade neu eingeführt worden. Das war auch ein Grundig, aber damals waren sie noch Technologie-Führer und die teure Edelmarke. Damals eines der exklusiven Geräte mit der todschicken und ultramodernen Fernbedienung. Auch nicht mehr das, was sie mal waren.

Neulich hab ich irgendwo gelesen, dass Grundig in Schwierigkeiten steckt und möglichweise nicht mehr lang existiert. Egal. Wir leben im Zeitalter der geplanten Obsoleszenz. Das Ding nennt sich SMART inter@active TV, aller möglicher Internet-Schnickschnack, DLNA, Youtube und was nicht alles. Aber glücklicherweise (angeblich) keine Kamera und kein Mikrofon. Fehlt mir noch, dass mir die NSA im Wohnzimmer noch zuschaut.

Da fällt mir was auf der Packung auf:

Warnung!
Dies ist ein Produkt der Klasse A. Wenn Sie das Gerät als Computermonitor einsetzen, kann es zu Funkstörungen in Wohnbereichen kommen; in diesem Fall müssen Sie eventuell geeignete Abhilfemaßnahmen treffen.

Ja nee, is klar. Den gesamten Fernseher hermetisch dicht in Alufolie einwickeln.

Aber im Ernst: Worin soll denn der Unterschied zwischen Computermonitor und nicht Computermonitor liegen? Der Fernseher selbst ist ein Computer. Selbst wenn ich gar nichts anschließe, wird er schon als Computermonitor verwendet. Jeder DVD- oder Bluray-Player ist ein Computer. Worin sollen die sich technisch von einem PC unterscheiden? Und warum soll es unter einem PC stärker strahlen?

Was ich mal erst lernen musste war, dass HDMI nicht gleich HDMI ist. Es gibt die Video- und es gibt die Computervariante, das ist schon wahr. Und Geräte, die für Video-HDMI gebaut sind, taugen nicht ernstlich als Computermonitor, was nebenbei bemerkt auch der Grund ist, wieso der eingangs erwähnte FullHD-Fernseher, der als Computermonitor gedacht war, als Fernseher endete. Ein Computer-HDMI-Monitor (oder DVI) listet als höchste Auflösung die seines Panels auf, interpoliert nicht, macht kein Overscan. Der Computer kann sich die richtige Auflösung heraussuchen und bildet pixelscharf ab.

Video-HDMI-Geräte melden nicht (nur) die physikalische Auflösung, sondern immer die Standard-Auflösung. Auch Geräte mit niedrigerer Auflösung melden 1920×1080 (FullHD) zur Kompatibilität mit anderen Geräten, und skalieren das dann selbst rauf/runter. Das angeschlossene Gerät kann nicht herausfinden, welches die physikalische Auflösung ist. Ich hab noch einen ganz kleinen Billig-Fernseher mit 1366×768 (oder seltsamerweise sogar 1368×768), den ich mir 2009 für ein Videogerät gekauft hatte, und der damals auch unter Linux super lief, wenn man dem X-Server beim Start die Auflösung mitgab. Seit etwa 2011 geht das mit aktuellen Linux-Distributionen nicht mehr, weil die nun die Liste der vom Monitor gemeldeten Auflösungen berücksichtigen und nur noch die in der Liste zulassen. Der dämliche Fernseher listet alle Standard-Auflösungen wie 1080p, 720p usw. auf, nur nicht die seines Panels. Deshalb kann man die unter Linux nicht mehr setzen und bekommt deshalb kein scharfes Bild mehr hin, weil der Rechner sich immer eine falsche heraussucht und der Monitor dann rauf- oder runterskaliert. Der andere Fernseher/Monitor, der dann als Wohnzimmerfernseher endete, hat zwar ein FullHD-Panel, aber selbst wenn man unter Linux dann die richtige Auflösung hat, flimmern die Buchstaben, weil der da irgendwie trotzdem interpoliert und außerdem einen Overscan-Beschnitt wegnehmen will usw. Taugt auch nicht. Der Aha-Effekt war dann übrigens der Raspberry Pi, weil bei dessen frühen Versionen in den Einstellungen (beim Raspberry muss man die Auflösung im Bootcode fest einstellen, der kann das nicht dynamisch) die Auflösungen alle doppelt vorkommen, nämlich für Computer und für Video. Toll.

Ach übrigens, und ich hab noch kurze HDMI-Kabel, die ich mir mal per eBay aus weitweg bestellt habe, weil ich gerade kurze (30cm) brauchte und hier nicht bekommen habe, die zwar einen sehr gut verarbeiteten und hochqualitativen Eindruck machen, die aber nur an Video-Geräten (wie DVD-Player usw.), nicht aber an Computern funktionieren. Ich habe noch nicht herausgefunden, woran das liegt. Irgendeinen wesentlichen Unterschied muss es also auch da geben. Ich dachte bis dahin, dass HDMI-Kabel immer komplett durchverkabel sind, ist aber offensichtlich nicht so.

Und was mir nun aktuell gerade nicht einleuchtet, ist, warum der Fernseher an einem Computer abstrahlen sollte, an anderen Geräten aber nicht (oder signifikant schwächer). Wenn ich da einen 3D-Bluray-Player mit FullHD dran hänge, bläst der da auch was durch. Ich kann mich zwar erinnern, dass es Röhrenmonitore gab, die man an Computern knistern hörte, weil da eben das Videosignal hochfrequenter und flankenhärter war, durch die Leistungsstufe durchging, und bis auf den Audioverstärker durchschlug, aber das hat man ja bei digitalen Geräten und LCD-Panels alles nicht mehr.

9 Kommentare (RSS-Feed)

morpheus
17.8.2013 23:38
Kommentarlink

Ein wichtiger Unterschied zwischen Computermonitoren und Fernseher sind diverse Farb und Bildfilter z.B. interpolieren manche Fernseher noch irgendwas am Bild herum, oder verblurren etwas und “verschönern” das Bild durch irgendwelche tricks, was dann bei einem PAL Signal gut aussieht aber bei einem hochauflösenden Signal vom Computer hat man dann plötzlich Artefakte um die Icons oder man kann die Schrift nicht lesen weil sie Unscharf ist.

Meistens kann man das abschalten, aber ich hatte schon Monitore wo man dies eben nicht tun konnte und desshalb die Schrift unscharf war.

Diese Filter können dann unter Umständen auch bis zu 250ms oder mehr Zeit brauchen so das die verzögerung spürbar wird.

Am liebsten mochte ich eigentlich DVI, bei HDMI habe ich öfters das Problem das aus den Boxen meiner Computermonitore (Die ich nicht verwende und auch deaktiviert habe im Windows ) komische kratz, fieps und piepsgeräusche kommen, vorwiegend bei 3D Anwendungen wie spiele. Ich schätze das der Monitor oder die Grafikarte da Signale senden die der Monitor als Ton interpretiert und entsprechend ausgibt. Erst ein auf 0 stellen der Laustärke oder abklemmen der Boxen brachte abhilfe.


Max
18.8.2013 2:23
Kommentarlink

auch neuere Xorgs kann man afaik zu ihrem Glueck mit der Aufloesung zwingen; mit einer custom Modeline, die man mit xrandr setzen kann.

So spricht mein Thinkpad X31, welches maximal 1200×1024 unterstuetzt, erfolgreich via VGA (!) meinen 1600×1200-Monitor an (wenn auch nur mot 16bit, aber das ist der knappe Grafikspeicher.)

Der Befehl liest sich wie “xrandr –output VGA –newmode 1600×1200 –ja-ich-weiss –scheiss-auf-edid –force –jaahaaaaaa”, aber es klappt \o/

Uebrigens habe ich an meinem Billigst-Samsungfernseher ein ganz passables Bild ueber HDMI; ohne komische korrekturen. Aber er brummt. Brummt deiner auch?


Hadmut
18.8.2013 10:31
Kommentarlink

@Max:

> Brummt deiner auch?

Den neuen hab ich noch nicht ausgepackt. Auch von meinen anderen brummt keiner, wenn ich den Ton digital über HDMI übertrage (weshalb ich normalerweise Monitore mit eingebautem Lautsprecher oder wenigstens Analogausgang bevorzuge).

Allerdings hatte ich schon häufiger Probleme mit Brummen bei früheren Geräten, die den Ton nur über analoges Kabel annahmen (DVI kann keinen Ton übertragen), oder als die Linux-Treiber noch nicht den Ton mancher HDMI-Chips ansteuern konnten. Dann hatte ich nicht nur manchmal Brummschleifen drin, sondern nicht selten auch die Prozessortätigkeit auf den Lautsprechern gehört, je nach Prozessorauslastung Brummen, Zirpen usw. Deshalb vermeide ich es normalerweise, den Ton vom Rechner analog irgendwo anzuschließen. Nur bei Kopfhöhrern habe ich das Phänomen noch nicht erlebt, aber die bilden dann auch keine geschlossene Schleife.


Gast
18.8.2013 2:41
Kommentarlink

Gehört hier nicht hin – nur ein Link, auf den ich Dich aufmerksam machen wollte:

http://www.zeit.de/digital/datenschutz/2013-07/vertrag-telekom-voicestream-fbi

Womit – falls es daran noch Zweifel gegeben haben sollte – auch endgültig geklärt wäre, das die NSA-Affäre definitiv keine Reaktion auf 9/11 darstellt.


Tobi
18.8.2013 10:06
Kommentarlink

Grundig wie Du es gekannt hast gibt es seit 2003 nicht mehr. Die TV-Geräte stammen von der türkischen Beko und sind mutmaßlich inzwischen auch aus Asien.

Die Marke hat überlebt, aber es ist praktisch nichts Deutsches mehr dran und drin.


Knut
19.8.2013 9:48
Kommentarlink

Dann berichte mal weiter.

Ich habe einen Samsung am Computer, was bis auf ein geringes Nachschärfen hervorragend geht. Mit einer Einstellseite komme ich auf 254 Farbabstufungen auf dem schlechtesten Kanal, was für Bildverarbeitung gut reicht.

Leider sind nicht alle Einstellungen eingangsspezifisch, so dass man sich die Einstellungen beim Fernsehen wieder versauen kann. Der Fernseher hat allerdings eine Einstellung, mit der man die Pixel uninterpoliert auf das Panel hauen kann. Die habe ich bei den Billigsamsungs im gleichen Jahr nicht gefunden und danach nicht mehr geschaut. In der Firma hatten wir so einen und dem war der Overscan nicht abzugewöhnen.


Lala
20.8.2013 12:06
Kommentarlink

Warum nur dachte ich sofort ‘tempest’ als ich folgenden Satz laß:

‘Wenn Sie das Gerät als Computermonitor einsetzen, kann es zu Funkstörungen in Wohnbereichen kommen’


Thomas
21.8.2013 20:18
Kommentarlink

Meiner Erinnerung nach gibt es deutliche Unterschiede bei der Farbkodierung. Ich glaub, die c’t hatte das auch mal erläutert. Kann gut sein, dass ich ein paar Zweierpotenzen daneben liege. HDMI unterstützt für jede Farbe 256 Intensitätsstufen. PC-HDMI nutzt auch alle, und Monitore verstehen das. Im Entertainment-Bereich werden aber nur die Stufen im Intervall (z.B.) [10,245] benutzt, alles darüber oder darunter ist schwarz oder weiß. Darum kommt es zu Abweichungen in der Darstellung.

Ich sehe gerade, Wikipedia unterstützt mein Gedächtnis: https://de.wikipedia.org/wiki/HDMI#Kompatibilit.C3.A4t
Und es ist sogar noch schlimmer. Schwarz und Weiß sind bei unterschiedlichen Pegeln definier, je nachdem, ob PC oder Unterhaltungsgerät…


Stefan
23.8.2013 19:50
Kommentarlink

Falls für den Warnhinweis (Geräz Klasse A …) noch nichts gefunden hast – ich denke es handelt sich um die FCC Regelung Abschnitt 15. Gerät Klasse A ist für den Einsatz in der Industrie, Klasse B wäre für den Consumer Bereich. Geht wohl um die Abschirmung – Dein Gerät wäre weniger störanfällig, aber andere Consumer-Geräte Klasse B könnten gestört werden. Da gib es wohl auch eine Europäische Richtlinie.
Ciao.

Und weiter so. Ich les immer gerne mit.
/Stefan