Burosch-Homebutton

TV-Features: Ultra HD, Full HD, 4K, 8K, HDR, Rec.2020, OLED, HbbTV, IPTV

Features der TV-Technik sind hier für Sie ausführlich erläutert

Ultra HD, Full HD, 4K, 8K, 3D, HDR, Rec.2020, OLED, Quantum Dots, HbbTV, IPTV, SAT<IP, Kabelfernsehen oder Satellitenempfang … alle neuen Features der TV-Technik sind hier für Sie ausführlich erläutert … 


BT.2020: Der lange Weg zum erweiterten Farbraum

BT.2020: Der lange Weg zum erweiterten Farbraum

Kaum hat man sich an UHD, Ultra HD, 4K gewöhnt und sogar festgestellt, dass es sich im Grunde um dasselbe handelt, schwirren die nächsten Abkürzungen durch die technische Gemeinde. Neben High Dynamic Range (HDR) ist es vor allem die Bezeichnung BT.2020, die derzeit Verwirrung stiftet. Warum der HDTV-Standard gemäß BT.709 nach wie vor gültig ist, der erweiterte Farbraum in der Praxis noch wenig Sinn macht und zur ITU-Empfehlung BT.2020 weitaus mehr gehört, haben wir hier für Sie zusammengefasst. Neben Panasonic tritt nun insbesondere Samsung mit seinen SUHD-Modellen der 2016er Serie an den Start des Wettstreits um Detailreichtum und Farbvielfalt. Mit der neuen HDR-Technologie kommt wie durch Zauberhand dynamisches Licht in die aktuellen TV-Displays, das neben einer nie dagewesenen Bildtiefe auch eine gigantische Farbenpracht mit sich bringt. Hersteller werben mit „Wide Color Enhancer“ – also der Erweiterung des Farbraums. In aktuellen Geräten ist dieser bereits einstellbar und wird allgemeinhin als BT.2020 oder Rec.2020 bezeichnet. Wir von BUROSCH erhalten seit einigen Wochen zahlreiche E-Mails mit der Frage, warum wir denn nicht endlich unsere Referenz-/Testbilder an ebenjene BT.2020 anpassen.

 

Inhaltsverzeichnis:

1. Die aktuelle Videonorm heißt: BT.709
2. 4K + HDR ist erst die Hälfte des Weges von BT.2020
3. Phase 1 und 2: UHD-1 (4K)
4. Phase 3: UHD-2 (8K)
5. Istzustand im Jahre 2016
6. Wie sieht die Realität im Einzelnen aus:
7. Wie entstehen Farben?
8. Was ist ein Farbraum?
9. Folgende Farbraumodelle gibt / gab es
10. DCI: Farbdynamik-Standard für Kinoformate
11. Die Versprechen der Hersteller
12. Probleme zwischen Aufnahme und Wiedergabe
13. Die Zukunft ist noch nicht heute
14. BUROSCH TV Testbilder sind eine visuelle Referenz
15. Fazit:

 

1. Die aktuelle Videonorm heißt: BT.709

Die Frage ist grundsätzlich leicht zu beantworten: Weil die derzeit gültige Videonorm eben immer noch BT.709 heißt und der erweiterte Farbraum gemäß BT.2020 in der Display-Praxis noch längst nicht angekommen ist. Die Firma BUROSCH ist seit nunmehr siebzig Jahren am Markt und hat so einige Hypes und technische Revolutionen hautnah miterlebt. Einige davon haben sich durchgesetzt (Full HD), andere sind noch dabei (HDR) und wieder andere verschwinden so langsam wieder von der Bildfläche (3D). Insofern gehört es zu unserem Firmenprofil, die technischen Entwicklungen und Trends am Markt genau zu beobachten, im Labor daran teilzuhaben, darüber zu berichten und im richtigen Moment entsprechend zu handeln. Aufgrund unserer engen Zusammenarbeit mit diversen Herstellern sitzen wir quasi in der ersten Reihe, wenn es um die Geburt, die Kinderkrankheiten und die Etablierung eines neuen Features geht.

 

2. 4K + HDR ist erst die Hälfte des Weges von BT.2020

Insofern können wir behaupten: Ja, da tut sich was in punkto Farbraumerweiterung. Die Fernsehtechnik erlebt eine komplett neue Ära. Mit der Recommendation ITU-R BT.2020 vom 23. August 2012 wurde der Grundstein für farbgewaltige XXL-Displays mit beeindruckender Bildqualität gelegt. Aber eben nur der Grundstein und längst nicht die Spitze des gigantischen Wolkenkratzers. Vergleicht man die Entwicklung von High Definition mit einem Hausbau, so befinden wir uns heute vielleicht im mittleren Stockwerk. Denn die BT.2020 sieht insgesamt drei Phasen der Einführung von UHD vor und hat für ebendiese verschiedene Parameter festgelegt oder vielmehr als Mindeststandard empfohlen. Mit 4K und HDR befinden wir uns derzeit am Anfang von Phase 2. Das Ziel von Rec.2020 ist also noch längst nicht erreicht, denn das heißt: 8K.

 

3. Phase 1 und 2: UHD-1 (4K)

Auflösung: 3840 x 2160 Pixel (viermal so groß wie Full HD, deshalb auch 4K)

Seitenverhältnis: 16:9

Pixel: quadratisch, im Verhältnis von 1:1

Abtastverfahren: progressiv

Bildwiederholrate: 24, 25, 30, 50 oder 60 Hz

Farbunterabtastung: 4:2:0, 4:2:2 oder 4:4:4

Quantisierung: 10 Bit für Produktion (1024 Stufen pro Farb- und Helligkeitskanal)
                        8 Bit für Verteilung (256 Stufen pro Farb- und Helligkeitskanal)

Farbraum: identisch mit BT.709

  

4. Phase 3: UHD-2 (8K)

Auflösung: 7680 x 4320 Pixel (achtmal so hoch wie Full HD, deshalb auch 8K)

Seitenverhältnis: 16:9

Pixel: quadratisch, im Verhältnis von 1:1

Abtastverfahren: progressiv

Bildwiederholrate: 24, 25, 30, 50, 60, 100 oder 120 Hz

Farbunterabtastung: 4:2:0, 4:2:2 oder 4:4:4

Quantisierung: 10/12 Bit (pro Farb- und Helligkeitskanal)                

Farbraum: erweiterter Farbraum

  

5. Istzustand im Jahre 2016

Vier Jahre nach der Veröffentlichung der Rec.2020 befinden wir uns im Jahre 2016 am Anfang der Phase 2 von UHD-1. Das heißt, der Weg bis zur Vollendung der ITU-Empfehlung ist noch lang. Und auch wenn „lang“ im rasanten Tempo der technischen Fortschritts im 21. Jahrhundert quasi nur noch ein Wimpernschlag bedeutet, heißt das dennoch, dass zumindest einige Jahr vor uns liegen, bis HDR und auch der erweiterte Farbraum flächendeckend in den heimischen Wohnzimmern angekommen ist. Denn gerade mit dem schleppenden Breitbandausbau ist das Datenvolumen eines erstklassigen 4K-Streams inklusive HDR & Co. trotz bester Komprimierungsverfahren riesig und kann nach heutigem Stand kaum transportiert werden.

 

6. Wie sieht die Realität im Einzelnen aus:

Auflösung: Deutschland schafft gerade erst das analoge Kabelfernsehen ab. TV-Inhalte in Full HD sind noch längst nicht flächendeckend verfügbar. Lediglich Videoproduktionen in Ultra HD kommen langsam auf den Markt. Die Entwicklung der 4K-Blu-ray-Disk/-Player hinkt. Mit HDR und einem erweiterten Farbraum können ultrahochauflösende Videoinhalte derzeit praktisch nur per Onlinestream geschaut werden – jedoch in voller Qualität nur von dem, der über Highspeed-Internet verfügt. Bei schwachem Datentransfer (z.B. DSL) wird auf Full HD oder gar SD gedrosselt.

Abtastverfahren/Bildwiederholungsrate: die Öffentlich-Rechtlichen senden derzeit mit 720 Zeilen und 50 Vollbildern pro Sekunde (720p/50) im progressiven Vollbildverfahren. Das Interlaced-/Halbbildverfahren ist jedoch mit 1080i noch nicht vom Tisch der Programmanbieter. Die Zukunft heißt 1080p/50 und damit gerade einmal Full HD und 50 Hz. Das heißt, Ultra HD mit 100/120 Hz (High Frequency Rate: HFR) ist im Zusammenhang mit der TV-Übertragung reine Zukunftsmusik.

Quantisierung/Farbraum: Mit 8 Bit für die Übertragung bzw. Verteilung von TV- und Videoinhalten ist kein HDR möglich. Abgesehen davon sind alle Geräte, die bis 2015 hergestellt wurden, in der Lage, maximal mit 8 Bit zu arbeiten. Der erweiterte Farbraum wird in den Studios generell noch nicht angewendet, aktueller Standard bleibt nach wie vor der Farbraum nach BT.709.

 

7. Wie entstehen Farben?

Grundlage für alle Farbräume bieten die Graßmannschen Gesetze, welche die Farbvalenz als eine dreidimensionale Größe - die Grundfarbe (Spektralfarbe), die Farbintensität und die Weißintensität - definieren. Darauf aufbauend werden diese drei Grundgrößen heute im Zusammenhang mit dem HSV-Farbraum, den CIE-Primärvalenzen oder den Werten CMY und RGB verwendet. RGB ist die Abkürzung für Rot, Grün, Blau. Diese drei Farbwerte stellen die Primärvalenzen beziehungsweise Primärfarben dar, also jene drei spektral reinen Farben, die sich nicht aus den jeweils anderen herstellen (mischen) lassen.

Wer schon einmal mit einem Grafikprogramm gearbeitet hat, kennt diese Farben aus der Praxis und weiß, dass sie sich beliebig mischen lassen. Wird der Farbwert eines Objektes auf null gesetzt, färbt sich dieses schwarz. Werden alle drei Farbwerte (R = B = G) gleichmäßig um 50 Prozent erhöht, ergibt das die (unbunte) Farbe Grau. Setzt man zwei der drei Farbewerte auf 0 Prozent und die dritte auf 100 Prozent, ergibt sich daraus eine der drei Primärfarben. Werden zwei Farbwerte auf 100 Prozent gesetzt und der dritte bleibt bei null, können so die Farben Cyan (Grün und Blau), Gelb (Rot und Grün) und Magenta (Blau und Rot) additiv gemischt werden. Aus diesen drei sogenannten Sekundärfarben (Cyan, Magenta und Yellow) resultiert der technisch-physikalische Wert CMY. Stellt man alle drei RGB-Werte auf 100 Prozent, erhält man Weiß.

Der deutsche Naturwissenschaftler Hermann Ludwig Ferdinand von Helmholtz erkannte, dass die Farbvalenz durch Farbton, Sättigung und Helligkeit gekennzeichnet ist. So lässt sich die „Farbe“ nach ihrem Helligkeitsanteil (engl. luminance) und der Farbart unterscheiden. Diese setzt sich aus dem durch die Wellenlänge des Lichtes bestimmten Farbton (engl. hue) und der Farbsättigung (engl. saturation) zusammen, die durch den zugemischten Weißanteil entsteht. Insofern ist der Begriff „Farbe“ nicht korrekt. Es müsste vielmehr „Buntheit“ heißen, da die sogenannten Farbnuancen in erster Linie etwas mit der Helligkeit zu tun haben. Im Umkehrschluss verwendet man bei Grauwerten in der Fachsprache die Bezeichnung „unbunte Farben“.

Verschiedene Farbpaare gelten als komplementär. Dazu zählen Blau ↔ Gelb, Rot ↔ Cyan und Grün ↔ Magenta. Da diese aus den Farben RGB resultieren, stellen sie die Basis dar für das CIE-System und andere technische Systeme (z.B. RGB und CMY). Diese sogenannten Komplementärfarben werden auch synonym als Gegenfarben bezeichnet, da sie sich im sogenannten Farbkreis genau gegenüberstehen. Verändert man die Intensität eines Farbtons, ergeben sich pro Farbton etwa 500 unterscheidbare Helligkeiten.



 

In der modernen Wissenschaft wird das Spektrum als die Gesamtheit aller Linien und Banden bestimmter Frequenzen in einem energiegleichen Strahlungsereignis definiert. In der Physik besteht das sogenannte „weiße“ Licht aus Anteilen aller Wellenlängen des sichtbaren Spektralbereichs und ist somit ein energiegleich gemischtes Licht, das es in dieser perfekten Form allerdings nur in der Theorie gibt. In der Regel ist damit das Sonnenlicht oder Tageslicht gemeint beziehungsweise die Normlichtarten mit ihren unterschiedlichen Farbtemperaturen. Denn Weiß entsteht auch durch Hitze oder vielmehr verschiebt sich das Maximum des Farbspektrums mit steigender Temperatur hin zu kürzeren Wellenlängen. So nehmen wir beispielsweise das Wellenlängengemisch der Sonne als weiß oder zumindest sehr hell wahr, weil die Außentemperatur dieser Gaskugel ca. 6000 °C beträgt, was einer Farbtemperatur von etwa 5800 Kelvin entspricht. Bei bedecktem Himmel verschiebt sich diese Farbtemperatur der Sonne zu höheren Werten (7000 Kelvin), sodass für das sogenannte Norm- oder Referenzlicht D65 namensgebende 6504 Kelvin zugrunde gelegt wurden.

Als Basis dieser Untersuchungen diente von jeher die menschliche Wahrnehmung. Der Mensch kann etwa 200 Farbtöne und ungefähr 20 Millionen Farben unterscheiden. Grundsätzlich ist festzustellen, dass die Farbe als solche eine Empfindungsgröße darstellt und somit generell subjektiven Charakter besitzt. Letztendlich ist es das Licht, welches im menschlichen Auge in Nervenimpulse umgewandelt wird (ähnlich wie in einem Display). Während der Verarbeitung dieser Impulse in nachgeschalteten Hirnstrukturen entsteht eine Empfindung, die allgemeinhin als „Farbe“ bezeichnet wird. Die physikalischen Einheiten im Bereich der Wahrnehmung sind zwar generell messbar, dennoch ist das, was wir als Schärfe, Kontrast, Licht oder Farbe empfinden und einschätzen, vielmehr eine subjektive oder gar emotionale Größe, die parallel zur individuellen Beschaffenheit und Funktionalität des menschlichen Auges sowie Gehirns verläuft. Genau deshalb können Bildeinstellungen am Display oder Beamer immer nur mithilfe von Referenz-Testbildern perfekt optimiert werden – nicht mit starren Einstellwerten.

 

8. Was ist ein Farbraum?

Und gerade weil die menschliche Farbwahrnehmung rein subjektiver Natur ist, mussten mit der Entwicklung von Farbtechnologien bestimmte Farben als Referenzwerte festgelegt werden. Bereits im Jahre 1931 wurde eine Normfarbtafel entwickelt und von der Internationalen Beleuchtungskommission (Commission internationale de l’éclairage: CIE) in einem Farbbeschreibungssystem definiert: dem CIE 1931. Auch heute noch stellt das CIE 1931 eine international vereinbarte Methode der Farbkennzeichnung dar, um die menschliche Farbwahrnehmung und die physiologisch farbige Wirkung einer wahrgenommenen Strahlung (Farbvalenz) in Relation zu setzen. Sie basiert auf der additiven Farbmischung. Deshalb wird dieses wahrnehmungsbezogene System auch als CIE-Normvalenzsystem bezeichnet, das die Gesamtheit aller vom Menschen wahrnehmbaren Farben umfasst.

Doch wenn Farbe lediglich eine subjektive Wahrnehmung ist, wie wurde daraus eine allgemeingültige Norm? Um eine Vereinheitlichung der Farben zu bewirken, wurden bereits in den 1920er Jahren mehrere Beobachter für die Studien hinzugezogen. Dabei wurde den Probanden eine vorgegebene Farbfläche mit einem Sichtfeld von 2 Grad mittig zur Hauptblickrichtung relativ dicht vor die Augen gehalten. Abgeleitet wurde diese Methode aus der Erkenntnis, dass diese Zone in etwa der höchsten Dichte der farbempfindlichen Rezeptoren im Bereich der Netzhaut entspricht. Allerdings nimmt erst ab einem Winkel von 10 Grad die Zapfendichte im Areal der besten Farbsichtigkeit im Auge ab. Deshalb wurde im Jahre 1964 auf Grundlage des erweiterten Sichtfeldes (10 Grad) das CIE(1964)-Farbsystem entwickelt, wobei die Farbfläche nicht mehr die Größe einer 1-Euro-Münze hatte, sondern der eines A4-Blattes in normalem Betrachtungsabstand von etwa 30 Zentimetern entsprach.

Diese Farbfläche bestand in beiden Versuchsreihen aus einem geteilten Schirm, auf dessen A-Seite eine bestimmte Farbe und auf dessen B-Seite drei Strahler in den Primärfarben Rot, Grün und Blau projiziert wurden, die als Maß der auf der A-Seite vorgegebenen Lichtfarbe benutzt wurden. Dabei war zwar die Helligkeit variabel, aber nicht die definierte Farbe, deren Wellenlänge mithilfe von Farbfiltern festgelegt wurde. Die Beobachter sollten ihrem subjektiven Farbempfinden nach die verschiedenen Farben, die durch Veränderungen der Helligkeitswerte der drei Lichtquellen (B-Seite) entstanden, dem jeweils vorgegebenen Farbeindruck zuordnen.

In der Entwicklungsphase zum Ende der 1920er Jahre verwendeten W. David Wright und John Guild für die Erzeugung der Spektrallinien Quecksilberdampflampen und Interferenzfilter und legten mit deren Hilfe die Farbwerte 546,1 nm (grün) und 435,8 nm (blau) fest. Da sich bei der Farbe Rot (700 nm) kleine Abweichungen der Wellenlänge im Ergebnis weit weniger bemerkbar machten, konnte auf Glühlampen mit einem Farbfilter zurückgegriffen werden. Wobei es in diesem Zusammenhang zu einem anderen Problem kam: Im Bereich der Grün-Blau-Einstellungen konnten von den Beobachtern einige Testfarben nicht vollends übereinstimmend festgelegt werden. Deshalb musste auf der einen Seite rotes Licht zugeführt und auf der anderen Seite weggenommen werden, was im Protokoll als negativer Rot-Wert festgehalten wurde. Grundsätzlich ist allerdings kein Farbdisplay oder Projektor in der Lage, rote Farbe mit negativer Intensität zu erzeugen. Deshalb können Farben im Grün-Blau-Bereich bisweilen nur ungesättigt (zu blass) dargestellt werden.

 

 

 

Mithilfe der Dreifarbentheorie gelang somit die numerische Erfassung der vom Menschen wahrnehmbaren Farbreize. Auch wenn die Hufeisenform des CIE-Farbsegels vom Grunde her der nicht-linearen physiologischen Verarbeitung im menschlichen Auge entspricht, können mit den drei Primärfarben nur die Farbreize technisch wiedergegeben werden, die nach dem Gamut-Prinzip innerhalb des abgebildeten Dreiecks liegen. Insofern handelt es sich hierbei um ein theoretisches Dreieck mit einem mathematisch definierten Feld, in dem jeweils die Farben liegen, die von einem Bildgerät reproduziert werden können. Auch wenn sich dieses dreieckige Feld innerhalb des Gamuts im Laufe der Zeit erweiterte und damit heute einen weitaus größeren Farbraum gemäß Rec.2020 zulässt, gleicht es noch längst nicht dem Potenzial der menschlichen Wahrnehmung.

 

9. Folgende Farbraumodelle gibt / gab es:

  • CIE-XYZ Farbraum
  • CIE-RGB Farbraum
  • NTSC (US TV-Norm)
  • PAL (TV/DVD)
  • SECAM
  • sRGB (Computer/Monitor seit 1996 – aktuelle Alternative zu REC 709 im Bereich HDTV)
  • Adobe RGB (seit 1998 internationaler Standard in der Profi-Fotografie)
  • Wide-Gamut
  • DCI (aktuelle Kinonorm für „Digitalen Film“)
  • CMYK (Offsetdruck/Siebdruck/Digitaldruck)
  • Rec. 601 alter Standard für PAL, DVD, Video
  • Rec. 709 aktueller HDTV-Standard
  • Rec. 2020 neuer UHD-Standard

 

10. DCI: Farbdynamik-Standard für Kinoformate

Neben der Empfehlung der ITU für die Farbräume ist heute noch ein weiterer Farbdynamik-Standard zulässig, der bisher vorwiegend in der digitalen Kinoprojektion verwendet wurde. Es verblüfft insofern nicht, dass dieser Standard vom Dachverband der amerikanischen Filmstudios herausgegeben wurde – genauer gesagt der Digital Cinema Initiatives (DCI). Der entsprechend bezeichnete DCI-Farbraum ähnelt vom Umfang her in etwa dem Adobe-RGB-Farbraum und ist somit bedeutend größer als der Farbraum gemäß BT.709 aber kleiner als nach BT.2020. In diesem Zusammenhang sei darauf hingewiesen, dass sich die 4K-Auflösung ursprünglich auf die Kino-Auflösung (4096 × 2160 Pixel) bezog, jedoch ähnlich wie DCI nunmehr in abgewandelter Form auch im Heimkinobereich Anwendung findet.

Bei der Einführung von UHD-Fernsehern wurden noch 8-Bit-Displays verbaut und somit lediglich der Farbraum nach Rec.709 realisiert. Insofern sind hier die gravierenden Unterschiede in der Bilddarstellung begründet, weshalb die Pixelanzahl eben nicht allein über die Qualität entscheidet. So wurde der Farbraum gemäß der Empfehlung Rec.2020 für UHD-2 erweitert und umfasst 75,8 Prozent der Farben im Diagramm des Farbraumes CIE 1931 und damit Wellenlängen, die nach Rec.709 (35,9 Prozent) noch nicht darstellbar waren. Für die RGB-Grundfarben wurden die folgenden Wellenlängen in der BT.2020 festgesetzt: Rot (630 nm), Grün (532 nm), Blau (467 nm).

Aufgrund der höheren Abstände zwischen benachbarten Farbwerten erfordert die entsprechend höhere Farbpräzision ein zusätzliches Bit pro Abtastwert. Gemäß der ITU-R-Empfehlung BT.2020 wird bei 10 Bits pro Abtastwert eine Helligkeitswerteskala genutzt, bei der der Schwarzpunkt auf den Code 64 und der Weißpunkt auf den Code 940 festgesetzt sind. Für die Zeitreferenz dienen die Codes 0 bis 3 und 1.020 bis 1.023, während die Codes 4 bis 63 Helligkeitswerte unterhalb des Schwarzpunktes und die Codes von 941 bis 1.019 Helligkeitswerte oberhalb des Nennspitzenwertes bezeichnen. Bei 12 Bits pro Abtastwert ist der Schwarzpunkt auf dem Code 256 und der Weißpunkt auf dem Code 3.760 der Helligkeitswerteskala gemäß Rec.2020 festgelegt. Entsprechend verändern sich die übrigen Werte: Zeitreferenz (Codes 0 bis 15 und 4.080 bis 4.095), Helligkeitswerte unterhalb des Schwarzpunktes (Codes 16 bis 255), Helligkeitswerte oberhalb des Nennspitzenwertes (Codes von 3.761 bis 4.079).

 

11. Die Versprechen der Hersteller

Bei der Fülle dieser Werte ist schnell erkennbar, dass insbesondere bei der Farbreproduktion Schwierigkeiten auftreten können. Auch wenn Studiomonitore (z.B. BVM-L 230 von Sony) über präzise Farbkorrekturen verfügen, die nahezu alle Farbstandards emulieren können, heißt das noch lange nicht, dass auch Consumer-Geräte dazu in der Lage sind. Die Hersteller werben mit „Wide Color Enhancer“ und versprechen bessere und sogar mehr Farben, als die Fernsehtechnik jemals vermochte und die Konkurrenz hat. Tatsächlich ist aber die nicht Anzahl der Farben, sondern deren Darstellung eine andere. Und genau hier liegt der Hase im Pfeffer! Selbst wenn die aktuellen TV-Geräte einen erweiterten Farbraum darstellen können, entspricht dieser nicht immer dem festgelegten Farbstandard. Bei der Reproduktion des Farbraums werden somit Farben schlichtweg falsch dargestellt – also nicht so, wie bei der Aufnahme bzw. Filmproduktion vorgesehen.

 


Wide-Color-Enhancer-Technologie (Samsung)

 

12. Probleme zwischen Aufnahme und Wiedergabe

Schon mit der Einführung von HDTV und dem Farbstandard gemäß ITU-R BT.709 gab es Probleme zwischen der Filmaufnahme und der Filmwiedergabe. Während die Koordinaten für die Farborte exakt definiert sind, wurde ein verbindlicher Gammaverlauf nur für die Filmaufnahme festgelegt – nicht aber für die Wiedergabe! Doch die Basis für ein perfektes Bild ist die korrekte Umsetzung der Gammafunktion bzw. Gammakorrektur. Hierbei handelt es sich um das Leuchtverhältnis unterschiedlicher Grau- und Farbstufen, das dazu dient, aus einer linearen Größe (Aufnahme) eine nicht-lineare Übertragungsfunktion (Wiedergabe) zu machen, die der menschlichen Wahrnehmung entspricht.

Im Allgemeinen hat sich der Gammawert von 2,2 bis 2,4 als Standardgröße etabliert, weshalb Displays zwischen 10 und 90 IRE exakt auf ein Gamma von 2,2 kalibriert werden. Bei der Verarbeitung des Eingangs- und Ausgangssignals im TV-Display kann es nun zu Fehlern kommen, die vor allem die Leuchtkraft und damit den Kontrast und natürlich auch die Farbstufen betreffen. Denn der spezifizierte Gammaverlauf von BT.709 für die Aufnahme weicht massiv von einem realen Gamma 2,2 ab. So muss ein 10%-Pegel im Eingangssignal noch längst keine 10 % der maximalen Leuchtkraft bei der Wiedergabe ergeben. Bisweilen bleibt nicht mehr als 1 % Lichtstärke im Ausgangssignal übrig. Dies ändert sich nun insbesondere mit der neuen HDR-Technologie. Denn hier wurde die nicht-lineare Übertragungsfunktion (klassische Gammakurve) durch die weitaus komplexere elektrooptische Transferfunktion (EOTF) ersetzt.

Jedoch definiert die ITU mit BT.2020 weiterhin eine nichtlineare Übertragungsfunktion zur Gammakorrektur bei RGB und YCbCr. Wobei RGB für beste Qualität und YCbCr für die Gewährleistung der Kompatibilität zu SDTV/HDTV eingesetzt werden kann. Darüber hinaus ist in BT.2020 ebenfalls eine linear kodierte Version von YCbCr (YcCbcCrc) definiert, welche Anwendung findet, wenn eine möglichst originalgetreue Reproduktion der Helligkeitsinformationen gefordert wird.

Hinzu kommt, dass neben der Gammakorrektur gemäß BT.2020 bei der Filmproduktion bzw. dem Mastering weitere Übertragungsfunktionen verwendet werden (z.B. nach BT.1886, BT.2035 oder Dolby Perceptual Quantizer: PQ). Außerdem kann im Nachhinein kaum eine eindeutige Aussage darüber getroffen werden, welcher Film wie gemastert wurde.

Kurzum: Fernsehtechnik bedeutet heute nicht mehr nur schlichte Amplitudenmodulation. Die digitale Technik ist mittlerweile so komplex geworden, dass selbst beste Prozessoren ihre Schwierigkeiten bei der Signalverarbeitung haben. Genau deshalb klafft zwischen der Theorie und der Praxis noch eine riesige Lücke, die erst nach und nach gestopft werden kann. 

 

13. Die Zukunft ist noch nicht heute …

Erinnern Sie sich an das Desaster seinerzeit bei der Umstellung auf 16:9? Selbst als die Fernseher technisch dazu in der Lage waren, das Seitenverhältnis automatisch anzupassen, waren nervige Verzerrungen die Folge. Die Darsteller in älteren Filmen oder TV-Produktionen im 4:3-Format hatten plötzlich breite Gesichter oder aber ihnen fehlte der halbe Kopf. Ganz ähnlich verhält es sich bei der Darstellung der beiden Farbräume. Denn es ist nicht so einfach, aus 75,8 Prozent des Farbraums 35,9 Prozent zu zaubern – oder umgekehrt. Vor allem dann, wenn nicht bekannt ist, wie diese Farben produziert wurden. Anders als beim Upscaling/Downscaling – also der Anpassung von Full HD auf Ultra HD oder umgekehrt - gibt es in punkto Farbraum kaum keine geeignete Technologien, die es ermöglichen, die Farben bzw. Farbstandards automatisch anpassen zu können. Die ersten Geräte bieten bereits in den Bildeinstellungen die Auswahlmöglichkeit zwischen BT.709 und BT.2020. Nur hilft uns dieser Modus zurzeit noch keinen Millimeter weiter. Denn auch mit dem teuersten Fernseher bleiben die massiven Probleme in der Abwärtskompatibilität sowie der Linearität der Wiedergabekette bei den verschiedenen Zuspielungen. Warum? Produziert und gesendet wird derzeit noch im Farbraum gemäß BT.709. Stellt man das Display mit BT.2020 ein, wirken die Bilder zu knallig. Und selbst wenn Videomaterial mit dem erweiterten Farbraum zugespielt wird, können die Geräte heute noch nicht automatisch zwischen den Farbräumen wechseln und die Bildmodi entsprechend anpassen. Insofern ist es wohl für den Übergang besser, weniger Farben einzustellen, auch wenn man mehr Farben zur Verfügung hat.

Gerade in den letzten Wochen erreichten uns zahlreiche E-Mails von stolzen Besitzern eines 2016er UHD-Fernsehers. Alle Anfragen hatten eines gemeinsam: „Warum gibt es noch keine Testbilder für HDR und BT.2020? Solange es keine Testbilder für den erweiterten Farbraum gibt, warte ich lieber noch mit dem Kauf.“ Kann man machen. Muss man aber nicht! Also, abwarten und Tee trinken. Denn die Frage ist: Warum fällt es manchen Menschen einerseits so verdammt leicht 4.000 oder auch „nur“ 2.000 Euro für ein Premium-TV-Modell auszugeben und andererseits so verdammt schwer, noch weitere 20 Euro in die Bildoptimierung zu investieren? Natürlich kann es sein, dass sich in einem Jahr der Markt bereits so weit entwickelt hat, dass HDR und der erweiterte Farbraum nach BT.2020 keine Utopie mehr darstellen.

 

14. BUROSCH TV Testbilder sind eine visuelle Referenz

Unsere Testbilder sind eine visuelle Referenz – ähnlich wie das Urmeter oder die Atomuhr zur richtigen Zeiteinstellung. Mithilfe unserer Referenz Testbilder regeln Sie also die Werte in den Grundeinstellungen soweit, bis alle Testbereiche richtig angezeigt werden. Das heißt also, werden unsere Testbilder perfekt dargestellt, gelingt auch die korrekte Wiedergabe des Videomaterials. Zudem werden derzeit und in naher Zukunft Videoinhalte ausschließlich mit dem aktuellen Farbraum (BT.709) produziert, übertragen, empfangen, verarbeitet und wiedergegeben.

Natürlich versprechen die aktuellen TV-Modelle den erweiterten Farbraum. Die ITU-Empfehlung BT.2020 bezieht sich jedoch nicht auf die Bildeinstellungen, sondern grundsätzlich auf die Display-Technik für ultrahochauflösende Geräte. Es geht also primär um Bit, Hertz und die technischen Voraussetzungen für die Zukunft von UHD-2 (8K). Deshalb ist vieles davon noch längst nicht Realität. Bis sich die Display-Technik gemäß BT.2020 umfassend auf dem Markt durchsetzt, wird es noch eine Weile dauern. In enger Zusammenarbeit mit diversen Herstellern testen wir erst seit einigen Monaten in der Produktionsphase die Displays auf den aktuellen Farbraum gemäß Rec.2020 - so beispielsweise das UltraHD-Premium-Modell TX-58DXW904 von Panasonic, welches als erstes Gerät überhaupt das Premium-Siegel der UHD-Alliance erhielt und tatsächlich den erweiterten Farbraum darstellen kann und darüber hinaus HDR-fähig ist.

Insofern berücksichtigen wir von BUROSCH selbstredend die aktuellen Empfehlungen der ITU, richten uns bei unseren Testbildern für Privatkunden jedoch nach der aktuellen HD-Videonorm gemäß ITU-R BT.709 (Farbraum RGB 16 bis 235), welche für die Grundeinstellungen eines jeden TV-Gerätes nach wie vor optimal sind. Kurzum: Selbstverständlich sind unsere UHD-Testbilder für die Optimierung der Bildeinstellungen Ihres TV-Gerätes zu gebrauchen, sonst würden wir uns nicht Marktführer nennen und dieses Produkt für Ultra HD/4K anbieten.

 

15. Fazit:

Selbstverständlich ist ein möglichst großer Farbraum ein wesentliches Qualitätsmerkmal sowohl bei der Aufnahme als auch bei der Wiedergabe. Denn nur ein umfassender Einstell-Spielraum macht eine automatische Farbkorrektur möglich, die dafür sorgt, dass die Farbreproduktion an die unterschiedlichen Farbstandards angepasst werden kann und somit neutrale Farben liefert. Die Frage ist nur, ob sich Hersteller und vor allem Verkäufer hierbei in die Karten schauen lassen bzw. über das nötige Wissen verfügen, um dem aufgeklärten Käufer die nötigen Auskünfte zu geben. Denn auch wenn es noch eine Weile dauern wird, bis Hollywood seine Blockbuster im erweiterte Farbraum produziert, kann es nicht schaden, schon heute einen Fernseher zu besitzen, der nicht nur den aktuellen HDTV-Standard BT.709 korrekt darstellt, sondern darüber hinaus den erweiterten Farbraum gemäß BT.2020 realisieren könnte.

Versüßen Sie sich die Wartezeit bis dahin mit einer perfekten Bildoptimierung nach BT.709 und holen Sie mit BUROSCH das Beste aus Ihrem TV.

 

Weitere Artikel zum Thema:

Recommendation ITU-R BT.2020
Der Farbraum in der Theorie

HDR – Das Geheimnis ist das Licht

HDR – Das Geheimnis ist das Licht

Ultra HD ist schon längst in unseren Wohnzimmern angekommen. Nun tauchen neue Schlagwörter auf, die Anwendern einiges Kopfzerbrechen bereiten. Nicht selten werden technische Begriffe wie 4K, HDR und der erweiterte Farbraum in einen Topf geworfen. Fakt ist jedoch, dass jedes dieser technischen Features eine Klasse für sich darstellt. Was bedeutet nun HDR, warum hinkt die Umsetzung und welche Potenziale stecken drin?

 

Inhaltsverzeichnis:

1. Was bedeutet nun HDR und was steckt wirklich dahinter?
2. Ultra HD (UHD, 4K) heißt noch längst nicht HDR
3. Das Licht ist das Geheimnis von Detailgenauigkeit und brillanter Farbdarstellung
4. Adaption nach menschlichem Vorbild
5. Nicht alle Geräte der 2016er Serie sind tatsächlich HDR-fähig
6. Doch wo Licht ist, ist auch Schatten!
7. Das Problem liegt zwischen Aufnahme und Wiedergabe
8. Tonemapping
9. HDR-Übertragungsmethoden
10. Metadaten
11. HDR-Systeme und ihre verschiedenen Ansätze
12. HDR erst vollkommen mit entsprechend produziertem Videomaterial
13. Lassen Sie sich nicht verunsichern!
14. Weitere Artikel zum Thema

 

1. Was bedeutet nun HDR und was steckt wirklich dahinter?

Der hohe Dynamikumfang (High Dynamic Range: HDR) kommt grundsätzlich aus der Bildbearbeitung. Dabei handelt es sich um sogenannte Hochkontrastbilder, die große Helligkeitsunterschiede detailreich wiedergeben, weshalb in diesem Kontext von Bildern mit hohem Dynamikumfang gesprochen wird. Das Gegenteil ist LDR – also digitale Bilder mit geringem Dynamikumfang: Low Dynamic Range. Das Mittelmaß bezeichnet das derzeit gängige SDR (Standard Dynamic Range). Modernes Fernsehen hat spätestens seit 2016 nicht mehr ausschließlich etwas mit Masse zu tun, auch wenn über acht Millionen Pixel pro Bild bei Ultra HD natürlich schon großartig sind. Jetzt werden neben der ultrahohen Auflösung ebenjene Pixel qualitativ aufgemotzt. Die einzelnen Bildinformationen können mithilfe der HDR-Technik aufgewertet werden und machen das Videomaterial somit noch brillanter und detailreicher. Insofern sollte man HDR nicht synonym für Ultra HD verwenden, denn es ist weitaus mehr. Mit HDR wird es zukünftig gigantische 1.000 Helligkeitsabstufungen geben, während bei herkömmlichen UHD/4K-Inhalten lediglich 256 Hell-Dunkel-Werte pro RGB-Farbkanal möglich sind.

Mit HDR gelingt die Darstellung des gesamten Umfangs an sichtbaren Details – sowohl im Licht als auch im Schatten. Das klingt erst einmal einfach, ist es aber ganz und gar nicht. Wenn Sie beispielsweise ein paar Sekunden in die Sonne schauen, fällt es Ihnen im Anschluss außerordentlich schwer, sich in einem dunklen Keller zu orientieren. Wenn man nun bedenkt, dass die menschliche Wahrnehmung der Technik meilenweit voraus ist, erkennt man, dass die parallele Aufnahme sowie Darstellung von hellen und dunklen Bereichen eine mannigfaltige Herausforderung für Ingenieure und Hersteller ist. Denn bisher konnte man entweder Details im Hellen darstellen, wobei dann im dunklen Teil des Bildes nichts zu erkennen war. Oder eben umgekehrt: bei detailreichen dunklen Szenen wurde der helle Anteil überbelichtet. Mit HDR wird es zukünftig möglich sein, sowohl dunkle als auch helle Bildanteile so zu produzieren und wiederzugeben, wie wir sie in der Natur wahrnehmen und es sich Produzenten und Regisseure wünschen. Dabei wird zwischen diffusem Weiß und sogenannten Spitzlichtern unterschieden, was eine deutlich bessere Differenzierung in der Tiefe eines Bildes zulässt. Das Ergebnis ist eine Bildwiedergabe, die wesentlich naturgetreuer ist, als es bisher möglich war.

 

2. Ultra HD (UHD, 4K) heißt noch längst nicht HDR

Die vielen Informationen und Werbeversprechen der Hersteller lassen uns glauben, dass HDR nun quasi dazugehört und gleichzusetzen sei mit 4K oder Ultra HD. Auch wir von BUROSCH erhalten immer mehr Anfragen, warum wir noch keine Testbilder in HDR anbieten. Doch letztlich stehen wir hier noch ganz am Anfang, wenngleich die technische Entwicklung schneller voranschreitet als noch im letzten Jahrtausend. Während der sogenannte Dynamikumfang – also das Verhältnis von größter und kleinster Leuchtdichte – noch vor einigen Jahren bei mickrigen 100 Nits lag und Videomaterial in ebenjenem Kontrastverhältnis von 100:1 produziert wurde, lagen die Werte bis 2014/2015 bei etwa 400 Nits. Einige UHD-TVs im Jahre 2016 schaffen hingegen die für HDR erforderliche Spitzenhelligkeit von 1.000 Candela pro Quadratmeter (cd/qm) und ein entsprechendes Kontrastverhältnis von 1000:1 bis stellenweise sogar 10.000:1. Die HDR-Tauglichkeit der Geräte hängt also unmittelbar mit den technischen Voraussetzungen zusammen, die zum einen die erwähnte Spitzenhelligkeit als auch den Schwarzwert betreffen, der im Rahmen der Zertifizierung der UHD Alliance bei weniger als 0,05 Nits für LED-LCD-Displays bzw. unter 0,0005 Nits für OLED-Bildschirme liegt.

Andererseits ist für diesen riesigen Dynamikumfang (0,05 bis 10.000 Nits) und die entsprechend kontrastreiche Darstellung eines unabdingbar: die erhöhte Quantisierung. Das heißt, die Bildabtastung muss in einem höheren Intervall erfolgen, da weitaus mehr Werte im Signal verarbeitet werden müssen. Um diese für HDR typischen hohen Kontraste und brillante Bildqualität erreichen zu können und störende Helligkeitsschwellen bzw. Helligkeitssprünge (Artefakte) unsichtbar zu halten, reicht die bisherige 8-Bit-Technik mit 256 Helligkeitsstufen nicht mehr aus.

www.technicolor.com

 

3. Das Licht ist das Geheimnis von Detailgenauigkeit und brillanter Farbdarstellung

Gemäß des neuen Standards (SMPTE ST-2084) werden für HDR mindestens 10 Bits pro Abtastwert vorgeschrieben. Diese Bittiefe entspricht in etwa einer Milliarde Farbtöne, denn das Licht ist das Geheimnis von Detailgenauigkeit und brillanter Farbdarstellung. Insofern wird hier auch von der Farbtiefe bzw. Deep Color gesprochen. Mit den neuen Nanokristall-Technologien (z.B. OLED, Quantum Dots) wurde die Grundlage geschaffen, die Farbtiefe auf 10 Bit oder gar 12 Bit zu erhöhen und den Dynamikbereich entsprechend auszuweiten. Moderne Displays werden nicht mehr flächendeckend, sondern je nach Bildinformation heller und dunkler (also dynamisch) bestrahlt oder die Bildpunkte leuchten individuell von selbst. Erst so kann der Kontrast erhöht, Weiß heller und Schwarz dunkler dargestellt werden, als es bisher möglich war. Die Steuerung von Farbton und Helligkeit erfolgt bei HDR also nicht mehr ausschließlich statisch, sondern in Abhängigkeit vom Bildinhalt. In der Gerätepraxis werden so Werte zwischen 0,01 und 4.000 cd/qm erzielt, was einem Dynamikumfang von 400.000:1 entspricht.

Mit HDR ist es somit möglich, die in der Natur vorkommenden Helligkeiten und Farben viel besser zu erfassen und entsprechend darzustellen. Über- oder Unterbelichtungen sind damit so gut wie ausgeschlossen. Deshalb können mit der HDR-Technologie und der entsprechenden Farbtiefe nunmehr Bilder und Videos erzeugt und wiedergegeben werden, die noch farbgewaltiger und detailreicher als mit 4K/UHD sind und darüber hinaus auch noch dem natürlichen Vorbild zum Verwechseln ähnlich sehen.

 

4. Adaption nach menschlichem Vorbild

Mithilfe des softwaregestützten HDR-Verfahrens wird es zukünftig also auch in der Fernsehtechnik möglich sein, mit dem Filmmaterial gezielt Informationen (Metadaten) zu übertragen, die im Display die Helligkeit dynamisch steuern. Somit können automatisch Bildverbesserungen insbesondere bei extremen Hell-Dunkel-Bereichen vorgenommen werden. Einfach ausgedrückt funktioniert HDR ähnlich wie die menschliche Wahrnehmung - speziell wie die Adaption im menschlichen Auge. Ob nun in tiefschwarzer Nacht oder im Licht eines 1000-Watt-Halogenstrahlers: unsere Augen können sich grundsätzlich an schier unzählige Lichtintensitäten  anpassen. Differenzen in den Lichtverhältnissen kompensiert die Pupille durch Verengung oder Erweiterung (Hell-Dunkel-Adaption/Pupillenlichtreflex) sowie mit Veränderung in der Sensitivität der Rezeptoren.  

BUROSCH-Realbild "Winter" zur perfekten Kontrolle nach erfolgter Bildoptimierung mit unseren Referenz-Testbildern

 

Diese retinale Adaption hat die Natur dafür vorgesehen, dass wir unsere Wahrnehmung an stark unterschiedliche Umgebungshelligkeiten (Leuchtdichten) anpassen können. So schafft es unser Auge, sagenhafte 10.000.000.000.000 (1012) verschiedene Reizstärken zu differenzieren, um somit die Orientierung bei Nacht zu gewährleisten. Auch bei direkter Sonneneinstrahlung können wir beispielsweise Spuren im Schnee erkennen, was auf die einzigartige Wechselwirkung zwischen Auge und Gehirn zurückzuführen ist. Jetzt schafft auch die Technik zumindest ansatzweise, was bisher nur der Natur vorbehalten war. Mit der 4K-Auflösung waren wir schon ziemlich dicht an der Realität, mit HDR wird der Unterschied zwischen einem künstlichen Display und dem Original in der Natur immer geringer.

 

5. Nicht alle Geräte der 2016er Serie sind tatsächlich HDR-fähig

Was zu Beginn des digitalen TV-Zeitalters noch als technische Herausforderung galt, ist also heute zumindest in einigen Geräten möglich. Erste HDR-taugliche TV-Modelle kamen Ende 2015/Anfang 2016 auf den Markt. Wer besonderen Wert auf extrascharfe Bilder und einzigartige Kontraste legt, der sollte auf die jeweiligen Spezifikationen und Mindestanforderungen achten, die unter anderem von der UHD Alliance mit ihrem Label „Ultra HD Premium“ festgelegt bzw. zertifiziert werden. Hierzu zählt insbesondere die Spitzenhelligkeit von mindestens 1.000 Nits, welche die Grundvoraussetzung für HDR darstellt. Wer auf Nummer sicher beim Kauf gehen möchte, der sollte sich generell an dem Label der UHD Alliance orientieren, mit dem nicht nur HDR-fähige TV-Geräte, sondern auch Player und sogar Blu-ray-Disks ausgestattet sind. 

Label der UHD Alliance

 

6. Doch wo Licht ist, ist auch Schatten!

Kaum jemand wird sich an die Umstellung vom Schwarz-Weiß- zum Farb-Fernsehen erinnern. Doch grundsätzlich gab es damals ähnliche Probleme wie heute. Der Grund war und ist die Kompatibilität der verschiedenen Systeme. Gerade im Broadcast- bzw. Fernsehbetrieb sind die Herausforderungen an die Entwickler gigantisch, aber auch für HDR aus der „Konserve“ (Blu-ray-Disk) oder gar im Online-Stream sind noch längst nicht alle Voraussetzungen geschaffen. Das liegt zum einen daran, dass es zumindest für eine absehbare Zeit sowohl SDR- als auch HDR-Angebote geben muss, weil natürlich nicht jeder ab sofort ein HDR-fähiges Gerät zu Hause stehen hat. Wir sind gerade erst dabei, die letzten Röhrenfernseher auf den Müll zu werfen und das analoge Signal restlos abzuschalten. Deshalb muss bei der Entwicklung einer Übertragungstechnik insbesondere die Kompatibilität berücksichtigt werden. Ähnlich wie bei der Auflösung (Full HD/Ultra HD) müssen die technischen Standards also geräteunabhängig praktikabel sein, da in den nächsten Jahren SDR und HDR parallel laufen müssen.

Insofern wurden und werden verschiedene HDR-Standards entwickelt. Der wohl aktuell meist verbreitete ist HDR-10, welcher überwiegend in den 2016er TV-Modellen vorkommt und auch für 4K-Blu-ray vorgesehen ist. Jedoch verspricht das technisch ausgefeiltere Format „Dolby Vision“ bereits jetzt eine noch bessere Qualität, deshalb wird sich diese Technik in nächster Zeit wohl weiter am Markt durchsetzen. Neben einer dritten Variante von Technicolor & Philips, die vorrangig für Streaming und Blu-ray entwickelt werden soll, tüfteln auch Sendeanstalten (z.B. BBC) an eigenen Verfahren, die sich allerdings mehr mit der Fernsehübertragung befassen.

Grundsätzlich unterscheiden sich die einzelnen HDR-Standards im Mastering-Prozess und der Übertragungsform der Metadaten. So liegt bei HDR-10 die Farbtiefe bei 10-Bit, Dolby Vision arbeitet hingegen mit 12 Bit, also einem weitaus breiterem Helligkeitsumfang, was für höhere Bildqualität sorgt. Zudem können die Bildinhalte hier besser an das Display angepasst werden, da die Informationen pro Bild übertragen werden. Insofern greifen die ersten TV-Hersteller (z.B. LG, Sony) nach „Dolby Vision“, mit deren Unterstützung die HDR-Umsetzung noch besser gelingen soll. Ob dieser Standard bei Blu-ray-Playern ebenfalls übernommen wird, ist derzeit noch nicht bekannt.

Das Ziel aller Entwicklungen ist, für möglichst viele herkömmliche und zukünftige Displays mit ganz unterschiedlichen Systemvoraussetzungen (z.B. Spitzenhelligkeit, Schwarzwert) ein optimales Ergebnis zu schaffen, das sowohl SDR als auch HDR beinhaltet. Im Gegensatz zur Auflösung, bei der es lediglich um die Anzahl der Bildpunkte geht, ist HDR weitaus komplexer. Deshalb hilft hier kein schlichtes Upgrade.

 

7. Das Problem liegt zwischen Aufnahme und Wiedergabe

Wie bereits erwähnt, stammt HDR eigentlich aus der digitalen Fotografie bzw. Bildbearbeitung. Um dunkle und helle Szenen gleichzeitig so detailreich wie möglich zu gestalten, behilft man sich hier mit einem kleinen Trick. Dieselbe Szene wird mit unterschiedlichen Belichtungen mehrfach aufgenommen und im Anschluss mithilfe einer passenden Software zusammengesetzt. Damit solche Aufnahmen mit einem großen Dynamikumfang auch kompatibel sind und dementsprechend auf Geräten mit einem geringen Kontrast angezeigt werden können, kommt das sogenannte Tonemapping zum Einsatz, das noch im Detail erläutert wird.

 

Beim Film wird seit einiger Zeit mit einem sehr großen Szenenkontrastumfang und entsprechenden Kompressionsverfahren („Color Grading“) gearbeitet, weshalb die Dynamik zwischen Hell und Dunkel hier bereits gegeben ist. Hochwertige Kameras können heute im Umfang von bis zu 14 Blendenstufen aufnehmen, denn sie verfügen über präzise Sensoren, die Licht in ein elektrisches Signal umwandeln. Diese Umwandlung von Photonen zu Elektronen bis hin zum Videosignal wird über eine sogenannte Opto-Electronic-Transfer-Funktion (OETF) definiert. Ursprünglich wurde diese Funktion (auch als Gammavorentzerrung bekannt) dazu benutzt, in Röhrenmonitoren die nicht-lineare Electronic-Opto-Transfer-Funktion (EOTF) zu kompensieren. Diese EOTF wurde seinerzeit in der ITU-Empfehlung BT.1886 standardisiert. Da diese Gammavorentzerrung als Potenzfunktion mit dem Exponenten 2,4 dem menschlichen Kontrastempfinden sehr ähnlich ist, wurde sie sowohl in der HDTV-Norm BT.709 (mit 8 Bit oder 10 Bit) als auch in der BT.2020 für UHDTV-Signale (mit 10 Bit oder 12 Bit) beibehalten. Der einzige Unterschied liegt hier also in der Quantisierung.

Moderne Kameras verwenden also überwiegend eine logarithmische Kurve (OETF), während Displays auf die herkömmliche Gammavorentzerrung (EOTF) zurückgreifen. Beide Standards arbeiten unabhängig voneinander und sind längst nicht in jedem Gerät gleich. Denn die verschiedenen Hersteller nutzen speziell optimierte log-Funktionen für den jeweiligen Sensor, damit die Kameras mit einem möglichst hohen Szenenkontrastumfang und möglichst geringem Datenvolumen aufnehmen. Die OETF (Aufnahme) ist also variabel und darüber hinaus nicht spezifiziert. Und genau hier liegt das Problem. Denn für eine perfekte Rekonstruktion (also die Umwandlung eines elektrischen Signals in ein optisches Signal) muss auf der Wiedergabeseite (EOTF) bekannt sein, mit welcher Wiedergabekennlinie gearbeitet werden muss. Ist dies nicht bekannt, wird es schwer bis unmöglich, den gesamten Dynamikumfang der Aufnahme bei der Wiedergabe zu erhalten.

So sind heute auch Fernsehkameras sehr wohl in der Lage, mit einem größeren Dynamikumfang aufzuzeichnen. Jedoch wurde dieses Feature bisher vernachlässigt, da es keine geeigneten Verarbeitungsmöglichkeiten in der Produktions- und Sendekette gab. TV-Signale werden live übertragen, eine nachträgliche manuelle Bearbeitung wie beim Film ist also beim Broadcast naturgemäß ausgeschlossen. Für die direkte Übertragung von HDR-Inhalten bedarf es insofern automatischer Verfahren, die eine hersteller- sowie systemunabhängige Signalverarbeitung zulassen und eine qualitativ hochwertige Wiedergabe sowohl in HDR als auch in SDR realisieren. Der simpelste Denkansatz hierfür war und ist die Weiterentwicklung des Tonemappings.

 

8. Tonemapping

Das Ziel der HDR-Entwicklung ist also nicht nur, die technischen Voraussetzungen für HDR sowohl bei der Aufnahme (Kamera) als auch bei der Wiedergabe (Display/Fernseher) zu schaffen. Die Schwierigkeit liegt in der Kompatibilität zwischen Sender und Empfänger und der Abwärtskompatibiliät der einzelnen Standards (HDR – SDR). Insofern bietet sich die sogenannte Hybrid-Log-Gamma-Funktion (HLG) an, die dafür sorgt, dass der Dynamikumfang abwärtskompatibel komprimiert wird, was allgemeinhin als Tonemapping bekannt ist. Natürlich kann dieses Verfahren aus der Digitalfotografie nicht eins-zu-eins in den Videobereich übernommen werden. Denn anders als bei einzelnen Bildern müssen Filmsequenzen über eine temporale Homogenität und eine Echtzeitfähigkeit verfügen und darüber hinaus gilt es, Artefakte zu vermeiden. In der Weiterentwicklung des Tonemappings gibt es nunmehr zwei Varianten. Einerseits das globale Tonemapping, bei der auf Basis einer durchschnittlichen und maximalen Leuchtdichte jedes Pixel mit derselben Übertragungskurve gewichtet wird. Der Vorteil liegt in der niedrigen  Rechenintensität, der Möglichkeit, das Ursprungssignal zurückzugewinnen (inverses Tonemapping) und der geringen Artefaktebildung. Wenn es jedoch darum geht, einen möglichst großen Szenenkontrastumfang darzustellen, bietet das lokale Tonemapping bessere Chancen, einen höheren Kontrast zu bewahren. Denn mit einer höheren Datenkompression kann hier auch die Umgebung eines jeden Pixels berücksichtigt werden. Wenn man bedenkt, dass ein UHD/4K-Bild über 8 Millionen Pixel hat und mit der BT.2020 zukünftig bis zu 120 Bilder pro Sekunde (120 Hz) übertragen werden sollen, kann man sich die unglaubliche Rechenleistung und das entsprechende Datenvolumen zumindest ansatzweise vorstellen. Insofern stellt sich in diesem Zusammenhang die Frage nach der besten Übertragungsmethode, wie also die nötigen Informationen am besten und schnellsten vom Sender zum Empfänger gelangen und welche Codierung/Decodierung sinnvoll ist.

 

9. HDR-Übertragungsmethoden

Ähnlich wie bei 2D/3D oder auch SD/HD seinerzeit und dem erweiterten Farbraum zukünftig, besteht auch hier die Notwendigkeit, sowohl SDR- als auch HDR-Inhalte gleichzeitig zu übertragen sowie zu codieren. Dafür gibt es derzeit drei verschiedene Varianten.

Einfacher Single-Layer: Hier wird die Szene über einen einzigen Datenstrom transportiert und mithilfe einer Transformationskurve (Hybrid-Log-Gamma-Kurve: HLG) so codiert, dass die Videoinhalte auf jedem handelsüblichen Display (SDR und HDR) wiedergegeben werden können. Metadaten sind hierfür nicht erforderlich, dafür ist der Dynamikumfang begrenzt.

Doppelter Single-Layer: Mit einer Punkt-zu-Punkt-Verbindung wird die Szene in zwei voneinander getrennten Datenströmen übertragen, wobei der eine Stream die SDR-Inhalte und der andere die HDR-Inhalte enthält. Je nach Display-Typ kann so das jeweils passende Signal abgerufen werden.

Dual-Layer: Auch hier werden zwei unterschiedliche Streams (SDR: Basis-Layer/HDR: Enhancement-Layer) genutzt, die jedoch parallel über nur einen Datenstrom übertragen werden. Die zusätzlich mitgelieferten Metadaten sorgen dann dafür, dass beide Signale im jeweiligen Endgerät entsprechend getrennt bzw. einzeln abgerufen werden können.

 

 

Übertragungskette: SDR und HDR (rfe-elektrohändler 9/2016)

 

10. Metadaten

Ein großer Schritt in Richtung Kompatibilität setzen Metadaten, die dem Datenstrom hinzugefügt werden. Wesentliche Grundvoraussetzung ist hier natürlich ein einheitlicher Standard, sodass diese auch auf allen gängigen Signalübertragungswegen (z.B. SDI, IPTV, OTT) Verwendung finden können. Eine besondere Herausforderung ist auch hier die Übertragung in Echtzeit, wie beim Broadcast/Fernsehen, da die Informationen synchron und verlustfrei weitergegeben werden und die Verzögerung bei der Signalverarbeitung so gering wie möglich sein müssen. Insofern wird heute von den Entwicklern für Fernsehübertragungen der einfache Single-Layer-Betrieb präferiert. Bei Nicht-Echtzeitanwendungen kann sich quasi Zeit gelassen werden und die statischen Metadaten auch noch während der Nachbearbeitung hinzugefügt bzw. abgespeichert werden. Entscheidend sind hier die Informationen über die Erstellung des Videomaterials während des Mastering-Prozesses, um die Wiedergabe möglichst originalgetreu zu realisieren. Damit Aufnahme und Wiedergabe sozusagen dieselbe Sprache sprechen, wurden im SMPT-Standard ST-2086 konkrete Werte für das Mastering-Display festgelegt. Dazu gehören die X/Y-Koordinaten der drei Display-Primärvalenzen sowie des Weißpunkts und darüber hinaus die maximale/minimale Leuchtdichte. Diese werden in den Metadaten beschrieben, damit die Wiedergabe das Mastering nachvollziehen kann. Bei 4K-Blu-ray/HDR ist es möglich, weitere Informationen (Metadaten) hinzuzufügen, die sich im RGB-Kontext auf den maximalen Wert in einer Szene (Maximum Content Light Level: MaxCLL) und den durchschnittlichen Wert (Maximum Frame-Average Light Level: MaxFALL) von Szene zu Szene beziehen.

Diese dynamischen Metadaten dienen vorrangig der Kompatibilität zwischen Mastering-Display und Bildschirmen mit geringem Dynamikumfang. Die Basisparameter hierfür sind in der SMPTE ST-2094-1 und ST-2094-2 spezifiziert und umfassen grundsätzlich vier unterschiedliche Anwendungen:

Transformation: Abhängig vom Eingangsbild wird hier aus dem Ausgangsmaterial ein Bild generiert und kann manuell verändert werden (Tonemapping).

Color-Grading: Hier werden bestimmte Parameter festgelegt, wie und wo (manuell oder automatisch) Helligkeits- und Farbveränderungen vorgenommen werden sollen, welche dann in den Metadaten übertragen werden.

Differenzierung: Aus dem HDR-Inhalt und den zusätzlich gelieferten Metadaten wird ein SDR-Bild gewonnen.

Spezifikation: Auf Basis der maximalen Leuchtdichte von Mastering- und Wiedergabedisplay werden mithilfe von Tonemapping-Algorithmen spezifische Parameter berechnet, um das HDR-Material bei der Wiedergabe möglichst originalgetreu darzustellen.

 

HDR Color Grading (www.technicolor.com)

 

11. HDR-Systeme und ihre verschiedenen Ansätze

Während perspektivisch BBC/NNK insbesondere vor dem Hintergrund der Live-Übertragung im Broadcast-Bereich die einfache Single-Layer-Methode nutzen wollen, bevorzugen Dolby, Philips und Technicolor komplexere Methoden. Hierbei stützen sich die Entwicklungsansätze bei Dolby Vision auf die Übertragung der Metadaten im Enhancement-Layer. Technische Basis hierfür ist die sogenannte Preceptual-Quantizer-Kurve (PQ) gemäß SMPTE ST-2084. Beim Mastering des EDR-Materials (Extended Dymanic Range) werden darüber hinaus Metadaten erzeugt, die weitere Informationen zur Darstellung des Bildmaterials enthalten. Natürlich gibt es das alles nicht umsonst. Die Datenrate des Enhancement-Layers steigt proportional zum Umfang der Metadaten und liegt etwa 25 Prozent über der des Basis-Layers. Dolby Vision setzt bei seinem DolbyVision-System auf die automatische Konvertierung des oben beschriebenen lokalen Verfahrens (Content Mapping Unit: CMU), bei dem aus der HDR-Version das SDR-Material generiert wird. Dazu werden aus dem HDR-Grading die entsprechenden Einstellungen abgeleitet und bei der Reproduktion die nötigen Informationen für das SDR-Grading geliefert.

 

 

Philips nutzt für die Übertragung einen Basis-Layer zuzüglich Metadaten, aus denen die jeweilige Version (SDR/HDR) im Wiedergabegerät reproduziert werden kann. Sollte es nur eine HDR-Version im Original geben, wird das SDR-Bild mithilfe des automatischen Tonemappings inklusive manueller Bildoptimierung erzeugt. Bei Technicolor wird die HDR-Version vorverarbeitet, sodass jedes HDR-Bild quasi aus einem SDR-Bild und den dazugehören Modulations-Metadaten besteht. So kann über das SDR-Signal beispielsweise via HEVC/Main 10 codiert, übertragen und in einem SDR-Display entsprechend wiedergegeben werden. Genau wie bei Philips werden die zusätzlichen dynamischen Metadaten für die Modulation in HDR in sogenannten SEI-Paketen (Supplemental Enhancement Information) an ein entsprechendes Wiedergabegerät weitergeleitet und dort zu einem HDR-Bild reproduziert. Hier kommt ebenfalls die inverse Funktion des Vorverarbeitungsprozesses zum Einsatz. Da sich beide Systeme im Over-The-Top-Content (OTT) sehr ähnlich sind, wurde sich hier darauf geeinigt, gemeinsam ein einheitliches Verfahren zu entwickeln. Technicolor verkündete dies in einer Pressemitteilung vom 4. Januar 2016.

 



 

12. HDR erst vollkommen mit entsprechend produziertem Videomaterial

Wer nach passendem Videomaterial Ausschau hält, das in HDR produziert wurde, muss mit der Lupe suchen. Bei TV-Sendern ist HDR vor allem wegen der mangelnden Kompatibilität in der Signalverarbeitung noch reine Zukunftsmusik – ähnlich wie übrigens auch der erweiterte Farbraum gemäß BT.2020. Deshalb haben momentan ausschließlich die Streamingdienstleister in punkto Bildtiefe und Farbbrillanz die Nase vorn. Sowohl Amazon bietet erste Video-Titel mit einem HDR-Etikett an, aber auch Netflix hält sein Versprechen und produziert zunehmend Filme und Serien sowohl ultrahochauflösend als auch mit höherem Dynamikumfang. Laut Pressemeldung vom 19. April 2016 wird Netflix bis Jahresende UHD-Videomaterial in HDR-Qualität mit einer Länge von insgesamt 250 Stunden zur Verfügung stellen. 

Wenn auch schleppend so gibt es mittlerweile doch die ersten Blu-ray-Disks in Ultra HD plus HDR. Natürlich macht das Ganze nur richtig Spaß, wenn Sie die entsprechenden HDR-tauglichen Geräte besitzen. Alles in allem sollten Sie beim BD-Kauf ebenfalls auf das Premium-Zertifikat der UHD Allicance achten. Ähnlich wie bei 3D gibt es hier mehrere Disks in unterschiedlichen Formaten in einem Cover. 



 

Selbst wenn Ihnen echte HDR-Inhalte zur Verfügung stehen, die Sie nun auf Ihren HDR-tauglichen Fernseher streamen oder über Ihren HDR-tauglichen Blu-ray-Player abspielen möchten, bleibt noch die Frage der richtigen Leitung. Das Datenvolumen von 4K/Ultra HD ist schon gewaltig. Nun müssen im Datenstrom auch noch zusätzliche Metadaten für die Leuchtdichte an das Display weitergegeben werden. Mit HDMI-Kabeln der älteren Generation kommen Sie hier deshalb nicht weiter. Achten Sie auf den aktuellen HDMI-Standard 2.0a und verwenden Sie nicht zu lange Kabel.

 

13. Lassen Sie sich nicht verunsichern!

Kurzum: HDR steckt noch längst nicht in jedem TV. HDR ist nicht gleichzusetzen mit 4K/UHD. HDR bleibt vorerst in den meisten Wohnzimmern reine Zukunftsmusik. Hollywood wird auch in nächster Zeit nur sehr spärlich in HDR produzieren. Eine TV-Übertragung in HDR-Qualität ist absolute Utopie. Und solange das so bleibt, bietet BUROSCH Referenz-/Testbilder gemäß der aktuellen Videonorm BT.709 an. Lassen Sie sich also nicht verwirren, Rom wurde schließlich auch nicht an einem Tag erbaut.

 


 

14. Weitere Artikel zum Thema:

BT.2020: Der lange Weg zum erweiterten Farbraum
Jetzt kommt Licht ins Dunkel: UHD Alliance vergibt ab sofort einheitliches Logo "Ultra HD Premium"
Was bringt OLED im Vergleich zu LED/LCD & Co.?
Quantum Dots - mehr als nur Punkte

Alle Programme via Antenne werden in HD-Qualität ausgestrahlt

Die Einführung des terrestrischen Nachfolgestandards in Deutschland wird nun endlich Realität. Drei Jahre früher als geplant soll der Regelbetrieb für DVB-T2 im 1. Quartal 2017 starten, die offizielle Testphase beginnt bereits am 31. Mai 2016. Die gute Nachricht: Alle Programme via Antenne werden in HD-Qualität ausgestrahlt. Kostenlos gibt es dann allerdings nur noch das Angebot der Öffentlich-Rechtlichen. Die Privatsender (z.B. Sat.1, RTL oder ProSieben) werden verschlüsselt angeboten, der Preis soll sich aber in Grenzen halten. Wann geht’s los, was steckt drin, wie und wo kann DVB-T2 empfangen werden?

Gütesiegel für 4K/Ultra HD

Endlich kommen die ersten Ultra-HD-Premium-Modelle mit einem richtigen Gütesiegel der UHD Alliance auf den Markt – und schon gibt es wieder was zu meckern. Was man wissen sollte: Bei der Zertifikate-Verteilung geht es lediglich um die Einhaltung von Mindeststandards. Aber selbst diese sind nicht immer spezifiziert! Was sind die Hintergründe und was zählt wirklich?

HbbTV - Hybrid Broadcasting Broadband TV

Als kleine TV-Revolution wird bereits seit einiger Zeit das Hybrid Broadcasting Broadband TV gefeiert, das im Allgemeinen unter der Abkürzung HbbTV das mobile Fernsehen erobert. Hierbei handelt es sich um keine Hardware, keinen Vertrag eines Providers, sondern lediglich um einen Standard, der ohne zusätzlichen Receiver und monatliche Kosten direkt auf HbbTV-fähigen Fernsehgeräten empfangen werden kann.

Hintergründe der schlechten TV-Einstellungen ab Werk

Manchmal glänzt nicht alles, was Gold ist: Für viel Geld haben Sie sich einen neuen Fernseher gekauft … und schauen nun praktisch in die Röhre. Im Laden wirkte das Display noch großartig – zu Hause ist davon nichts mehr zu spüren. Im Internet oder einschlägigen Fachzeitschriften lesen Sie, dass Werkseinstellungen nicht das Gelbe der Banane sind. Konkrete Werte für Grundeinstellungen sind kaum zu finden. Testbilder sollen nun die Lösung sein. Aber warum ist das eigentlich so?

BUROSCH Praxishandbuch der Medientechnik

Auch in 2016 werden wir wieder mit der neuesten Technik-Werbung bombardiert. Der Sohn wünscht sich Virtual Reality, die Tochter will endlich ihre Lieblingsserien streamen und Papa kann sich nicht entscheiden zwischen einem Curved-TV und der XXL-Variante mit Ambilight …

Wer sich nicht täglich mit der Materie befasst, ist hier bisweilen überfordert. Im Internet steht viel, nicht alles davon ist glaubwürdig. Vom TV-Spezialisten gibt es deshalb nun die geballte Ladung Wissen im handlichen PDF-Format. Und auch für alle, die schon heute die modernen und mobilen Vorzüge der aktuellen Medientechnik genießen, hält unser Ratgeber so einiges parat.

 

 

Quantum Dots. Was hat es mit dieser LED-Technologie auf sich?

Im Chaos des Technik-Vokabulars punktet im wahrsten Sinne des Wortes ein weiterer Begriff: Quantum Dots. Was hat es mit dieser LED-Technologie auf sich? Sind Samsung mit SUHD und Sony mit Triluminos die einzigen im QD-Fieber? Wer hat es erfunden und worum geht es im Einzelnen? Gibt es überhaupt einen Unterschied zu OLED? Und was hat das Ganze mit Rec. 2020, Color-Gamut-Farbraum und Farbreinheit der Unterpixel zu tun?

OLED im Vergleich zu LED / LCD

Bereits 2007 stellte Sony den ersten OLED-Fernseher vor. Sieben Jahre später werden die guten Stücke nun endlich von diversen Herstellern angeboten. Alle reden von perfekten Schwarzwerten und brillanten Farben. Aber was steckt hinter der neuen Technologie und wo liegen die Vorteile gegenüber Backlight und herkömmlichen LED-Geräten?

 

Wer schon heute Games in Ultra HD-Auflösung spielen möchte, stößt schnell auf Hürden, die es zunächst zu überwinden gilt. Nicht nur, dass sich die Preise für die dafür notwendigen UHD-Monitore noch in teilweise schwindelerregenden Höhen befinden, liegen doch zugleich auch die Anforderungen an die Leistungsfähigkeit des PCs oder an die Spielkonsole ungleich höher gegenüber Full-HD. Was derzeit möglich ist und was sie an Hardware brauchen, zeigt unser nachfolgender Praxisratgeber.  

Wie Sie zukunftssichere UHD-TVs erkennen

Wenn man sich heute für den Kauf eines UHD-Fernsehers entscheidet, möchte man natürlich kein Gerät erwerben, das bereits morgen schon so veraltet ist, dass kommende Standards gar nicht mehr unterstützt werden und man buchstäblich in die Röhre guckt. Das ist durchaus eine Herausforderung, denn es lauern einige Fallen, vor allem was die Ausstattung der HDMI-Eingänge betrifft und was diese für Standards unterstützen sollten.  Mit HDMI 2.0 wurde bereits 2013 eine Spezifikation des Standards verabschiedet, an die sich die TV-Hersteller in Zukunft bei UHD-Geräten halten sollten - die genaue HDMI 2.0 Spezifikation finden Sie, wenn Sie auf diesen Link hier klicken. Ebenfalls erneuert wurde der HDCP-Kopierschutz, der nun in der Version 2.2 vorliegt und wohl zunächst nur bei den kommenden UHD Blu-ray Filmen zum Einsatz kommen wird. Ebenfalls sehr wichtig, dass der UHD-TV den neuen H.265/HEVC Codec unterstützt. Die verbauten Tuner sollten zudem die UHD-Auflösung mit 50 und 60Hz verarbeiten können - das wären die wichtigsten Eckdaten, die ein UHD-TV erfüllen sollte. Eine Erklärung zu HDCP 2.2 finden Sie unter diesem Link und über den H.265/HEVC Codec unter nachfolgendem Link.

 

 

Inhaltsverzeichnis: 

1. Die wichtigsten Ausstattungsmerkmale im Detail
2. Erweiterte Information: Was bedeutet Deep Color überhaupt? 
3. Die eingebauten Tuner/Empfänger, was müssen diese können?
4. Checkliste für den Kauf: Was muss ein UHD-TV können, damit er zukunftssicher ist:

 

1. Die wichtigsten Ausstattungsmerkmale im Detail

Fast alle UHD-Fernseher, die 2013 verkauft wurden, also quasi alle die Modelle, die 2013 erschienen sind, können eigentlich schon als veraltet deklariert werden, denn die meisten dieser Modelle unterstützen weder HDMI 2.0 noch HDCP 2.2, H.265/HEVC ist den Geräten ebenfalls meist ein Fremdwort. Bei manchen TVs, wie zum Beispiel von Samsung, siehe nachfolgendes Bild, die an ihren Geräten eine sogenannte One-Connect-Schnittstelle verbaut haben, können jedoch unter Umständen auch künftige TV-, Codec oder HDMI-Standards nachgerüstet werden. Sollten Sie also bereits ein UHD-Gerät aus dem Jahr 2013 besitzen, das keines der zuvor genannten Standards unterstützt, empfehlen wir, trotzdem mal den Hersteller zu kontaktieren, evtl. gibt es ja für ihr Gerät ein Update.

Die meisten der Ultra HD-Modelle hingegen sind mit HDCP 2.2 und HDMI 2.0 kompatiblen HDMI-Eingängen ausgestattet und so auch zu den zukünftigen echten UHD/4K Blu-ray Playern kompatibel, wenn diese schon Ende 2015, wie von den Herstellern angekündigt, dann evtl. erscheinen. Im Übrigen reden wir hier nicht von den derzeit kaufbaren normalen Full-HD Blu-ray Playern, die alle keine echten 4K-Player sind, auch wenn sie manchmal so beworben werden, weil sie das 1080p Full-HD Bild von einer Blu-ray hochskalieren können. Zu den kommenden echten Ultra HD Blu-ray Filmen sind diese Player ebenfalls nicht kompatibel, da die Ultra HD-Filme in Zukunft auf 66 GB (Dual Layer) oder 100 GB (Triple Layer) Medien gespeichert werden. Ob sich die neue Blu-ray Player Generation und Ultra HD Blu-ray Filme überhaupt als Medium noch werden durchsetzen können, das ist derzeit ebenfalls noch mehr als fraglich, geht doch schon der Verkauf von normalen Blu-ray Filmen stark zurück, das aber nur am Rande erwähnt – nun zurück zu den UHD-TVs.

Ist am Fernseher also zumindest ein HDMI-Eingang mit HDCP 2.2 gekennzeichnet, wird dieser TV über diesen Eingang in Zukunft also auch ohne Probleme Signale aus den neuen UHD/4K Blu-ray Playern verarbeiten können. Im Übrigen auch dann, wenn dieser HDMI-Eingang nur 8 Bit und eine Farbunterabtastung von YCbCr 4:2:0 unterstützt! Denn die kommenden UHD/4K Blu-ray Player werden die UHD-Bildausgabe ebenfalls mit 8 Bit unterstützen, auch wenn die Ultra HD Blu-ray Filme mit 10 Bit auf den neuen größeren Blu-ray Medien gespeichert sein werden – abwärtskompatibel zu Full-HD TVs werden sie ebenfalls sein. Eine Erklärung bzw. was der Fachbegriff "Farbunterabtastung" bedeutet, finden Sie hier bei uns, wenn Sie auf diesen Link klicken

Eine Auflösung von 3.840 x 2.160 Bildpunkten bei 24 Hz bis hoch zu 60 Hz, 8 Bit mit YCbCr 4:2:0 Farbunterabtastung und HDCP 2.2 ist also die unterste Mindestanforderung, die ein HDMI-Eingang an einem UHD-TV verarbeiten können muss, damit dieser als relativ Zukunftssicher bezeichnet werden kann. Auch braucht man sich keine großen Sorgen um die Bildqualität zu machen, wenn der HDMI-Eingang nur 8 Bit anstatt 10 Bit unterstützt, einen Unterschied im Bild zwischen 8 und 10 Bit sehen selbst bei UHD-Auflösung nur die wenigsten. Auf einer derzeitigen Blu-ray zum Beispiel ist der Film auch nur mit 8 Bit bei einer Farbunterabtastung von YCbCr 4:2:0 gespeichert, wofür sogar noch der uralte HMDI 1.0 Standard zum übertragen reichen würde!

Im nachfolgenden Bild sehen Sie die Rückansicht eines LG UHD-TVs. Was welcher HDMI-Eingang für Eingangssignale unterstützt, wird am jeweiligen Eingang beschrieben. Leider machen das nicht alle Hersteller so, oft steht auch nur einfach „HDMI 1“ oder ähnlich, bei der Bezeichnung der HDMI-Eingänge.

Ebenfalls finden Sie in den Einstellmenüs der neuen UHD-TVs einen Punkt, der mit „UHD Deep Color“ oder ähnlich bezeichnet wird, siehe die beiden nachfolgend Bilder von Samsung und LG. Bitte beachten Sie: Nur an den 10 Bit fähigen HDMI-Eingängen wird „UHD Deep Color“ unterstützt, was man im Menü des Fernsehers wahlweise an- und ausschalten kann. Bitte verwechseln Sie „UHD Deep Color“ aber nicht mit „Deep Color (x.v. Color)“ für Full-HD, also zum Beispiel das Deep Color, das man an manchen derzeitigen Blu-ray Playern aktivieren kann, dieses ältere Deep Color wird an allen HDMI-Eingängen der UHD-TVs unterstützt, weil es noch zu den älteren Full-HD HDMI-Standard 1.4/a bzw. 1.3 gehört.

 

2. Erweiterte Information: Was bedeutet Deep Color überhaupt? 

Zunächst müssen alle miteinander verbundenen Geräte in der gesamten Kette "Deep Color" über HDMI unterstützen, also zum Beispiel auch der A/V-Receiver. Im Gegensatz zu RGB bzw. YCbCr, bei denen 8 Bit (256 Abstufungen) pro Farbe genutzt werden, können, wenn Deep Color aktiviert ist, 10 Bit (1024 Abstufungen), 12 Bit (4096 Abstufungen) oder 16 Bit (65536 Abstufungen) genutzt werden, um Farben in höherer Auflösung zu erzeugen. "x.v.Color” hingeggen ist eine Marke von Sony, eine Erklärung finden Sie unter diesem Link. Für "UHD Deep Color" zählt im Grunde aber das Gleiche wie schon bei Deep Color für Full-HD, allerdings wurde Ultra HD auch nach neuen Normen spezifiziert, ITU Rec.2020 und 1886 (Gamma), wo vorgeschrieben ist, dass Ultra HD Filmmaterial als unterstes Limit immer mit 10 Bit erstellt werden muss. Erweiterte Informationen über die Normen finden Sie hier bei uns auf dieser Seite.   

 

3. Die eingebauten Tuner/Empfänger, was müssen diese können?

Wichtig sind zudem noch die im TV verbauten Empfangstuner für die eingehenden Sat- oder Kabelsignale. Fehlt dem Gerät die Fähigkeit, 50Hz und 60Hz H.265/HEVC codierte Signale über die eingebauten Sat- und Kabelempfänger zu verarbeiten, bei einer Auflösung von 3.840 x 2.160 Bildpunkten, ist der TV nicht zukunftssicher! Der Astra UHD-Demokanal, und auch zukünftige UHD-Kanäle, können mit einem solchen UHD TV-Gerät also nicht empfangen werden, das Bild bleibt dunkel und es ist nur der Ton zu hören – die Tuner müssen also zwingend 50Hz/60Hz unterstützen und zudem muss der UHD-TV mit dem H.265/HEVC Codec ausgestattet sein. Wenn der TV schon jetzt den zukünftigen HD-fähigen DVB-T2 Standard unterstützt wäre das zwar schön, zwingend ist dieses Ausstattungsmerkmal zum derzeitigen Zeitpunkt aber nicht.

Sender, die ihr Programm bereits heute in Ultra HD-Auflösung ausstrahlen (Stand: Januar 2015), die gibt es bis auf den "Astra Ultra HD Demokanal" leider noch keine. Panasonic ist mit ihrer aktuellen AXW UHD-Serie zumindest für die Zukunft bestens gerüstet, bietet Panasonic doch bei allen ihren Ultra HD-TV’s eine extra UHD-TV Kategorie an, wo alle UHD-Kanäle automatisch aufgelistet werden.

Mehr Infos und die Empfangsparameter zum "Astra Ultra HD Demokanal" finden Sie hier.


Bitte beachten:
Manche TV-Hersteller reichen auch durch spätere Updates zunächst fehlende Ausstattungsmerkmale nach, überprüfen Sie daher regelmäßig, ob für ihren TV evtl. ein Softwareupdate zur Verfügung steht. 

Achtung Falle: Viele kleinere UHD-Einstigesmodelle besitzen nur Tuner, die bis zu 30Hz verarbeiten können, mit diesen Geräten kann zum Beispiel der Astra UHD-Demokanal nicht empfangen werden.

Um Filme auch in UHD-Auflösung streamen zu können, wie im nachfolgenden Bild über den Streamingdienst „WuakiTV“, muss der UHD-TV den H.265/HEVC Codec auch über die App des jeweiligen Streaminganbieters unterstützen. Dies ist aber meist sowieso immer dann der Fall, wenn der UHD-TV mit den dementsprechenden SmartTV-Eigenschaften ausgestattet ist.

Beachten Sie bitte zusätzlich, die verschiedenen TV-Hersteller unterstützen nicht immer auch alle Streaming-Anbieter. So muss, wie beim nachfolgenden Bild ein Sony KD-65X9005B, die Netflix-App, je nach Softwarestand des TV bei Auslieferung, unter Umständen nach dem Kauf erst nachinstalliert werden, bevor man den Dienst nutzen kann. Fragen Sie daher bitte vor dem Kauf genau nach, ob ihr favorisierter Streaming-Anbieter auch über die SmartTV-Oberfläche angeboten wird.

 

4. Checkliste für den Kauf: Was muss ein UHD-TV können, damit er zukunftssicher ist:

1. Das Gerät muss als unterste Mindestausstattung über mindestens einen HDMI-Eingang verfügen, der den Kopierschutz HDCP 2.2 bei 8 Bit, mit Farbunterabtastung YCbCr 4:2:0, bei 50 und 60Hz verarbeiten kann, um für zukünftige UHD/4K Blu-ray Player gerüstet zu sein.

2. Zusätzlich sollte das Gerät über mindestens einen HDMI-Eingang verfügen, der die UHD-Auflösung bei 10 Bit / Deep Color mit einer Farbunterabtastung von YCbCr 4:2:0 bis hoch zu YCbCr 4:4:4 bei 50/60Hz verarbeiten kann.

3. Der TV muss über einen eingebauten Sat-/Kabelempfänger verfügen, der auch 50/60Hz H.265/HEVC codierte Sat- oder Kabelsignale verarbeiten kann, um zukünftige UHD-Sender empfangen zu können.

4. Um zum Beispiel UHD-Filme über Netflix, WuakiTV und Co. streamen zu können, muss der H.265/HEVC Codec auch über die App des jeweiligen Streaminganbieters unterstützt werden. HDCP 2.2 sollte zudem auch beim Streamen greifen, was aber bei allen UHD-TVs der Fall sein sollte, die das Streamen mit H.265/HEVC unterstützen.

5. Optional sollte das Abspielen H.265/HEVC codierten UHD und auch Full-HD Files über den USB-Anschluss möglich sein.

6. JPEG-Bilder oder Fotos im Allgemeinen sollten auch in nativer UHD-Auflösung dargestellt werden, ohne das Ränder beschnitten werden.

7. Quasi als letzte Empfehlung, aber nicht zwingend notwendig, sollte auch über DLNA oder Samba, also gestreamt über das Netzwerk zuhause, H.265/HEVC codierte UHD-Files abgespielt werden können.

Wir empfehlen Ihnen diese Checklist auszudrucken und ihrem Verkäufer vorzulegen bzw. ihn drauf hinzuweisen, dass der UHD-TV die zuvor aufgezählten Ausstattungsmerkmale nach Möglichkeit alle unterstützen soll.

 

Hinweis: Die absolute Zukunftssicherheit wäre aber erst dann gegeben, wenn der UHD-TV über zumindest einen HDMI-Eingang verfügt, der alle zuvor genannten Eingangseigenschaften an nur einem einzelnen HDMI-Eingang in sich vereint, also HDCP 2.2 bei 10/12 Bit/Deep Color mit 50/60Hz bis hoch zur Verarbeitung von Signalen mit einer Farbunterabtastung bis YCbCr 4:4:4 – dies wäre der zukunftssicherste HDMI-Eingang, egal ob er nun mit HDMI 2.0 bezeichnet wird oder nicht.

Bitte beachten Sie ebenfalls: Bei den meisten Firmen, wie wir in Stichproben feststellen konnten, wird auf den jeweiligen Internetseiten des jeweiligen UHD-TVs HDMI 2.0 bzw. die HDMI-Version entweder gar nicht beschrieben oder nur wage umschrieben, ohne sich genau festzulegen. Daher unser Tipp, laden sie sich von dem Gerät, das Sie interessiert, vor dem Kauf die jeweilige Bedienungsanleitung im Supportbereich des Herstellers herunter, in dieser wird in den meisten Fällen beschrieben, was die einzelnen HDMI-Eingänge für Standards verarbeiten können. Siehe die beiden nachfolgenden Bilder, die aus der Bedienungsanleitung eines aktuellen LG-UHD Modells stammen. Hier wird eindeutig beschrieben, was das Gerät, an welchem HDMI-Eingang unterstützt.

Abschließend möchten wir noch bemerken; derzeit können wir nur zum Kauf von UHD-TVs von Markenherstellern raten, die zumindest ab den 2014er/2015er Modellen Zukunftssicherheit bieten. Bei Geräten der sogenannten Billighersteller, die derzeit einfach auf der UHD-Welle mit schwimmen und wo die Geräte oft nur eine höhere Auflösung bieten, müssen Sie jedoch ganz genau hinschauen, was die Ausstattung betrifft. Manchmal unterscheidet sich die Ausstattung sogar bei identischer Gerätebezeichnung, wenn zum Beispiel im Laufer der Zeit, also quasi in der laufenden Produktion, technische Änderungen einfließen! Das gilt im Übrigen für alle Hersteller, egal ob günstig oder teuer.        


Um aus ihrem neuen oder zukünftigen UHD-TV auch das beste Bild raus zu holen, empfehlen wir Ihnen abschließend, sich unsere aktuellen und sehr beliebten UHD-Testbilder anzuschauen, die Sie hier bei uns im Shop günstig erwerben können. So gut wie alle Kunden, die unsere UHD-Testbilder einsetzen sind begeistert, wie sie das Bild ihres Ultra HD-Fernsehers mit Hilfe unserer Testbilder visuell deutlich sichtbar verbessern konnten. So freuen wir uns immer sehr, wenn wir über uns unabhängige positive Meinungen lesen können, wie zum Beispiel an dieser Stelle im Hifi-Forum ab Beitrag Nummer #1102 (zweiter Beitrag von oben), wo sich Kunden äußerst zufrieden über unsere Produkte äußern.

Link: Die digitale TV Baustelle


Abbildungen: Sony, Panasonic, Samsung, LG
Copyright: BUROSCH

Ultrahoch auflösend, aber warum? Im folgenden Fachartikel der Zeitschrift "rfe-Elektrohändler" erfahren Sie Wissenswertes rund um das Thema Bildauflösung, Ultra HD und Rec.2020. 

Mittlerweile sind Begriffe wie UHD oder 4K in den allgemeinen Wortschatz aufgenommen, in den Elektrofachmärkten stehen entsprechende Geräte zum Kauf bereit. Doch was verbirgt sich hinter der vierfachen Full-HD Auflösung? In dem folgenden Bericht der Zeitschrift "FKT" (Ausgabe 12/2013) erläutert Prof. Hedtke von der Hochschule Rhein-Main ausführlich alle technischen Aspekte zu dieser neuen Fernsehtechnik.

Leuchtstark & leicht: Alles über OLED

Jahrelang wurde darüber geredet, Ende 2013 war es soweit: Mit den organischen Leuchtdioden kam eine dritte Bildschirm-Technologie auf den Markt, die so hell ist wie LCD und so reaktionsschnell, kontrastreich wie Plasma, dazu sparsam, dünn und leicht wie noch nie – zumindest theoretisch. Zudem ist OLED eine „Investition in die Zukunft“, so Samsung-Manager Michael Zöller. Denn mit dieser Technik ist „alles möglich“, selbst ein transparenter oder biegsamer Schirm. Die wichtigsten Fragen bzw. Antworten zu den neuen OLED Displays finden Sie hier ...

 

Burosch Samsung OLED Präsentation

Samsung stellte seine 55 Zoll großen OLED-Schirme auf der CES 2013 vor; sie verwenden farbreine Leuchtstoffe.

 

Inhaltsverzeichnis

1. Warum wirken OLED-Schirme so brillant?
2. Wie kommt der hohe Kontrast zustande?
3. Sind OLEDs auch Spitze in der Bewegungsdarstellung?
4. Wie geben OLEDs 3D-Bilder wieder?
5. Gelten OLEDs nicht als besonders verschleißanfällig?
6. Kann es Einbrennen bei OLEDs geben?
7. Was ist der Unterschied zwischen Samsung und LG?
8. Wann kommen andere Hersteller auf den Markt?
9. Sind die OLED-Fernseher teuer?
10. Haben OLED-Fernseher auch Nachteile?
11. Begriffe auf einen Blick

 

1. Warum wirken OLED-Schirme so brillant?

Auf der CES-Messe 2012 vor einem Jahr war es augenfällig: Die OLED-Bildschirme auf den Ständen von Samsung und LG ließen die Konkurrenz blass erscheinen. Das hat einen speziellen Grund, der so nur auf Messen zum Tragen kommt. Es stehen bei einer solchen Gelegenheit nämlich sehr viele Bildschirme im Umkreis, und auf die meisten blickt der Betrachter in schrägem Winkel. Seitlich gesehen fallen LCDs immer noch dramatisch ab, vor allem in Kontrast und Farbigkeit, OLEDs dagegen sind homogen und gleichmäßig – egal wie man sie ansieht.

Nominell ist die Helligkeit sogar etwas geringer als bei handelsüblichen LCD-Fernsehern, etwa 300 cd/m2 gegenüber 400 bis 500. Doch ähnlich wie bei Laser wirken OLEDs aufgrund der hohen Farbreinheit strahlender als Bildschirme, die ein breites Wellenlängen-Spektrum abgeben. Nach Angaben von Herstellern entspricht eine OLED-Helligkeit von 150 cd/m2 rund 250 cd/m2 bei LCDs.
Frontal ist daher auch kaum ein Unterschied zwischen beiden Bildschirmtypen zu sehen, zumindest nicht in der hellen Umgebung. OLEDs haben zudem den Vorteil, dass sie die Spitzenhelligkeit über den Mittelwert hinaus anheben können, ähnlich wie bei Bildröhren oder Plasma. Im Vergleich mit Plasma können OLED-Schirme mithalten, was die Bildwirkung angeht, sind aber durch die höhere Helligkeit überlegen. Es ist also tatsächlich so, dass die neuen Displays die Vorteile von LCD und Plasma vereinen, ohne die jeweiligen Nachteile.

Burosch LG OLED Präsentation

Burosch LG OLED Technologie

LG kam als erster Hersteller mit OLED-Schirmen auf den Markt, da die Herstellung mit Farbfilter etwas einfacher ist.

 

2. Wie kommt der hohe Kontrast zustande?

Den Kontrast des 55EA9809 wird von LG mit unendlich angegeben, was insofern nicht verwunderlich ist, als jeder durch Null geteilte Wert unendlich ergibt. Denn während bei LCD immer ein, wenn auch noch so spärliches Streulicht seinen Weg nach vorne findet und bei Plasma ein Löschimpuls benötigt wird, ist bei OLED einfach der Bildpunkt aus. Der Schwarzwert liegt damit bei Null, zumindest solange weder benachbarte Pixel überstrahlen oder Licht von außen drauf fällt. Den extrem hohen Kontrast erkauft sich OLED auch nicht durch Tricks wie Local Dimming, die wiederum Artefakte zur Folge haben.

Genauso beeindruckend wie der im Dunkeln gemessene Kontrast ist die Leistung im Hellraum. OLED-Bildschirm scheinen jedes Licht, das auf sie fällt, direkt einzusaugen und nicht wieder herzugeben. Selbst das Blitzlicht von Fotoapparaten macht ihnen offenbar nichts aus. Bei Plasma dagegen hellt das Umgebungslicht auch die Partien auf, die ausgeschaltet sind. Ähnlich wie bei LCD sind es bei OLED die optischen Komponenten, die Licht rein-, aber nicht wieder rauslassen. Einzelne Firmen wie Sony nutzen dafür spezielle Farbfilter über den Pixeln, andere Polarisationsfolie – LG sogar beides. Auch in Sachen Kontrast gilt also, dass OLED in hellen Räumen so gut sein kann wie LCD, in dunklen Räumen so gut wie die besten Plasmas.

Burosch Aufbau OLED

Aufbau der OLED Technologie

 

3. Sind OLEDs auch Spitze in der Bewegungsdarstellung?

Auf dem Papier kommen OLEDs auf Fabelwerte in der Reaktionszeit, von Millisekunden-Bruchteilen und damit deutlich schneller als LCDs. Diese Werte sagen allerdings gar nicht aus, was die Darstellung von Bewegungen auf dem Schirm angeht – was umso wichtiger ist, je größer sie werden. Denn wenn das Auge einem Objekt folgt, entscheidet über die Bewegungsschärfe die Haltedauer, und die ist bei 50 Hertz nun einmal 20 Millisekunden, bei jedem Bildschirm. Röhre und Plasma arbeiten mit Helligkeitsimpulsen, die kurz aufleuchten und dann abklingen, wodurch sie selbst bei 50 Hertz scharf wirken.

OLED verhält sich dagegen wie ein moderner LCD, weshalb man für scharfe Bewegungen die 20 Millisekunden in kleine Schritte zerlegen muss. Bewegungsartefakte durch die digital Ansteuerung wie bei Plasma existieren bei OLED nicht. Es dürfte daher 200 beziehungsweise 240 Hertz die Regel bei OLED-Fernsehern sein, verbunden natürlich mit einer Zwischenbildberechnung. Auch höhere Frequenzen sind denkbar, dürften aber in der Praxis kaum noch Vorteile bringen.
Die unbearbeitete Darstellung des 50- oder 60-Hertz-TV-Bildes bleibt auch bei OLED eine schöne, aber unerfüllte Hoffnung.

Burosch MERCK OLED Herstellung

Vom deutschen Hersteller Merck kommen nicht nur Materialien für die 40-cm-OLED-Displays, sondern auch Flüssigkristalle für LCDs.

 

4. Wie geben OLEDs 3D-Bilder wieder?

Bei OLED-Bildschirmen ist jede Art von 3D-Darstellung mäglich, die es auch bei LCD und Plasma gibt, also sowohl Polfilterung wie Shutterbrillen und sogar 3D ohne Brille. Vor- und Nachteile sind dabei vergleichbar mit LCD, also Auflösungsverlust bei Polfiltern (halbierte Zeilenzahl) und Helligkeitseinbußen vor allem durch Shutterbrillen. Zumindest dieser lässt sich aber durch die Art der Ansteuerung und Einfügen einer Dunkelphase stark verringern – damit wird der Licht-Output auf den Zeitraum konzentriert, in dem die Brillengläser geöffnet sind, ähnlich wie bei einigen LED-LCDs. Da die OLEDs extrem schnell schalten können, kann das Übersprechen von einem aufs andere Bild deutlich besser kontrolliert werden als bei LCD Fernsehern.
Polfilterung ist ebenfalls ähnlich wie bei LCD eine einfach zu realisierende Option, da die entsprechenden Folien bereits bei den meisten OLED-Schirmen für besseren Hellraum-Kontrast vorgesehen sind. Damit wird nur noch ein zweiter Layer benötigt, der zeilenweise für die Drehung der Polarisation sorgt. 3D ohne Brille kann mit OLEDs durch eine Parallaxenbarriere oder durch ein Linsenraster realisiert werden, die Nachteile speziell in puncto verringerter Aufläsung ändern sich nicht.

Burosch Sony OLED TV

Genau wie Panasonic will auch Sony OLED-Schirme in 4K-Ausführung herstellen, die Schaltung kommt dabei von AUO aus Taiwan.

 

5. Gelten OLEDs nicht als besonders verschleißanfällig?

Lange Zeit war der Verschleiß der Leuchtmaterialien eines der ungelösten Probleme der OLED-Technik. Ältere Produkte mit diesen Anzeigen sind heute meistens unansehnlich geworden, sei es das Pioneer-Autoradio von 1998 oder die Digitalkamera von Kodak; auch ältere MP3-Player oder Handys wurden gelegentlich mit organischen Displays bestückt, die heute nicht mehr gut aussehen. Das lässt aber keine Rückschlüsse auf OLED-Fernseher zu. Die heutigen Leuchtstoffe werden von den Herstellern mit Lebenserwartungen von 30.000 bis 300.000 Stunden spezifiziert, was für einen Fernseher locker ausreichen sollte. Trotzdem ist das Problem noch vorhanden. Denn die Lebensdauer beziffert die Anzahl der Stunden bis zum 50-prozentigen Abfall der Helligkeit. Viele Leuchtmaterialien verlieren aber schon in den ersten zehn Prozent ihrer Lebenserwartung deutlich an Effizienz. Und wenn das zum Beispiel für die blaue Komponente stärker der Fall ist als für die anderen Töne, gerät die Farbbalance aus dem Gleichgewicht. Das gilt übrigens für RGB-OLEDs wie für solche mit weißem Licht und Farbfiltern gleichermaßen.

 

6. Kann es Einbrennen bei OLEDs geben?

Ähnlich wie die Lebensdauer ist das Einbrennen eine noch offene Frage bei den OLED-Fernsehern. Es ist vom Prinzip her gut denkbar, dass man ähnlich wie bei Plasma stehende Muster oder Logos vermeiden muss – zumindest in den ersten Monaten der Benutzung. Denn phosphoreszierende Stoffe haben diese Art von Gedächtnis, die eine ungleiche Abnutzung zumindest für gewisse Zeit speichert. Doch ob und wie stark Einbrennen wirklich auftreten kann, lässt sich weder für Samsung noch für LG sagen. Das gilt es abzuwarten und eventuelle Warnungen der Hersteller zu befolgen. Denkbar ist zudem, dass das Einbrennen nur eine oder zwei Farben betrifft, so dass die entstehenden Schatten farbig wirken. Denn die Produzenten verwenden sowohl phosphoreszierende (für Blau) als auch fluoreszierende Materialien (Rot, Grün), die durchaus unterschiedlich reagieren können.

 

7. Was ist der Unterschied zwischen Samsung und LG?

Gemeinsam ist allen OLEDs, dass sie mit positiv geladenen Teilchen (Electrons) und negative geladenen Teilchen (Holes) organische Leuchtstoffe anregen; dazu sind Injection Layer (EIL, HIL) und Transport Layer (ETL, HTL) nötig. Da der Strombedarf in der Schaltung deutlich höher ist als bei LCD, wird eine spezielle Technik benötigt. Anstelle von wenig leistungsfähigem amorphem Silizium nutzen sowohl Samsung als auch LG Metall-Oxid-Verbindungen.
Der wesentliche Unterschied zwischen beiden Firmen ist der Aufbau. Samsung setzt dabei auf die Anordnung von Leuchtstoffen nebeneinander. Diese OLEDs in RGB-Struktur haben für jeden Subpixel einen eigenen Leuchtstoff in Rot, Grün und Blau, darüber und darunter liegen die Layer für Elektronen-Austritt und -Transport, jeweils für negative und für positive Ladung. Die Polfilterschicht dient dem höheren Kontrast, sie kann auch durch Farbfilter ersetzt werden. Die besondere Schwierigkeit bei der RGB-Technologie liegt in der punktgenauen Platzierung der Leuchtstoffe, was derzeit noch durch Aufdampfen geschieht, in Zukunft soll gesprüht oder gedruckt werden.
OLEDs mit weißem Licht wie bei LG verwenden mehrere Farbschichten übereinander, die transparent sind; LG setzt auf ein Dual-Stack, also zwei Farbschichten mit einem Ladungsträger dazwischen (CL), da man die Stoffe für Rot und Grün mischen kann – beides sind phosphoreszierende Materialien, dieser Layer strahlt dann gelb. Blau dagegen ist fluoreszierend und muss daher separat aufgebracht werden. Drei Farbfilter sind immer nötig, LG nimmt ein zusätzliches Weiß-Segment für höhere Lichtausbeute und geringeren Stromverbrauch. Einfacher scheint bei LG auch die Herstellung eines gebogenen Schirms. Nur wirklich flexible und damit biegsame Displays scheinen bei beiden Firmen schwierig.
Je nach Fertigungsverfahren sind unterschiedliche Materialeigenschaften nötig, und umgekehrt lassen sich bestimmte Materialien nur auf spezielle Art und Weise aufbringen. Die Kunst der Hersteller liegt darin, zusammen mit den Zulieferern die richtige Kombination aus Leuchtstoff und Produktionstechnologie zu finden.
 

8. Wann kommen andere Hersteller auf den Markt?

Viele TV-Gerätehersteller haben sich zum Thema OLED geäußert. Noch von keiner Firma sind Pläne bekannt, eine Fertigung großformatiger OLED-Panels aufzubauen. Daher werden andere Anbieter mindestens ein Jahr brauchen. Panasonic hat als einzige japanische Firma eine Pilotanlage für OLEDs bis 55 Zoll in Vorbereitung, aber noch keine Massenproduktion. Wahrscheinlich wird man einen Prototypen auf der IFA im nächsten September sehen. Meldungen über einen baldigen Marktstart beruhen auf einem Übersetzungsfehler. Sharp hält die LCD-Technik für noch nicht ausgereizt, man will OLED zumindest prüfen. Die LCD-Hersteller AUO und CMI investieren zwar in die OLED-Fertigung, aber nur in Kleinformaten und für Backplanes, also die Schaltung hinter den Leuchtstoffen. Dass Samsung und LG andere Anbieter beliefern, etwa Toshiba, Philips oder Hisense, ist vorerst nicht ausgeschlossen, aber eher unwahrscheinlich – beide wollen die neue Technologie zuallererst für ihre eigene Marke nutzen. Vom Prinzip her ist kein großer Unterschied zu LCD zu notieren, was bedeutet, dass fast alle wichtigen Panel-Produzenten daran arbeiten und auch mittelfristig ihr Programm erweitern werden.

 

9. Sind die OLED-Fernseher teuer?

Anfang 2013 geisterten einige wirre Zahlen durch die Medien. Schätzungen von Analysten gingen von rund 8.000 US-Dollar/Euro aus, die Preise könnten bis Ende des Jahres 2013 auf 4.000 Dollar sinken. Tatsache ist allerdings, dass beide Anbieter die Preise nach anderen Kriterien als den Herstellungskosten festlegen. Denn sowohl bei Samsung wie bei LG sind die Herstellungsverfahren weder endgültig festgelegt noch erprobt. So wissen die Hersteller schlicht und einfach noch nicht, wie viele Exemplare sie zur Verfügung haben. Fällt der Ausstoß hoch aus, könnten die Preise weit unter 8.000 Dollar beziehungsweise Euro liegen. Man darf aber davon ausgehen, dass das LG-Modell etwas günstiger herzustellen ist wird als der Samsung-Fernseher. Auf längere Sicht aber können OLEDs selbst die günstigen LCDs unterbieten, weil der Materialaufwand wesentlich geringer und die Elektronik weitgehend gleich ist. Doch bis die Preise unter LCD-Niveau sinken, wird es noch einige Zeit dauern. Erst einmal aber kosten sie ziemlich viel, weil die Stückzahlen noch niedrig und die Konkurrenz schwach ist.

 

10. Haben OLED-Fernseher auch Nachteile?

Vom Prinzip her unterliegen OLEDs als selbst emittierende Schirme den Nachteilen aller anderen Displays ohne Hintergrundbeleuchtung. Die Leuchtstoffe machen sie empfindlich auf Einbrennen und Farbverschiebung, ebenso sind die Lebensdauer und die dauerhafte Qualität fraglich. Schwierig ist auch die Grau-Abstufung, also die Helligkeit von Null bis zu 100 Prozent (Gamma). Das kann mit einem Gamma-Scaling-Testbild leicht überprüft werden.

 

11. Begriffe auf einen Blick

  • OLED – Organic Light Emitting Diode, also organische Leuchtdiode. Halbleiter, der bei Stromzufuhr zu leuchten beginnt und je nach Material eine bestimmte Wellenlänge abstrahlt, also eine sehr reine Farbe. OLED unterscheiden sich von LEDs durch die Art der Leuchtmittel, die hier aus organischen, also pflanzlichen Verbindungen bestehen.
  • AM-OLED – Active Matrix OLED, also Bildschirm mit aktiver Schaltung pro Subpixel. Das ist normalerweise ein Transistor, manchmal auch zwei, gefertigt in einer Dünnfilmschicht (TFT). Alle farbigen OLEDs haben eine Active-Matrix-Schaltung.
  • PM-OLED – Passive Matrix OLED, Bildschirm ohne Schaltung. Hier werden über einzeln angesteuerte Leiterbahnen die Pixel mit Strom versorgt, was nur bei sehr kleinen Displays möglich ist.
  • SM-OLED – Small Molecule OLED, Leuchtdiode aus Kleinmolekülen. Small Molecules sind die organische Verbindung, mit der die OLED-Entwicklung begann, sie wird heute noch in den meisten Schirmen benutzt.
  • Fl-OLED – Fluorescent OLED. Lichtabstrahlung in Form von kaltem Leuchten (Lumineszenz), die beim Stopp der Energiezufuhr sofort endet. Fluoreszierende Materialien werden genau wie phosphoreszierende bei OLEDs eingesetzt.
  • Ph-OLED – Phosphorescent OLED. kalte Lichtabstrahlung, die nachleuchtet.
  • PLED – Polymer Light Emitting Diode, organische Leuchtdiode aus Polymeren. Andere Materialklasse, die Vorteile in der Verarbeitung hat, weil man sie nicht aufdampfen, sondern drucken kann. Bisher nur in wenigen Produkten verwendet, ausschließlich mit einfarbigen, kleinen Schirmen.
  • PolyLED – Anderer Ausdruck für PLED
  • LEP – Light emitting polymer, anderer Ausdruck für PLED
  • WOLED – White OLED, weißes Licht ausstrahlendes OLED. Kann sowohl zur Beleuchtung als auch für Displays eingesetzt werden, besteht aus Leuchtstoffen in den drei Grundfarben, die nicht einzeln angesteuert werden.
  • OEL – Organic Electroluminescence, anderer Ausdruck für OLED.

Sky ist der größte Anbieter von Pay-TV in Deutschland. Neben zahlreichen Film- und Seriensendern werden erstklassige Dokumentationen und Live-Übertragungen vieler Sportarten geboten. Auch in Sachen hochauflösendes Fernsehen ist Sky ein Wegbereiter und es kommen ständig neue HD-Sender hinzu. Mit dem mobilen „Sky Go" und „Sky Anytime" für Fernsehen auf Abruf sowie dem Bestellservice „Sky Select" wird das Angebot des Pay-TV-Riesen abgerundet. Wir informieren in zehn Fragen und zehn Antworten darüber, was beim Empfang von Sky in Bezug auf Verschlüsselung, Aufnahmen und entstehende Kosten wissenswert ist und was Kabelkunden beachten müssen.

 

Inhaltsverzeichnis:

1. Über welche Empfangswege wird Sky übertragen?
2. Wie und welche Programme können von Sky auf Smartphones und Tablet-PCs empfangen werden?
3. Welche Programme müssen bei Sky extra bezahlt werden und sind nicht mit den Abogebühren abgegolten?
4. Gibt es Restriktionen in Bezug auf die Aufnahmefunktion und welche sind das?
5. Wird der gerade verkündete Erwerb der Bundesligarechte ab der Saison 2013 zu höheren Preisen führen?
6. Welches Conditional Access Modul (CAM) muss ich mit welcher Smartcard verwenden?
7. Warum kann ich auf eine V13 (NDS) SmartCard von Sky die Privaten HD-Programme von HD+ freischalten lassen und nicht auf einer S02 (Nagravision) SmartCard (Empfangsweg Satellit)?
8. Welche Kosten entstehen, wenn ein Sky-Abonnement abgeschlossen wird?
9. Was ist „Sky Anytime"?
10. Was muss ich als Kabelkunde beachten, wenn ich Pakete von Sky abonnieren möchte?

 

1. Über welche Empfangswege wird Sky übertragen?

Sky kann sowohl über Satellit als auch im Kabelnetz empfangen werden. Eine Übertragung über DVB-T ist nicht vorgesehen. Möglicherweise könnte dies ein Thema werden, sollte in Deutschland der Nachfolgestandard DVB-T2 eingeführt werden. Da es aktuell keine Kooperation mit einem der deutschen IPTV-Anbieter gibt, kann auch über das Fernsehen aus der Telefonbuchse kein Sky empfangen werden. Allerdings hat Sky kürzlich die Übertragungsrechte der Fußball-Bundesliga für diesen Empfangsweg ab 2013 erworben. Als wahrscheinlichste Möglichkeit gilt, dass Sky die Rechte an einen IPTV-Anbieter weiter vermarkten könnte – unter der Auflage, auch weitere Sky-Pakete zu übernehmen. Sowohl beim Empfang über Satellit als auch über Kabel ist eine Smartcard und entweder ein lizenzierter Receiver oder eine Receiver mit CI-Schacht und CI-Modul erforderlich. Beim Kabelempfang ist das Programmangebot jedoch kleiner als über Satellit und abhängig vom Kabelnetzbetreiber.

 

2. Wie und welche Programme können von Sky auf Smartphones und Tablet-PCs empfangen werden?

Bei Buchung der HD-Option oder der Zweitkarte wird „Sky Go" kostenlos freigeschaltet. Damit lassen sich beispielsweise Bundesligaspiele live auf dem iPhone oder Spielfilme auf dem iPad ansehen. Bisher gibt es die App nur für die mobilen Endgeräte von Apple. Nutzer von Smartphones mit dem Betriebssystem Android schauen sprichwörtlich in die Röhre. Auch über einen integrierten Browser lassen sich die Inhalte von „Sky Go" auf solchen Handys nicht abspielen. Hoffnungen dürfen sich trotzdem gemacht werden. Bislang besitzt Sky nur die Fußball-Übertragungsrechte für das Internet, nicht aber für den Mobilfunk. Ohne bestehende WLAN-Verbindung lassen sich also ohnehin keine Fußballspiele auf dem iPhone mitverfolgen. Ab 2013 darf Sky diese aber auch über den Mobilfunk ausstrahlen, so dass „Sky Go" deutlich an Wert gewinnt. Wahrscheinlich wird Sky darauf bedacht sein, spätestens bis dahin seine Reichweite in Form einer App für Android-Smartphones auszuweiten.

 

3. Welche Programme müssen bei Sky extra bezahlt werden und sind nicht mit den Abogebühren abgegolten?

Abonnenten von Sky-Paketen stehen über „Sky Select" zusätzliche Pay-per-View-Angebote zum Einzelabruf bereit. Filme in SD oder HD können für 4,- Euro bzw. 5,- Euro pro Film bestellt werden. Erotikfilme aus dem Angebot von „Sky Blue Movie" kosten 6,- Euro in Standardauflösung beziehungsweise 8,- Euro in hochauflösender Qualität. Auch die Spiele der 1. und 2. Fußball-Bundesliga können auf Wunsch abgerufen werden. Für 15,- Euro kann ein gesamter Spieltag beider Spielklassen von Freitag bis Montag geschaut werden. Darüber hinaus sind weitere Sport- Event-Tickets für beispielsweise die Premiere League oder die Formel 1 einzeln bestellbar. In der Happy Hour können bestimmte Filme für 1,- Euro pro Film geordert werden. Über „Sky Anytime" werden gebuchte Filme 24 Stunden lang auf dem eigenen Festplatten-Receiver gespeichert.

 

4. Gibt es Restriktionen in Bezug auf die Aufnahmefunktion und welche sind das?

Die Programme von Sky können aufgenommen werden und zeitversetztes Fernsehen ist grundsätzlich möglich. Exportieren und brennen der Sky-Aufnahmen ist bei lizensierten Sky-Receivern allerdings nicht möglich, da diese verschlüsselt sind. Seit dem letzten Jahr wurden allen Sky-Kunden mit Satellitenempfang und der Smartcard V13 die HD+- Sender für zwölf Monate freigeschaltet. Kunden mit der Smartcard S02 können diese Sender aber nicht empfangen. Für die HD+-Sender ist das Aufnehmen oder das zeitversetzte Fernsehen über Sky grundsätzlich gesperrt. Diese Restriktionen lassen sich nur umgehen, wenn ein nicht zertifizierter Receiver mit CI-Schacht und ein CI-Modul wie das Unicam benutzt werden.

 

5. Wird der gerade verkündete Erwerb der Bundesligarechte ab der Saison 2013 zu höheren Preisen führen?

Zu dieser Thematik können bisher nur Vermutung angestellt werden. Sky hat angekündigt, dass man trotz der Mehrausgaben bis 2013 schwarze Zahlen schreiben möchte. Experten sehen das aber mit Skepsis. Laut Hochrechnungen benötigt Sky rund 400.000 neue Abonnenten, um die Kosten decken zu können. Eine teure Weitervermarktung der IPTV-Rechte an die Telekom wäre eine Möglichkeit. Ein Ausbau des mobilen Angebots „Sky Go" eine andere. Bislang durfte Sky sein Bundesliga-Angebot nicht über den Mobilfunk verbreiten. Mit den neuen Rechten wird dies ab 2013 möglich. Hier steckt also noch Neukundenpotential. Ob die Preise der Sky-Pakete sich bis dahin aber erhöhen bleibt abzuwarten.

 

6. Welches Conditional Access Modul (CAM) muss ich mit welcher Smartcard verwenden?

Sky verwendet via Satellit die Verschlüsselungssysteme NDS Videoguard und Nagravision. Im Kabel ist die Verschlüsselung abhängig vom Netzbetreiber. Nagravision ist das auf den Smartcards des Typs S02 verwendete System. Die Kooperation zwischen Sky und Nagravision läuft in diesem Jahr aus und daher gibt Sky ohne weiteres keine Karten dieses Typs heraus. Sie lassen sich in älteren Sky-Receivern oder mit dem AlphaCrypt Classic bzw. Light betreiben. Die V13 ist die aktuelle Smartcard und wird mit allen neuen Abonnements vertrieben. Wurde ein lizensierter Receiver gemietet, ist kein CAM erforderlich. Bei nicht zertifizierten Receivern oder TVs kann das CI+-Modul von Sky für 99,- Euro geliehen werden. Dabei gelten aber die bekannten CI+-Restriktionen. Alternativ ist die Verwendung von Hacker-Modulen wie dem Unicam möglich, um die Restriktionen zu umgehen und einen freien Receiver verwenden zu können.

 

7. Warum kann ich auf eine V13 (NDS) SmartCard von Sky die Privaten HD-Programme von HD+ freischalten lassen und nicht auf einer S02 (Nagravision) SmartCard (Empfangsweg Satellit)?

Das liegt an den zwei unterschiedlichen Verschlüsselungsstandards, die bei diesen beiden Smartcards verwendet werden. Die V13 von Sky verwendet das Verschlüsselungssystem NDS Videoguard, die S02 Nagravision. Da die S02 problemlos mit dem legalen Alternativmodul AlphaCrypt betrieben werden kann, will die HD Plus GmbH verhindern, dass die HD-Programme der Privaten auf diesen Karten freigeschaltet werden. Mit dem AlphaCrypt Classic oder Light würden die Restriktionen nicht greifen. Sky treibt die Verwendung der V13 voran und gibt prinzipiell keine neuen S02-Karten heraus, es sei denn, der Besitz eines älteren Modells wie der D-Box kann nachgewiesen werden. Tipp der Redaktion: In der Regel gibt Sky die S02-Karten heraus, wenn Abonnenten dies mit Nachdruck verlangen.

 

8. Welche Kosten entstehen, wenn ein Sky-Abonnement abgeschlossen wird?

In jedem Sky-Abonnement ist mindestens immer das Basispaket „Sky Welt" mit 20 SD- und neun HD-Sendern enthalten. Zusätzlich können entweder ein, zwei oder drei zusätzliche Pakete hinzugebucht werden. Für Satellitenkunden wird bei einem oder mehreren zugebuchten Paketen aus „Sky Welt" „Sky Welt Extra" mit 16 zusätzlichen 16 Sendern. Die Option, lediglich das Bundesligapaket oder ein anderes einzelnes Paket zu abonnieren, gibt es nicht. Die HD-Option kostet 10,- Euro pro Monat, beim Basispaket sind neun HD-Sender inklusive. Der Sky+- HD-Festplattenreceiver oder der HD-Receiver kann optional zur Leihe gegen eine einmalige Servicepauschale von 169,- Euro bzw. 99,- Euro mitbestellt werden. Bei insgesamt drei oder vier abonnierten Paketen entfällt die Servicepauschale. In jedem Fall kommen noch eine Aktivierungsgebühr in Höhe von 29,- Euro und 9,90 Euro Versandkosten hinzu. Die Mindestvertragslaufzeit beträgt zwölf Monate. Eine Kündigung muss schriftlich bis zwei Monate vor Ablauf des Abonnements erfolgen.

 

9. Was ist „Sky Anytime"?

Alle Abonnenten von Sky+ haben automatisch den Zugang zu „Sky Anytime". Sky+ bezeichnet die Verwendung eines lizenzierten Sky-HD-Receivers mit interner oder externer Festplatte, um das Programm von Sky aufzunehmen oder zeitversetzt fernzusehen. „Sky Anytime" ist ein spezielles Video-on-Demand-Angebot von Sky. Es wird hierfür die Hälfte des Festplattenspeichers des zertifizierten Sky HD-Receivers benötigt, der aber ohnehin dafür reserviert ist und nicht für eigene Aufnahmen genutzt werden kann. Ein alternativer Receiver mit Festplatte kann allerdings nicht verwendet werden, auch wenn damit das Programm von Sky beispielsweise über ein CI-Modul samt Smartcard geschaut werden kann. Über Nacht werden von Sky ausgewählte Sendungen aus den abonnierten Film-, Serien- oder Sportpaketen über das reguläre TV-Signal auf den Receiver geladen und bleiben dort in der Regel für eine Woche gespeichert. In dieser Zeit können Filme oder Serien beliebig oft gesehen werden, bevor sie durch neue ersetzt werden. Es entstehen dadurch keine Kosten. Das Herunterladen der Sendungen dauert bis zu 48 Stunden und der Receiver darf in dieser Zeit nachts nicht vom Stromnetz getrennt werden. Auch Filme von Sky Select lassen sich über „Sky Anytime" herunterladen und bleiben dann für 24 Stunden gespeichert. Selbstverständlich werden für die einzelnen Filme die entsprechenden Abrufgebühren fällig. Auch über Kabel ist „Sky Anytime" verfügbar, jedoch nicht im Kabelnetz der Unitymedia.

 

10. Was muss ich als Kabelkunde beachten, wenn ich Pakete von Sky abonnieren möchte?

Als Sky-Kunde mit Satellitenempfang gibt es keinerlei Einschränkungen, sofern die Satellitenposition Astra 19,2° Ost empfangen wird. Anders sieht das aus, wenn ein Kabelanschluss genutzt wird. Zunächst einmal sollte beim Kabelnetzbetreiber erfragt werden, ob Sky ins Netz eingespeist wird und wenn ja, welche Programme verfügbar sind. In der Regel sind das weniger als über Satellit und insbesondere das HD-Angebot kann bei manchen Kabelnetzbetreibern stark reduziert sein. Trotzdem zahlen Kabelkunden für ihr Abonnement genauso viel wie Satellitenkunden. Unitymedia beispielsweise speist aktuell nur einen einzigen HD-Kanal von Sky ins Kabelnetz ein. Dank eines neuen Kooperationsvertrages wird diese Zahl aber bis Juni auf fünf aufgestockt. Bis Ende des Jahres sollen zehn weitere folgen. Auch Kabel Deutschland ist mit nur acht HD-Sendern nicht allzu gut aufgestellt. Die meisten anderen Kabelnetzbetreiber zeigen schon jetzt weit über zehn HD-Sender von Sky. Um Sky im Kabelnetz zu empfangen, werden keine zwei Smartcards und somit auch keine zwei Receiver benötigt. Der Kabelnetzbetreiber kann Sky auf der schon vorhandenen Smartcard freischalten, so dass nur diese eine Smartcard ausreicht, um sowohl das Angebot des Kabelnetzbetreibers als auch die abonnierten Sky-Programme zu entschlüsseln.

 

MPO Multi Picture Object - das 3D-Bildformat

Die ersten für den Endkunden erschwinglichen 3D-fähigen TV-Geräte kamen Anfang 2010 auf den Markt. Mit dem Einzug dieser Geräte in die Wohnzimmer gewann auch der Wunsch danach, dreidimensionales Bildmaterial selbst erzeugen und anzeigen zu können an Bedeutung. Im Jahre 2011 wurde dieser Wunsch von der Home Entertainment Industrie erhört, und es sind erste an den Massenmarkt gerichtete 3D-fähige Geräte zur Aufnahme statischer und bewegter stereoskopischer Bilder verfügbar. Hier erfahren Sie Hintergründe zum 3D-Bildformat: MPO.

 

Inhaltsverzeichnis:

1. MPO Problem
2. MPO in der Theorie
3. Die Wurzeln des Formats: JFIF
4. MPO als Erweiterung von JFIF
5. Möglichkeiten des MPO Formates
6. JPS als Alternative zu MPO
7. MPO in der Praxis
8. MPO in modernen Endgeräten
9. Darstellung von MPO auf 3D Displays
10. Darstellung von MPO auf 2D Displays
11. Literaturempfehlungen & Quellen

 

1. MPO Problem

Für die dreidimensionale Photographie, im Gegensatz zur klassischen, zweidimensionalen Photographie ergibt sich ein grundsätzliches Problem: Klassische und etablierte Bildformate wie JPEG, JPEG-2000 oder PNG sind nicht zur Speicherung stereoskopischer Bilder geeignet – in den Dateien findet jeweils nur eine Photographie Platz, es werden aber zumindest zwei Photographien, eine für das rechte, eine für das linke Auge benötigt. Zwar wäre es möglich, beide Photographien in jeweils separaten Dateien in einem der genannten Formate zu speichern, für den Endkunden wäre diese Lösung jedoch unpraktisch: Was geschieht wenn eine der beiden Dateien versehentlich gelöscht wird, oder irrtümlicherweise an einem anderen Ort gespeichert wird und für die Betrachtersoftware nicht mehr auffindbar ist? Grundsätzlich sollten, um dem Nutzer den Umgang mit dem Bildmaterial zu erleichtern, alle zur Anzeige notwendigen Daten innerhalb einer einzigen Datei gespeichert sein, welche zwischen Datenträgern oder innerhalb eines Datenträgers einfach verschoben und kopiert werden kann.

Thema dieses Berichtes ist das MPO (Multi Picture Object) Format, welches eine Lösung für das Problem der Speicherung stereoskopischer Bilder bereitstellt und es ermöglicht mehrere Bilder innerhalb einer einzigen Datei zu speichern. Der erste Teil des Berichtes behandelt die theoretischen Aspekte des Formates: seine Herkunft, seinen grundsätzlichen Aufbau und seine Möglichkeiten. Der zweite Teil behandelt die praktischen Aspekte des Formates: Geräte zur Erstellung und Anzeige von MPO Dateien und die praktische Handhabung des Formates.

 

2. MPO in der Theorie

Das MPO Format wurde im Jahre 2009 von der CIPA (Camera & Imaging Products Association) standardisiert und ist heute das Standardausgabe- und Eingabeformat für dreidimensionale Photographien in den Geräten mehrerer Hersteller. Die typische Dateiendung einer MPO Datei ist '.MPO'. Der MPO Standard basiert auf dem JFIF Standard (JPEG File Interchange Format), welcher wiederum ein Containerformat für JPEG Dateien beschreibt.

Nicht nur die Struktur einer MPO Datei basiert auf Altbekanntem: Zur komprimierten Speicherung der Bilder innerhalb einer MPO Datei kommt das JPEG Verfahren zum Einsatz, tatsächlich besteht eine MPO Datei im Prinzip aus nichts anderem als einer Reihe aneinandergehängter JPEG Bilder und einigen für die dreidimensionale Darstellung notwendigen Zusatzinformationen.

Dieser Bericht behandelt ausschließlich die Struktur der Dateiformate, nicht aber das JPEG Verfahren, welches die Grundlage zur komprimierten Speicherung der Bilddaten im JFIF und MPO Format bildet. Der interessierte Leser sei an dieser Stelle auf den Bericht zum Thema JPEG mit dem Namen 'JPEG – Das Bildformat'  hingewiesen, welcher das Verfahren detailliert und in einer auch für den Laien verständlichen Weise beschreibt. Der Bericht ist frei zugänglich auf den Seiten der Firma Burosch unter http://www.burosch.de/technische-informationen.html.

 

3. Die Wurzeln des Formats: JFIF

Das JFIF Format wurde von Eric Hamilton im Jahre 1992, kurz nach der Standardisierung des JPEG Verfahrens als Ergänzung des JPEG Standards entwickelt. Da der JPEG Standard zwar ein leistungsstarkes Verfahren zur Komprimierung von Bilddaten, nicht aber ein Dateiformat zur Speicherung und Weitergabe von mit dem Verfahren komprimierten Bildern beschreibt, wird diese Lücke durch den JFIF Standard ausgefüllt.

Auch wenn JFIF als Begriff nur wenigen bekannt ist, so ist doch praktisch jeder, der im Besitz einer Digitalkamera oder eines Heimcomputers ist, schon mit Dateien im JFIF Format in Berührung gekommen, denn JFIF ist heute der De-Facto Standard für die Speicherung von JPEG Daten und was gemeinhin als 'JPEG Datei' bezeichnet wird, müsste eigentlich 'JFIF Datei' genannt werden. Die typische Dateiendung einer JFIF Datei ist '.JPG'.

 

JFIF HEX Editor

Abbildung 1: JFIF Marker innerhalb einer typischen JPEG Datei, visualisiert durch einen Hex-Editor. Der markierte Bereich ist ein APP0-Marker und enthält Informationen zur JFIF Version.

 

Innerhalb einer JFIF Datei sind verschiedene für die Dekodierung der Datei notwendige Parameter in kurzen Informationssegmenten, sogenannten JFIF Markern, gespeichert. JFIF Marker bestehen jeweils aus einigen Bytes an Information und werden durch eine zwei Byte lange Zeichenfolge der Form 0xFFXX (XX: Identifikation des Markes), gefolgt von einer Längenangabe für den Marker eingeleitet (siehe Abbildung 1).

SOI Marker (0xFFD8)
APP0 Marker (0xFFE0)
DQT Marker (0xFFDB)
DHT Marker (0xFFC4)
SOF Marker (0xFFC0)
SOS Marker (0xFFDA)

 

Komprimierte Bilddaten

 

EOI Marker (0xFFD9)

Abbildung 2: Typischer Aufbau einer JFIF Datei.

Zwei spezielle  JFIF Marker, welche auf einen Längenangabe verzichten und nur aus der zwei Byte langen Kennung bestehen, der SOI (Start-Of-Image) und der EOI (End-Of-Image) Marker markieren den Beginn und das Ende der Datei, zwischen diesen beiden Markern enthält die Datei weitere JFIF Marker sowie komprimierte Bilddaten (siehe Abbildung 2). Jede JFIF Datei enthält die für die Dekodierung der Bilddaten zwingend notwendigen Marker mit den Namen DQT (Define-Quantization-Tables), DHT (Define-Huffman-Tables), SOF (Start-Of-Frame) und SOS (Start-Of-Scan), sowie, üblicherweise direkt nach dem SOI Marker, einen Marker mit dem Namen APP0 (Application-0), welcher Informationen über die Version des JFIF Containers enthält.

Als einziger der genannten Marker ist der APP0 Marker für die Anzeige und Dekodierung des Bildes nicht zwingend notwendig, er erfüllt einen rein informativen Zweck. Außer dem APP0 Marker sind noch 14 weitere APPx Marker mit Namen APP1...APP14 im JFIF Standard beschrieben. Diese Marker werden von Anzeigeprogrammen im Zweifelsfall nicht ausgewertet und können daher für Metadaten, Erweiterungen oder sonstige beliebige Informationen genutzt werden.

Nur für zwei der APP1...APP14 Marker hat sich bislang ein Verwendungszweck etabliert: Der APP1 Marker wird üblicherweise für EXIF (Exchangable Image File Format) Daten genutzt, der APP13 Marker üblicherweise für IPTC (International Press Telecommunications Council) Daten. EXIF und IPTC sind internationale Standards für Metadaten, sie speichern Informationen zum Bild wie Zeitpunkt und Ort der Aufnahme, verwendetes Kameramodell, genutzte Kamereinstellungen, den Namen des Autors, eine Beschreibung des Bildinhaltes oder eine Miniaturansicht des Bildes. Um Fehlinterpretationen zu vermeiden, werden die APP0, APP1 und APP13 Marker üblicherweise nicht für andere Informationen genutzt, die Verwendung aller übrigen Marker steht jedoch bislang frei.  

 

4. MPO als Erweiterung von JFIF

Die Erweiterungsmöglichkeit, welche der JFIF Standard über die APPx Marker bereitstellt, wird vom MPO Format genutzt, um die organisierte Speicherung mehrerer Bilder innerhalb einer einzigen Datei zu ermöglichen. Um Konflikte mit den häufig genutzten EXIF und IPTC Markern APP1 und APP13 zu vermeiden, werden die Daten der MPO Erweiterung im APP2 Marker gespeichert.

Wie durch Abbildung 3 dargestellt, besteht eine MPO Datei aus einer einfachen Verkettung von zwei oder mehreren JPEG Dateien in JFIF Containern (nicht gezeigt in der Abbildung: JFIF Marker DQT, DHT, SOF, SOS). Die Bilder sind aneinandergehängt in einer einzelnen Datei gespeichert. Der einzige Unterschied zwischen einem einzelnen Bild in dieser Verkettung und einer herkömmlichen JPEG Datei liegt im Fehlen des APP0 Markers mit den JFIF Versionsinformationen und im Vorhandensein des APP2 Markers und den darin enthaltenen Informationen zur Darstellung der verketteten Bilder. Für gewöhnlich enthalten die Bilder in einer MPO Datei auch den APP1 Marker mit EXIF Metadaten und einer Miniaturansicht des Bildes.

Der APP2 Marker enthält einige Bytes zur Identifikation des Markers als MPO Erweiterung, Versionsinformationen zur verwendeten MPO Spezifikation, etliche Parameter, die den Blickwinkel und die genaue Position der Aufnahme beschreiben, sowie eine Typ-Zuweisung für das jeweilige Bild. Der Typ beschreibt, zu einem gewissen Grad, den Inhalt des jeweiligen Bildes und bestimmt, wie es angezeigt werden soll. Gültige Typen sind:

  • A:) Baseline MP Primary Image (Primäres Bild), ...
  • B:) Large Thumbnail  (Version in anderer Auflösung), ...
  • C:) Multi-Frame Image (andere Ansicht der Szene) und ...
  • D:) Undefined  (undefinierter Typ).

Das jeweils erste Bild in der Verkettung enthält im APP2 Marker zusätzlich einen Index aller in der MPO Datei enthaltenen Bilder, jeweils mit individuellen Kennungen, Bilddimensionen (Höhe x Breite), genauer Position in der Datei und Größe des jeweiligen Bildes innerhalb der Datei in Byte. Dieser Index wird genutzt, um auf alle Bilder innerhalb der Datei einzeln zugreifen zu können.

 

SOI Marker
APP1: EXIF Informationen
APP2: MPO Informationen

Bild #1

MPO Index-Tabelle

EOI Marker
SOI Marker
APP1: EXIF Informationen
APP2: MPO Informationen

Bild #2

MPO Index-Tabelle

EOI Marker

SOI Marker
APP1: EXIF Informationen
APP2: MPO Informationen

Bild #n

MPO Index-Tabelle

EOI Marker

Abbildung 3: Aufbau einer typischen MPO Datei (Bilder bereitgestellt durch Fa. Burosch Audio-Video-Technik, burosch.de).

 

5. Möglichkeiten des MPO Formates

Die Speicherung und die Darstellung stereoskopischer Bilder ist zwar der übliche Nutzungszweck für das MPO Format, MPO kann jedoch mehr. Es ist möglich, mehr als nur zwei individuelle Bilder innerhalb der Datei zu speichern und diese Bilder müssen auch nicht zwingend unterschiedliche Ansichten derselben Szene zum selben Zeitpunkt darstellen.

Die Darstellung einer Szene aus unterschiedlichen Blickwinkeln zu einem gegebenen Zeitpunkt bietet sich durch die Struktur der MPO Erweiterungen im APP2 Marker zwar an, tatsächlich war aber einer der ursprünglichen Nutzungszwecke des Formates die Speicherung zweier Varianten ein und desselben Bildes: Eine Variante in der ursprünglichen Auflösung, eine Variante in einer für die Darstellung auf HD-TVs optimierten Auflösung. Man nennt diese Form der Nutzung auch den 'Baseline' MPO Modus, sie erlaubt als einzige gültige Typen A ('Primäres Bild') und B ('Version in anderer Auflösung').

Weit häufiger als der 'Baseline' MPO Modus kommt in der Praxis der 'Extended' MPO Modus zum Einsatz. Dieser erlaubt alle Typen, und lässt durch den 'undefinierten Typ' dem Ersteller praktisch alle Freiheiten bei der Zusammenstellung der verketteten Bilder. Obwohl so praktisch eine komplette Dia-Schau (man denke an einen Satz Urlaubsbilder) innerhalb einer einzigen Datei möglich wäre, ist diese Nutzung eher selten. Im herkömmlichen Gebrauch enthält eine MPO Datei mehrere Ansichten derselben Szene, also Bilder des Typs C ('andere Ansicht der Szene'). Für den Typ C sind im MPO Standard drei Untertypen definiert: 'Panorama', 'Disparity' und 'Multi-Angle'.

Der 'Panorama' Untertypus ist weitgehend selbsterklärend und leicht von den anderen Untertypen abzugrenzen: Alle Bilder dieses Untertypus innerhalb einer MPO Datei ergebenen gemeinsam eine umfassende Ansicht einer Szenerie (z.B. Innenansicht eines historischen Gebäudes) von einem bestimmten Standort aus. Die Bilder wurden jeweils so photographiert, dass sie an den Rändern nahtlos zusammengesetzt werden können, und so für den Betrachter die Illusion einer tatsächlichen Rundumsicht schaffen können. Beispiele solcher Panorama-Bilder, wenn auch nicht im MPO Format gespeichert, sind unter anderem im WWW zu finden auf http://www.360cities.net/.

Weniger leicht fällt die Abgrenzung zwischen den Untertypen 'Disparity' und 'Multi-Angle'. Beide Typen werden für Bilder verwendet, die eine bestimmte Szene von unterschiedlichen Standorten aus und gegebenenfalls leicht oder stark unterschiedlichen Blickwinkeln zeigen. Der Unterschied zwischen den Typen liegt im vorgesehenen Anzeigemodus: Bei Bildern des Typus 'Disparity' weichen die Standorte der einzelnen Bilder untereinander nur gering ab, so gering wie etwa der typische Abstand zwischen zwei menschlichen Augen. Der 'Disparity' Typ wird bei Bildern verwendetet, die zur gleichzeitigen, dreidimensionalen Ansicht auf 3D-fähigen Geräten vorgesehen sind. Es ist möglich mehr als nur zwei Bilder des Typus 'Disparity' in der Verkettung zu speichern, und so mehrere dreidimensionale Ansichten einer Szene in einer einzigen Datei zu speichern.

Bilder des Typus 'Multi-Angle' hingegen sind üblicherweise nicht zur gleichzeitigen, dreidimensionalen Ansicht geeignet. Die einzelnen Bilder dieses Typen zeigen verschiedene, teilweise stark abweichende Ansichten einer Szene und sind zur Einzelansicht vorgesehen. Denkbar ist bei Bildern dieses Typen etwa die Ansicht eines historischen Gebäudes von der Nord-, Ost-, Süd-, Westseite oder gar aus der Vogelperspektive.

Trotz der vielfältigen Möglichkeiten des MPO Formates hat in der Praxis bislang nur ein einzelner Einsatzzweck Bedeutung: Die Speicherung und Darstellung stereoskopischer Bilder. Zu diesem Zweck beinhaltet eine MPO Datei üblicherweise zwei Bilder des Typs C ('andere Ansicht der Szene') und des Untertyps 'Disparity', die jeweils die Ansicht aus dem linken und aus dem rechten menschlichen Auge repräsentieren.

 

6. JPS als Alternative zu MPO

JPS (JPEG Stereoscopic) ist ein weiteres Bildformat, welches zur Speicherung und Darstellung stereoskopischer Bilder geeignet ist. Wie das MPO Format basiert es auf dem JPEG Verfahren und auf dem JFIF Container, bietet jedoch weit weniger Möglichkeiten als MPO und ist in der Praxis weniger verbreitet.

 

FPS Alternative MPO

Abbildung 4: Darstellung eines .JPS Bildes innerhalb eines gewöhnlichen (2D) Bildbetrachtungsprogramms. Man beachte die Unterschiede zwischen dem linken und dem rechten Bild, besonder deutlich erkennbar an den Bildrändern.

 

Eine JPS Datei besteht, im Gegensatz zu einer MPO Datei, aus einer einzigen JPEG/JFIF Datei. Die Erweiterungen für die dreidimensionale Anzeige sowie die Identifizierung als JPS Datei werden dabei im bislang nicht genutzten APP3 Marker gespeichert. Die zwei Ansichten des Bildes für die stereoskopische Darstellung sind innerhalb eines einzigen Bildes, Seite an Seite gespeichert (siehe Abbildung 4). JPS Dateien enthalten außerdem wie gewöhnliche JPG Dateien, anders als die verketteten Bilder innerhalb einer MPO Datei, üblicherweise den APP0 Marker mit den JFIF Versionsinformationen.

Die spezielle Art der Speicherung innerhalb einer JPS Datei hat einen großen Vorteil gegenüber der Speicherung innerhalb einer MPO Datei: Der einzige Unterschied zu einer herkömmlichen JPEG Datei ist der APP3 Marker, welcher von mit JPS nicht kompatiblen Anzeigeprogrammen ignoriert wird. Daher können beide Ansichten innerhalb jedem beliebigem zur Darstellung von gewöhnlichem JPEG fähigen Anzeigeprogramm dargestellt werden. Auch MPO bietet eine solche Möglichkeit zur Darstellung auf nicht kompatiblen Plattformen, jedoch nur für das erste Bild in der Verkettung – dazu später mehr.

 

7. MPO in der Praxis

Nachdem die theoretischen Aspekte des Formates im vorigen Kapiteln behandelt wurden, sollen nun die praktischen Aspekte in den Vordergrund gestellt werden. Dieses Kapitel stellt einige derzeit (Stand Juli 2011) auf dem Markt erhältlichen MPO-fähigen Geräte vor und erläutert wie MPO Dateien auf den Displays digitaler Anzeigegeräte dargestellt werden. Der Fokus liegt dabei, aufgrund der großen Bedeutung für den Einsatz in der Praxis, auf der Nutzung von MPO als 3D Bildformat.

 

8. MPO in modernen Endgeräten

Bereits heute sind Geräte auf dem Markt mittels derer der Endkunde MPO Dateien selbst erstellen kann. Die Liste dieser Geräte ist zum jetzigen Zeitpunkt noch kurz, wächst jedoch beständig. Folgende Geräte sind auf dem Markt erhältlich (Stand Juli 2011) und können dreidimensionale Photographien erzeugen und in MPO Dateien speichern:

  • von FujiFilm: die Digitalkameras FinePix Real 3D W1 (Abbildung 6) und FinePix Real 3D W3
  • von Panasonic: die Digitalkamere Lumix DMC-TZ20
  • von Sony: die Digitalkamera DSC-HX7V
  • von HTC: das Mobiltelephon EVO 3D (Abbildung 5)
  • von JVC: der digitale Camcorder JVC GY-HMZ1U
  • von Nintendo: die portable Spielkonsole Nintendo 3DS

MPO-faehiges Mobiltelephon

Abbildung 5: MPO-fähiges Mobiltelephon EVO 3D von HTC (Quelle: Wikimedia Commons).

 

Digitalkameras, welche dreidimensionale Photographien im MPO Format erzeugen, verfügen üblicherweise, im Gegensatz zu traditionellen Digitalkameras, über zwei Objektive statt nur einem (siehe Abbildung 6). Die beiden Objektive repräsentieren dabei die beiden menschlichen Augen und sind in typischem Augenabstand auf den Geräten angebracht. Wird der Auslöser der Kamera betätigt, so wird durch beide Objektive gleichzeitig jeweils ein digitales Bild erzeugt, welche dann im Inneren der Kamera zu einer einzelnen MPO Datei kombiniert werden und im internen Speicher oder auf einer Speicherkarte als solche gespeichert werden.

 

FujiFilm FinePix Real 3D

Abbildung 6: FujiFilm FinePix Real 3D W1: Zwei Objektive statt nur einem einzelnen (Quelle: fujifilm.com).

 

Die Geräte der Hersteller FujiFilm, HTC und Nintendo verfügen über ein spezielles Display, welches es ermöglicht, die Photographien ohne weitere Hilfsmittel in dreidimensionaler Form direkt auf dem Gerät zu betrachten (siehe hierzu auch das folgende Unterkapitel). Außer den Geräten, welche die Dateien erzeugen, sind mittlerweile verschiedene Geräte, auch solche die nicht über ein spezielles Display verfügen, fähig, MPO Dateien anzuzeigen. Zur Liste derer Geräte, welche MPO Dateien ohne zusätzliche Hardware in dreidimensionaler Form anzeigen können, zählen unter anderem die aktuellen 3D HD-TV Geräte der großen Hersteller Panasonic (siehe Abbildung 7), Sony, LG und Samsung.

 

MPO Full HD TV

Abbildung 7: MPO-kompatibles HD TV Gerät TX-P50GT30E (Quelle: panasonic.de / burosch.de)

 

Die MPO Dateien werden über USB Sticks, über Speicherkarten oder durch eine Kabelverbindung mit der Digitalkamera in die TV Geräte eingespeist und über den internen Medien-Player auf dem Bildschirm wiedergegeben (siehe Abbildung 8). Viele Geräte, unter anderem die aktuellen Panasonic TV Geräte der 'Viera' Reihe (siehe Abbildung 7) ermöglichen mittlerweile auch eine kabellose Übertragung der Daten direkt vom Aufnahmegerät oder von einem Heimserver über WLAN.

MPO Medienplayer

Abbildung 8: Typischer Weg einer MPO Datei: Die Digitalkamera (links-oben) erzeugt eine MPO Datei (rechts-oben) und spechert diese auf einer Speicherkarte (rechts-unten). Die Speicherkarte wird in einen 3D fähigen HD Fernseher (links-unten) gesteckt, dort das Bild mittels des internen Medienplayers abgespielt.

 

9. Darstellung von MPO auf 3D Displays

3D TVs verfügen über spezielle Displays, welche die Wiedergabe von MPO und anderen stereoskopischen Inhalten in einer Form ermöglichen, die beim Betrachter einen tatsächlichen dreidimensionalen Eindruck schafft. Außer bei TV Geräten kommen solche speziellen Displays auch bei anderen Geräten der Unterhaltungselektronik zum Einsatz, etwa Computer-Monitoren, Handydisplays, auf portablen Konsolen und den Displays von Digitalkameras. Bilder im MPO Format und andere stereoskopische Inhalte können nur durch ein 3D Display in ihrer vollen Farbvielfalt dreidimensional dargestellt und wahrgenommen werden.

Von Bedeutung sind im Bereich der 3D Displays heute hauptsächlich drei unterschiedliche Technologien: Shutterbrillen, Polarisationsfilter und autostereoskopische Displays. Gemeinsam ist diesen drei Technologien nur eines: Die beiden Ansichten eines stereoskopischen Bildes werden zwar (annähernd) gleichzeitig auf dem Display angezeigt, jedoch wird das Bild so gefiltert, dass die Ansicht des rechten Auges vor dem linken Auge und die Ansicht des linken Auges vor dem rechten Auge verborgen bleibt. Die Shutterbrillen- und die Polarisationsfilter-Technik kommt auch auf Leinwänden zum Einsatz.

Die Shutterbrillen-Technik nutzt die Trägheit des menschlichen Auges bei der Wahrnehmung einzelner Bilder. Die an das linke und das rechte Auge gerichteten Bilder werden nicht gleichzeitig, sondern abwechselnd in schneller Reihenfolge auf dem Display oder der Leinwand dargestellt. Die Betrachter tragen Shutterbrillen, die eine Stromversorgung enthalten und deren Gläser aus zwei Flüssigkristallflächen bestehen. Die Flüssigkristallflächen werden abwechselnd zwischen durchlässig und undurchlässig umgeschaltet. So wird entweder das linke oder das rechte Auge abgedeckt und das jeweils angezeigte Bild ist nur durch ein Auge wahrnehmbar. Damit dies synchron mit dem dargestellten Bild auf dem Display oder der Leinwand geschieht, jedes Auge also nur das ihm zugeordnete Bild wahrnimmt, muss eine Verbindung zwischen dem darstellenden Gerät (i.d.R. TV oder Projektor) und der Shutterbrille bestehen. Diese wurde früher durch ein Kabel realisiert, heute hauptsächlich durch ein Infrarot-Signal (siehe Abbildung 9). Der menschliche Betrachter bemerkt von den Vorgängen hinter der Technik nichts und nimmt nur das dreidimensionale Bild war.

Bei der Shutterbrillen-Technik können sogenannte 'Crosstalk'-Effekte auftreten, wenn die Brille das jeweilige Auge nicht völlig synchron mit dem angezeigten Bild abdunkelt. In diesem Fall wird z.B. die für das rechte Auge bestimmte Ansicht minimal zu lange angezeigt, während die Shutterbrille bereits für das linke Auge öffnet – das linke Auge nimmt dann noch kurz die für das rechte Auge bestimmte Ansicht wahr und es entstehen störende Doppelkonturen. Ob und wie stark ein Gerät von Crosstalk betroffen ist kann mit geeigneten Testbildern, überprüft werden. Entsprechende Testbilder sind verfügbar auf den Seiten der Firma Burosch unter

http://www.burosch.de/store/index.php?route=product/product&path=4&product_id=8.

 

Shutterbrille

Abbildung 9: Panasonic Shutterbrille TY-EW3D10E: Synchronisation durch Infrarot-Signal (Quelle: panasonic.de)

 

Im Home Entertainment Bereich kommt die Shutterbrillen-Technik bereits längere Zeit zum Einsatz. Diverse Shutterbrillen und entsprechende Grafikkarten für PCs, welche die dreidimensionale Darstellung von Spielen erlaubten, waren bereits um das Jahr 2000 auf dem Markt. Heute ist die Shutterbrillen-Technik die dominierende Technik bei 3D TVs im Heimbereich. Allgemein hat sie den Vorteil, dass sie praktisch auf jedem Gerät realisierbar ist, dessen Display eine genügend hohe Bildwiederholfrequenz aufweist und das über einen geeigneten Weg zur Synchronisation mit den Shutterbrillen verfügt. Shutterbrillen-Kompatibilität erhöht dementsprechend die Produktionskosten der Anzeigegeräte nur in geringem Maße. Die Brillen selbst sind, aufgrund der Flüssigkristallflächen und der notwendigen Komponenten zur Synchronisation nicht billig herstellbar. Für ein größeres Publikum wie z.B. im Kino ist die Shutterbrillen-Technik nur bedingt geeignet, da Beschädigung und Diebstahl ein finanzielles Risiko darstellen. Auch für portable Geräte ist die Technik aufgrund der Notwendigkeit des Mitführens und Tragens der zugehörigen Brillen nur wenig geeignet.

Im Bereich der Leinwand-Projektion, insbesondere in 3D Kinos, ist die Polarisationsfilter-Technik die am weitesten verbreitete Technik. Bei dieser Technik werden die beiden Ansichten des stereoskopischen Bildes gleichzeitig mittels unterschiedlichen polarisierten Licht dargestellt. Die Gläser der zugehörigen Brillen bestehen aus Polarisationsfiltern, welche jeweils nur für das polarisierte Licht einer Ansicht durchlässig sind und die andere Ansicht blockieren (siehe Abbildung 10). Diese Technik kam bereits lange vor dem 3D Boom im Jahre 2009 in IMAX 3D Kinos zum Einsatz.

Die Polarisationsfilter-Technik stellt eine Herausforderung für Anzeigegeräte dar: Projektionsgeräte müssen polarisiertes Licht erzeugen, herkömmliche Leinwände auf Textilbasis können aufgrund der Zerstreuung des Lichts nicht verwendet werden, entsprechende Displays müssen - ohne Verlust von Schärfe oder Kontrast - aus zwei Schichten (eine für jede Polarisation) aufgebaut sein. Die Polarisationsfilter-Technik ist aus diesen Gründen allgemein im Bereich des Home Entertainment, bei 3D TVs und bei portablen Geräten heute (Stand 2011) noch eher selten. Ihr klarer Vorteil liegt in der Einfachheit der notwendigen Brillen. Diese enthalten keine komplizierten Komponenten und sind daher als Wegwerfprodukte herstellbar. Verlust und/oder Diebstahl sind im Gegensatz zur Shutterbrillen-Technik keine finanzielle Gefahr.

Polarisationsfilterbrille

Abbildung 10: 'Real D' Polarisationsfilterbrille: wird eingesetzt unter anderem in Cinemaxx Kinos (Quelle: Wikimedia Commons)

Autostereoskopische Displays schließlich ermöglichen als einzige Technologie die dreidimensionale Darstellung von Bildern ohne weitere Hilfsmittel – Brillen wie bei der Shutterbrillen- und Polarisationsfilter-Technik sind nicht notwendig. Über der Darstellungsfläche enthalten diese Displays ein Linsenraster oder eine Streifenmaske, welche sicherstellen dass die dargestellten Pixel immer nur das jeweils passende Auge erreichen.  Die dreidimensionale Darstellungsqualität autostereoskopischer Displays ist stark von der Kopfposition des Betrachters abhängig: Bereits eine kleine Änderung dieser Position kann zu einer merklichen Verschlechterung oder Verbesserung der wahrgenommenen Qualität führen. Manche Geräte können diese Effekte teilweise ausgleichen, indem sie mittels Head Tracking oder Eye Tracking die Kopfbewegungen des/der Betrachter verfolgen und entsprechend das Linsenraster oder die Streifenmaske anpassen.
Die Technik lässt sich nicht auf Leinwände übertragen, für ein größeres Publikum wie z.B. im Kino sind autostereoskopische Displays aus den genannten Gründen ohnehin ungeeignet. Auch im Home Entertainment Bereich hat die Technik bislang praktisch keine Bedeutung. Sehr gut geeignet ist die Technik hingegen für portable Geräte, da dort von nur einem einzelnen Betrachter ausgegangen werden kann und das Mitführen und Tragen von 3D Brillen unterwegs eher unpraktisch ist. Autostereoskopische Displays sind heute im Einsatz unter anderem in den 3D Digitalkameras FujiFilm Real 3D W1 und FujiFilm Real 3D W3, in Nintendos portabler Spielekonsole Nintendo 3DS und im 3D Mobiltelephon HTC EVO 3D (Stand 2011).

 

10. Darstellung von MPO auf 2D Displays

Stereoskopische Bilder im MPO Format können auch auf klassischen zweidimensionalen Displays betrachtet werden. Eine Reihe unterschiedlicher Darstellungsmodi bietet sich dazu an:

  • JPEG Komaptibilitätsmodus (nur eine Ansicht)
  • Anzeige in zeitlicher Abfolge (Diashow)
  • Anzeige neben- oder übereinander (Side-by-Side, Top-and-Bottom)
  • Anzeige als Grau- oder Farb-Anaglyphen-Bild

Der einfachste der genannten Darstellungsmodi ist der JPEG-Kompatibilitätsmodus. Dieser kann auf Geräten und mit Anzeigeprogrammen genutzt werden, die zwar nicht mit MPO, aber dafür mit JPEG kompatibel sind. Aufgrund des speziellen Aufbaus einer MPO Datei (der Verkettung mehrerer JFIF/JPEG Dateien innerhalb einer einzelnen Datei) ist es mit Einschränkungen möglich, die Bilder auch auf solchen inkompatiblen Plattformen wiederzugeben. Im JPEG-Kompatibilitätsmodus wird nur die das erste Bild in der Verkettung angezeigt, der Rest der Datei ignoriert. Üblicherweise ist das erste Bild in der Datei die linke Ansicht des stereoskopischen Bildes (siehe Abbildung 11).

JPEG-Kompatibilitätsmodus

Abbildung 11: Darstellung einer MPO Datei im JPEG-Kompatibilitätsmodus

 

Theoretisch kann jede JPEG kompatible Plattform MPO Dateien im Kompatibilitätsmodus anzeigen. Da Medien-Player und Betrachtersoftware jedoch häufig auch von der Dateierweiterung der anzuzeigenden Dateien abhängig sind, MPO Dateien aber statt .JPG die (in diesem Fall unbekannte) Erweiterung .MPO haben, funktioniert diese Art der Anzeige in vielen Fällen nicht ohne ein manuelles Ändern der Dateierweiterung seitens des Nutzers.

 

MPO Datei im Bildbetrachtungsprogramm

Abbildung 12: Anzeige einer MPO Datei im Bildbetrachtungsprogramm Irfanview: Umschalten zwischen den Ansichten / Seiten

 

Viele Betrachterprogramme für Heimcomputer sind mittlerweile MPO-kompatibel, verfügen aber über keinen geeigneten Modus zur gleichzeitigen Anzeige der beiden Ansichten. Eine Behelfslösung ist daher die Anzeige in zeitlicher Abfolge, auch bekannt als Diashow. Der Nutzer kann bei dieser Lösung zwischen den Anzeigen hin- und herschalten (siehe Abbildung 11). Bildbetrachtungs- und Bearbeitungsprogramme, die auf stereoskopische Bilder spezialisiert sind, bieten zumeist verschiedene Modi für die gleichzeitige zweidimensionale Darstellung von MPO Dateien an. Zwei einfache Fälle sind der Side-by-Side (Abbildung 13) und der Top-and-Bottom (Abbildung 14) Modus für die Darstellung der beiden Ansichten neben- bzw. übereinander.

 

Side-by-Side

Abbildung 13: Side-by-Side Ansicht eines in einer MPO Datei gespeicherten stereoskopischen Bildes. Man beachte die Unterschiede zwischen den beiden Ansichten, besonders gut erkennbar an den Bildrändern.

Top-and-Bottom

Abbildung 14: Top-and-Bottom Ansicht eines in einer MPO Datei gespeicherten stereoskopischen Bildes. Man beachte die Unterschiede zwischen den beiden Ansichten, besonders gut erkennbar an den Bildrändern.

 

Die beiden Darstellungsmodi machen insbesondere dann Sinn, wenn das stereoskopische Bild bearbeitet werden soll, also etwa Manipulation von Bildschärfe, Kontrast, Helligkeit oder Zuschneidung vorgenommen wird. Durch gleichzeitige Darstellung behält der Nutzer die Übersicht über beide Ansichten und sieht die Auswirkungen etwaiger Veränderungen sofort. Die letzten beiden Darstellungsmodi in der Liste, die Anzeige als Grau- oder Farb-Anaglyphen-Bild, ermöglichen mit Hilfe einer entsprechenden Brille die dreidimensionale Darstellung auf eigentlich ungeeigneten Displays, Projektoren und Leinwänden. Bei der Anaglyphen-Technik werden die beiden Ansichten eines stereoskopischen Bildes jeweils mit Rot- und Cyan-Filtern eingefärbt und übereinandergelegt.  Der Betrachter trägt eine spezielle Anaglyphenbrille, deren Gläser wiederum jeweils aus einem Rot- und einem Cyan-Filter bestehen (siehe Abbildung 15). Die Filter in der Brille sind jeweils nur für die in einer Farbe eingefärbte Ansicht durchlässig und es entsteht ein dreidimensionaler Eindruck. Die Anaglyphen-Technik war auch die dominierende Technik während des ersten 3D Booms in den Kinos ab der Mitte der 50er Jahre des letzten Jahrhunderts und wurde seither immer wieder im Kino, im Fernsehen und in der frühen 3D Photographie eingesetzt.

 

Anaglyphenbrille

Abbildung 15: Typische Anaglyphenbrille: Rot- (links) und Cyan-Filter in den Gläsern (Quelle: Wikimedia Commons)

 

Aufgrund der zu verwendenden Farbfilter reduziert die Anaglyphen-Technik die Farbvielfalt des ursprünglichen Bildes. Da die Farben Rot und Cyan verwendet werden um die Tiefeninformation im Bild zu kodieren kann die ursprüngliche Farbtreue nicht beibehalten werden. Der bestmögliche 3D Effekt wird tatsächlich nur dann erreicht, wenn auf Farbe gänzlich verzichtet wird und zunächst in Graustufen konvertiert wird (siehe Abbildung 16).

Einen Kompromiss stellt das Farb-Anaglyphen-Bild dar: Bei dieser Form der Darstellung  werden die beiden Ansichten ebenfalls mit Rot- und Cyan-Filtern eingefärbt, es wird jedoch ein Teil der ursprünglichen Farben beibehalten (siehe Abbildung 17). Der dreidimensionale Eindruck eines Farb-Anaglyphen-Bildes ist in der Regel etwas schwächer als bei einem enstsprechenden Grau-Anaglyphen-Bild.

Die Anaglyphen-Technik stellt kaum Anforderungen an das darstellende Medium und ist heute auf allen Arten von Farbdisplays, Leinwänden und Projektoren möglich, so lang eine ausreichende Farbtiefe gewährleistet ist. Anaglyphen-Brillen sind billig als Wegwerfartikel herstellbar. Dennoch kann der Anaglyphen-3D-Effekt die Darstellung auf echten 3D Displays, insbesondere für das Shutterbrillen- oder Polaristionsfilter-verwöhnte Auge, kaum ersetzen – zu störend sind die Abstriche im 3D Effekt, der Verlust an Farbtreue und der durch die unterschiedlich gefärbten (Rot und Cyan) Ansichten verwirrende Effekt auf die menschliche Wahrnehmung.

 

Grau-Anaglyphen-Bild

Abbildung 16: Ein aus einer MPO Datei mittels Rot- und Cyan Filtern erzeugtes Grau-Anaglyphen-Bild

 

Farb-Anaglyphen-Bild

Abbildung 17: Ein aus einer MPO Datei mittels Rot- und Cyan Filtern erzeugtes Farb-Anaglyphen-Bild

 

 

''JPEG – Das Bildformat'' von Matthias Stirner: Eine detailierte Kurzübersicht über das JPEG Format, welche auch für den Laien verständlich die inneren Vorgänge und die praktische Nutzung des Formats beschreibt. Frei zugänglich und zu finden auf den Seiten der Firma Burosch unter http://www.burosch.de/technische-informationen.html.

 

11. Literaturempfehlungen & Quellen

Die verwendeten Bilder wurden dort wo nicht anders beschrieben von der Firma Burosch Audio-Video-Technik bereitgestellt. Die Firma ist im WWW zu finden unter: www.burosch.de. Dem interessierten Leser seien zur weiterführenden Recherche folgende Werke empfohlen:

''JPEG – Das Bildformat'' von Matthias Stirner: Eine detailierte Kurzübersicht über das JPEG Format, welche auch für den Laien verständlich die inneren Vorgänge und die praktische Nutzung des Formats beschreibt. Frei zugänglich und zu finden auf den Seiten der Firma Burosch unter

JPEG - Das Bildformat Teil 1: Theorie und Grundlagen

JPEG - Das Bildformat Teil 2: Praxis

''JFIF Spezifikation v1.02'' von Eric Hamilton: Die Spezifikation des JFIF Formats, auf dem MPO basiert. Frei erhältlich unter http://www.jpeg.org/public/jfif.pdf.

''Multi Picture Format'' von verschiedenen Autoren: Die Spezifikation des MPO Formates. Enthält Illustrationen für die verschiedenen Einsatzmöglichkeiten des Formates. Zu beziehen unter: www.cipa.jp/english/hyoujunka/kikaku/pdf/DC-007_E.pdf.

Falls Sie durch diesen Bericht auf den Geschmack gekommen sind, und nun selbst MPO Dateien erzeugen, bearbeiten oder konvertieren möchten, empfehlen wir Ihnen dieses Programm:

''Stereo Photo Maker'' für MS Windows, ein Programm speziell zur Manipulation stereoskopischer Bilder: Das Programm ermöglicht das Konvertieren von MPO Dateien in eine Reihe anderer Formate, etwa das JPS Format oder, als Anaglyphen-Bild, das JPEG Format. Einige Basis-Manipulationen wie Änderung von Kontrast, Helligkeit, Bildschärfe oder Zuschneiden des Bildes sind ebenfalls möglich. Wenn Sie momentan (noch) kein MPO-fähiges Aufnahmegerät besitzen, dann können Sie die beiden Ansichten mit einer herkömmlichen Digitalkamera einzeln aufnehmen und mit Stereo Photo Maker zu einer MPO Datei kombinieren. Das Programm ist kostenfrei erhältlich auf der Seite der Autors unter http://stereo.jpn.org/ger/stphmkr/index.html.

 

Impressum

Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein.
Technischer Redakteur:
Matthias Stirner
Copyright 2011 – All rights reserved

Media Streaming mit DLNA und UPnP. Viele machen es, weniger wissen etwas darüber. In der folgenden Seminararbeit der Hochschule Aalen (Fakultät Elektronik und Informatik) wird dieses Thema näher beleuchtet. 

Der Startschuss für die Übertragung hochaufgelöster Bilder fiel in Deutschland bereits am 27. Oktober 2005, zum damaligen Zeitpunkt aber mit nur sehr wenigen Zuschauern. Die beiden HD-Kanäle Pro 7 HD und Sat.1 HD der ProSiebenSat.1 Media AG nahmen ihren Regelbetrieb auf, und strahlten als erste deutsche Fernsehsender ihr Vollprogramm im sogenannten Simulcastbetrieb parallel zu SD auch in HDTV aus. Erfahren Sie hier alles über die Anfänge und technische Hintergründe. 

Die 3D Technik

Wie funktioniert 3D überhaupt? Wie nutzen Hersteller die menschliche Wahrnehmung zur Produktion von räumlicher Bildwiedergabe auf Kinoleinwand, TV, Blu-ray oder Spielkonsole? Welche Verfahren gibt es mit und ohne 3D-Brille? Was verbirgt sich hinter dem sogenannten "Puppenstubeneffekt"? Alles Wissenswerte über 3D und das stereoskoptische Sehen finden Sie hier ...

HDTV

Wie kann ich HDTV empfangen? Was bedeutet hochskalieren? Wo liegen die Unterschiede zwischen 720p und 1080i? Warum gibt es kein HDTV in 24p? Hier finden Sie alle Antworten zum hochauflösenden TV-Empfang, alles über die digitalen Bild- und Tonformate sowie über eventuelle technische Einschränkungen.

 

Full HD / Standard PAL Bildvergleich - Die Vorteile von Full HD.

 

Inhaltsvzerzeichnis:

1. Empfangsarten und Qualität von HDTV in Deutschland 
2. Bildqualität und Formatanpassungen bei HDTV-Übertragungen
3. Häufige Fragen und Antworten zu HDTV
4. Bildschirmauflösungen und ihre Auswirkungen auf die HDTV-Qualität

 

1. Empfangsarten und Qualität von HDTV in Deutschland 

Welche Empfangsarten gibt es für HD?
In Deutschland sind HDTV-Sender derzeit über Satellit, Kabel und Internet zu empfangen.

Ist HDTV per Satellit qualitativ besser?
Meist werden die Satellitenkanäle unverändert ins Kabel eingespeist. Einige Kabelnetzbetreiber unterhalten eigene Playout Center, bei denen das Signal neu encodiert wird. Die Telekom leitet die HD-Kanäle anders als die normalen Sender direkt vom Sender durch. In Einzelfällen kann es also Unterschiede geben, doch da sich die Bandbreiten ähneln, sind Satellit, Kabel und Internet weitgehend gleichwertig.

Wird alles in HDTV ausgestrahlt?
Nein. Derzeit werden nicht alle Sendungen in echtem HDTV ausgestrahlt, meistens sind es US-Serien, Filme, Dokumentation, Sportübertragungen und Nachrichtensendungen. Ein nicht unerheblicher Teil des Programms wird nach wie vor in die HD-Auflösung hochskaliert. Der Anteil echter HD-Sendungen liegt bei den Hauptprogrammen (ARD HD, ZDF HD, RTL, Sat 1 und Pro7) derzeit bei ca. 40 Prozent.

Woran sehe ich, ob eine Sendung hochskaliert oder echtes HDTV ist?
Mit Ausnahme von Eurosport kennzeichnen die Programmanbieter leider nicht, ob ein Programm in echtem, sogenanntem nativem, HDTV ausgestrahlt wird oder nur hoch skaliert ist. Einige Programmzeitschriften kennzeichnen echte HDTV-Sendungen mit einem entsprechenden HD-Logo. Zu erkennen, ob ein Beitrag nur hochskaliert wurde, ist mit ein bißchen Übung dennoch möglich. Meist fehlt es diesen Sendungen an der typischen Detailschärfe, achten Sie daher auf feine Details, wird ein Beitrag über einen HD-Sender im 4:3 Format ausgestrahlt, ist sie garantiert nur hochskaliert.

Sieht eine hochskalierte Sendung auf einem HD-Sender besser aus als die gleiche Sendung auf dem SD-Sender?
In der Regel ja. Zum einen weil der Skalierungsprozess auf Studioebene besser ist, zum anderen weil auf dem SD-Kanal der veraltete MPEG2-Codec (Datenraten zwischen 3 und 5 MBit/s), auf dem HD-Kanal der moderne MPEG4-Codec (9 bis 11 MBit/s) zum Einsatz kommt. Weniger digitale Artefakte und ein ruhigeres Bild sind die Folge. Je größer der Fernseher, desto deutlicher der Unterschied. Viel hängt vom kompletten technischen Equipment ab: Wie gut skaliert der Receiver das SD-Programm auf 1080i und wie gut wandelt der Fernseher in dasVollbild-Format.

 

 

2. Bildqualität und Formatanpassungen bei HDTV-Übertragungen

Dieses Referenz Bildmaterial wird in unseren TV Testlabor zur professionellen Bildanalyse eingesetzt und zeigt gnadenlos eventuelle Bildschwächen auf.

Werden 2,35:1-Filme auf 16:9 umformatiert oder mit Balken gesendet?
Meist werden 2,35:1-Spielfilme im Originalkinoformat mit Balken gesendet, RTL und Vox formatieren 2,35:1-Filme hingegen auf 16:9 um. Zwar verschwinden so die Balken, allerdings verliert man an den Seiten rund 20 Prozent der Bildinformation.

Werden 4:3-Sendungen auf 16:9 umformatiert oder mit Balken gesendet?
4:3-Sendungen werden in der Regel nicht auf 16:9 umformatiert, was einen Bildverlust am oberen und unteren Rand zur Folge hätte, sondern mit seitlichen Balken gesendet.

Warum nutzen ARD und ZDF 720p?
Die Sender folgen einer Empfehlung der Europäischen Rundfunkunion (EBU), die in mehreren Versuchsreihen 2006 die Darstellung von 720P und 1080i verglichen hat. Dabei stellte sich heraus, dass bei gleicher Datenrate das 720p-Bild damals meistens besser bewertet wurde. Auch Arte, ORF und SRG senden in diesem Format.

Ist die 720p-Empfehlung veraltet, weil es immer mehr Full-HD TVs gibt?
Die EBU bezeichnet ihre Studie von 2006 als Momentaufnahme. Seither haben sich sowohl Verfahren für die Encodierung im Studio als auch TV-Geräte weiterentwickelt. Das Grundproblem bleibt: Was einmal in Halbbilder aufgeteilt war, lässt sich nicht sauber in Vollbilder (Progressive Scan) wandeln zumindest nicht, wenn die Halbbilder von einer Videokamera stammen und unterschiedliche Bewegungsphasen aufweisen. Die wahrscheinlichkeit, das die Öffentlich Rechtlichen auf 1080i umstellen ist daher gering, eher wahrscheinlich in einigen Jahren, ist eine Umsstellung auf 1080p.

Was ist besser, 1080i oder 720p?
Beide Verfahren haben Vor- und Nachteile. 720p ist dort besser, wo es um die Übertragung von schnellen Bewegungen geht, vor allem also um Sport. Interlaced-Systeme halbieren hier die Auflösung, während 720p die Schärfe auch dann nicht ändert, wenn sich etwas bewegt. 1080i hat stets Vorteile, wenn die Quelle Filmmaterial mit 24 oder 25 Bildern pro Sekunde ist. Hier lassen sich im Empfänger oder Bildschirm die Halbbilder korrekt zu Vollbildern zusammensetzen, so dass die Auflösung von 1920 x 1080 Pixel ohne Artefakte realisierbar ist. Dafür muss die Komponente, die das De-Interlacing durchführt, eine Filmmode Erkennung besitzen.

Warum überträgt man nicht Live-Sport in 720p und Spielfilme in 1080i?
Als die heutigen Anforderungen für HD-Empfänger und Fernsehgeräte definiert wurden, hatte man diese Möglichkeit ins Auge gefasst. Die Hardware kann beide Formate nahtlos verarbeiten, auch 50 und 60 Hertz wären machbar. Damit könnte man jedes Material so senden, wie es aufgenommen wurde, und sich quali­tätsmindernde Wandlung ersparen.

Wo liegt also das 720p Problem?
Dass es die Sender nicht umsetzen, liegt an ihrer Infrastruktur in den Playout-Centern und bei den Encodern. Der statistische Multiplex, also die Zuweisung der Bandbreite innerhalb eines Transponders oder Kanals, funktioniert bei vielen im Einsatz befindlichen Encodern nur, wenn alle Programme das gleiche Videoformat aufweisen. Nur neueste Encoder können verschiedene Normen mischen.

Warum sendet man nicht in 1080p?
Die Befürworter von 720p und die von 1080i sind sich einig, dass 1080p das Ziel sein sollte. Damit ist aber 1080p mit 50 Bildern pro Sekunde gemeint (in den USA und Japan mit 60 Hertz). Die Untersuchungen der EBU haben gezeigt, dass selbst mit heutiger Technik die Ausstrahlung von 1080p/50 machbar wäre, da sich die Datenraten gegenüber 1080i nur geringfügig erhöhen. Der Grund liegt in der günstigeren Codiereffizienz von Progressive-Formaten. Allerdings verarbeiten derzeit die wenigsten Empfänger 1080p.

Warum gibt es kein HDTV mit 24p?
24p im Sinne von voller HD-Auflösung mit 24 Bildern pro Sekunde passt nicht in die Broadcast-Landschaft, da man in Europa generell 50 Hertz benutzt. Filme werden daher auf 25 Bilder pro Sekunde beschleunigt, laufen also vier Prozent schneller als im Kino. Würde ein Programm sowohl in Standard als auch in High Definition ausgestrahlt, wäre die HD-Übertragung entsprechend langsamer.

Dann wäre doch 25p eine Alternative?
25p wäre in Europa problemlos möglich. Allerdings hat man das nicht als Standard in der HD-Norm definiert, so dass weiterhin nur in Halbbilder aufgeteilte Signale gesendet werden. Innerhalb des MPEG-Datenstroms lässt sich jedoch eine Information unterbringen, wie die Halbbilder kombiniert werden müssen. Die Praxis der DVD, auf der dieses Signal genutzt wird, hat allerdings gezeigt, dass hier häufig Fehler vorkommen. Der Vorteil von 25p wäre also in der Praxis wenig relevant.

Gibt es Unterschiede zwischen HD auf BIu-ray und im Fernsehen ?
Ja. Während Filme auf Blu-ray meist in 1080p vorliegen, werden sie bei HDTV entweder in 720p oder 1080i ausgestrahlt. Ferner ist nur auf Blu-ray eine kinogerechte 24p-Wiedergabe möglich.

Wo hat Blu-ray noch die Nase vorn?
HDTV-Fernsehen wird in Echtzeit direkt bei der Ausstrahlung encodiert. Dabei wird das Signal an die zur Verfügung stehende Bandbreite angepasst, wodurch die den einzelnen Programmen zugewiesene Datenrate schwankt. Im Vergleich dazu können auf Blu-ray problematische Szenen bis zur maximalen Datenrate von 4o MBit/s aufbereitet werden das ist etwa das Niveau, das sich auf dem Satelliten drei HD-Sender teilen müssen. Entsprechend treten bei Live-TV häufig digitale Kompressionsartefakte auf, das Bild von einer Blu-ray kann daher nicht erreicht werden und ist immer schärfer und klarer, als es eine HDTV-Übertragung jemals sein kann, und das bei so gut wie keinen Artefakten.

Gibt's bei HDTV auch HD-Ton?
Unkomprimierter PCM-Ton oder verlustfrei komprimierter DTS-HD- oder Dolby-TrueHD-Ton wie auf Blu-ray Disc sind in den TV-Normen nicht vorgesehen. Sie benötigen zu viel Bandbreite und die steht auf den heutigen Verbreitungswegen nicht zur Verfügung. Von den neuen Tonformaten ist einzig Dolby Digital Plus vorgesehen, allerdings nur in einer Low-Bitrate Version für hohe Kompression; daneben ist HE-AAC erlaubt. Nur spezielle Download-Dienste, die über Satellit oder Kabel auf die Festplatte streamen, könnten Normen wie Dolby True-HD oder DTS-HD Master Audio nutzen.

Kann ich mit einem HDTV-Receiver auch SD-Programme empfangen?
Ja, alle HDTV-Receiver können Sender in Standard-Auflösung empfangen, auf Wunsch hochskalieren und auch noch SD ausgeben.

Wie kann man HDTV aufzeichnen?
Im Digitalempfänger verbaute Festplatten zeichnen Signale in Originalqualität auf. Will man sie konservieren, muss man auf Übertragungsmöglichkeiten zum PC per LAN oder USB achten. Dort lässt sich daraus eine Blu-ray-Disc brennen.

Klappt die HDTV Aufzeichnung ohne Qualitätsverlust?
Authoring-Programme am PC wandeln die Daten vor dem Brennen, so dass die Originalqualität verloren geht. Alternative: Eine Daten-Blu-ray, doch diese wird nur von Sonys PS3 oder von einem PC, aber leider nicht von allen BD-Playern wiedergegeben.

Wie muss ich den Receiver verkabeln?
Reichte bei SD-Programmen eine SCART-Verbindung, müssen Sie für HD-Sender den Receiver per HDMI mit dem Flachbildschirm verbinden. Auch der Ton wird so digital übertragen.

Auf welche Videoausgabe muss ich meine Settop-Box einstellen?
Für die bestmögliche Bildqualität sollte man bei HD-Sendern immer die Ausgabe der gesendeten Auflösung einstellen. Wenn man ARD und ZDF schaut 720p, bei RTL & Co. hingegen 1080i. Neuere Receiver erledigen diese Umschaltung oft automatisch.

Und wenn die Automatik fehlt?
Besitzer eines Full-HD-Fernsehers, die nicht manuell umschalten wollen und deren Settop-Box über keine Auflösungsautomatik verfügt, sollten 1080i wählen. Bei "HD-ready"-Modellen mit 1366 x 768 oder 1280 x 720 Pixeln ist 720p die bessere Wahl.

Ich habe bereits analogen Sat-Empfang, was benötige ich für HDTV?
Um HDTV zu empfangen, muss Ihre Satelliten-Empfangsanlage digital tauglich sein. Eine Aufrüstung der Schüssel ist nicht notwendig. Anders sieht es beim LNB aus. Ältere Bausteine unterstützen nicht das High-Band oberhalb von 11,7 GHz, in dem die meisten Digitalsender vertreten sind. Ein Universal-LNB schafft Abhilfe. Zusätzlich benötigen Sie einen Satelliten-Receiver mit HD-Tuner.

Sind alle Digitalanlagen HD-tauglich?
Eine Aufrüstung von Satellitenspiegel, Multischalter und Verkabelung ist für HDTV nicht notwendig. Alle digitaltauglichen Komponenten kommen mit den höher aufgelösten Signalen problemlos zurecht. Jedoch benötigen Sie einen Receiver mit HD-Tuner.

Ich möchte nur öffentlich-rechtliche HD-Sender sehen, was brauche ich?
Der HDTV-Receiver muss lediglich den erweiterten Übertragungsstandard DVB-S2 ebenso wie die leistungsstärkere MPEG4-Videokomprimierung (H.264) unterstützen. Solche Geräte sind im Handel schon für unter 100 Euro zu haben.

Kann ich ausländisches HDTV sehen?
Die meisten ausländischen HDTV Kanäle sind Teil kostenpflichtiger Pay-TV Plattformen. Abos werden nur bei Wohnsitz im jeweiligen Land verkauft. Wer keine Freunde oder Verwandte vor Ort hat, kann einen der vielen Zwischenhändler bemühen, bewegt sich aber in einer Grauzone. Oft schlagen diese Anbieter eine nicht unbeträchtliche Provision auf. Dann kostet ein Jahres-Abo mit HD-Box schnell 700 Euro.
 
Kann ich den Satelliten-Tuner meines Flachbild-Fernsehers nutzen?
Wenn der Sat-Tuner HD-tauglich ist, ist er für den Empfang von unverschlüsselten HDTV-Kanälen nutzbar. Für die Pay-TV-Angebote von Sky muss der Fernseher zumindest über einen CI-Einschub verfügen, für "HD+" ist ein "CI-­Plus"-Einschub oder ein CI-Einschub mit Unterstützung für das Legacy-Modul notwendig.
 
Interessieren Sie sich für den Empfang von HD+? Dann haben wir unter diesem Link für Sie die wichtigsten Fragen und Antworten zusammengestellt.

 

Viele zufriedene Kunden bestätigen die Qualität der Burosch Testbilder mit den entsprechenden Informationen zu der TV und Beamer Bildoptimierung. Bitte bewerten Sie uns und folgen dazu diesem Link:  Bewerten

 

3. Häufige Fragen und Antworten zu HDTV

HDTV  - Viele Fragen und alle Antworten dazu !
Fachbegriffe und entsprechende Abkürzungen werden hier ausführlich erklärt.

Wo verläuft die Grenze zwischen Standard-Qualität und HDTV?

Alles was im Breitbildmodus mehr als 720 Zeilen darstellen kann, darf als HDTV-tauglich gelten. Allerdings ist Vorsicht geboten, denn sowohl bei Bildschirmen als auch bei Projektoren gibt es viele verschiedene Seitenverhältnisse und Auflösungen. Die Angabe "1024 x 768" legt zunächst einmal HDTV-tauglichkeit nahe. Das Seitenverhältnis 4:3 dieser Panels führt jedoch dazu, dass bei Breitbild-Wiedergabe nur 576 Zeilen aktiv sind, weil darüber und darunter ja schwarze Balken bleiben. Solche Geräte akzeptieren zwar häufig HDTV-Signale, echte HDTV-Qualität können sie aber nicht darstellen.

 

 


Um wieviel besser als der HDTV-Standard 720p ist 1080i ?

Bei bewegten Bildern gar nicht. Welcher der beiden Standards die besseren Ergebnisse bringt, darüber streiten die Fachleute. Die viel grössere Zeilenzahl lässt bei 1080i zunächst eine grössere Bildschärfe erwarten. Doch genau genommen sieht man bei der "Interlaced"-Darstellung von 1080i immer nur die 540 Zeilen eines Halbbildes und einen Moment später die zweite Bildhälfte mit derselben Zeilenzahl. Nur dank der Trägheit des menschlichen Sehapparates verschmelzen diese beiden Halbbilder subjektiv zu einem Vollbild. Ausserdem müssen die Halbbilder für die Darstellung auf Displays und Projektoren erst in 25 Vollbilder pro Sekunde umgewandelt werden, was nicht ganz unproblematisch ist. Die progressive Darstellung von 720p zeigt hingegen immer nur Vollbilder und zwar 50 pro Sekunde, was eine bessere Bewegungsauflösung, eine klarere Zeitlupe und schärfere Standbilder ergibt. Abgesehen davon lassen sich Vollbilder bedeutend effizienter komprimieren. Das alles bringt so viele Qualitätsvorteile mit sich, dass die meisten Menschen beide Formate zumindest als gleichwertig empfinden. Empirische Untersuchungen haben ausserdem gezeigt, dass bei gleichem Betrachtungsabstand eine progressive Bildwiedergabe im Vergleich zu einer Interlaced-Bildwiedergabe rund 35 Prozent (Faktor 1,6) weniger Zeilen benötigt um eine vergleichbare Vertikalauflösung zu erzielen. Fernsehsender können beide Formate ausstrahlen, Empfangsgeräte können beide Formate zeigen. Das Umschalten geschieht automatisch und unbemerkt sodass man sich um dieses Detail in der Praxis nicht zukümmern braucht. Eindeutig überlegene Ergebnisse bringt der Standard 1080p50, den es im Fernsehen aber erst in einigen Jahren geben wird. Bei HD DVDs und Blu-ray-Discs gibt es 1080p schon heute, allerdings nicht mit 50 Vollbildern pro Sekunden, sondern - wie im Kino - mit deren 24. Details zu diesem Thema lesen Sie hier.


Wie stelle ich meine Videoanlage optimal ein?

Ganz einfach: Mit hochwertigen BUROSCH-Testbidern



Darf ein Wohnungsvermieter das Anbringen einer Satellitenschüssel verbieten?

Nein, das darf er nicht. Aufgrund von Art. 10 der Europäischen Menschenrechtskonvention kann nicht verboten werden, Fernsehen via Satellitenschüssel zu empfangen. Allerdings dürfen die Schüsseln ohne Zustimmung des Vermieters nur auf dem Balkon installiert werden. Für die Montage vor dem Fenster oder auf dem Dach ist die Zustimmung des Vermieters nötig.


Warum ist die Fernsehsendung via Satellit um einige Sekunden gegenüber terrestrischer oder Kabel-Verbreitung verzögert?

Das hat hauptsächlich 2 Ursachen: Das Signal legt von der Erde bis zu den ca. 36'000km über dem Äquator schwebenden Satelliten und retour einen weiten Weg zurück. Der Hauptgrund liegt aber darin, dass das Bild und der Ton digitalisiert, datenreduziert (komprimiert), verschlüsselt und in der Empfangs-Box wieder entschlüsselt und de-komprimiert werden muss, damit es auf einem Bildschirm dargestellt werden kann. Besonders die Datenreduktion ist ein zeitaufwendiger Vorgang, speziell, wenn das Bild bei hoher Qualität möglichst stark komprimiert werden soll.


Kann ich HD DVDs und Blu-ray Discs auf meinem Computer abspielen?

Ja, denn um eine möglichst breite Einführung dieser neuen Medien zu ermöglichen, wird der rigide Kopierschutz AACS in Stufen eingeführt. HDCP-Verschlüsselung ist zunächst nicht Pflicht, sodass zunächst auch Besitzer von analogen Monitoren HD-Filme an ihrem PC abspielen können. Sie benötigen dafür lediglich ein HD-DVD- oder Blu-ray-Laufwerk. Die Hersteller empfehlen für die ruckelfreie Wiedergabe als CPU Intel Pentium 4 ab 3,2 GHz, Intel Core2DUO ab 1,83 GHz, Intel Pentium Mobile ab 2.0 GHz oder AMD ab X2 3800+. Dazu eine Grafikkarte mit mindestens 256 MByte Ram und folgendem Chip: ATI/AMD Radeon ab X1600, besser ab HD 2400, Nvidia: ab 7600GT. HDCP oder HDMI wird man wahrscheinlich erst ab 2010 benötigen. Der taiwanesische Softwarehersteller Cyberlink bietet eine Gratis-Software an, mit der man rasch überprüfen kann, ob alle Systemkomponenten eines Computers für die Wiedergabe von Blu-ray Discs und HD DVD geeignet sind. Die Software analysiert die Systemkomponenten Prozessor, System-Speicher, Betriebssystem, Grafikkarte, Treiber und Video-Speicher, Wiedergabe-Software und HDCP-Standards.
Zum Gratis-Download geht es hier.


Worauf muss ich beim Gerätekauf achten?

Ein Projektor, Plasmabildschirm, Fernseher oder Rückprojektor muss die beiden Standards 720p und 1080i wiedergeben können. Als Analogeingänge sind dafür in aller Regel YUV-Eingänge (Komponenten) nötig. Vorsicht, nicht immer verstehen die Komponenteneingänge wirklich auch HDTV-Signale. Das muss vor dem Kauf sichergestellt werden, denn es gibt Komponenteneingänge, die das Display automatisch auf Standard-Definition Wiedergabe umschalten. Optimal sind Digitaleingänge wie DVI oder HDMI. Aber auch hier ist eine Vorsichtsmassnahme angezeigt: Man muss unbedingt abklären, ob der DVI-Eingang auch wirklich das Kopierschutzverfahren HDCP versteht. Ist das nicht der Fall, kann dieses Gerät Digitalsignale nur von Computern akzeptieren, denn nur die DVI-Ausgänge von PC-Karten geben die Signale auch bei der Wiedergabe von DVDs ohne HDCP-Codierung aus. Wichtig: MPEG-4 Settopboxen geben HDTV-Qualität nur über HDCP-geschützte Ausgänge aus, bei HD DVD- und Blu-ray Abspielgeräten wird das ab 2010 der Fall sein. Ein daran angeschlossener Bildschirm oder Projektor muss also über einen HDCP-tauglichen DVI-Eingang oder über einen HDMI-Eingang verfügen, sonst bekommt er nur Standard-Qualität geliefert. Damit die HDTV-Qualität auch wirklich zu sehen ist, sollte das Display bei einem 16:9-Bild mindestens 720 Zeilen zählen. Dies ist gewährleistet bei den 16:9-DLP-Projektoren, bei den besseren LCD-Breitbild-Projektoren sowie bei LCD- und Plasma-Schirmen mit 768 Zeilen. Röhrenprojektoren können HDTV darstellen, wenn sie eine Eingangsfrequenz von 32 kHz beherrschen. Garantiert und uneingeschränkt HDTV-taugliche Geräte dürfen seit Februar 2005 das "HD-ready" Logo tragen. Dessen Verwendung ist aber nicht Pflicht, sodass es auch HDTV-taugliche Geräte ohne dieses Logo gibt.


Was ist beim Kauf eines Bildschirmes wichtig?

Nicht jeder LCD- oder Plasmabildschirm mit HDTV-Auflösung kann auch wirklich HDTV-Videobilder darstellen. Dafür muss er auch über die geeigneten Eingänge verfügen. Am besten sind die (gleichwertigen) Digitaleingänge HDMI oder DVI, wobei im Fall von DVI vor dem Kauf geklärt werden muss, ob das Kopierschutzsystem HDCP unterstützt wird. Bei HDMI ist dies immer der Fall. Für Analogsingale braucht man einen Komponenteneingang (YUV). Allerdings ist hier Vorsicht geboten, denn es gibt HDTV-taugliche Bildschirme, die jedoch über ihren Komponenteneingang nur Standard-Auflösung zeigen. Ausserdem ist zu bedenken, dass die Komponentenausgänge von Settop-Boxen an ihren Komponentenausgängen meist nur Standard-Auflösung ausgeben weil die Programmlieferanten die unrechtmässige Weiterverwendung hochwertiger HDTV-Komponentensignale fürchten. RGB-Eingänge auf SCART-Buchsen sind grundsätzlich nicht HDTV-tauglich. Manchmal klappt's aber trotzdem auch mit RGB, denn manche Bildschirme akzeptieren hochauflösende RGB-Signale aus Computern. Dazu haben sie 15-polige Sub-D Buchsen, die auch die vertikale und horizontale Synchronisation empfangen.


Um wieviel besser ist die Wiedergabe auf "Full-HD" Bildschirmen mit 1080 Zeilen?

Möglicherweise überhaupt nicht, denn die höhere Pixelzahl bringt nicht nur eine potenziell höhere Bildschärfe, sondern zugleich auch geringere Lichtleistung, höheren Stromverbrauch und schlechteren Kontrast. Die Pixelzahl sollte so gewählt werden, dass man von seinem bevorzugten Sitzplatz aus die einzelnen Bildpunkte nicht mehr wahrnehmen kann - auch bei der Wiedergabe von PAL-DVDs. Das hängt von der persönlichen Sehschärfe ab, vor allem aber von der Distanz zum Bildschirm. Full-HD lohnt sich erfahrungsgemäss bei sehr geringem Betrachtungsabstand bzw. bei sehr grossen Bildschirmen. Sobald der Abstand mehr als das Vierfache der Bildhöhe beträgt, ergeben meist Bildschirme mit 768 Zeilen den besseren Bildeindruck. Mehr dazu lesen Sie hier.


Was ist Overscan?

Der Overscan war ein Notwendigkeit im analogen TV-Zeitalter und bei Bildröhren. Der Elektronenstrahl bekam nämlich zum Start einen kräftigen Impuls, der ihn ordentlich ausschlagen liess und den Anfang der Zeile markierte. Um den zu verbergen, begann das Bild etwas außerhalb des sichtbaren Bereichs. Das hatte auch den Vorteil, dass leichte Unsauberkeiten kaschiert wurden, weil man die Kante des Bildes nicht sehen konnte. Overscan nennt sich daher der Bereich, der zum Bild gehört, aber auf dem Schirm nicht sichbar ist. Von Underscan spricht man dagegen bei PC-Monitoren, die innerhalb des sichtbaren Feldes mit dem Bildinhalt beginnen, also einen leichten schwarzen Rahmen um das Bild legen. Der Overscan sollte eigentlich in der Grössenordnung von fünf Prozent liegen, es gibt aber auch Bildschirme, die bis zu zwölf Prozent verstecken. Wobei Overscan im Zeitalter der Digitalübertragung und der Pixelraster-Displays völlig unsinnig ist - und sogar schädlich: Ein Full-HD-Schirm könnte ein HDTV-Signal mit 1.080 Zeilen exakt so darstellen, wie es gesendet wird. Overscan dagegen bedeutet, dass etliche Zeilen oben und unten abgeschnitten werden, sodass der restliche Bildinhalt aufgeblasen werden muss. Dann werden die Zeilen umgerechnet, was zu Verlusten in der Bildschärfe führt. Daher ist es für die optimale HDTV-Darstellung wichtig, dass ein Bildschirm die so genannte pixelnative Darstellung, auch 1:1 Pixelmapping genannt, beherrscht. Im neuen Logo "HD-ready 1080p" wird das sogar explizit verlangt.


Welches ist der ideale Betrachtungsabstand?

Das kommt, wie vorstehend beschrieben, auf die Bildauflösung an. Wenn man bei einem Programm mit Standard-Auflösung dem Bildschirm zu nahe kommt, treten die einzelnen Zeilen störend in Erscheinung. Aus diesem Grunde liegt der empfohlene Betrachtungsabstand dort beim 4- bis 6-fachen der Bildhöhe. Da bei HDTV die Bildauflösung bedeutend grösser ist, gilt hier etwa das 3-fache der Bildhöhe als optimal. Umgekehrt folgert daraus, dass bei gleichbleibendem Betrachtungsabstand ein HDTV-Fernsehgerät bedeutend grösser sein sollte als eines, das nur für Standardqualität eingerichtet ist.


Wodurch unterscheiden sich LCD- und Plasma-Bildschirme voneinander?

Die Angaben in der nachstehenden Tabelle zeigen nur prinzipbedingte Tendenzen auf. In der Praxis gibt es zwischen den verschiedenen Herstellern und Modellen derselben Technik sehr grosse Unterschiede. Simple Pauschalaussagen, das eine System sei generell besser als das andere, sind demnach unzulässig.

LCD - Plasma
Vergleich der Eigenschaften
Bildschirmgrösse LCDs können sehr klein gebaut werden, aber nicht beliebig gross. Die Plasmatechnik hingegen eignet sich nur für grosse Bildschirme
 Helligkeit Im direkten Vergleich wirken LCDs gelegentlich etwas heller, besonders in heller Umgebung, das hängt mit ihrer Hintergrundbeleuchtung zusammen. In dunkler Umgebung kommen häufig Plasmadisplays besser zur Geltung. Ein klarer Vorteil für die eine oder andere Technik lässt sich daraus aber nicht ableiten.
 Kontrast Da bei LCD-Bildschirmen die Hintergrundbeleuchtung immer eingeschaltet ist und die einzelnen LCD-Pixel sich nicht völlig schliessen lassen, ist die Darstellung von sattem Schwarz problematisch. Das ist bei Plasma-Bildschirmen kein Problem, sodass in der Regel ein grösserer Kontrastumfang erreicht wird.
 Auflösung HDTV-taugliche Auflösung zu erzielen, ist mit LCDs bedeutend einfacher als mit der Plasma-Technik. Das schlägt sich auch in der Zahl der erhältlichen Modelle nieder.
 Farbtreue Von Hersteller zu Hersteller sehr unterschiedlich und auch individuelle Geschmackssache. Viele Testpersonen empfinden LCD-Bildschirme etwas brillanter, Plasma-Displays wärmer.
 Reaktionszeit Plasma-Displays können schnelle Bewegungen etwa gleich gut darstellen wie konventionelle Bildröhren. LCDs tendieren hier eher zu Nachzieh-Effekten. Im Extremfall kann z. B. ein Tennisball einen kleinen "Kometenschweif" hinter sich her ziehen.
 Einbrennen Wenn man ein Standild während Stunden, Tagen oder Wochen stehen lässt, kann es bei Plasma-Bildschirmen zu Einbrenneffekten kommen, die bei LCDs nur selten auftreten. Hier können höchstens Ladungsreste zu einem befristeten Nachleuchten führen. Beide Effekte sind allerdings in letzter Zeit bei den führenden Marken stark reduziert worden.
 Lebensdauer Bei beiden Techniken darf man heute getrost von einer Lebenserwartung von 40.000 bis 60.000 Stunden ausgehen, wobei auch dann noch 50 Prozent der Lichtleistung zur Verfügung stehen.
 Empfindlichkeit Plasma-Displays sollten auf keinen Fall waagrecht liegend transportiert werden und die meisten Hersteller garantieren ihr Funktionieren nur bis etwa 1500 Meter Seehöhe, in der Praxis funktionieren sie allerdings meiost bis über 2.500 Meter klaglos. Für LCDs gelten diese Einschränkungen nicht.
 Gewicht Bei gleicher Grösse sind Plasma-Displays schwerer als LCD-Bildschirme. Daher sollte man die Wandmontage nach Möglichkeit Fachleuten überlassen.
 Stromaufnahme Der durchschnittliche Stromverbrauch liegt bei Plasma-Displays häufig etwas höher, allerdings hängt er von der momentanen Bildhelligkeit ab. LCDs verbrauchen meist weniger Strom, allerdings auf gleichbleibendem Niveau.
 Geräusch Manche Plasma-Bildschirme haben Lüfter eingebaut, sie sind daher nicht völlig geräuschlos. LCD-Displays kommen ohne Ventilatoren aus.

 

Welchen Vorteil bieten 100 Hz Fernseher?

Die Verdopplung der Bildwechselfrequenz von 50 auf 100 Hertz wurde bei TV-Geräten Anfang der 80-er Jahre eingeführt, um Flimmern zu unterdrücken. Das ist bei 50 Hertz vor allem bei grossen hellen Flächen zu sehen, weil das Auge speziell in den Randbereichen der Netzhaut besonders empfindlich für Flimmern ist; je kleiner der Bildschirm also (im Verhältnis zum Betrachtungsabstand), um so unwichtiger ist 100 Hertz. Nicht unterdrückt wird aber Zeilenflackern, ebensowenig andere Störungen, die durch das Halbbildverfahren ("Interlaced") entstehen. Deswegen scheinen auch 100-Hertz-Röhren oft noch zu flimmern. Bei LCD-Schirmen dient 100 Hertz einem anderen Zweck: Man verringert damit die Zeit, in der ein bewegten Objekt an einer bestimmten Stelle des Schirms steht. Wenn sich das Auge darüber bewegt, wirkt dieses Stehen wie Unschärfe. Dieses Verschmieren ist LCD-typisch und wird auch nicht durch kurze Reaktionszeiten beseitigt. Mit 100-Hertz-Technik lässt sich das Verschmieren halbieren, unter einer Voraussetzung: Anders als bei Röhren darf nicht einfach nur eine Verdoppelung der Bilder passieren, es müssen Zwischenbilder errechnet werden, die das bewegte Objekt an einer neuen Position abbilden. Die gelegentlich angegebenen 120 Hertz sind nichts anderes als 100 Hertz, nur eine Verdoppelung der 60-Hertz-Frequenz von NTSC. Plasmaschirme arbeiten übrigens seit vielen Jahren schon mit 100 Hertz, allerdings bisher meistens ohne Errechnung von Zwischenbildern. Da hier, wie bei Röhren, eine Dunkelphase und das Aufleuchten einer Kontur aufeinander folgen, gibt es hier abr auch den Verschmier-Effekt nicht.


Wie verhält sich ein 100 Hz Bildschirm bei Signalen von einem 24p Player?

Das hängt vom Hersteller ab. Möglich sind 72 Bilder pro Sekunde (bei Pioneer), 96 (bei Philips) oder 120 (bei Sony). Wichtig ist nur, dass es ein Vielfaches von 24 ist. Die Plasmabildschirme von Panasonic zeigen zum Beispiel 48 Vollbilder wie im Kino.


Gibt es Unterschiede in der Bildqualität von PAL-Signalen, wenn diese auf Bildschirmen mit 1920x1080 bzw. 1366x768 Bildpunkten gargestellt werden?

Häufig wird vermutet, die Darstellung auf einem "Full-HD" Bildschirm könne schlechter sein weil dort mehr Zeilen hinzugefügt werden. Doch so pauschal lässt sich das nicht beantworten, es hängt vor allem von der Signalverarbeitung im jeweiligen Gerät ab. Die besseren Voraussetzungen für ein gutes Bild von einer PAL-Quelle bietet nzunächst Full-HD, aus einem einfachen Grund: Die 576 Zeilen von PAL lassen sich durch Abzug des Overscans zu 540 Zeilen machen, ohne dass etwas Wichtiges fehlen würde. Dann verdoppelt man einfach die Zeilenzahl, am besten natürlich durch Interpolation, und kommt damit auf genau die 1080 Zeilen eines Full-HD-Schirms. Damit muss dann immer nur eine Zwischenzeile errechnet werden, was wesentlich weniger fehlerträchtig ist als andere Umwandlungen. Macht man dagegen aus 576 Zeilen 768, dann ergeben immer drei Zeilen des Ausgangsbildes vier Zeilen in der Darstellung. Ausserdem: Man sollte die Pixelzahl eines Bildschirms nicht nach der Quelle auswählen, sondern danach, ob man bei normaler Entfernung noch einzelne Pixel erkennen kann - was nicht der Fall sein sollte. Das wird beeinflusst durch den Abstand des Sitzplatzes zum Fernseher (oder Leinwand) und durch die individuelle Sehschärfe. Als grobe Formel für den richtigen Abstand von HD-Schirmen gilt die dreifache Bildhöhe (etwas weniger als das Zweifache der Diagonale). Wählt man das Pixelraster zu grob, sieht man praktisch eine Gitterstruktur im Bild, wählt man es zu klein, verschenkt man andere wichtige Vorteile, etwa Helligkeit und Kontrast.


Wie kann man dem Einbrennen von Standbildern bei Plasmabildschirmen begegnen?

Einbrennen, also Geisterbilder vorausgegangener Darstellungen, kommt bei Plasmaschirmen vor allem am Anfang der Lebendauer vor, in den ersten 500 oder 800 Betriebsstunden. Moderne Geräte haben damit recht wenig Probleme, es kann aber vorkommen. Dagegen hilft:
- In den ersten Betriebsstunden Material mit festen Einblendungen nur eine gewissen Zeit ansehen (vor allem Videotext, Games, aber auch Letterbox-Filme); danach Umschalten oder Ausschalten.
- Am Anfang die Helligkeit herunterregeln; der Schirm ist zu Beginn besonders empfindlich, aber auch besonders hell. Daher verträgt er eine Reduzierung und spart gleichzeitig Helligkeit für später.
Ist es dennoch passiert, hilft der Betrieb mit einem Weissbild (etwa von einer Test-DVD) für eine gewisse Zeit, etwa über Nacht. Das wird auch in den Service-Abteilungen der Hersteller so praktiziert.


Gibt es das Einbrennen auch bei LCD-Bildschirmen und was kann man dagegen tun?

Ja, das kommt tatsächlich vor, wenn auch selten. Und es ist nicht nur bei Bildschirmen bekannt, sondern auch bei Projektoren. Ausser häufigem Wechsel der Bilder lässt sich dagegen allerdings nichts unternehmen. Es empfiehlt sich also, Standbilder nicht tage- oder wochenlang unverändert stehen zu lassen.

 

 

4. Bildschirmauflösungen und ihre Auswirkungen auf die HDTV-Qualität

In der Computertechnik werden die Bildschirm-Auflösungen meist in Buchstabenkürzeln angegeben. Welchen Videoauflösungen entsprechen diese?

Wie die Tabelle zeigt, entsprechen die meisten Kürzel dem Seitenverhältnis von 4:3 (1,33:1). Da HDTV aber ausschliesslich das Bildformat 16:9 (1,77:1) verwendet, werden hier über einen 4:3 Bildschirm oder ein 4:3 Projektorpanel 25 Prozent der horizontalen Zeilen gar nicht benützt, denn sie stellen nur schwarze Balken dar. Die wirklich nutzbare Auflösung reduziert sich dadurch um diesen Prozentbetrag. Die XGA-Angabe von 1.024 x 768 mit ihrem Seitenverhältnis von 4:3 ergibt im Breitbildbetrieb also eine nutzbare Auflösung von nur noch 1.024 x 576, was die Qualität von HDTV nicht voll zur Geltung bringt.

 


Bildschirm-Auflösungen

Bezeichnung Pixel Seitenverhältnis
VGA 640 x 480 1,33:1 = 4:3
SVGA 800 x 600 1,33:1 = 4:3
WVGA 853 x 480 1,77:1 = 16:9
XGA 1.024 x 768 1,33:1 = 4:3
SXGA 1.280 x 1.024 1,25:1
WXGA 1.280 x 768 1,66:1 = 15:9
WXGA 1280 x 800 16:10
WXGA 1.366 x 768 1,77:1 = 16:9
SXGA+ 1.400 x 1.050 1,33:1 = 4:3

UXGA

1.600 x 1.200 1,33:1 = 4:3
WSXGA+ 1680 x 1050 16:10
UXGA+ 1.920 x 1.200 1,6:1
QXGA 2.048 x 1.536 1,33:1 = 4:3
QUXGA 3.200 x 2.400 1,33:1 = 4:3
QUXGA+ 3.840 x 2.400 1,6:1


Wenn mein Disc-Player über einen HDMI-Ausgang verfügt, kann ich ihn an den DVI-Eingang eines Computermonitors anschliessen ?

Im Prinzip ja. Nur arbeiten Computermonitore mit anderen Bildschirmauflösungen und Bildwiederholraten, sodass nicht sichergestellt ist, dass Sie ein einwandfreies Bild zu sehen bekommen. Ausserdem aktivieren die allermeisten Discs den Kopierschutz HDCP. Dieser wird aber von den DVI-Eingängen von Computermonitoren in der Regel nicht unterstützt, sodass der Bildschirm völlig schwarz bleibt.


Nützt mir HDTV auf meinem Projektor, auch wenn dieser nur Standardauflösung zeigt?

Wenn er das Signal akzeptiert: ja. Denn bei einem Projektor geht man normalerweise in Bildgrössen, bei denen man praktisch jeden Pixel einzeln erkennen kann. Dann fällt auf, dass bei normalen Signalen die Farbe nicht mit der Schärfe des Schwarzweiss-Bildes übereinstimmt - die Farbdeckung ist auch bei RGB- oder YUV-Signalen nicht perfekt. Bei HDTV ist auch das Farbsignal schärfer als die Darstellung auf dem meisten Projektoren, so dass ein ganz anderer, wesentlich präziserer Bildeindruck entsteht. Das gilt selbst dann, wenn der Projektor bei 16:9 nur mit 480 Zeilen arbeitet

Wodurch unterscheiden sich die Konstruktionsprinzipien der diversen Videoprojektoren voneinander?

 

Bei LCD-Panels ("Liquid Crystal Display") ist jedem Bildpunkt ein durchleuchtbares Flüssigkristallelement zugeordnet. Mit dem Åffnen und Schliessen des Elementes dringt das Projektionslicht auf die Leinwand oder wird zurückgehalten. Weil ein perfektes Schliessen nicht möglich ist, kann mit diesem System in der Projektion kein sattes Schwarz erzielt werden, der Kontrast leidet. Das wirkt sich in der Praxis aber nur selten störend aus, da dieser Effekt nur in perfekt verdunkelten Räumen zu erkennen ist. Ausserdem gibt es neuerdings Projektoren, die mit einer dynamisch arbeitenden Irisblende den Helligkeitskontrast verstärken. Die Elektronik auf dem LCD-Display braucht Platz, sodass zwischen den einzelnen Bildpunkten relativ grosse Abstände entstehen, was sich unter Umständen auf der Leinwand in erkennbarer Pixelstruktur niederschlagen kann. Verkleinert man die Pixel um höhere Auflösung zu erzielen, geht wegen der grösseren Anzahl der Trennstege die Bildhelligkeit zurück. Um ein aus Bildpunkten zusammengesetztes Farbbild zu erhalten, braucht es die drei Grundfarben Rot, Grün und Blau (RGB). Man kann das erreichen, indem man die einzelnen Pixel mit entsprechenden Farbfiltern versieht, wodurch sich allerdings due Auflösung reduziert. Daher setzt man für HDTV in aller Regel die 3LCD-Technik ein. (Bild) Diese zerlegt zunächst das Licht in drei farbige Lichtbündel, die jeweils ein eigenes LCD-Panel durchleuchten. Diese Panels steuern für jede Farbart die richtige Menge Licht, um das Bild zu erzeugen. Diese drei RGB-Bilder werden anschließend in einem Prisma wieder exakt zusammengesetzt und dann gemeinsam projiziert.

 

 

 

DLP ("Digital Light Processing") ist eine Entwicklung von Texas Instruments. Hier trifft das Licht der Projektionslampe auf sehr kleine Mikrospiegel. Jeder entspricht einem Bildpunkt und er lässt sich mehrere Tausend Mal pro Sekunde bewegen. So wirft er das auftreffende Licht je nach Bedarf auf die Leinwand oder in eine schwarze "Lichtfalle". Das ergibt eine sehr gute Lichtausbeute und es lassen sich hohe Kontrastwerte erzielen, wenngleich die Feinabstufung im dunkelsten Bereich keine Idealwerte erreicht. Die DLP-Technik nutzt die Trägheit des Auges: Zwischen Lichtquelle und DLP-Chip befindet sich ein sehr schnell drehendes Farbrad, dessen Farbsegmente das Licht in kurzen Abständen färben; die Farbsequenz wird anschliessend an den kleinen Pixelspiegeln reflektiert. Genau genommen projiziert ein DLP-Projektor also drei einfarbige Bilder hintereinander, die nur durch ihre sehr hohe Frequenz als ein einziges Farbbild wahrgenommen werden. Bei kontraststarken Bildern können jedoch durch diese Methode an den Rändern farbige Streifen entstehen (Regenbogeneffekt). Auch bei sehr schnell bewegten Bildsequenzen können irritierende Schattenbilder auf der Leinwand erscheinen. Weil Mechanik und Elektronik zum Bewegen der Mikrospiegel unterhalb der Spiegel angeordnet sind, können die Abstände zwischen den einzelnen Spiegeln sehr gering gehalten werden sodass kaum eine Pixelstruktur auf der Leinwand zu erkennen ist. Ausserdem werden hohe Auflösungswerte erzielt und das System erleidet auch nach Jahren keine schleichende Qualitätsminderung.

 

 

D-ILA ("Direct Drive Image Light Amplifier") wurde von JVC entwickelt und gilt in praktisch allen Qualitätsparametern als das Optimum des derzeit Möglichen. Das System basiert auf LCOS ("Liquid Crystal on Silicon"), es erreicht enorm hohe Auflösungen bei gleichzeitig grosser Bildhelligkeit, bestem Schwarzwert und feinster Grauabstufung. Weil es fast keine Abstände zwischen den einzelnen Pixeln gibt, ist auf der Leinwand auch bei grossen Bildformaten keine Pixelstruktur zu erkennen und die nichtorganischen Flüssigkristalle unterliegen praktisch keiner Alterung. D-ILA Projektoren werden unter anderem in Kinos zur Projektion von HDTV-Filmen verwendet. Eine genaue Beschreibung des Systems finden Sie hier. Nach demselben Prinzip funktioniert auch das SXRD von Sony.

Wie beurteilt man die Fähigkeiten eines Wiedergabegerätes, Feinabstufungen in der Helligkeit wiederzugeben?

Am besten mit einem Graukeil, den man auf Test-DVDs findet. Im Idealfall kann man jeden Streifen einzeln erkennen.

 

 

Bei der Wiedergabe über weniger hochwertige Geräte verschmelzen mehrere Streifen miteinander zu einem undifferenzierten Ganzen.

 

 

Was ist ein Farbraum?

Das menschliche Auge nimmt Farbtöne wahr, die kein Bildschirm darstellen kann, etwa Nordlichter oder die Reflexionen auf einer CD. Bildschirmen werden enge Grenzen gesetzt durch die Leuchtmaterialien (zum Beispiel das Phosphor bei Bildröhren) oder die Farbfilter. Daher muss man definieren, wie gesättigt ein Farbton jeweils ist, damit die Grundfarben Rot, Grün und Blau einheitlich wiedergegeben werden. 100 Prozent, also voller Pegel zum Beispiel im Grün-Kanal, entsprechen in Wirklichkeit nur einem bestimmten Punkt innerhalb des sichtbaren Spektrums, nicht farbreinem Licht mit einer Frequenz von 530 nm oder einem benachbarten Wert. In der Kombination mit den anderen beiden Farbkanälen lässt sich so jeder Wert innerhalb des definierten Dreiecks exakt wiedergeben; diese Werte genau zu treffen, in Farbton wie Helligkeit, dazu dient die so genannte Kalibrierung. Das gilt übrigens für Kameras genau wie für Bildschirme. Werden die Parameter nicht exakt eingehalten, entstehen falsche Farben, um ehesten sichtbar im Grün; dort liegt das aktuell benutzte Sprektrum nahe an der Grenze der in der Natur vorkommenden Farben. Eine Verschiebung des Grünpunkte führt daher schnell zu synthetisch aussehendem Rasen, etwa bei Fussball-Übertragungen. Gebräuchlicher Farbraum ist ITU-R 601, auch als EBU-Farbraum bekannt und für PAL gültig; er wird mit kleinen Änderungen auch bei HDTV verwendet. Für NTSC gab es anfangs ein wesentlich erweitertes Modell, das aber nicht angewandt wurde; heute taucht es gelegentlich in Angaben über den möglichen Farbumfang von Fernsehern auf ("110 Prozent NTSC"). Neu ist der sogenannte xvYCC-Farbraum (da und dort auch xvColor genannt), der die Grenzpunkte nach aussen verschiebt. Er wird von Camcordern im AVCHD-Standard genutzt, erste Bildschirme können ihn auch darstellen.