Grundlagen des Digitalfernsehens

In knapp einhundert Jahren Fernsehtechnik hat sich viel verändert. Gerade seit Beginn des 21. Jahrhunderts folgt das Fernsehen dem Trend der Zeit: die Wiedergabegeräte werden größer, die Technik dagegen immer kompakter, kleiner und leistungsstärker. Im Gegensatz zur Braun’schen Kathodenstrahlröhre, Scart-Buchsen und VHS-Videorekordern sind im Zuge der Digitalisierung das Fernsehen sowie die entsprechende Signalübertragung eleganter, einfacher, kompatibler, vielfältiger, preiswerter, störfester … kurzum: in bedeutender Weise besser und qualitativ um ein Vielfaches hochwertiger geworden.

Wobei festgestellt werden muss, dass die Digitalisierung nicht bei den Fernsehgeräten begann. Vielmehr entstand die neue Technologie in zuerst kleinen, dann in immer größer werdenden „digitalen Inseln“ der Bildbearbeitung und Videosignal-Speicherung mithilfe digitaler Magnetbandaufzeichnungs-verfahren (MAZ). In diesem Fall war nicht die Wissenschaft, sondern die digitalen Studios die Wiege des heutigen Digitalfernsehens.

So erfolgt die Herstellung und Verarbeitung von Bild- und Tonsignalen heutzutage ausschließlich digital. Während alle aktuellen Fernseher die sogenannten DVB-Signale direkt verarbeiten können, sind für ältere Modelle Zusatzgeräte (Digital-Receiver etc.) erforderlich. Auf die Hintergründe und diversen Varianten soll im Weiteren eingegangen werden.

Auch die Übertragung von Bild- und Tonsignalen erfolgt heute zunehmend im digitalen Datenstrom. Die vollständige Digitalisierung ist in Deutschland für das Jahr 2018 vorgesehen. Um aber zu verstehen, wie digitales Fernsehen funktioniert, wird in diesem Kapitel auf die Analogtechnik eingegangen, die letztlich die Basis darstellt für das Fernsehen, wie wir es heute kennen. Die herausragende Bedeutung des Digitalfernsehens ist insofern nur erfassbar, wenn man sie mit seinem analogen Vorgänger vergleicht. In diesem Kontext kann man den Unterschied in einem einzigen Satz auf den Punkt bringen:

 

Analog = unendlich viele Werte

Digital = zählbare Quantitäten auf endliche Zahlenwerte reduziert

= ein/aus = 1/0.

 

Im technischen Sinne definiert man die Analogtechnik als direkte Informationsübertragung durch Signalpegeländerungen beziehungsweise Signalpegelvarianz; Digitaltechnik hingegen als indirekte Informationsübertragung durch Interpretation von Signalpegelwechseln. In der Praxis der Signalübertragung hat die digitale Variante den Vorteil, dass anstelle von unendlich vielen Analogwerten lediglich mithilfe einer begrenzten Menge ganzer Zahlen gearbeitet wird. Somit sind die wenigen Digitalwerte einfacher und vor allem eindeutiger rekonstruierbar, was insbesondere im Rahmen der Fehlerkorrektur eine klare Überlegenheit gegenüber dem analogen System bietet.

Kurzum: Es handelt sich bei der Digitaltechnik nicht mehr ausschließlich um Physik, sondern vielmehr um Mathematik, Informatik und im weitesten Sinne um Nanotechnologie. Die mechanische und elektronische Ausrüstung (Hardware) eines Fernsehers muss nicht mehr auf kompliziertem Wege den veränderten Bedingungen angepasst werden. Im Zeitalter von Prozessoren, Bits und Bytes sind neue Technologien direkt am Computer entwickelbar und entsprechend (bestenfalls) kompatibel. Digitale Schaltkreise arbeiten wesentlich stabiler als ihre analogen Vorfahren und erfordern daher sehr viel weniger Abgleich. Sie sind störfester und können mit weitaus geringerem Aufwand abgeschirmt werden. Das digitale Videosignal erlaubt ein hohes Maß an Kopiergenerationen, ohne die Schwelle des tolerierbaren Rauschens zu überschreiten. Moderne MAZ-Geräte machen die digitale Magnetbandaufzeichnung von HDTV-Signalen möglich.

Einen weiteren Vorteil bietet die Digitaltechnik im Hinblick auf Interferenzen und Rauschstörungen, die im Gegensatz zum Analog-Empfang hier nicht mehr wahrnehmbar sind. Allerdings gibt es auch Nachteile: So ist beispielsweise die Bildqualität direkt abhängig von der Kompressionsrate und dem auf der Senderseite verwendeten Encoder. Zu Beginn der Übertragung von DVB-T war zu beobachten, dass die Programmanbieter die Digitaltechnik primär dazu nutzten, möglichst viele Programme auf einem Kanal unterzubringen, was zur Folge hatte, dass dabei teilweise mit sehr niedrigen Bitraten gearbeitet wurde. Das Ergebnis waren unscharfe und von Kompressionsartefakten gekennzeichnete Bilder, die qualitativ noch unter dem Niveau des herkömmlichen Analog-TV lagen. Allerdings hat sich dieses Missverhältnis im Laufe der Zeit zugunsten der Bildqualität im DVB-T-Bereich deutlich geändert, obwohl es gerade innerhalb dieses Übertragungssektors nach wie vor so manche Tücken gibt.

Die folgende Tabelle gibt einen kleinen Überblick über die Unterschiede zwischen Analog- und Digitalfernsehen anhand einzelner Aspekte.

 

Aspekt

Analog

Digital

Kompression der Bildinformationen

keine

MPEG-2 oder MPEG-4

Bildgebungsverfahren (interlace/progressive)

nur Halbbilder (Zeilensprungverfahren)

Halb- und Vollbilder

Farbwiedergabe

(Bandbreite)

niedrigere horizontale Bandbreite (bei SECAM auch vertikal)

niedrige horizontale und vertikale Bandbreite

Bildparameter

(Zeilen-/Spaltenzahl, Frequenz)

hardwareseitig festgelegt

abhängig von Empfänger-leistung/Datenkompression dynamisch

Farbsignal

Quadraturamplituden-modulation (QAM) bei PAL

Multiplex-Modulation mit einzelnen Träger-frequenzen bei DVB-T

Ton

frequenzmoduliert

im digitalen Datenstrom

Videotext

in Abtastlücken

im digitalen Datenstrom

Rauschanteil

Signal-Rausch-Verhältnis

von der Stärke des Empfangssignals abhängig

Rauschen führt wegen Fehlerkorrektur zu wenigen aber dafür starken Aussetzern

Bandbreite und Signal-Rausch-Verhältnis (S/N)

fest

eintauschbar

S/N meist schwächer

zur Verringerung der Sendeleistung

mehr effektive Bandbreite durch geeignete Filter im Empfänger

Abbildung 125: Überblick über die Unterschiede zwischen Analog- und Digitalfernsehen

 

Bildveränderungen, Fehlerkorrekturen und die Anpassung auf Übertragungs-kanäle sind auf optimalem Niveau schnell, präzise und auf vielfältige Weise realisierbar. Der Markt der digital arbeitenden Systeme wächst stetig und lässt eine umfassende Verknüpfung des Videobereiches mit anderen Bereichen der Telekommunikation und Informatik zu. Beispiele dafür sind: Triple-Play beziehungsweise die parallele Verbreitung von Rundfunk, Telefon und Internet auf nur einem Übertragungsweg; SAT-IP, die moderne Satellitentechnologie, mit der Videostreaming via Internet realisiert werden kann, oder Video on Demand (VOD), die moderne Internetvideothek. Online-Streaming, Apple-TV, Amazon-Prime, Netflix und Co. sind die Zukunft eines globalen, interaktiven Fernsehens. Denn es geht längst nicht mehr nur um einzelne Fernsehsender und deren Angebote. Zahlreiche Zusatzdienste können heute einfach kombiniert werden. Mit dem elektronischen Programmführer (Electronic Program Guide: EPG) ist man per Knopfdruck über das aktuelle TV-Programm informiert. Man kann seine Lieblingssendungen sehen, wann immer die Zeit es erlaubt und wo immer man sich gerade befindet.

In computerbasierten Netzen lassen sich digitale Signale (englisch: Streams) verbreiten, auf Bildschirmen wiedergeben und entsprechenden Datenträgern aufzeichnen. Um Datenraten zu sparen, arbeiten die Übertragungsnormen im Allgemeinen mit Datenreduktion. Dabei werden die Datenmengen der digitalen Ursprungssignale vor der Verbreitung reduziert. Für die Datenübertragung und Datenspeicherung von Audio- und Videosignalen hat sich hier vor allem das Datenreduktionssystem MPEG durchgesetzt. Auf einen einzigen USB-Stick passen heute alle Musikhits der 1990er Jahre im MP3-Format, der E-Mail-Verkehr mit dem Steuerberater, die Urlaubsfotos vom letzten Sommer und der Lieblings-Blockbuster als MP4 oder AVI.

Was mit der Erfindung des Glühfadens und einem einfachen Prisma begann, entwickelte sich zu einer multimedialen Welt, in der man jederzeit Zugriff hat auf vielfältige Informationen, aktuelle News und jede Menge Entertainment. Die Verknüpfung der einzelnen Technologien aus dem Video-, Telekommunikations- und Informatikbereich zu einem einzigen multimedialen Massenmarkt lassen das Fernsehen und seine Verbreitung über Satellit, Kabel, Antenne oder Internet darüber hinaus immer preisgünstiger werden. Das digitale Fernsehprogramm benötigt nur noch bis zu einem Zehntel der Datenrate eines analogen Kanals. Auf freien Frequenzen können somit mehr Sender angeboten und durch Hörfunksender ergänzt werden. Als eine der schlichtesten Übertragungsvarianten ist vor allem das terrestrische Digitalfernsehen (DVB-T) der Pionier in der Übertragung des digitalen Videosignals. In der Bundeshauptstadt Berlin kann DVB-T bereits seit 2003 empfangen werden. Aufgrund der Kanalknappheit und der rasanten Geschwindigkeit der Nachfrage besonders im Heimanwenderbereich ist das analoge Fernsehen schon heute die Geschichte von gestern.

 

Geschichte der TV-Digitalisierung

Das Digitalfernsehen (DTV) basiert auf dem internationalen Standard Digital Video Broadcasting (DVB). Es wurde das erste Mal im Jahre 1994 unter dem Markennamen DirecTV in den USA angeboten und via Satellit übertragen. Bereits seit 1989 waren diverse US-Forschungseinrichtungen damit befasst, ein entsprechendes System für den terrestrischen Bereich zu entwickelt.

Durchgesetzt hat sich letztlich dort das sogenannte ATV (Advanced Television), das eine kompatible Übertragung eines HDTV-Signals innerhalb des NTSC-Kanalrasters (6 MHz) ermöglicht. Deshalb bezieht sich ATV und das damit verbundene ACTV-System mit seiner Side-Panel-Technologie gleichermaßen auf die digitale Übertragungstechnik und auf das hochauflösende HDTV. Japan nutzt ein ähnliches Verfahren, das als ISDB bezeichnet wird. China hingegen verwendet für die terrestrische Verbreitung digitaler Fernsehsignale das DTMB-Verfahren (Digital Terrestrial Multimedia Broadcast), das in etwa mit den europäischen digitalen Fernsehübertragungsstandard DVB-T (oder auch DVB-H) vergleichbar ist.

 

Abbildung 126: Übersicht Digital-TV 

 

Neben den weiter unten beschriebenen DVB-Standards gibt es in Europa außerdem das sogenannte DOCSIS beziehungsweise EuroDOCSIS, das vom bereits 1988 gegründeten Non-Profit Konsortium internationaler Kabelnetzbetreiber Cable Television Laboratories Inc. (CableLabs) entwickelt wurde. Dieses Systems wurde ebenfalls von der ITU standardisiert.

Die obige Abbildung zeigt die Verbreitung der einzelnen erdgebundenen (terrestrischen) Übertragungsverfahren weltweit. In Europa einigten sich Anfang der 1990er Jahre zwölf europäische Staaten darauf, in naher Zukunft die digitale Fernsehübertragung über Satellit und Kabel zu spezifizieren und bis 1995 einzuführen. Am 28. Juli 1996 erfolgte erstmals in Deutschland die DVB-Ausstrahlung vom eigens für dieses Format gegründeten Pay-TV-Sender „Digitales Fernsehen 1“ (DF1). Allerdings war seinerzeit die Nachfrage sehr gering. Die Kirch-Gruppe startete eine groß angelegte Werbestrategie und nutzte insbesondere das Interesse für exklusiv übertragene Sportereignisse, um den Bezahlsender Premiere im Unterhaltungsbereich zu etablieren. Mit Erfolg! Die Kirch-Gruppe setzte die Möglichkeiten der digitalen Sendetechnik effektiv um, avancierte so zu einem der größten deutschen Medienkonzerne und war unter der Führung von Leo Kirch bis zur Insolvenz im Jahre 2002 sehr erfolgreich.

Zur Kirch-Gruppe gehörten neben dem Pay-TV-Sender Premiere (später Sky) auch die bekannten Privatsender Pro Sieben und Sat1 sowie zu Anteilen die Axel Springer AG (40 Prozent) und die Filmverleih- und Produktionsfirma Constantin Film (21 Prozent). Nach der Zerschlagung des Konzerns gelang auch den einzelnen Unternehmen der ehemaligen Kirch-Gruppe der Relaunch. Die meisten von ihnen (Sky, ProSieben etc.) sind bis heute erfolgreich am Markt.

 

Abbildung 127: Logo der Kirch-Gruppe 

 

Die schnelle Einführung der Digitaltechnik war letztlich für alle Privatsender aber auch öffentlich-rechtlichen Rundfunkanstalten eine reine Kostenfrage. Denn im Vergleich zum analogen Signal war die digitale Übertragung weitaus preisgünstiger. Schon bald übertrugen diverse deutsche Fernsehsender parallel zu ihrem analogen Programmangebot auch die digitale Variante – vorwiegend über die Astra-Satelliten des Betreibers SES. Neben zahlreichen Pay-TV-Sendern entstanden auch neue Spartenprogramme und kleinere TV-Anbieter, die ihr Programm schon damals via DSL oder Glasfaser über das Internet ausstrahlten.

Allerdings war seinerzeit für diese Form der Übertragung noch eine sogenannte Uplink-Station notwendig, die Fernsehsignale erst an einen Satelliten senden musste, damit diese anschließend auf den Fernsehgeräten empfangen werden konnte. Die modernen Smart-TVs können heute hingegen direkt im Onlinemodus wiedergeben. Denn durch den flächendeckenden Ausbau der Netze und moderne Übertragungsstandards stellt der direkte Empfang des digitalen Fernsehens über das IP-Signal kaum mehr ein Problem dar. Für den mobilen Empfang wurden zu Beginn des 21. Jahrhunderts weitere DVB-Varianten für den Empfang über das Breitbandnetz entwickelt. Hierzu zählt DVB-IPTV (DVB-Internet Protocol Television), das auch als DVB-IPI bezeichnet wird.

Auf Basis der Daten der Arbeitsgemeinschaft Fernsehforschung (AGF), die jeweils zum 1. Januar eines Jahres erstellt werden, konnte für den Zeitraum 2005 bis 2012 eine konstante Steigerung der Marktanteile im Bereich des Digitalfernsehens verzeichnet werden. Die folgende Übersicht macht deutlich, wie rasant sich DTV in den letzten Jahren entwickelt hat. Lag der Marktanteil im Jahre 2012 noch bei 52,1 Prozent, empfingen nach Aussagen der ARD-Sendeanstalt Ende 2014 bereits über 80 Prozent aller TV-Haushalte ein digitales Fernseh-Signal.

 

Jahr

2012

2011

2010

2009

2008

2007

2006

2005

Marktanteil

52,1

40,9

33,7

27,3

21,7

18,8

15,0

11,6

Abbildung 128: Marktanteile Digital-TV in Deutschland 2005 bis 2012 in Prozent

 

Auf terrestrischem Wege, also via Antenne, startete das Digitalfernsehen quasi von Null auf Hundert. In nur einem Jahr wurde die Implementierung und ausschließliche Verwendung des digitalen DVB-T realisiert – jedenfalls im Mikrokosmos Berlin. Anfang 2003 startete die Einführung der terrestrischen DVB-Variante, und noch im selben Jahr erfolgte die vollständige Abschaltung des analogen Antennensignals. Somit war zumindest in der deutschen Bundeshauptstadt und Teilen Brandenburgs mithilfe eines preisgünstigen DVB-T-Receivers der digitale Fernsehempfang ohne monatliche Grundgebühren keine Utopie mehr. Nur ein Jahr später begann man in Europa damit, über DVB-T einzelne Sendungen in HDTV-Norm auszustrahlen. Nur sechs Jahre nach der Einführung von DVB-T wurde 2009 in Bad Mergentheim der letzte terrestrische Analogsender abgeschaltet. Der Nachfolgestandard DVB-T2 wird in ausgewiesenen Pilotregionen ab Mitte 2016 und in ganz Deutschland voraussichtlich bis 2019 empfangbar sein. Mit DVB-T2 soll die Programmvielfalt und die Qualität steigen – insbesondere im Zusammenhang mit dem Empfang von HD.

Erst drei Jahre nach der hundertprozentigen Digitalisierung im terrestrischen Bereich wurde auch das analoge Satellitensignal vollständig abgeschaltet (2012). So können Programme über Satellit seit dem 30.04.2012 ausschließlich digital nur noch per DVB-S empfangen werden. Hierzu startete die ARD seinerzeit die Informationskampagne „klardigital 2012“, da Verbraucher für den weiteren Fernsehempfang zusätzliche Technik (Digital-Receiver) benötigten.

Das analoge Kabel-Fernsehsignal wird voraussichtlich im Jahre 2018 vom digitalen Pendant verdrängt sein. Die folgende Tabelle zeigt für die Jahre 2008 bis 2014 die Entwicklung der TV-Digitalisierung im Bereich der einzelnen Übertragungswege:

 

Jahr

2014

2013

2012

2011

2010

2009

2008

Kabel

62,9

55,9

48,2

42,5

37, 8

30,6

21,0

Satellit

100

100

100

86,4

79,1

74,1

65,7

Terrestrisch

100

100

100

100

100

100

95,1

Abbildung 129: Digitalisierung nach Übertragungsweg seit 2008 bis 2014 in Prozent

 

Im Vergleich zum analogen Vorgänger bietet das Digitalfernsehen aufgrund der technischen Voraussetzungen eine weitaus bessere Qualität und Ausnutzung der vorhandenen Frequenzen. So können mithilfe der digitalen MCPC-Technologie beispielsweise über einen Satelliten-Transponder statt eines analogen Programms (PAL-Norm) bis zu zehn DVB-Fernsehprogramme wiedergegeben werden. Programmvielfalt, hochauflösendes Fernsehen (HDTV), Mobilität sowie zahlreiche Zusatzdienste sind in der Gegenwart schon fast Normalität.

Die rasanten Entwicklungen um die Jahrtausendwende bezogen sich allerdings nicht nur auf die digitalen Übertragungsstandards, die im übernächsten Kapitel differenzierter betrachten werden sollen. Die Digitaltechnik machte aufgrund seiner geringeren Bandbreite den Weg frei für leistungsstärkere und damit höhere Bildauflösungen. Bereits im Jahre 1998 begannen die USA mit der Einführung von HDTV, in Europa wird das hochauflösende Digitalfernsehen seit 2004 angeboten. Ein Nachfolgeunternehmen der Kirch-Gruppe war auch hier wieder Vorreiter. Die deutsche ProSiebenSat.1-Gruppe strahlte von Oktober 2005 bis Februar 2008 ihre Programme parallel in HDTV aus. Übertragen wurde via Satellit über die seinerzeit neue DVB-S-Norm, die seit 2006 ebenfalls vom Pay-TV-Anbieter Premiere (ab 2007: Sky) genutzt wurde, der seit der 18. Fußball-Weltmeisterschaft in Deutschland durchgehend in HDTV sendet.

Die öffentlich-rechtlichen Sender zogen erst ab 2008 nach. So begann die ARD zur Internationalen Funkausstellung im selben Jahr mit sogenannten Showcases (Testläufen). Sportereignisse waren von jeher eine Variante, um probehalber neue Standards umzusetzen. Deshalb strahlten ARD und ZDF beispielsweise die Leichtathletik-WM 2009 in Berlin in HDTV aus und setzten zu den Olympischen Winterspielen im Februar 2010 die HDTV-Einführung final um. Ziel dieser Testläufe war unter anderem, die beiden Normen 720p/50 (Vollbildverfahren) und 1080i/25 (Halbbildverfahren) zu vergleichen.

Nach zahlreichen Tests des Instituts für Rundfunktechnik GmbH (IRT) und der Union der Europäischen Rundfunkorganisationen (UER) wurde sich vonseiten der öffentlich-rechtlichen Sendeanstalten für die 720p/50-Norm – also die progressive Bildabtastung im Vollbildverfahren entschieden. Ab 2008 ging der erste Zusatzsender ARTE HD auf Sendung, zwei Jahre später folgten Das Erste HD und ZDF HD. Seit 2012 können über Satellit auch die Regionalsender Bayern, NDR, SWR, WDR sowie 3sat, KiKA und PHOENIX, seit 2013 HR, MDR und RBB sowie tagesschau24, EinsFestival und EinsPlus in HD empfangen werden.

Seit 2006 kann HDTV auch über Kabel empfangen werden. Allerdings ist seither (Stand: 2016) bis auf die öffentlichen HD-Programme das Angebot der Privaten Sender größtenteils verschlüsselt und der Kabelempfang bis heute mit monatlichen Kosten verbunden.

 

Grundbegriffe der Digitaltechnik

Wie der Begriff „Code“ bereits nahelegt, handelt es sich beim Binärcode um ein System zur Verschlüsselung beziehungsweise Darstellung von Informationen. Genauer gesagt werden die Informationen durch Sequenzen zweier sich unterscheidender Symbole dargestellt, wobei als Basis das Dualzahlensystem dient. Insofern geht die Bezeichnung „bi“ (zweifach oder doppelt) auf diese Form der Codierung durch zwei verschiedene Werte (1/0 = ein/aus) zurück. Aufgrund ihrer Einfachheit werden Binärcodes für die Verarbeitung digitaler Informationen generell in der Informationstechnik verwendet, zumal sie auch dort ihren Ursprung haben. In diesem Zusammenhang ist im allgemeinen Computersprachgebrauch die synonyme Verwendung des Begriffes gebräuchlich.

In der Digitaltechnik wird das Dualzahlensystem genutzt, wobei eine Zahlenstelle (Bit) eben nur zwei Werte annehmen kann (ein/aus). Das 1/0-Prinzip wird elektronisch durch Schaltzustände repräsentiert, die wie folgt aussehen können:

 

ein = high (H) = 5 V

aus = low (L) = 0 V.

 

Allerdings könnte man auch außerhalb der digitalen Welt mit Binärcodes bestimmte Informationen darstellen, die zwei Zustände (ein/aus) beschreiben sollen. Die einfachste Methode wären Rauchzeichen. Allerdings würde das im 21. Jahrhundert nur noch wenig Sinn ergeben.

Mithilfe von Binärcodes lassen sich vor allem komplexe Themen sehr simpel in einfachen Informationseinheiten darstellen. Ein schlichtes Beispiel dafür ist: ein/aus, das heißt, Spannung liegt an (1) oder Spannung liegt nicht an (0). Die kleinste dieser Einheiten wird als Bit bezeichnet. Es ist nun lediglich eine Frage der Abbildung beziehungsweise Reihenfolge, mithilfe von Logikgattern bestimmte Codes darzustellen. Im ASCII-Code bedeutet beispielsweise die Bitfolge 1000101 ein E (vgl. folgende Abbildung).

Sowohl das gebräuchliche Dezimalsystem als auch das Alphabet sind als Dualzahlen darstellbar. Die Dualzahl 1011 entspricht dem Term 23 + 21 + 20 und damit der Dezimalzahl 11. Alle Werte über 9 werden als Buchstaben dargestellt, zumal im ASCII-Code die Buchstaben des Alphabetes eindeutig bestimmten Zahlenwerten zugeordnet werden können. So entspricht die Dualzahl 1011 hier dem Buchstaben B.

 

Abbildung 130: Zuordnung von Binärzahlen zu Dezimalzahlen und ASCII-Code

 

Bit/Byte

Neben der kleinsten binären Einheit Bit (Binary Digit) wird darüber hinaus auch der Begriff Byte (nicht selten falsch) verwendet. Per Definition geht ein Byte auf die Bezeichnung „By Eight“ zurück, wonach der Umrechnungsfaktor eben 8 und nicht 10 entspricht. Deshalb gilt: 8 Bit = 1 Byte

Insofern waren in den 1990er Jahren die Binärpräfixe üblich, die sich auf das 8:1-Verhältnis berufen.

1 Kibibyte (KiB) = 1024 Byte

1 Mebibyte (MiB) = 1024 × 1024 Byte = 1 048 576 Byte.

Allerdings wurde spätestens mit der Einführung von Computern im Heimgebrauch die Bezeichnung von Zweierpotenzen durch Binärpräfixe gemäß der bisherigen Norm IEC 60027-2 zu umständlich. Deshalb wurde durch das Internationale Büro für Maß und Gewicht (BIPM) die Empfehlung für neue SI-Präfixe ausgesprochen und damit die weltweite ISO-Norm IEC 80000-13:2008 (DIN EN 80000-13:2009-01) eingeführt. Vor diesem Hintergrund sind SI-Präfixe generell nur noch in der dezimalen Bedeutung üblich, wobei die Präfixe (Mega, Giga etc.) den entsprechenden Dezimalwert angeben: 

1 Kilobyte (kB) = 1000 Byte

1 Megabyte (MB) = 1000 · 1000 Byte = 1 000 000 Byte.

Die folgende Übersicht stellt die jeweilige Bedeutung und Zahlenwerte der Dezimalpräfixe dar, die sich in heute gängigen Bezeichnungen (z.B. Gigabyte/GB) wiederfinden:

 

Dezimalpräfixe

Kilobyte (kB)

103Byte = 1 000 Byte

Megabyte (MB)

106Byte = 1 000 000 Byte

Gigabyte (GB)

109Byte = 1 000 000 000 Byte

Terabyte (TB)

1012Byte = 1 000 000 000 000 Byte

Petabyte (PB)

1015Byte = 1 000 000 000 000 000 Byte

Exabyte (EB)

1018Byte = 1 000 000 000 000 000 000 Byte

Zettabyte (ZB)

1021Byte = 1 000 000 000 000 000 000 000 Byte

Yottabyte (YB)

1024Byte = 1 000 000 000 000 000 000 000 000 Byte

Abbildung 131: Übersicht Dezimalpräfixe

 

Der Unterschied zu den ursprünglichen Einheitenvorsätzen auf Basis der binären Umrechnung (8 Bit = 1 Byte) wird in der folgenden Abbildung deutlich. Bei genauerer Betrachtung wird klar, dass die gerundeten Dezimalwerte geringer sind. Somit ergibt sich bereits bei 1 kB gegenüber 1 KiB eine Differenz von 2,40 Prozent, bei 1 MB/1 MiB von 4,86 Prozent und bei 1 GB/1 GiB von 7,37 Prozent.

 

Binärpräfixe

Kibibyte (KiB)

210Byte = 1024 Byte

Mebibyte (MiB)

220Byte = 1 048 576 Byte

Gibibyte (GiB)

230Byte = 1 073 741 824 Byte

Tebibyte (TiB)

240Byte = 1 099 511 627 776 Byte

Pebibyte (PiB)

250Byte = 1 125 899 906 842 624 Byte

Exbibyte (EiB)

260Byte = 1 152 921 504 606 846 976 Byte

Zebibyte (ZiB)

270Byte = 1 180 591 620 717 411 303 424 Byte

Yobibyte (YiB)

280Byte = 1 208 925 819 614 629 174 706 176 Byte

Abbildung 132: Übersicht Binärpräfixe

 

Jedes Kind kennt heute die Dezimalpräfixe und die Bezeichnungen Byte und Bit. Allerdings werden diese nicht selten falsch angewendet, weshalb hier kurz umrissen werden soll, in welchem Zusammenhang die jeweiligen Begriffe ihre richtige Anwendung finden: Übertragungsraten (z.B. Downstream-Geschwindigkeiten 8 Gbit/s) werden in Bit und den entsprechenden Dezimalpräfixen (z.B. Giga = G) angegeben. Dateigrößen beziehungsweise Speicherkapazitäten oder Datenmengen im Allgemeinen (Festplattenlaufwerke, Arbeitsspeicher, CDs, DVDs, Blu-ray-Discs, USB-Speichermedien etc.) werden hingegen in der Einheit Byte angegeben (z.B. Festplatte: 2 TB/Flash-Speicher: 8 GB).

 

Bit Error Ratio (BER)

Verwirrung besteht ebenfalls nicht selten bei den Bezeichnungen Bit Error Rate (BER), Bitfehlerrate (BFR), Bitfehlerhäufigkeit (BFH), Bitfehlerverhältnis (BFV), Bitfehlerwahrscheinlichkeit (BEP). BER definiert das Verhältnis zwischen der Anzahl der fehlerhaften binären Signalelemente zu ihrer Gesamtzahl während einer Übertragung. Eine Bitfehlerhäufigkeit wird als Bitfehlerrate von beispielsweise „6x10exp-6“ dargestellt und beschreibt damit das einheitenlose Bitfehlerverhältnis (Bit Error Ratio: BER), was in diesem Fall bedeutet, dass bei einer Million übertragener Bits durchschnittlich sechs Bits falsch sein können. Ein Bitfehlerverhältnis (BER) von 10-4 entspricht einem fehlerhaften Bit auf 10.000 Bits.

Im Gegensatz zu den tatsächlichen Werten in der Praxis beinhaltet der Begriff Bitfehlerwahrscheinlichkeit (Bit Error Probability: BEP) lediglich theoretische Überlegungen zum wahrscheinlichen Auftreten eines Bitfehlers, wobei solche Wahrscheinlichkeitsberechnungen lediglich simulativen Charakter besitzen und für idealisierte Szenarien verwendet werden (beispielsweise in der Forschung). Grundsätzlich kann gesagt werden, dass BER die Qualität eines demodulierten Digitalsignals auf der Empfängerseite angibt. Dabei gilt: je niedriger das BER, desto besser das Signal.

 

Codec

Die Bezeichnung Codec beinhaltet sowohl das Codieren als auch das Decodieren als zwei kohärente Vorgänge. Als Kompositum vereint es die Wörter COder (Codierer) und DECoder (Decodierer). Hingegen definieren die Begriffe Konvertierung oder auch Transkodierung das direkte Umwandeln von einem Dateiformat in ein anderes (z.B. MP3 zu WMA).

In diesem Zusammenhang werden verschiedene Vorgänge und ihre Ergebnisse unterschieden. So kann es sich bei kodierten Dateiformaten sowohl um Audio- als auch um Videoformate handeln. Der MPEG-Standard spezifiziert sowohl Codecs als auch Containerformate, wobei MPEG-2- oder auch MPEG-4-Standards für Videoformate stehen. Ein MP3-Audiocodec erstellt beispielsweise MP3-Audiospuren und ist nicht mit dem MPEG-3-Standard zu verwechseln, den es im Übrigen nie gegeben hat (vgl. hierzu das Kapitel Videoformate).

 

Container

Das Containerformat beschreibt die innere Datenstruktur einer Containerdatei, also die Art und Weise, wie in einem Container beziehungsweise einer Containerdatei gespeicherte Datenformate angeordnet sind. Einfacher ausgedrückt: in einen Behälter werden mehrere Zutaten gepackt, die ganz unterschiedlicher Natur sein dürfen. Hauptsache, sie passen hinein. So können verschiedene Datenformate in einem Container zusammengefasst werden. Ein simples Beispiel ist eine ZIP-Datei, in der die Daten komprimiert oder „gepackt“ sind. Allerdings korrespondieren die Dateien hier nicht zwangsläufig miteinander. Anders verhält es sich zum Beispiel bei Audiodaten in Verbindung mit Zusatzinformationen (MP3) oder aber zusammengeführten Video- und Audiodaten, die in der Summe einen Film ergeben. Hierfür werden im Alltag zumeist folgende Formate verwendet: MP4 (*.mp4), Matroska (*.mkv, *.mka), DivX (*.divx) oder auch AVI (*.avi). Genau wie Codes werden Containerformate von einem Multiplexer erstellt.

 

Chroma Subsampling/Farbunterabtastung

Der erste Schritt der Datenreduktion ist innerhalb vieler Kompressionsverfahren das sogenannte Chroma Subsampling. Dabei wird die Auflösung der Farbinformation (Chrominanz-Signal) gegenüber den Informationen über die Helligkeit (Luminanz-Signal) vernachlässigt. Man spricht auch von der Farbunterabtastung. Basis dieses Verfahrens ist ebenfalls die menschliche Wahrnehmung und damit verbunden die Anatomie des Auges, das Helligkeitsunterschiede besser wahrnehmen kann als Farbunterschiede. Unser visuelles System reagiert unterschiedlich auf Farbfrequenzen, weshalb Bilder (ähnlich wie Töne) auch als Überlagerung zweidimensionaler Schwingungen dargestellt werden können. In diesem Zusammenhang sind niedrige Bildfrequenzen für grobe Bildstrukturen und hohe Bildfrequenzen für feine Details verantwortlich. So können hohe Frequenzen besser komprimiert werden, ohne dass das menschliche Auge den Datenverlust wahrnimmt. Diese Frequenzabhängigkeit wird in allen Videokompressionsverfahren der MPEG-Standards ausgenutzt.

Insofern bedeutet Farbunterabtastung oder auch Subsampling nichts anderes, als dass die Abtastrate reduziert beziehungsweise der räumliche Abstand der Abtastpunkte der Farbinformation verringert wird. Die Farbinformation kann so mit einer geringeren Bandbreite übertragen werden. In der Regel sind die folgenden vier Varianten der Farbunterabtastung bekannt.

 

Abbildung 133: Chroma-Subsampling/Farbunterabtastung

 

4:4:4 (1x1,1x1,1x1)

Hierbei handelt es sich eigentlich um keine Farbunterabtastung, da im 1:1-Verhältnis abgetastet wird, wie etwa beim RGB-Signal, bei dem das Luminanz- und alle drei Farbartsignale getrennt übertragen werden.

4:2:2 (2x1,1x1,1x1)

Diese Variante stammt ursprünglich aus dem analogen Farbfernsehstandard NTSC, wird aber ebenfalls für digitale Videosignale verwendet (ITU-R BT 601). Hier wird zwischen der horizontalen und vertikalen Farbunterabtastung unterschieden, wobei die Horizontalabtastung nur halb so hoch ist wie die vertikale.

4:1:1 (4x1,1x1,1x1)

Auch wird die Farbabtastrate in horizontaler Richtung nochmals halbiert und entspricht einem Viertel der Abtastrate des Helligkeitssignals.

4:2:0 (2x2,1x1,1x1)

Die Abtastrate ist hier in beiden Raumrichtungen (horizontal/vertikal) identisch, allerdings sind die Abtastpunkte des Farbsignals leicht versetzt. Diese Form der Farbunterabtastung wird insbesondere bei den Standards JPEG und MPEG verwendet. Bei JPEG erfolgt eine zentrische Abtastung, bei MPEG wird das Farbsignal in gleicher vertikaler Ausrichtung wie das Helligkeitssignal abgetastet.

Darüber hinaus hat beispielsweise die Firma Sony die 3:1:1-Farbunterabtastung geprägt (DVCAM/DV SDL). Ein neueres Verfahren (22:11:11) nach der Norm SMPTE 292M ist im HDTV-Bereich auf der HD-SDI-Schnittstelle zu finden.

Allerdings kommt es bei der Farbunterabtastung auch zu unerwünschten Nebeneffekten, die insbesondere im Wiedergabegerät vorgenommen wird, um Datenvolumen zu sparen. Diese interne Farbunterabtastung erfolgt über eine Software und ist im Fernseher fest integriert. Ist eine solche vorhanden, kann sich vor allem die Wiedergabe von Fotos und künstlichen Grafiken auf dem Display verschlechtern, schmale Linien oder kleine Details werden unscharf dargestellt oder können sogar komplett verschwinden.

 

Abbildung 134: Subsampling Test Pattern - Burosch TV Testbild

 

Zur Überprüfung der Bildqualität des Displays sollte auf professionelles Testmaterial zurückgegriffen werden. Hierzu eigenen sich Testbilder, die allerdings ausschließlich zur Bildbeurteilung nicht aber zur Bildoptimierung dienen. Im TV-Display-Labor der Firma BUROSCH wurde hierzu eigens zur Überprüfung der internen Datenkomprimierung von modernen TV-Displays ein Testbild entwickelt (Subsampling Test Pattern), mit dem überprüft werden kann, ob ein TV-Gerät eine interne Farbunterabtastung vornimmt oder nicht.

 

Multiplexverfahren

Ein Multiplexer (MUX) kann mit einem Relais oder Lichtschalter verglichen werden. Bei der Datenübertragung lässt er immer nur ein Signal durch und wandelt somit parallele Datenströme in serielle (oder umgekehrt). Insofern ist es fast logisch, dass der MUX mehrere Eingänge aber nur einen Ausgang besitzt. Über Steuersignale in Form von Dualzahlen wird das jeweilige Signal und damit der entsprechende Eingang ausgewählt. Die Schaltfunktionen werden allerdings beim MUX nicht mechanisch, sondern durch integrierte Halbleiterschaltungen realisiert. Für die Rückwandlung wird das entsprechende Gegenstück, der De‑Multiplexer, eingesetzt, um die seriellen Datenströme wieder zusammenzuführen.

Es gibt verschiedene MUX-Schaltungen, je nachdem, wie viele Signale gewandelt werden sollen. Die einfachste Variante ist der Einfach-Multiplexer (1-MUX), der über ein Steuersignal s0, zwei Eingänge e0 und e1 sowie einen Ausgang a verfügt. Im Rahmen der Binärcodierung bedeutet die Zahl 1 (e1) = ein und die Zahl 0 (e0) = aus. Über ein sogenanntes Logikgatter werden logische Operationen festgelegt. In diesem Fall: ein Nicht-, zwei Und- und ein Oder-Gatter. Liegt also am Steuersignal s0 eine 1 an, liefert der Ausgang a das Signal, das am Eingang eanliegt. Bei einer 0 am Steuersignal s0 wird vom Ausgang a das Signal geliefert, das am Eingang e0 anliegt (vgl. Abbildung).

 

Abbildung 135: Blockschaltung 1-MUX (Bild: MichaelFrey, Wikimedia Commons)

 

Für die optimale Ausnutzung der Frequenzen beziehungsweise Übertragungskanäle wurden in der digitalen Kommunikationstechnik verschiedene Multiplexverfahren entwickelt. Hierzu zählen:

 

Raummultiplexverfahren

Gebündelte Übertragungskanäle zur parallelen Nutzung durch mehrere Sender und Empfänger (Space Division Multiplex: SDM oder Space Division Multiple Access: SDMA). Unterschieden wird zwischen kabelgebundenen und kabellosen Varianten. Das kabelgebundene Raummultiplexverfahren ist die älteste und einfachste Methode zur gleichzeitigen Unterstützung individueller Verbindungen auf mehreren parallel installierten Leitungen (Leitungsbündel). Ein Beispiel für dieses Verfahren ist die sogenannte Kreuzschienenverteilung, die Cross Bar Switching oder auch Koppelfeld genannt wird (vgl. Abbildung).

 

Abbildung 136: Schema einer Kreuzschienenverteilung (Cross Bar Switching)

 

Zum anderen wird beim kabellosen Raummultiplexverfahren dieselbe Frequenz mehrfach genutzt. Allerdings ist hierfür ein räumlicher Abstand notwendig, um Interferenzen zu vermeiden. Hier sind Kombinationen mit dem Frequenzmultiplex- oder Zeitmultiplexverfahren möglich. Insbesondere bei DVB-T kommt der Spezialfall (Multiple-Input-/Output) zur Anwendung. Damit ist die simultane Übertragung eines Signals durch mehrere kooperierende Antennen gemeint, um somit die Qualität der drahtlosen Verbindung zu erhöhen und im Gegenzug die Bitfehlerhäufigkeit zu verringern.

 

Frequenz- bzw. Wellenlängenmultiplexverfahren

Damit ist die getrennte Leitungsübertragung mehrerer Signale in unterschiedlichen Frequenzbereichen gemeint, wobei den Signalen unterschiedliche Wellenlängen zugewiesen werden (Frequency Division Multiplex: FDM oder Frequency Division Multiple Access: FDMA). Dieses Verfahren geht bereits auf das Jahr 1886 zurück, als Elisha Gray erste Vorschläge zur Mehrfachausnutzung von telegrafischen Übertragungsleitungen machte. Bekannt wurde es durch die Stereotonübertragung im UKW-Radio.

Auch hier unterscheidet man die kabellose und kabelgebundene Variante, wobei als praktische Beispiele vor allem das Antennen- und Satellitenfernsehen auf der einen Seite und das Kabelfernsehen auf der anderen Seite zu nennen sind. In Kombination mit dem Zeitmultiplexverfahren wird es auch in der Mobilfunktechnik eingesetzt – beispielsweise beim Global System for Mobile Communications (GSM) oder auch bei Bluetooth.

 

Zeitmultiplexverfahren

Wie der Name vermuten lässt, handelt es sich hier um die zeitversetzte Übertragung mehrerer Signale, die zeitlich ineinander verschachtelt sind. Dabei gibt es zwei Möglichkeiten für die jeweiligen Zeitabschnitte (Zeitschlitze): synchronisiert/gleich lang oder asynchron/bedarfsabhängig (Time Division Multiplex: TDM oder Time Division Multiple Access: TDMA).

 

Abbildung 137: Schema synchrones Zeitmultiplexverfahren 

 

Beim synchronen Verfahren (Synchronous Time Division: STD) erhält jeder Sender einen festen Zeitabschnitt mit konstanter Datenübertragungsrate. Wird vom Sender kein Signal geliefert, bleibt der Übertragungskanal allerdings ungenutzt. Insofern bietet das asynchrone Verfahren mehr Flexibilität und Effizienz, da hier bedarfsgerecht gearbeitet wird, indem nichtgenutzte Zeitabschnitte auch von anderen Datenströmen genutzt werden können. Zur besseren Unterscheidung werden jedem Datenpaket individuelle Kanalinformation (Header, Channel Identifier) beigefügt, damit der De‑Multiplexer im Empfänger die Datenpakete richtig zuordnen kann.

 

Abbildung 138: Schema asynchrones Zeitmultiplexverfahren 

 

Codemultiplexverfahren (CDMA)

Dieses Verfahren wird als die Übertragung verschiedener Signalfolgen mit unterschiedlicher Codierung definiert, die im entsprechenden Empfänger erkannt und zugeordnet werden (Code Division Multiplex: CDM oder Code Division Multiple Access: CDMA). Es ist verwandt mit dem Zeitmultiplexverfahren, arbeitet jedoch ohne Koordinierung der Zeitfenster. In der Praxis findet man dieses Verfahren beispielsweise in der funkgesteuerten Zentralverriegelung bei Autos oder beim Mobilfunkstandard Universal Mobile Telecommunications System (UMTS).

 

Videokompressionsverfahren

Bei der Daten- oder Videokompression wird zur Übertragung eine bestimmte Datenmenge reduziert. Dieses Verfahren wird auch Reduktion genannt. Hierzu gibt es verschiedene Ansätze und Methoden. Die zwei wohl bekanntesten stammen aus der Informationstheorie: Redundanz- und Irrelevanz-Reduktion. Hierbei handelt es sich um modellhafte beziehungsweise idealisierte Ansätze zur Datenreduktion, bei dem die entsprechenden Informationen von der Quelle zur sogenannten Senke geführt werden. Die Quelle bezeichnet in diesem Fall das Original (Videosignal), wie es in der Kamera entstanden ist. Mit der Senke wiederum ist das Auge des Betrachters gemeint, was stellvertretend für die menschliche Wahrnehmung steht.

 

Redundanzreduktion

Die Redundanzreduktion ist eine verlustlose Codierungsmöglichkeit, die vom Grundsatz her der Stenographie gleicht. Oft verwendete Begriffe werden hier sehr kurz gehalten, um die Schreibgeschwindigkeit zu erhöhen. Ähnlich verhält es sich bei der Redundanzreduktion. Das Verfahren lässt sich aus dem Begriff selbst ableiten. Redundanz bedeutet das Vorhandensein von überflüssigen Elementen, die für eine bestimmte Information überflüssig sind. Insofern werden hier häufiger auftretende Symbole nicht mit einer konstanten Codewortlänge, sondern mit variablen Codewortlängen codiert. Diese Codierung wird als Variable Length Coding (VLC) bezeichnet.

 

Irrelevanzreduktion

Die Irrelevanzreduktion ist hingegen eine verlustbehaftete Codierung. Denn hier werden bestimmte Information bei der Übertragung einfach wegelassen, die für die menschliche Wahrnehmung (Senke) nicht relevant sind, das heißt, vom Betrachter nicht als störend empfunden werden kann. Neben diesen beiden Reduktionsverfahren gibt es weitere Möglichkeiten, die zur Datenreduktion von Videosignalen verwendet werden können.

 

Vorwärts gerichtete diskrete Kosinus-Transformation

Dieses Verfahren (Fast Discrete Curvelet Transforms: FDCT) ist quasi die Voraussetzung für die Irrelevantreduktion. Die Daten werden hier zuerst beurteilt, abgetastet, diskretisiert, um ihre Komplexität beziehungsweise die benötigte Speicherkapazität zu bestimmen. Dabei wird das einzelne Videobild (Frame) in 8 x 8 große Pixel-Blöcke zerlegt (Beispiel: JPEG).

 

Bewegungskorrektur

Bei der sogenannten Bewegungskorrektur (Motion Compensation) werden ebenfalls nicht alle Daten, sondern lediglich die Unterschiede zum vorhergehenden Bild gespeichert. Dazu wird nach veränderten (bewegten) Pixelblöcken gesucht, die über einen Bewegungsvektor gespeichert werden. Unveränderte (unbewegte) Signaleigenschaften werden vom letzten Frame einfach übernommen.

 

Digitalisierung

Der Begriff Digitalisierung bedeutet im Grunde nichts anderes, als dass aus dem analogen Videosignal das digitale gewonnen wird. Dabei handelt es sich um drei aufeinanderfolgende Vorgänge, die in der Summe als Digitalisierung bezeichnet werden.

 

  • Diskretisierung

  • Quantisierung

  • Codierung

 

Diskretisierung

Das Analogsignal wird sowohl vertikal als auch horizontal in Zeilen und Bilder unterteilt. Die Informationen liegen also zeitkontinuierlich und wertkontinuierlich vor und müssen im Rahmen der Digitalisierung diskretisiert werden. Damit ist gemeint, dass aus einer kontinuierlichen Daten- oder Informationsmenge (Analogsignal) eine diskrete Teilmenge (Digitalsignal) gewonnen wird. Denn in der Digitaltechnik erfolgt die Übertragung der Signalwerte nicht kontinuierlich, sondern quantisiert und zu klar definierten Zeitpunkten.

 

Abbildung 139: Schema für eine Sample-Hold-Schaltung 

 

Diskretisierung bedeutet im Kontext der Digitalisierung des Fernsehsignals die Abtastung beziehungsweise Modulation. Diese zeitliche Diskretisierung erfolgt in regelmäßigen Abständen, in denen dem zu wandelnden Signal Proben (sogenannte Samples) entnommen werden, die bis zur nächsten Entnahme gespeichert werden. Dieser Vorgang wird auch Hold genannt. Eine solche Sample-Hold-Schaltung (Abtast-Halte-Schaltung) wird durch die Aufladung eines Kondensators realisiert.

Die Abtastrate oder -frequenz gibt an, wie viele Abtastwerte pro Zeiteinheit vorliegen. Je höher diese Abtastfrequenz (Samplingrate) ist, desto störfreier ist das Signal. Allerdings müssen auch entsprechend viele Daten übertragen werden. Mit zunehmender Qualität steigt somit die Datenrate.

Nach dem sogenannten Abtasttheorem sollte die Samplingrate nicht niedriger aber auch nur maximal doppelt so hoch sein wie die höchste auftretende Signalfrequenz des Originals. Parallel muss darauf geachtet werden, dass oberhalb dieser Signalfrequenz keine Spektralanteile im Signal auftreten (Störfrequenzen). Um dies zu vermeiden, ist vor der A/D-Umsetzung eine Tiefpassfilterung erforderlich. Mithilfe dieser Tiefpassfilterung, einem spektralen statistischen Analyseverfahren zur numerischen Zeitreihenfilterung, werden aus einer Zeitreihe nicht nur die tiefen Frequenzen herausgefiltert, sondern auch hohe Frequenzen unterdrückt, die so im Original nicht vorkommen (vgl. Abbildung).

 

Abbildung 140: Schema zur Tiefpassfilterung

 

Ohne Tiefpassfilterung können oberhalb des Originalsignals Störsignale auftreten, die das Abtastsignal überlagern. Das heißt, im Abtastsignal können Frequenzanteile enthalten sein, die höher sind als die sogenannte Nyquist-Frequenz22 (halbe Abtastfrequenz). Denn aus der Differenz zwischen Original- und Abtastfrequenz bilden sich sogenannte Aliaseffekte, die sich als Fehler in der Bilddarstellung äußern. Deshalb sollte beim Abtasten digitaler Signale sowohl das Abtasttheorem Beachtung finden, als auch Störsignale vermieden werden, die das Originalsignal (Alias) überlagern.

 

Abbildung 141: Alias-Effekt

 

Die Abbildung zeigt das Missverhältnis zwischen Abtastsignal (rot) und kontinuierlichem Originalsignal (grau), wie es bei einer Zeitdiskretisierung mit falscher Abtastfrequenz entsteht. Mithilfe sogenannter A/D-Wandler werden die originalen analogen Videosignale in digitale Datenströme gewandelt beziehungsweise rekonstruiert, wobei die Analog-Digital-Wandlung für das Luminanz-Signal (Y) und die Farbdifferenz-Signale (B-Y) und (R-Y) getrennt erfolgt. Diese Wandlung bezieht sich auf die Übertragung von unendlich vielen Analogwerten in eine begrenzte Menge zählbarer Quantitäten, die als Binärcodes bezeichnet werden. Auch bei wiederholter Wandlung der Signale (A/D- bzw. D/A-Umsetzung) kann es zu den oben genannten Aliaseffekten kommen, da eine mehrfache Filterung mit der gleichen Grenzfrequenz zu einer Verringerung der Gesamt-Grenzfrequenz führen kann.

Zum Abschluss des ersten Schritts der Digitalisierung (Abtastung) liegt ein sogenanntes PAM-Signal (puls-amplitudenmoduliert) vor, welches allerdings noch analog ist. Ausgehend von diesem PAM-Signal wird die Maximalamplitude des Sample-Hold-Signals auf die Wandler-Kennlinie eines A/D-Wandlers angepasst beziehungsweise in binäre Datenworte gewandelt. Die jeweiligen positiven wie negativen Signalspannungen oder auch Amplitudenbereiche werden in definierte Spannungsstufen eingeteilt. Dieses Verfahren wird Quantisierung genannt.

 

Abbildung 142: Digitalisierung analoger Signale durch Abtastung zur PAM/Codierung zur PCM

 

Quantisierung

Mit einer Band- beziehungsweise Kanalbreite von 6 MHz können im digitalen Fernsehen Video-, Audio-, Hilfs- und Steuerdaten übertragen werden. Neben den aus der Analogtechnik bekannten Übertragungswegen (Satellit, Kabel und Antenne) kommt beim digitalen Standard die Übertragung via IP-Signal (Internet) hinzu. Auf Basis des ursprünglichen MHP-Standards (Multimedia Home Plattform) können die verschiedenen Übertragungswege kombiniert und sogenannte Hybrid-Endgeräte angeboten werden. Näheres hierzu findet sich im Kapitel „Praxis der modernen Fernsehtechnik“.

Die Datenraten der einzelnen Übertragungswege sind dabei sehr unterschiedlich. Allen gemeinsam ist die konsequente Nutzung verschiedener Verfahren zur Datenreduktion, die eine Übertragung hoher Datenraten auf geringen Bandbreiten zulassen. Bei vorhandener Bandbreite können somit mehrere Fernsehkanäle gleichzeitig übertragen werden, was beim analogen Fernsehsignal nicht möglich war. Während des Prozesses der Digitalisierung werden die Abtastwerte also nicht nur moduliert (zeitlich diskretisiert), sondern auch quantisiert.

Bei der (Amplituden-)Quantisierung gilt: je mehr Quantisierungsstufen, desto besser die Signalqualität (Videoauflösung). Fehler treten dennoch auf, die sich in einem Rauschen äußern können. Tolerierbare Fehler werden über den sogenannten Signal-Rauschabstand (S/N) bestimmt, der im Videobereich bei < 45 dB und im Audiobereich bei > 90 dB liegt.

Insofern kann im Rahmen der Quantisierung (Auflösung) im Videobereich mit weniger Stufen (256/8 Bit) als beim Audiosignal (65000/16 Bit) gearbeitet werden, da der Gesichtssinn in der Regel weniger ausgeprägt ist als der Gehörsinn und sogenannte Quantisierungsgeräusche damit im tolerierbaren Bereich liegen. Durch die unterschiedliche Wahrnehmung und entsprechenden Toleranzgrenzen sind die Werte sowie Formeln zur Bestimmung des jeweiligen Signal-Rauschabstandes bei Audio- und Videosignalen unterschiedlich. Auf die Darstellung einer detaillierten Berechnung der Quantisierungsrauschleistung, Quantisierungsfehlerspannung und Signalleistung wird im Rahmen dieses Praxishandbuches verzichtet.

 

Abbildung 143: Quantisierungsfehler

 

Bei der Signalverarbeitung kann es gerade bei höheren Auflösungen zu Rundungsfehlern kommen, die zwangsläufig entstehen, wenn unendlich viele Werte auf eine endliche Zahl reduziert werden (Quantisierungsfehler). Diese Quantisierungsfehler können insbesondere bei hohen Signalpegeln auftreten und werden dann im Videobereich als stufige Grauwerte oder im Audiobereich als unangenehmes Rauschen wahrgenommen. Deshalb werden diese Fehler auch als Quantisierungsrauschen bezeichnet, das mithilfe sogenannter Dither (zugesetzte unregelmäßige Signale) verdeckt wird.

In der Videotechnik werden verschiedene Verfahren zur Quantisierung (A/D-Umsetzung) verwendet. Die schnellste Variante ist der sogenannte Parallelumsetzer, bei dem ein gleichzeitiger (paralleler) Vergleich der umzuwandelnden Spannung mit allen Quantisierungsstufen erfolgt. Hier werden die Spannungswerte der Stufen aus einem Spannungsteiler gewonnen, wobei bereits nach dem ersten Vergleichsschritt ein quantisiertes Signal vorliegt. Da bei einer Auflösung mit 8 Bit gleichzeitig 256 Vergleichswerte vorliegen müssen, ist dieses Verfahren in technischer Hinsicht sehr anspruchsvoll.

Eine einfachere Variante ist die Wägewandlung, bei der die analogen und digitalen Datenwerte in mehreren Schritten gewandelt und verglichen werden, bis sich der Digitalwert dem analogen bestmöglich angenähert hat. Im Gegensatz zum Abwägeprinzip dieser Variante gibt es ein weiteres Quantisierungsverfahren, das im Audiobereich angewandt wird. Beim sogenannten Zählwandler läuft vom Minimum bis zum Maximum des zu wandelnden Signals eine sogenannte Sägezahnspannung (vgl. Abbildung). Beim Anstieg läuft quasi eine Stoppuhr (Digitalzähler), bis die Sägezahnspannung den Wert erreicht hat, der gewandelt werden soll.

 

Abbildung 144: A/D-D/A-Übertragungskette

 

Die Wandlung von analogen und digitalen Signalen kann auch umgekehrt werden. Bei der sogenannten Rückwandlung durch D/A-Umsetzer kann allerdings nicht das Originalsignal wieder hergestellt werden, da die Quantisierungsfehler erhalten bleiben. Auch zur Rekonstruktion werden eine Sample-Hold-Schaltung sowie Tiefpassfilter verwendet, wobei man in diesem Zusammenhang von Rekonstruktionsfiltern spricht. Die Abbildung zeigt den gesamten Quantisierungsprozess in beiden Richtungen als Blockschaltbild.

 

Codieren/Decodieren

Im Zeitalter der hochauflösenden Videoformate werden deren Datenmengen immer größer, die entsprechend komprimiert übertragen werden müssen. Dazu ist es notwendig, mithilfe eines Algorithmus‘ aus den Daten des Originals (der Quelle) einen komprimierten Datenstrom zu erzeugen. Dieser kann dann entsprechend übertragen oder gespeichert werden. Dieses zusammengehörende Algorithmenpaar zur Codierung beziehungsweise Decodierung digitaler Videosignale nennt man Videocodec.

Bei der Codierung werden Informationen von der Quelle abgeschickt und im Quellcodierer komprimiert. Dabei muss der Originaldatenstrom so komprimiert werden, dass er auch nach der Codierung noch eindeutig rekonstruierbar ist. Dieses Verfahren wird entsprechend als Quellcodierung bezeichnet. Ein Beispiel für einen Quellcode ist der sogenannte Huffman-Code. In einem zweiten Schritt wird der möglichst gut decodierbare Datenstrom an den jeweiligen Übertragungskanal angepasst (Kanalcodierung). Kanalcodes werden auch als Blockcodes bezeichnet (z.B. Hamming- oder Golay-Code). Bei der Kanalcodierung spielen insbesondere Fehlererkennungs- und Fehlerkorrekturmöglichkeiten eine wesentliche Rolle. Denn in der Regel kann bei sehr hohen Datenmengen kaum verlustfrei komprimiert werden.

Insofern werden Videocodecs generell in zwei Kategorien unterteilt, die sich jeweils in ihrer Anwendung und den daraus resultierenden Ansprüchen begründen. Für hohe Qualität bei ebenfalls hoher Übertragungsrate, wie sie bei DVB und DVD üblich sind, stehen beispielsweise die Standards MPEG-2, MPEG-4-AVC/H.264 oder aktuell in Deutschland als High Efficiency Video Coding (HEVC) H.265. Näheres hierzu findet sich im folgenden Kapitel. Soll eine möglichst niedrige Datenmenge übertragen und damit sowohl die Rechenleistung als auch der Energieverbrauch gering gehalten werden, kommen dagegen Standards wie H.263 oder VP8 zum Einsatz. Dies ist insbesondere bei mobilen Endgeräten (z.B. Smartphones) der Fall.

Beim digitalen Fernsehen wird zuerst das Programm selbst codiert. Dafür wurde bisher der MPEG-2-Standard verwendet, moderne Verfahren wie DVB-S2 sowie UHD verwenden MPEG-4. Im Anschluss erfolgt im Multiplexer eine Verschachtelung des Programms mit etwaigen Zusatzdiensten zu Datenpaketen. Innerhalb eines Paketes lassen sich mehrere Programme (Fernsehen oder Radio) zu einem Datenstrom kombinieren (Transportstrom), der wiederum mit dem Trägersignal moduliert wird. Abschließend wird das Signal verstärkt und zum Übertragungssender (Satellit, Kabel, Antenne) gelenkt.

Nach der Übertragung müssen die komprimierten Daten im Wiedergabegerät wieder decodiert beziehungsweise encodiert werden. Das Verfahren läuft also quasi rückwärts ab: im Kanaldecodierer werden die empfangenen Dateien rekonstruiert, im Quellcodierer entsprechend decodiert, wobei idealerweise das rekonstruierte Videosignal möglichst identisch ist mit dem Originalsignal.

 

Abbildung 145: Grundprinzip der Videosignalcodierung

 

Beim Codier- beziehungsweise Decodiervorgang ist vor allem ein synchroner Takt (gleiche Bitfolge) sowohl im Sender als auch im Empfänger nötig, damit im Wiedergabegerät auf derselben Grundlage die Daten rekonstruiert und decodiert werden können, wie sie zuvor im Sender quantisiert und codiert wurden. Die Takt- beziehungsweise Bitfolge lässt sich aus dem übertragenen Signal entnehmen, indem bei jedem Übergang von 0 auf 1 oder 1 auf 0 der abgelaufene Taktzyklus erkennbar ist. Um Fehler (Taktabweichungen) zu vermeiden, muss die Anzahl der Signalwechsel (0/1 oder 1/0) pro Bit, die gleichbedeutend mit der Modulationsrate ist, möglichst gering gehalten werden. Je höher die Modulationsrate, desto geringer die Effizienz der Codierung. Für die Codierung stehen mehrere Möglichkeiten zur Verfügung, wobei gilt: je fehlerfreier komprimiert werden soll, desto komplizierter ist der Codierungsalgorithmus.

RZ (Return to Zero)

Nach dem einfachen Prinzip 0/1 = aus/ein wird jedes 0-Bit mit einem sogenannten Low-Signal (niedrige Spannung) codiert und jedes 1-Bit mit einem High-Signal (hohe Spannung). Nach jedem High-Signal (1-Bit) wird das Bit auf Null (Low-Signal) zurückgesetzt.

NRZ (Non-Return to Zero)

Hier bleibt die Spannung gleich, das heißt, nach dem Wert 1 wird das Bit nicht auf Null zurückgesetzt. Die Grenzfrequenz ist hier niedriger als im RZ-Verfahren und erlaubt dadurch eine geringe Modulationsrate. Allerdings ist dieses Verfahren anfällig, da bei aufeinanderfolgenden gleichen Bits kein Signalübergang erfolgt (keine Null-Schaltung). Insofern ist die richtige Bitfolge nicht immer erkennbar und es kann zu Fehlern bei der Synchronisation kommen.

NRZI (Non-Return to Zero Inverted)

1-Bit wird hier nicht als High-Signal, sondern direkt als Signalwechsel dargestellt. Dagegen erfolgt bei einem 0-Bit kein Wechsel. Auch hier ist eine geringe Modulationsrate realisierbar, allerdings können ebenfalls Fehler bei der Synchronisation auftreten, da der Signalübergang beziehungsweise die Taktung nicht immer eindeutig erkennbar ist.

Manchester

Zur besseren Unterscheidung einer Bitfolge wird bei diesem Verfahren ein Bit in zwei Phasen unterteilt beziehungsweise durch zwei Signale dargestellt (Selbsttaktung): 0-Bit (Low-Signal/High-Signal); 1-Bit (High-Signal/Low-Signal).

Wenn nun über einen gewissen Zeitraum kein Signalwechsel erfolgt, ist eindeutig erkennbar, dass ein Fehler aufgetreten ist. Insofern kann es bei maximaler Fehlererkennung zu keinen Synchronisationsproblemen kommen. Allerdings ist die Modulationsrate aufgrund der zweifachen Signalwechsel entsprechend doppelt so hoch, obwohl nur die Hälfte der übertragenen Bits tatsächlich genutzt werden.

Die Codierung, Übertragung, Decodierung und Wiedergabe von Videodaten ist je nach Qualitätsanspruch und Verfahren relativ zeitaufwändig. Dieser Zeitraum der Digitalisierung wird auch Latenz genannt. Insofern kommt es gegenüber der analogen Fernsehsignalübertragung beim DTV zu Verzögerungen, die mehrere Sekunden in Anspruch nehmen können. Bei flächendeckendem Digitalempfang fällt die zeitliche Differenz in der Ausstrahlung allerdings nicht mehr auf. Erkennbar war sie allerdings noch vor einiger Zeit, als über DVB-T bereits digital und über Kabel noch umfassend analog gesendet wurde. Im Jahre 2006 zur Fußballweltmeisterschaft in Deutschland fielen die Tore entsprechend mit geringen Verzögerungen – je nach Empfangsart.

SMPTE

Der SMPTE-Timecode wurde nach seinem „Erfinder“ benannt, der Society of Motion Picture and Television Engineers (SMPTE). Hierbei handelt es sich um einen geräteunabhängigen Synchronisationsstandard (ST 12-1/ST 12-2), der zuletzt im Jahre 2014 aktualisiert wurde. Anwendung findet der SMPTE-Timecode im Fernseh-, Hörfunk- und Studiobereich zur synchronen Aufnahme und Wiedergabe von Video- und Audiodaten, wobei die Zeitsteuerung heute vor allem in Tonstudios über Computer beziehungsweise spezielle Schnittstellen erfolgt.

 

AVC/H.264

Obwohl wir im Jahre 2016 bereits bei HEVC/H.265 angelangt sind, soll im Folgenden der Vorgängerstandard zur Videokompression umfassend erläutert werden, da dieser die Basis für H.265 darstellt.

Im Rahmen der Digitalisierung und technischen Entwicklung von High Definition (HD) war es notwendig, die Datenrate zur Übertragung und Wiedergabe von hochauflösendem Videomaterial zu reduzieren und dabei dennoch die Qualität beizubehalten. Hierzu wurde zunächst von der ITU-Gruppe (Video Coding Experts Group) ein neuer Standard zur digitalen Videokompression entwickelt, der die Bezeichnung H.26L hatte. Nach einem Zusammenschluss mit MPEG-Visual (Moving Picture Experts Group: MPEG) wurde im Jahre 2001 die Entwicklung innerhalb der Arbeitsgruppe „Joint Video Team – JVT“ vorangetrieben, zu der unter anderem auch das Fraunhofer-Institut und namhafte Vertreter der Technikbranche (beispielsweise Microsoft und Cisco Systems) gehörten. Zwei Jahre später wurde der neue Standard mit der offiziellen ITU-Bezeichnung MPEG-4/AVC (H.264) veröffentlicht.

Das Format Advanced Video Coding (AVC) ist Teil 10 des MPEG-4-Standards (MPEG-4/Part 10, ISO/IEC 14496-10) und Nachfolger anderer MPEG-4-Formate, wie zum Beispiel XviD oder H.263 (Teil 2 des MPEG-4-Standards). AVC/MPEG-4 wird synonym als H.264 bezeichnet und war Mitte der 2000er Jahre der effizienteste Videokompressionsstandard, der speziell für HDTV ausgelegt war, weil seine Codiereffizienz im Vergleich zu MPEG-2/H.262 das Dreifache erreicht und somit bei geringerer Datenrate sogar bessere Qualität realisiert. Neben der weitaus höheren Rechenleistung bietet der MPEG-4-Standard AVC/H.264 weitere Vorteile im Vergleich zu seinen Vorgängern, die im Folgenden beschrieben werden.

Die Grundlagen der Datenkompression wurden in diesem Buch bereits erläutert. Wichtiger Bestandteil dieser ist die Redundanzreduktion, also die Ermittlung von Mittelwerten aus Differenzinformationen. Im Gegensatz zum MPEG-2-Standard, bei dem sich immer nur auf vorherige Bilder bezogen wurde, durchsucht die MPEG-4-AVC-Erweiterung H.264 in einem größeren Umfeld nach Redundanzen – also beispielsweise nicht nur in den vorherigen, sondern auch in den folgenden Frames/Bildern. Hinzu kommt, dass die Größe der untersuchten Blöcke sich verringert.

Im seinerzeit neuen Verfahren zur Datenkompression wurde auf die diskrete Kosinustransformation (DCT) mit 8x8-Pixel-Blöcken verzichtet. Bei AVC/H.264 kommt eine Integertransformation auf Basis von 4x4-Pixel-Blöcken zum Einsatz. An die veränderte Transformation wurde die sogenannte Entropiekodierung angepasst. Hierbei handelt es sich um eine Methode zur verlustfreien Datenkompression, wie zum Beispiel die arithmetische Kodierung oder die Huffman-Kodierung (Näheres hierzu findet sich in diesem Kapitel „Codieren/Decodieren“). Deshalb unterstützt AVC/H.264 nicht mehr nur herkömmliche VLC-Codes (Huffman-Codierung), sondern darüber hinaus die leistungsfähigere arithmetische Kodierung CABAC (Context Adaptive Binary Arithmetic Coding).

In diesem Zusammenhang bietet der seinerzeit aktuelle Videokompressionsstandard AVC/H.264 einen weiteren Vorteil - vor allem in Bezug auf hochauflösendes Videomaterial sowie die bessere Bewegungsschärfe oder vielmehr Bewegungskompensation, welche auf ¼ Pixel genau ist. Denn die Makroblöcke mit einer Größe von 16x16 Pixel werden hier auf Unterblöcke (4x4 Pixel) unterteilt (Macroblock Partitioning) und für jeden Block ein eigener Bewegungsvektor gespeichert. Bei der Mittelwertbildung wird im Vergleich zu H.263 nicht mehr mit zwei, sondern mit sechs Koeffizienten (+1/32, -5/32, +20/32, +20/32, -5/32, +1/32) gearbeitet und eine weitere Mittelwertbildung (Intra Prediction) verwendet, bei der aus den Halbpixeldaten die Informationen auf ¼ Pixel genau berechnet werden. Neben zusätzlichen Referenzbildungen, wie die Long-Term Prediction und Weighted Prediction, kommt bei AVC/H.264 ein Deblocking-Filter zum Einsatz. Dabei werden Referenzen für die Bildinformationen nicht nur aus bereits dekodierten, sondern zusätzlich aus bereits gefilterten Frames/Bildern gewonnen. Dies erhöht insbesondere in Verbindung mit der verringerten Transformation (4x4 Pixel) die Qualität der Bewegtbildwiedergabe.

Doch was im Zuge der voranschreitenden Digitalisierung als „Format für die Zukunft“ tituliert wurde, ist zehn Jahre später schon wieder Makulatur. Mit der Einführung von Ultra HD/HDR, UHD/4K-Blu-ray, DVB-T2 und entsprechendem Videomaterial hat der einst revolutionäre Videokompressionsstandard AVC/H.264 für HDTV, Blu-ray, HD-DVD und DVB ausgesorgt. Neue Standards sind auf dem Markt, die eine noch effizientere Methode zur Videokompression nötig machen.

 

HEVC/H.265

Auf der IFA 2013 wurde der neue Videokompressionsstandard HEVC/H.265 bekannt. Aufgrund der gestiegenen Anforderungen durch höhere Auflösungen im Kontext der Einführung von BT.2020 entwickelte das Gemeinschaftsprojekt von ITU und MPEG einen neuen MPEG-Standard, der von der Moving Picture Experts Group (MPEG) bereits ein Jahr zuvor in Stockholm verabschiedet wurde. Mit HEVC/H.265 ist es nunmehr möglich, bei gleicher Qualität die Datenkompression zu verdoppeln. Das bedeutet bei der Übertragung von Videomaterial entweder doppelt so viele Kanäle oder höhere Qualität oberhalb von Full HD (1920 x 1080 Pixel) bei gleichbleibender Kanalbelastung auf allen Übertragungswegen (Internet, Fernsehen).

High Efficiency Video Coding (HEVC) ist Teil 2 des MPEG-H-Standards und steht in unmittelbarer Konkurrenz zum lizenzgebührenfreien Format aus dem Hause Google für die verlustbehaftete Videodatenkomprimierung VP9, das insbesondere von YouTube verwendet wird.

HEVC/H.265 stellt eine Weiterentwicklung der Technologie von H.264 in Bezug auf die bereits beschriebene Redundanzreduktion und veränderte Transformation in Form einer arithmetischen Kodierung dar. Neu ist bei H.265 die flexible Größe der untersuchten Makroblöcke. Mit der sogenannten Coding Unit werden Redundanzen sogar zwischen unterschiedlich großen Bildbereichen gefunden. Dies macht eine Skalierung von 320 × 240 Pixel bis zu 8192 × 4320 Pixel möglich und ist somit bestens geeignet für die Übertragung ultrahochauflösender TV- und Streaming-Angebote sowie die Realisierung von Blu-ray mit 4K-Auflösung und HDR und könnte somit die Basis für 8K/UHD-2 mit einer Auflösung von 7680 × 4320 Pixeln bilden.

Dennoch sieht die ITU den aktuellen Standard HEVC/H.265 lediglich als Meilenstein in der technischen Entwicklung zur Videodatenkompression und der einhergehenden Realisierung von BT.2020. Das Ziel der nächsten Jahre heißt UHD-2/8K. Ob HEVC/H.265 einer weiteren Vervielfachung des Datenvolumens tatsächlich Stand hält, wird sich zeigen. Die ITU hat bereits mit der Einführung ihres derzeitigen Videokompressionsstandards im Jahre 2013 die Haltbarkeitsdauer auf maximal zehn Jahre begrenzt.

 

Digitale Videosignale

Die Digitale Studionorm „CCIR 601“ geht auf eine Empfehlung des Comité Consultatif International des Radiocommunications (CCIR) aus dem Jahre 1982 zurück. Zehn Jahre später (1992) wurde sie mit der Bezeichnung „Encoding Parameters of Digital Television for Studios“ (ITU-R BT.601) von der International Telecommunication Union (ITU) standardisiert.

Digitale Videosignale entstehen im Allgemeinen durch die Analog/Digital-Wandlung, das heißt, aus einem analogen Original entsteht im Rahmen der Digitalisierung (vgl. entsprechendes Kapitel) ein digitales Bildsignal mit zunächst derselben Auflösung in Helligkeit und Farbe. Lediglich die Art und Weise der Kompressionsverfahren, die Anzahl der MAZ-Generationen und die Quantität der Auflösung sind letztlich für die Qualität des digitalen Videosignals verantwortlich.

 

Abbildung 146: Logo für High Definition Serial Digital Interface HD-SDI (Norm SMPTE 292M)

 

Im professionellen TV-Bereich werden heute üblicherweise neben DVI- und HDMI-Signalen auch digitale Komponentensignale (SDI-Signale) verarbeitet. Da die Komponentencodierung weitgehend unabhängig von Fernsehnormen ist, findet das digitale Komponentensignal im DTV am meisten Verwendung. Hauptsächlich handelt es sich um SDI-Signale, wobei der Begriff SDI lediglich eine Schnittstelle beschreibt. Das digitale Komponentensignal besteht aus dem Luminanz-Signal und den beiden Farbdifferenz-Signalen. Das 4:2:2-Prinzip der Farbunterabtastung und eine 10-Bit-Quantisierung werden hier grundsätzlich favorisiert. Jedoch können die hohen Datenmengen des SDI-Signals auch mithilfe anderer Verfahren reduziert werden (z.B. 8-Bit-Quantisierung, im Chroma-Subsampling-Format 4:2:0 oder gar 3:1,5:0, bei dem auch das Luminanz-Signal reduziert wird. In jedem Fall weisen digitale Komponentensignale gegenüber digitalen RGB-Signalen aufgrund ihrer Bearbeitung eine verminderte Qualität auf, die allerdings nicht immer sichtbar sein muss.

Wie bereits erwähnt, beschreibt SDI (Serial Digital Interface) im eigentlichen Sinne die Geräteschnittstelle. Dennoch wird die Bezeichnung oft synonym für das SDI-Signal verwendet, das sowohl als Standard bei nicht-datenreduzierten Geräteverbindungen (Filmstudios oder Rundfunkanstalten) genutzt wird, als auch für jede Art von Datenreduktion digitaler Videosignale im Zusammenhang mit der weiteren Verwendung beziehungsweise Übertragung.

Während herkömmliche Komponentensignale (Analogtechnik) in drei voneinander getrennten Leitungen übertragen wurden, ist für die Übertragung des SDI-Signals lediglich ein einziges Kabel mit einem BNC-Stecker23 notwendig. Die drei Komponenten des SDI-Signals werden ineinander verschachtelt und seriell weitergeleitet. Die Weiterverarbeitung des Signals hängt dabei vom jeweiligen Anspruch beziehungsweise der entsprechenden Videonorm ab. Während Studiogeräte und die Systeme zur Signalverteilung in der Regel beide Normen (SD und HD) beherrschen, werden - je nach Übertragungsform, Videonorm und Auflösung des digitalen Komponentensignals - verschiedene Schnittstellen benötigt.

 

Beispiele dafür sind:

  • SD (576i/25/576psF25): SD-SDI.

  • HD (1080i/25/1080pSF/25): HD-SDI,

  • HD (1080p/50): 3G-SDI oder Dual Link HD-SDI.

  • UHD-1: 3G- oder 6G-SDI.

 

Video-Schnittstellen (Interfaces)

So entscheidet die richtige Schnittstelle nicht selten über die Qualität der Signalverbindung. Denn hier ist der sogenannte elektrische Übergabepunkt zwischen zwei Geräten für alle digitalen Audio-, Video- oder Steuersignale. Deshalb müssen für eine optimale Verbindung das Signal selbst sowie die Hardware zueinander passen. Insofern ist insbesondere für den Verbraucher die richtige Schnittstelle beziehungsweise Steckverbindung interessant.

 

Abbildung 147: DVI- und VGA-Schnittstelle

 

Für die Verteilung dekomprimierter Audio- und Videosignale können sowohl analoge als auch digitale Schnittstellen benutzt werden. Die Verwendung ist im Großen und Ganzen von der erforderlichen Bandbreite und den Frequenzen der einzelnen Signale abhängig. Im analogen HD-Bereich gehören im Allgemeinen VGA (inklusive DVI-Analog und DVI-Integrated), Component Video (inklusive SCART) zu den bekanntesten und meist verwendeten Schnittstellen. Im digitalen Bereich sind dies VGA (DVI-Digital) sowie SDI und HDMI, wobei diese Schnittstellen durchaus kompatibel sind oder aber mittels eines Adapters beziehungsweise Converters verbunden werden können.

 

Abbildung 148: Converter SDI-HDMI

 

SDI

Die digitale SDI-Schnittstelle (Serial Digital Interface) dient vornehmlich der seriellen Übertragung nicht-komprimierter und unverschlüsselter Videodaten über Koaxialkabel oder Lichtwellenleiter und wird entsprechend hauptsächlich in professionellen Fernsehstudios und Fernsehsendern eingesetzt. SDI-Schnittstellen werden durch verschiedene SMPTE-Normen definiert, die sich vor allem durch ihre verschiedenen Bitraten unterscheiden. So beschreibt der Standard SMPTE 292M die HD-SDI-Schnittstelle mit einer Bitrate von 1,485 Gbits pro Sekunde. Diese Norm wird beispielsweise für HDTV-Formate verwendet. Eine Weiterentwicklung ist die Schnittstelle 3G-SDI für das HD-Format 1080p/50, das aufgrund der doppelten Abtastung entsprechend mehr Datenvolumen benötigt. Deshalb beträgt die Bitrate hier 2,97 Gbits pro Sekunde und ist in der Norm SMPTE 424M festgelegt.

 

DVI

Die Schnittstelle Digital Visual Interface (DVI) wird vorrangig bei der Verbindung zwischen einer PC-Grafikkarte und einem Bildschirm verwendet. Spätestens seit der Einführung der LC-Displays wurde die analoge VGA-Schnittstelle von der digitalen Variante der DVI-Schnittstelle abgelöst, weil die Umwandlung eines analogen in ein digitales Signal (A/D-Wandlung) überflüssig wurde.

 

Abbildung 149: Varianten der DVI-Schnittstelle

 

Ein DVI-Stecker kann unterschiedlich belegt sein, wobei die Bezeichnung DVI-A ausschließlich für analoge Signale und DVI-D für digitale Videosignale steht. Bei den unterschiedlichen Ausführungen einer DVI-I-Schnittstelle steht das „I“ für Integration, das heißt, dass sowohl analoge als auch digitale Signale übertragen werden können. Dabei liegt das RGB-Analogsignal auf vier Pins und das digitale Signal auf 18 (Single Link) oder 24 Pins (Dual Link). Beispiele für die einzelnen DVI-Stecker sind in der obigen Abbildung dargestellt.

 

Abbildung 150: Möglichkeiten für Schnittstellen am Fernsehgerät

 

Nicht nur im Computerbereich, sondern auch an Playern, Receivern oder Fernsehern kommen DVI-Schnittstellen vor. Allerdings setzte sich hier im Laufe der Zeit vorwiegend der SCART-Anschluss und später zunehmend die HDMI-Variante durch. Die Daten werden nach dem Schnittstellenstandard TMDS (Transition-Minimized Differential Signaling) übertragen, wobei die Datenrate pro TDMS-Leitung (Lane) bei ca. 1,65 Gbits pro Sekunde liegt. Bei hohem Datenvolumen beziehungsweise Videobandbreite sollten Dual-Link-Kabel verwendet werden.

 

HDMI

Der TMDS-Standard ist sowohl für DVI als auch für HDMI festgesetzt, zumal HDMI zu DVI abwärtskompatibel ist. Somit sind Geräte mit DVI- und HDMI-Anschluss kombinierbar, wobei in der Regel das DVI-Signal übertragen wird. Dennoch stellt die Kompatibilität (gerade von DVI zu HDMI) nicht selten ein Problem bei der Gerätekombination dar, weil nicht selten Hersteller die digitalen Formate für die Helligkeitspegel DVI-PC (0 bis 255) oder DVI-Video (16 bis 239) in ihren Geräten festschreiben. In vielen Flachbildschirmen sowie Videoprojektoren ist im Menü keine Wahlmöglichkeit zwischen PC- und Video-Level enthalten. So kann es passieren, dass Schwarz zu hell dargestellt und der Weißpegel übersteuert wird. Deshalb gilt: nur wenn der Videopegelbereich identisch ist, kann ein optimaler Kontrast erreicht werden.

Die im Jahre 2002 entwickelte Schnittstelle High Definition Multimedia Interface (HDMI) gehört heute zum Standardformat im Bereich des digitalen Fernsehens. Hintergrund ist vor allem die Datenrate von bis zu 5 Gigabits pro Sekunde. So können hochauflösende Videoformate (wie bei HD, Full HD oder Ultra HD) in Kombination mit Audiodaten störungsfrei über HDMI-Schnittstellen weitergeleitet werden. Darüber hinaus besteht mit HDMI ein hervorragender Kopierschutz (HDCP - High-Bandwidth Digital Content Protection), der gewährleistet, dass multimediale Inhalte in Form von Video- und Audiodaten nicht kopiert werden können.

Alle modernen Wiedergabegeräte verfügen neben dem herkömmlichen SCART-Anschluss zumeist über mehrere HDMI-Anschlüsse. Insofern können Flachbildschirme, DVB-Receiver und beispielsweise Blu-ray-Player einfach miteinander verbunden werden. Außerdem macht HDMI die Übertragung diverser Ton- und Bildsignale möglich. Hierzu zählen die nicht-komprimierten Signale verschiedener HD-Normen sowie datenreduzierte Signale im MPEG-Standard. Die einzelnen HDMI-Varianten begründen sich vorwiegend in den unterschiedlichen Auflösungen, Farbtiefen und Tonnormen, aber auch in der Fähigkeit, weitere codierte Audioformate zu übertragen.

 

Abbildung 151: Entwicklung des HDMI-Standards

 

Seit der Markteinführung der ersten Version HDMI-1.0 Ende 2002 wurden in sehr kurzer Zeit Nachfolgemodelle entwickelt. Bereits zwei Jahre später (2004) kam HDMI-1.1. und in den folgenden Jahren HDMI-1.2 und 1.2a sowie verschiedene 1.3-Versionen und HDMI-1.4 auf den Markt. Mit der Variante HDMI 1.4a war die 3D-Implementierung in den Heimbereich möglich. Ab 2010 können mit HDMI-2.0 höhere Datenübertragungsraten realisiert werden, die gegenüber anfänglichen 4,95 Gbits pro Sekunde nunmehr bei bis zu 10,2 Gbits pro Sekunde lagen. Gleichzeitig stiegen auch die Pixelraten von 165 MHz bis auf 340 MHz.

Im Zuge der Weiterentwicklung wurde 2013 auf der Internationalen Funkausstellung (IFA) die aktuelle HDMI-2.0-Version vorgestellt, der sogar 18 Gbits pro Sekunde zulässt. Mittlerweile gibt es den Standard HDMI 2.0/a, der darüber hinaus bis zu 32 Audio-Kanäle und die erweiterte UHD-Farbraum-Technologie gemäß Rec.2020 unterstützen soll, wodurch das visuelle Farbspektrum um bis zu 80 Prozent vergrößert werden kann.

Was ist der Theorie ganz einfach klingt, ist in der täglichen Praxis allerdings nicht immer Realität. Wie generell im Multimediabereich wird auch bei den HDMI-Kabeln mitunter getrickst und weitaus mehr versprochen, als tatsächlich realisiert werden kann. Abhilfe soll hier die zuständige Lizenzstelle für alle HDMI-Spezifikationen (HDMI Licensing, LLC) schaffen, die ein neues Prüfverfahren zur Zertifizierung von HDMI-Kabeln verabschiedet hat. Erweiterte Prüfverfahren sollen in Zukunft gewährleisten, dass UHD/4K-Signale von allen geprüften und zertifizierten HDMI-Kabeln auch in vollem Umfang unterstützt werden.

Denn auf dem Markt ist nicht alles Gold, was auch glänzt. Viele der bisher im Handel erhältlichen HDMI-Kabel unterstützen keineswegs die vollen 18 Gigabit/s, die für Ultra HD in bestmöglicher Qualität nötig sind - selbst wenn sie mit dem Label „High Speed HDMI“ gekennzeichnet sind. Ab Längen von drei bis fünf Metern wird es besonders kritisch. Nicht selten wird mit Kabeln in Verbindung mit dem HDMI2.0/a-Standard derzeit regelrecht Schindluder betrieben. Wer also sicherstellen möchte, dass sein HDMI-Kabel tatsächlich UHD- und 4K-Signale unterstützt, der sollte nach folgendem Logo Ausschau halten.

Ein geprüftes HDMI-Kabel, das dem vollwertigen HDMI2.0/a-Standard entspricht, kann man zukünftig anhand dieses neuen Gütesiegels mit QR-Code erkennen, das mit „Premium Certified Cable“ gekennzeichnet ist. Durch entsprechende Tests soll im Prüfverfahren unter anderem die Möglichkeit erhöhter Störstrahlungen und damit eine ausreichende Schirmung berücksichtigt werden.

Das Siegel soll zudem gewährleisten, dass alle erweiterten Funktionen wie HDR und auch die erweiterten Farbräume mit 10 und 12 Bit einwandfrei übertragen werden können. Was die Farbunterabtastung anbelangt, darüber schweigt sich die HDMI Licensing, LLC allerdings aus, man kann aber wohl davon ausgehen, dass die Tests mit einer Farbunterabtastung von 4:4:4 durchgeführt werden. Alles andere wäre geradezu absurd.

Leider wurde das Prüfverfahren wieder einmal nicht zur Pflicht gemacht, denn dem Kabelhersteller bleibt es selbst überlassen, ob er das kostenpflichtige Prüfverfahren durchführt oder eben nicht. Wie schon bei den Siegeln zuvor werden wir wohl auch dieses Prüfsiegel zukünftig ausschließlich bei den Markenherstellern finden. Die billige „Chinastrippe“ kann also fröhlich weiter mit selbst gebastelten Logos für volle UHD-Unterstützung werben, ohne dass es für den Hersteller Konsequenzen hätte.

 

Abbildung 152: Gütesiegel "Premium Certified Cable" (www.hdmi.org)

 

In diesem Zusammenhang sei darauf hingewiesen, dass zwar nicht immer ein hoher Preis auch eine hervorragende Qualität garantiert. Andererseits kann man bei dem Motto „Geiz ist geil“ aber in den seltensten Fällen hochwertige Technik erwarten. Weitere Informationen über die UHD-Standards im Zusammenhang mit den modernen Schnittstellen finden sich im Kapitel „Video-Equipment“ im Abschnitt über die Bildwiedergabesysteme in diesem Buch.

Zusätzlich zur klassischen kabelgebundenen HDMI-Version gibt es mittlerweile WHDMI oder WHDI – ein kabelloser und vollwertiger Ersatz zur herkömmlichen HDMI-Schnittstelle. Mit WHDI (Wireless Home Digital Interface) lassen sich beispielsweise Full-HD-Formate (inklusive 3D) von mobilen Endgeräten (Smartphone oder Tablett) auf den Fernseher übertragen. Nicht zuletzt deshalb wird die WHDMI-Technologie von diversen Unternehmen, wie Sony, Panasonic, Samsung, LG, Toshiba, im Rahmen der WirelessHD-Allianz (WiHD) unterstützt.

WHDI überträgt Videoinhalte mittels Funkverbindung und nutzt dafür das 5-GHz-Frequenzband, womit eine relativ hohe Reichweite sichergestellt werden kann. Und auch wenn die Übertragung über weitere Entfernungen und durch Wände möglich ist, bleibt sie doch– wie bei allen Funkverbindungen – begrenzt und störanfällig. Dennoch bietet die kabellose Variante mehr Mobilität und (im Rahmen der Reichweite) einen qualitativ hochwertigen Empfang.

 

Abbildung 153: Logo WHDI - Wireless Home Digital Interface (www.whdi.org)

 

Aber auch die Kabelvariante bringt (wenn auch sehr wenige) Nachteile mit sich, die weniger an der Schnittstelle, sondern am Kabel selbst liegen. Dabei gilt: je länger das Kabel, desto höher die „Verständigungsprobleme“ zwischen Quell- und Zielgerät, die sich vor allem bei großen Datenmengen als Bitfehler und damit Bildstörungen kennzeichnen. Allerdings können zwischen einzelnen Geräten ebenjene Verständigungsschwierigkeiten auch unabhängig von der Kabellänge und bei gleichen HDMI-Standard auftreten. Wie im richtigen Leben kommt es auch hier auf den sogenannten „Begrüßungsprozess“ an, der im Fachjargon auch „Handshake“ genannt wird, wenn Geräte über HDMI-Schnittstellen verbunden werden. Dabei handelt es sich um einen Anmeldevorgang, der im Allgemeinen sehr komplex ist.

Dabei werden die übertragenden Frequenzen synchronisiert und die HDCP-Kopierschutz-Zertifizierungen abgeglichen, wobei ein Schlüssel erstellt wird, der zur Decodierung genutzt wird. In einem nächsten Schritt werden die jeweiligen Bildschirminformationen (z.B. Bildwechselfrequenzen, Auflösungen) ausgelesen und anschließend die Audio-Fähigkeiten des Zielgerätes in Bezug auf Decodierung des Bitstreams, PCM-Kanäle und so weiter abgefragt. Abschließend wird der CEC-Kanal überprüft, mit dem sich die Geräte gegenseitig steuern. Der gesamte Vorgang wird in einem sogenannten Handshake-Protokoll aufgezeichnet, das vorrangig zur Identifizierung möglicher Fehler genutzt werden kann.

Gelingt dieser „Handshake“ in all seinen Schritten, sind die Geräte erfolgreich miteinander verbunden, die Störmöglichkeiten gehen gegen Null und es kann mit der Datenübermittlung begonnen werden.

 

Abbildung 154: HDMI-Kabelvarianten (www.hdmi.org)

 

Im Grunde kommt es für eine optimale Kommunikation zwischen den Geräten auf den richtigen Stecker beziehungsweise das richtige Kabel an. Mittlerweile gibt es fünf verschiedene Typen von HDMI-Steckern, die sich nicht nur durch ihr Aussehen unterscheiden. Typ A verfügt über 19 nach innen liegende Kontakte und misst 13,9 x 4,5 Millimeter. Typ B wird zwar in der Praxis kaum eingesetzt, soll aber dennoch hier Erwähnung finden. Er ist 21,2 Millimeter breit und damit der größte seiner Art. (Im Vergleich: ein DVI-Stecker zählt stolze 39,5 Millimeter in der Breite.) Typ B ermöglicht durch seine Dual-Link-Verbindung mit sechs TMDS-Signalleitungen eine (im Gegensatz zu den HDMI-Steckern A und C) doppelt so hohe Datenrate. Denn wie Typ A kann auch Typ C nur für Single-Link-Verbindungen mit drei TMDS-Leitungen genutzt werden. Dieser Typ wird aufgrund seiner Größe (2,5 x 10,4 Millimeter) auch Mini-HDMI-Stecker genannt, verfügt aber ebenfalls über 19 Kontakte.

Die kleinste Steckverbindung stellt die entsprechend bezeichnete Micro-HDMI-Buchse (Typ D) dar. Bei einer Größe von gerade einmal 2,8 x 6,4 Millimetern verfügt sie dennoch über genauso viel Kontakte wie Typ A und C (19-polig). Dieser Stecker wurde mit dem HDMI-Standard 1.4 entwickelt und ist insbesondere für mobile Geräte (Digitalkameras, Smartphones, Tablets) geeignet.

 

Abbildung 155: HDMI-Steckertypen

 

Vor allem im Auto sind verriegelbare Steckvorrichtungen von Vorteil, um die Anschlüsse vor Vibrationen und Erschütterungen zu schützen. So wurde für die sogenannte Automotive-Technik der entsprechende Automotive-HDMI-Stecker Typ E konzipiert. Für eine umfassende Kompatibilität sind diverse Verteiler und Adapter auf dem Markt, die sowohl innerhalb der HDMI-Familie eine höhere Anzahl von Steckverbindungen als auch die Vernetzung mehrerer Standards ermöglichen. Eine kleine Auswahl des vielfältigen Angebots ist in Abbildung 142 dargestellt.

 

Abbildung 156: Vielfältiges Angebot von HDMI-Adaptern und -verteilern

 

HDMI 2.0 und damit 50Hz/60Hz UHD-Auflösungen bei 10/12 Bit UHD Deep Color 4:4:4 stellen in Bezug auf den sehr hohen Datenstrom, besonders hohe Ansprüche an das verbindende HDMI-Kabel. Grundsätzlich ist der Standard HDMI-2.0 innerhalb der HDMI-Familie abwärtskompatibel. Das heißt, die Kabel älterer Versionen können weiterhin genutzt werden. So wird es jedenfalls im Verkauf und von den Herstellern propagiert. Und letztlich ist auch bei der Kabelbelegung sowie bei den Steckern und Buchsen kein Unterschied zu vorherigen HDMI-Standards zu erkennen.

Und doch beschweren sich viele Nutzer, dass beispielsweise bei einer Auflösung von 3.840 x 2.160 Bildpunkten (60Hz) das Bild nicht stabil übertragen wird. Und dabei handelt es sich weder um Zufall noch um Einzelfälle. Oft sind irreführende wenn nicht gar falsche Angaben der Grund für die schlechte Signalübertragung. Nicht selten werden Kabel für die HDMI-2.0-Spezifikation beworben, bei näherer Betrachtung entsprechen sie aber längst nicht diesem Standard. Vorsicht ist auch geboten, wenn in einer Werbeanzeige steht, dass für alle Kabellängen dieselben Werte gelten. Spätestens jetzt sollte man die Finger von diesem Angebot lassen. Denn für ein Kabel von einem Meter Länge können nicht dieselben qualitativen Eigenschaften gelten wie für ein Kabel, das 15 Meter lang ist. Solche Angaben wären schlicht falsch.

Denn tatsächlich steigen bei höherer Kabellänge und natürlich mit dem HDMI-2.0-Standard auch die Anforderungen an die Qualität der Kabel. Genauer gesagt sind sowohl der Querschnitt der Innenleiter als auch die Konfektionierung der Stecker das Problem - oder eben die Lösung.

 

Abbildung 157: HDMI-Kabelinnenansichten

 

Macht man sich die Mühe und schneidet ein HDMI-Kabel auf, erkennt man sofort den Unterschied. Die Firma BUROSCH hat den Test gemacht und kam zu dem Schluss, dass tatsächlich die inneren Werte zählen. Denn selbst die Kabeldicke entscheidet nicht über die Qualität. In Abbildung 143 kann man am massiven Kabel links erkennen, dass die innere Struktur eher dünn und mit mangelhafter Abschirmung versehen ist. Der Kabelkauf erinnert insofern an ein Glücksspiel. Denn auch teure Varianten namhafter Hersteller müssen nicht immer halten, was die Werbung verspricht.

Auch Angaben wie „HDMI Highspeed“ sollten mit Vorsicht betrachtet werden, da sie nicht immer optimal 4K/UHD-fähig sind. Dies kann nur ein Verkaufsargument sein, um den neuen Highspeed-Standard zu entsprechen, wie er von der HDMI Licensing Organisation kommuniziert wurde. Alles in allem gibt es keine Standardlösung für dieses Standardproblem. In erster Linie sollte man auf die Kabellänge achten und diese so kurz wie möglich halten. Ansonsten hilft nur: kaufen und ausprobieren. Mit ein bisschen Glück ist das richtige dabei. Näheres zu den aktuellen Standards in Bezug auf Ultra HD/4K und entsprechende Geräte finden sich im Kapitel „Praxis der modernen Fernsehtechnik“.

 

Video- und Bildformate

Da die Videoerstellung und -bearbeitung heute immer mehr im Heimgebrauch Anwendung findet und mittlerweile jedes Kind sich im Internet Filme anschauen, herunterladen oder gar einstellen kann, hat sich entsprechend der Markt verändert. Eine Vielzahl digitaler Videoformate sind vorhanden und für deren Nutzer mitunter verwirrend. So ist das Videoformat nicht gleichbedeutend mit dem Dateiformat einer Videodatei. Vielmehr bezeichnet der Begriff Videoformat die Zusammenfassung aller audiovisueller Spezifikationen eines Videos, die im Einzelnen die folgenden vier beinhalten:

 

  • Bildauflösung,

  • Bildwiederholungsrate,

  • Farbtiefe,

  • Tonspur.

 

Es sind also mehrere Dateien und Dateiformate (Ton und Bild), die sich in einem Videoformat wiederfinden und komprimiert werden. Dabei können verschiedene Verfahren zur Datenreduktion (Videokompression) angewendet werden, die alle Daten in Form von Videocodecs oder Video-Containerdateien abspeichern. Dabei ist ein Videoformat nicht grundsätzlich an ein bestimmtes Kompressionsverfahren gebunden, sondern es kommt auf den jeweiligen Einsatz an: z.B. Fernsehen, Blu-ray oder Webinhalt.

Im überwiegend semiprofessionellen Anwendungsbereich finden sich vor allem Videoformate aus der Computerbranche - wie beispielsweise aus dem Hause Microsoft (*.wmv, *.avi), Apple (*.mov), aus der Adobe-Familie (*.flv oder *.swf) oder vom Softwarehersteller RealNetworks (*.rm).

 

Abbildung 158: Video-/Containerformate

 

Beim digitalen Fernsehen entscheiden vor allem die Fernsehnormen sowie Auflösungsformate über die Art und Weise der Kompression und damit zuletzt über das Videoformat. Während PAL mit dem Standard MPEG-2 komprimiert, kommt bei UHD TV/4K (z.B. über DVB-S2) das MPEG-4-Verfahren zum Einsatz.

 

MPEG

Die Begriffe MPEG oder auch MP3, MP4 sind heute gebräuchlich und gehören in die multimediale Welt wie in den Alltag das Kaffeekochen. Doch kaum jemand weiß, wie diese Bezeichnung ursprünglich entstanden ist. Im Jahre 1988 konstituierte sich eine Arbeitsgruppe mit dem Namen Moving Pictures Experts Group: MPEG. Dieser Zusammenschluss mehrerer Organisationen - Joint Technical Committees (JTC) der International Standards Organisation (ISO) und der International Electrotechnical Commission (IEC) - hatte die Aufgabe, in mehreren Schritten Codierungsprinzipien und -algorithmen für Video- und Audiosignale zu standardisieren. Im Laufe der Zeit wurden so die folgenden Kompressionsformate standardisiert:

MPEG-1-Standard (1993)

Definition einer Quellencodierung zur Speicherung von Bild- und Tondateien auf CD-ROM beziehungsweise Video-CDs. Typisch für den MPEG-1-Standard, der auf einer Vollbildverarbeitung basiert, sind die maximale Datenrate von 1,5 Mbit/s und die drei zulässigen Tonqualitätsstufen für Mono- und Stereoton. Zum MPEG-1-Standard gehört übrigens auch das Audioformat MP3, das eigentlich MPEG-1/ Layer 3 heißt.

MPEG-2-Standard (1994 – 2000)

Folgetechnologie des MPEG-1-Standards für DVD und DVB mit Videosignalverarbeitung im Vollbild- und Halbbildformat, weitaus höheren Datenraten für Standard-TV-Signale (2 Mbit/s bis 15 Mbit/s) und HDTV-Signale (16 Mbit/s bis 40 Mbit/s) und einer Erweiterung der Audiocodierung auf Mehrkanalton bis zu fünf Kanälen. 1994 kam der erste Standard (H.262) auf den Markt, später folgten H.263 (1995/1996), H.263+ (1997/1998) und H.263++ im Jahre 2000.

MPEG-3-Standard

Dieser Standard war für HDTV vorgesehen. Allerdings genügte eine Erweiterung des MPEG-2-Standards für die Quellencodierung von HDTV-Signalen. MPEG-3 wurde daher nie verabschiedet.

MPEG-4-Standard (1998 – …)

Codierung mit sehr kleiner Bitrate im kbit/s-Bereich durch deutlich stärkere Videokompression. Neue Technologie für Multimediaanwendungen: Containerformat ähnlich wie QuickTime, 3D-Sprache mit VRML vergleichbar und Unterstützung der digitalen Rechtevermarkung (DRM) und nicht-rechteckiger Video-Objekte. Seit 2002 ist der Nachfolgestandard MPEG-4-AVC/H.264 auf dem Markt (JVT, Advanced Video Code (AVC), JM2.x, JM3.x und JM4.x). Im Jahre 2013 wurde dieser Standard weiterentwickelt und unter der Bezeichnung MPEG-H (HEVC/H.265) standardisiert, er erlaubt bei gleicher Qualität eine noch stärkere Videokompression für UHD/4K.

 

Abbildung 159: MPEG-Standards (2015)

 

Da MPEG sowohl Containerformate als auch Codecs spezifiziert, ist dieser Standard beispielsweise mit dem Videocontainerformat Audio Video Interleave AVI (Microsoft) kompatibel. Ein weiterer Vorteil, der nicht zuletzt zum Erfolgskonzept führte, liegt in der Tatsache, dass MPEG nur den Bit-Stream und den Decodierer als sogenannte Terminal-Architektur standardisiert.

Die Codierung selbst bleibt weitgehend von Standardisierungen frei. So werden keine festen Parameter vorgegeben, sondern Parametersätze lediglich mithilfe sogenannter Toolboxes optimiert, damit sie für verschiedene Anwendungen kompatibel bleiben. Im Zuge dessen werden insofern nur Musterimplementierungen zur Verifizierung bestimmter Möglichkeiten (Verification Models) vorgeschlagen. Somit können professionelle Anbieter die tatsächlich benötigten Implementierungen von MPEG-Codierungen neu schreiben und so den individuellen Ansprüchen anpassen.

Die Grundstruktur des MPEG-Datenstroms ist durch zwei Merkmale gekennzeichnet: Zum einen enthält die sogenannte Systemschicht die Rahmenstruktur sowie die Bitorganisation und darüber hinaus notwendige Informationen für das De‑Multiplexen des Video- und Audiodatenstroms sowie die Synchronisation der Audio- und Videosignale während der Wiedergabe. Zum anderen enthält die sogenannte Kompressionsschicht den komprimierten Video- und Audiodatenstrom.

Für das digitale Fernsehen war bisher ausschließlich das MPEG-2-Format relevant, das vor allem für die Videocodierung von HDTV-Signalen konzipiert wurde. Für den aufstrebenden Multimediabereich ist dieser Standard allerdings nicht mehr ausreichend. Und wieder einmal war es der Pay-TV-Sender Sky (ehemals Premiere), der als erster die neue Technologie umsetzte. Ende 2015 stellt der Sender die DVB-S-Betrieb ein und wird gleichzeitig auf DVB-S2 umstellen. Damit ist Sky der erste Anbieter in Deutschland, der sein Programm vollständig im MPEG-4-Standard ausstrahlen wird.

Viele Kabelnetzbetreiber, die Sky-Pakete anbieten, müssen die sogenannten Kopfstellen neu konfigurieren, damit diese den neuen Standard DVB-S2 unterstützen, das heißt, die Satellitensignale in Kabelsignale umsetzen können. Da das Kabelfernsehen im Rahmen der Digitalisierung generell hinterherhinkt (komplette Digitalisierung ist erst für 2018 vorgesehen), wird auch diese Nuss nicht leicht zu knacken sein.

 

JPEG

Im Jahre 1992 wurde die Norm ISO/IEC 10918-1 bzw. CCITT Recommendation T.81 vorgestellt, die vom Joint Photographic Experts Gremium (JPEG) entwickelt wurde, das gleichzeitig Namensgeber war. Ähnlich wie MPEG legt die JPEG-Norm nicht fest, wie Daten abgespeichert werden sollen, sondern beschreibt lediglich Methoden der Bildkompression. Grundsätzlich definiert die JPEG-Norm ISO/IEC 10918-1 unterschiedliche (verlustbehaftete oder verlustfreie) Komprimierungs- und Codierungsmethoden, verschiedene Farbtiefen sowie diverse Parameter zum sequenziellen oder progressiven Bildaufbau. Allerdings ist die verlustbehaftete Komprimierung bei sequenziellem oder progressivem Modus sowie 8-Bit-Farbkanälen (Huffman-Kodierung) die derzeit (Stand: 2015) am meisten verbreitete Variante des JPEG-Standards.

Dabei gliedert sich der Kompressionsvorgang in mehrere Bereiche, von denen die meisten verlustbehaftet sind:

 

  • Farbraumumrechnung: (verlustbehaftet)

  • Tiefpassfilterung/Unterabtastung (verlustbehaftet)

  • diskrete Kosinus-Transformation (Rundungsfehler/verlustbehaftet)

  • Quantisierung (verlustbehaftet)

  • Umsortierung

  • Entropiecodierung

 

Trotz Verlusten bei der Datenkompressionen sind Werte von etwa 1,5 bis 2 Bit/Pixel visuell nicht wahrnehmbar und Werte von 0,7 bis 1 Bit/Pixel noch im akzeptablen Bereich. Hingegen entsprechen Werte unter 0,3 Bit/Pixel keinem Qualitätsmaßstab und sind praktisch unbrauchbar. Es bilden sich sogenannte Kompressionsartefakte (Blockbildung, stufige Übergänge, Farbeffekte an Graukeilen), die nicht mehr übersehbar sind.

Neben der JPEG-Norm ISO/IEC 10918-1 gibt es weitere Standards, darunter der Nachfolgestandard JPEG 2000, der wesentlich anfälliger in Bezug auf die erwähnten Kompressionsartefakte ist. Darüber hinaus gibt es die verlustfreie Komprimierungsmethode JPEG Lossless Mode (JPEG-LS: ISO/IEC IS 14495-1) oder aber die JBIG-Norm zur Komprimierung von Schwarzweißbildern.

 

Digital Video Broadcasting (DVB)

Bevor die einzelnen Übertragungsvarianten näher erläutert werden, sollen zunächst allgemeine Hinweise zum Digital Video Broadcasting (DVB) gemacht werden, das wörtlich mit „digitaler Videorundfunk“ übersetzt werden kann. Die Bezeichnung DVB steht grundsätzlich für Digitalfernsehen und in technischer Hinsicht für das in Europa standardisierte Verfahren zur Übertragung digitaler Inhalte mithilfe entsprechender Technik. Insofern gilt die Bezeichnung nicht mehr ausschließlich für das Fernsehen, sondern auch für Radio, Mehrkanalton, Raumklang sowie interaktive beziehungsweise zusätzliche Dienste (z.B. EPG). Aufgrund der Datenreduktion, die im Weiteren noch differenziert beschrieben werden soll, ist es möglich, mehrere Programme parallel auf einem Sendekanal beziehungsweise auf einer Frequenz zu übertragen. Wie bereits beschrieben, wurde gerade zu Beginn des Digitalfernsehens dieser Vorteil zulasten der Bildqualität genutzt. Denn je größer die komprimierte Datenmenge, desto geringer ist die Qualität der Wiedergabe mit steigendem Rechenaufwand.

 

Abbildung 160: Offizielles Logo der Organisation Digital Video Broadcasting (www.dvb.org)

 

Auch wenn durch verschiedene Kompressionsverfahren die Daten reduziert werden können, sind dennoch die Bandbreite und die Form der Übertragung ausschlaggebend. Für die klassischen Übertragungswege (Antenne, Kabel, Satellit) wurden entsprechende Verfahren entwickelt und standardisiert. Beim terrestrischen Digitalfernsehen (DVB-T) wird beispielsweise das Modulationsverfahren DOFDM (Coded Orthogonal Frequency Division Multiplex) verwendet, mit dem bei einer Bandbreite von 8 MHz bis zu 24 Mbit pro Sekunde und pro Kanal (Frequenz) übertragen werden können. Hingegen beträgt die Datenrate bei gleicher Frequenzbreite im Breitband-Kabelnetz DVB-C bis zu 38 Mbit pro Sekunde.

Für die einzelnen Übertragungswege sollten im Zuge der Digitalisierung europaweit Standardisierungen vorgenommen werden. Infolgedessen erfolgte Mitte der 1990er Jahre der Zusammenschluss der beiden Organisationen DVB und DAVIC (Digital Audio and Video Council) und die Bildung des DVB/DAVIC-Standards, der vom European Telecommunications Standards Institute (ETSI) mit der Bezeichnung ETS 300 800 geführt und von der internationalen Fernmeldeunion (ITU) unter der ITU-Bezeichnung J.112 übernommen wurde. Dieser ressourcenübergreifende Standard ist für die Übertragung in HFC-Netze und drahtlose LMDS-Netzwerke geeignet.

Im Jahre 1998 wurde zudem das DDIC-Konsortium DDIC (DVB/DAVIC Interoperability Consortium) gegründet, mit dem insbesondere namhafte Hersteller die sogenannte Interoperabilität von DVB- und DAVIC-Produkten unterstützten, um so ein hohes Maß an Kompatibilität zu gewährleisten. Der entsprechende Interoperabilitätsgrad der jeweiligen DVB- und DAVIC-Produkte wird von der DDIC in regelmäßigen Abständen getestet, dokumentiert und zertifiziert.

Allein am DVB-Konzept beteiligen sich über 200 Unternehmen, Sendeanstalten, Institute und weitere Organisationen. Es beinhaltet die Verknüpfung der Bereiche Fernsehen, Internet und Telekommunikation. Hierzu zählen unter anderem die Signalübertragung in IP-Netze, Schnittstellen zwischen der DVB-Welt und Hochgeschwindigkeitsnetzen, die Vernetzung von DVB-Endgeräten und Speichermedien, die Multimedia Home Platform (MHP) sowie das Digital Satellite News Gathering (DSNG). Darüber hinaus beinhaltet das DVB-Konzept die Synchronisation von Gleichwellennetzen und bestimmte Systeme im Zusammenhang mit dem Bezahlfernsehen – etwa für gesicherte Transaktionen, Authentifizierungen und Zugangskontrollen.

In den DVB-Nutzungsrichtlinien sind die technischen Leistungsmerkmale festgeschrieben. Die Audioqualitäten differenzieren sich in Mono, Stereo und Dolby Surround. Für den digitalen Videoempfang können grundsätzlich die folgenden Qualitätsstandards unterschieden werden:

 

  • LDTV (Low Definition Television): niedrige Qualität

  • SDTV (Standard Definition Television): TV-Standardqualität

  • EDTV (Enhanced Definition Television): Studioqualität

  • HDTV (High Definition Television): hochauflösendes Fernsehen.

Für die diversen Übertragungswege wurden mehrere technische DVB-Unterarten entwickelt. Diese unterscheiden sich neben dem Übertragungsweg hauptsächlich in der Fehlerkorrektur und im Modulationsverfahren, das insbesondere vom Frequenzbereich und dem entsprechenden Übertragungskanal abhängt. In der folgenden Abbildung werden die DVB-Standards benannt, die heute (Stand: 2016) auf dem Markt zu finden sind.

 

Bezeichnung

DVB-Standard

Details

DVB-S

EN 300 421

Übertragung über Satelliten

DVB-S2

EN 302 307

Nachfolgestandard für DVB-S

DVB-C

EN 300 429

Übertragung über Kabelnetze

DVB-C2

TM 68

Nachfolgestandard für DVB-C

DVB-T

EN 300 744

Übertragung über Antenne

DVB-T2

A 122

Nachfolgestandard für DVB-T

DVB-IPTV

TS 102 034

Übertragung über IP-Netzwerke

DVB-H

EN 3020304

Übertragung auf mobile Endgeräte

Abbildung 161: Standards der DVB-Familie (www.dvb.org)

 

DVB-S/DVB-S2 (Satellitenkanal/ETS 300 421)

Die meistgenutzte DVB-Variante ist das über Satellit ausgestrahlte DVB-S beziehungsweise DVB-S2. Die englische Bezeichnung „Digital Video Broadcasting/Satellite“ bedeutet es also nichts weiter als digitales Satellitenfernsehen. Empfangen werden kann DVB-S beispielsweise über Astra oder Eutelsat.

Die Datenübertragungsrate ist beim Satellitenfernsehen am höchsten, deshalb ist die Anzahl der übertragenen Fernseh- und Rundfunkprogramme hier am größten. Vergleicht man den Empfang beispielsweise mit DVB-T, so wird schnell deutlich, dass die Sendervielfalt bei DVB-S wesentlich ausgeprägter ist. Bis zu 300 Fernsehprogramme und 170 Radiosender können unverschlüsselt empfangen werden. Darüber hinaus benötigt DVB-S keine sogenannte Zusatzinfrastruktur. Das heißt, es ist direkt mit dem Satelliten „verbunden“, während für DVB-C flächendeckende Kabelnetze nötig sind, die regelmäßig gewartet werden müssen. Insofern ist der Satellitenempfang auch in der entlegensten Ecke möglich, dies schließt im Übrigen auch eine gewisse Mobilität ein. Es gibt DVB-S-Systeme, die mithilfe automatisch nachführender Parabolantennen die Verbindung zum jeweiligen Satelliten halten. Somit kann sogar in Flugzeugen, auf Schiffen oder im Campingmobil digitales Fernsehen empfangen werden. Deshalb spricht man bei DVB-S auch vom „Überallfernsehen“.

 

Abbildung 162: Logo für DVB-Satellit (www.dvb.org)

 

Mit der einmaligen Anschaffung der entsprechenden Hardware sind keine weiteren Kosten verbunden, da der Satellitenbetrieb von den Rundfunkanstalten finanziert wird. Aber nicht nur für den Verbraucher ist diese Form des digitalen Fernsehempfangs eine kostengünstige Variante. Während mit der Analogtechnik lediglich ein Programm auf einem Transponder abgestrahlt werden konnte, sind es mithilfe der MCPC-Technologie mehrere Kanäle pro Trägerfrequenz. Das heißt, dass Programmanbieter sich gegebenenfalls die relativ kostenintensive Miete für einen oder mehrere Satelliten-Transponder sparen können. Bei MCPC-Signalen (Multiple Channel per Carrier) werden Symbolraten über 10.000 kSym/s benutzt. Die Datenübertragungsrate ist letztlich dafür verantwortlich, wie viele Programme gleichzeitig über einen Transponder ausgestrahlt werden können und natürlich die Videoauflösung. So können durchschnittlich zirka acht SDTV-Programme mit durchschnittlicher Auflösung oder aber vier HDTV-Programme pro Trägerfrequenz übertragen werden.

 

Abbildung 163: Blockdiagramm eines Satelliten-Transponders 

 

Im Vergleich zum digitalen Kabelfernsehen bringt der Satellitenempfang über DVB-S und insbesondere DVB-S2 einen weiteren Vorteil mit sich: die Programmvielfalt. Da die Polarisationsebenen pro Satellit quasi doppelt genutzt werden (in der Regel horizontal und vertikal), verdoppelt sich damit der Frequenzbereich. Darüber hinaus ist unter dem Begriff „Astra 19° Ost“ nicht nur ein Satellit zu verstehen, sondern derzeit (Stand: 2016) sogar vier, denn es finden sich an jeder Orbitalposition gleich mehrere Satelliten. Sofern sie auf dasselbe Empfangsgebiet ausgerichtet sind, sind sie auch in der Lage, sich die Bandbreite von 4 GHz (bei DVB-C 0,8 GHz) zu teilen. Vor diesem Hintergrund sind weitere Steigerungen der Programmanzahl bei DBV-S keine undurchführbare Utopie.

Standardmäßig werden in Europa lediglich die Frequenzen des Ku-Bandes genutzt, dabei ist es technisch jederzeit möglich, auf weitere Frequenzbänder auszuweiten. Eine Verdoppelung der Bandbreite einer Satellitenposition und damit ein zusätzliches Multimedia- oder Programmangebot wäre allein mit der Nutzung des Ka-Bandes (17,7 – 21,2 GHz) machbar. Darüber hinaus könnte das C-Band (3,4–4,2 GHz) eine weitere Programmsteigerung ermöglichen, zumal es eine weitaus geringere Störanfälligkeit bei Regen aufweist. Allerdings benötigt man für den Empfang unverhältnismäßig große Antennen, die im Durchmesser mindestens zwei Meter betragen müssen. Deshalb wird das C-Band weniger in Europa als vielmehr in Amerika, Asien und Afrika genutzt.

Aber auch wenn die Bandbreite pro Satellitenposition mit 4 GHz im Ku-Band weitaus höher ist als in Kabelnetzen (0,8 GHz), relativiert sich dieser Wert. Grund dafür sind die unterschiedlichen Modulationsverfahren, mit denen DVB-S (QPSK) und DVB-C (QAM) arbeiten. Wird der sogenannte Signal-Rausch-Abstand in die Betrachtungen mit einbezogen, kann unter Berücksichtigung des Shannon-Hartley-Gesetzes24 eine vergleichbare effektive Kanalkapazität errechnet werden. So ergeben sich via Satellit höhere Fehlerkorrektur-Anteile, die bis zu einem Drittel der Bruttodatenrate ausmachen. Denn im Gegensatz zu DVB-C bedarf es aufgrund seiner Übertragungsart beim digitalen Satellitenfernsehen einem äußeren Fehlerschutz (FEC). Näheres hierzu finden Sie im entsprechenden Kapitel in den weiteren Ausführungen.

Auch bei der Weiterentwicklung der digitalen Satellitentechnik (DVB-S2) nimmt der Fehlerkorrekturanteil ein ebenfalls hohes Maß an Datenvolumen in Anspruch. Allerdings wird die Datenrate durch verbesserte Kodierungs-, Modulations- und Fehlerkorrekturverfahren um bis zu 30 Prozent gesteigert.

Für die Satellitenübertragung wurde von der DVB-Organisation der DVB-RCS-Standard (Return Channel for Satellite) initiiert, mit dem Endgeräte zukünftig digitale Fernsehprogramme sowie Computerdaten mit Übertragungsraten von bis zu 50 Mbit pro Sekunde empfangen können. Denn auch das mobile Satellitenfernsehen ist keine Zukunftsmusik mehr. Mit der neuen SAT-IP-Technologie können die kostenlosen Signale aus dem Orbit dem Heimnetzwerk zur Verfügung gestellt werden, sodass von jedem IP-fähigen Gerät das Streamen möglich ist. Die rasanten Entwicklungen im Multimediabereich machen allerdings auch innerhalb des digitalen Satellitenfernsehens die Anschaffung von Wiedergabegeräten der neuen Generation nötig. Denn sowohl für die IP-Variante als auch die volle UHD-Auflösung sind vor allem ältere Fernsehgeräte nicht mehr geeignet. Näheres hierzu findet sich im Kapitel „Sat over IP“.

 

DVB-C/DVB-C2 (Kabelkanal/ETS 300 429)

Das Kabelfernsehen ist nahezu überall bekannt, auch wenn nicht jeder die Möglichkeit hat, das Fernsehen aus der Dose zu schauen. In manchen Regionen ist die Chance höher, im Lotto zu gewinnen, woanders kann man sogar auf exklusiven Campingplätzen sein Wohnmobil mit einem entsprechenden Anschluss ausstatten. Die endgültige Abschaffung des analogen Kabelfernsehens ist für Sommer 2017 geplant. Kurzum: Es ist in Deutschland nicht jedem vergönnt, auf die kabelgebundene TV-Variante zurückzugreifen, die vor allem bei schlechtem Wetter den besten Empfang zulässt. Andererseits hinkt das Kabelfernsehen in punkto Fortschritt und Kosten naturgemäß hinter den alternativen Übertragungsmethoden hinterher, weshalb das C auch für „classic“ stehen könnte.

Konkret steht für die Abkürzung DVB-C selbstredend die englische Bezeichnung „Digital Video Broadcasting – Cable“ - also die Übertragung digitaler Hörfunk- und Fernsehsignale via Kabelanschluss, wie sie seit 1998 standardisiert wurde. Obwohl die Digitalisierung in Deutschland im Kabelbereich noch nicht abgeschlossen ist, wurde hier dennoch relativ schnell (2010) ein Nachfolger entwickelt, der vor allem eine höhere spektrale Effizienz bietet.

DVB-C findet unter dem ETSI-Standard EN 300429 beziehungsweise EN 302769 (DVB-C2) auch außerhalb der Grenzen Europas Verwendung. So zum Beispiel in weiten Teilen Asiens, in Afrika, Australien sowie in Südamerika. Die USA (ATSC) und Japan (ISDB) stellen auch hier eine Ausnahme mit ihren eigenen Verfahren dar, die im Übrigen mit DVB-C nicht kompatibel sind.

 

Abbildung 164: Logo DVB-C (www.dvb.org)

 

Nicht nur beim Satellitenfernsehen, sondern auch bei der digitalen Kabelvariante ist es möglich, Video- und Zusatzdaten über nur eine Trägerfrequenz zu übertragen. Mithilfe des Multiplexverfahrens werden dafür mehrere Fernsehprogramme aber auch Radioprogramme in einem Kanal zusammengefasst.

Der Vorteil des digitalen Kabelempfangs liegt eindeutig in seiner geringen Störanfälligkeit. Denn gerade Nutzer der terrestrischen oder auch satelliten-basierten Funkausstrahlung kennen das: bei Gewitter ist der Empfang gestört und fällt teilweise sogar ganz aus. Darüber hinaus kommt es bei Übertragungen via Antenne zu Interferenzen, Abschattungen und Mehrwegeausbreitungen des Funksignals, die als Fading bezeichnet werden. Solche Störungen aufgrund von Schwankungen der Empfangsfeldstärke (Doppler-Effekt) treten beim DVB-C-Empfang nicht auf. Deshalb kann auf einfachere Modulationstechniken zurückgegriffen werden, was wiederum die effektive Datenrate erhöht.

Somit können neben den Video- und Audiodaten problemlos zusätzlich interaktive Funktionen (elektronischer Programmführer oder digitaler Teletext) angeboten werden. Auch kommerzielle Dienste (Video-on-Demand, HbbTV oder Pay-per-View) gehören zu den heute gängigen Zusatzdiensten im digitalen Kabelfernsehen. Allerdings sind diese - genau wie der HDTV-Empfang der Privatsender - mit einer zusätzlichen Gebühr verbunden und entsprechend verschlüsselt. Bis heute beansprucht DVB-C einen Großteil des Bezahlfernsehens (Pay-TV), das neben der Kabelgebühr auch weitere Kosten für die Decodierung verursacht. Moderne Fernsehgeräte sind seit 2010 zumeist mit DVB-C-Tunern ausgestattet, sodass zumindest die Anschaffung eines Receivers (Set-Top-Box) gegebenenfalls wegfallen kann. Für Pay-TV ist natürlich nach wie vor eine personalisierte Smartcard erforderlich. Allerdings steht im Rahmen der IPTV-Entwicklung mit der Direct2TV-Technologie mittlerweile auch eine Lösung ohne Set-Top-Box und Smartcard zur Verfügung.

 

Abbildung 165: Signalverarbeitung bei DVB-C-Sendeanlage/Kabelkopfstation

 

Obwohl die Digitalisierung des Kabelfernsehens noch nicht abgeschlossen ist, wird via DVB-C parallel zum SDTV auch in HDTV übertragen. Dies könnte der Grund dafür sein, warum die Einführung des DVB-C-Nachfolgers so schleppend vorangeht. Seit 2013 laufen diverse Feldversuche mit DVB-C2, das die Ausstrahlung von UHD TV beinhalten soll. Tatsächlich wurde der DVB-C2-Standard bereits im Jahre 2010 von der ETSI unter der Bezeichnung EN 302 769 entwickelt. Jedoch bleibt der Regelbetrieb aus. Kabelkunden kann es nur recht sein, denn für den Empfang von DVB-C2 wäre ein neuer Receiver anzuschaffen, da der Nachfolgestandard nicht mit DVB-C kompatibel ist.

Der Aufruf vom größten deutschen Netzbetreiber Kabel Deutschland an die Hersteller ging bisher mehr oder minder ins Leere. Erst wenn ausreichend Endgeräte auf dem Markt sind, die neben DVB-C auch DVB-C2 empfangen können, wäre Kabel Deutschland bereit, den neuen Standard einzuführen beziehungsweise vom erweiterten DVB-C2-Feldversuch in den Regelbetrieb überzugehen. Das Angebot an solchen DVB-C2-Receivern ist nach wie vor „übersichtlich“ (Stand: 2016). Insofern könnte die Einführung noch etwas auf sich warten lassen. Dennoch soll hier nicht darauf verzichtet werden, schon einmal den neuen Standard mit dem herkömmlichen zu vergleichen:

 

Parameter

DVB-C

DVB-C2

Datenschnittstelle

Transport Stream

einfach

mehrfach in Kombination GSE

Bitrate

fixe Bitrate pro Kanal

variable Bitrate, adaptive Datencodierung pro Kanal

Vorwärtsfehler-korrektur

Reed-Solomon (RS)

LDPC + FEC + BCH-Code

Modulation

Einträgersystem: QAM

Mehrträgersystem: OFDM

Basismodulation

16-QAM bis 256-QAM

16-QAM bis 4096-QAM

Schutzintervall

--

1/64 oder 1/128

maximale spektrale Effizienz

51 MBit/s

83,1 MBit/s

Downstream-

geschwindigkeit

5 Gbit/s

8 Gbit/s

Interleaving

auf Bit-Ebene

auf Bit-, Zeit- und Frequenz-Ebene

Abbildung 166: Vergleich Standards DVB-C und DVB-C2-Standard

 

DVB-T/DVB-T2 (Terrestrischer Kanal/ETS 300 744)

Hinter der Abkürzung DVB-T verbirgt sich die englische Bezeichnung „Digital Video Broadcasting Terrestrial“ und der digitale Standard für die Fernseh- und Hörfunkübertragung via Antenne in der Erdatmosphäre. Terrestrisch bedeutet in diesem Kontext die erdgebundene Verbreitung digitaler Radio‑, Fernseh- und Datensignale. DVB-T wurde bereits im Jahre 1997 vom Europäischen Institut für Telekommunikationsnormen (ETSI) standardisiert (EN 300 744).

Dennoch wird diese Form des Digitalfernsehens nicht nur in Europa, sondern auch in einigen asiatischen und afrikanischen Staaten sowie in Australien verwendet, wobei die Bezeichnung hier variieren kann. So wird der terrestrische Empfang beispielsweise in Großbritannien und Irland unter der Bezeichnung „Digital Terrestrial Television (DTT)“ geführt, in Frankreich „Télévision numérique terrestre“ (TNT) und in Spanien „Televisión Digital Terrestre“ (TDT). Wie bereits erwähnt, ist insbesondere in Nordamerika beziehungsweise Teilen der USA der Standard ATSC, in Japan dafür ISDB und in China DTMB (früher DMB-T/H) gebräuchlich.

 

Abbildung 167: Logo DVB-T (www.dvb.org)

 

Auch für das digitale Antennenfernsehen wurde vom ETSI ein Nachfolgestandard entwickelt, der unter der Bezeichnung EN 302 755 (DVB-T2) geführt wird. Der bereits seit 2008 festgelegte neue Standard ist nicht mit seinem Vorgänger kompatibel und sorgte vor allem deshalb für einige Schlagzeilen.Denn im Gegensatz zum digitalen Kabelfernsehen hat die Einführung des terrestrischen Nachfolgestandards neben wirtschaftlichen vor allem politische Ursachen. Mit dem Beschluss des Bundeskabinetts vom Februar 2015 wurde das Ende von DVB-T quasi besiegelt. Hintergrund des Beschlusses war der Breitbandausbau. Hierzu wurden ab 2015 Frequenzen versteigert, die bisher von DVB-T genutzt wurden.

Der Verkauf wurde unter anderem durch das Bundesverkehrsministerium beschleunigt, um ab spätestens 2017 mehr mobiles LTE-Breitband zur Verfügung stellen zu können. Der Übergang ist vor allem eines: teuer. Denn DVB-T2 ist nicht mit seinem Vorgänger kompatibel. Für bundesweit 3,8 Millionen Haushalte bedeutet dies, dass sie ab 2017 auf den digitalen Antennenempfang verzichten oder auf DBV-T2 nachrüsten müssen. Die aktuellen DVB-T-Receiver sowie alle Fernsehgeräte und PC-Bildschirme mit entsprechendem Tuner können dann nur noch mit einem Zusatzgerät empfangen, das auf den neuen DVB-T2-Standard ausgerichtet ist.

Neben geschätzten 300 Millionen Euro Anschaffungskosten für die Verbraucher wurden insbesondere die Entsorgungskosten auf einen mehrstelligen Millionenbetrag geschätzt. Der Ausstieg war ursprünglich für 2020 vorgesehen. Ab 2017 sollte lediglich eine schrittweise Einführung erfolgen. Da der Breitbandausbau eine höhere Priorität besitzt, wird an dem Abschalttermin trotz heftiger Widerstände vonseiten der Verbraucherschützer und Rundfunkanstalten nicht mehr gerüttelt.

Seit 2016 sind die neuen Empfänger bereits auf dem Markt und bringen neben HD-Qualität auch mehr Sendervielfalt mit. Am März 2017 werden nach derzeitigem Stand (2016) 15 frei empfangbare Sender und bis zu 20 verschlüsselte Privatsender bereitgestellt. Und obwohl sich die Preise für eine Neuanschaffung in Grenzen halten, ist doch Vorsicht beim Kauf eines DVB-T2-Receivers angesagt. Denn gegenüber anderen Ländern, in denen DBV-T2 bereits eingeführt wurde, setzt Deutschland auf den zusätzlichen Codec H.265/HEVC. Fazit: Nicht jeder DVB-T2-Tuner kann deutsche Programme empfangen. Somit sind viele Fernseher, die mit der neuen Technologie ausgestattet sind, in Deutschland nutzlos. Deshalb hat das Projektbüro DVB-T2 HD Deutschland ein neues Logo vorgestellt, das Verbrauchern zur Orientierung dienen und den terrestrischen Empfang deutscher Fernsehprogramme garantieren soll (vgl. Abbildung).

 

Abbildung 168: DVB-T2 HD - das Logo für den aktuellen Codec H.265

 

Im Juni 2015 wurde auf der Kölner Messe Anga Com die neue terrestrische Digitalübertragung vorgestellt. Hierzu zählen bestimmte Mindestspezifikationen, die unter anderem auf der Internetseite Deutsche TV-Plattform (www.tv-plattform.de) nachzulesen sind. Allerdings bringt der neue Standard auch zahlreiche Vorteile mit sich, die vor allem eine bessere Qualität und mehr Programme beinhalten. Gegenüber der analogen Übertragung lassen sich bei der digitalen Ausstrahlung die jeweiligen Funkkanäle UHF (7 MHz) und VHF (8 MHz) effizienter ausnutzen. Auf Basis der COFDM-Modulation (Coded Orthogonal Frequency Division Multiplex) werden innerhalb der verfügbaren Bandbreite mehrere tausend schmalbandige Einzelträger gesendet, wobei jeder dieser Einzelträger mithilfe verschiedener Verfahren (QPSK, 16-QAM, 64-QAM oder bei DVB-T2 QAM-256) moduliert wird. Somit können gerade bei DVB-T2 mehrere Fernsehprogramme pro Kanal übertragen werden.

Doch zurück zu den Grundlagen des Antennenfernsehens: Bei der Ausstrahlung von DVB-T ist die Bildung eines sogenannten Gleichwellennetzes vorgesehen. Ähnlich wie bei DVB-S wird hier ein Signal von mehreren aufeinander synchronisierten Sendeanlagen ausgestrahlt, die räumlich verteilt sind. Allerdings überlagern sich diese Funksignale. Es kommt also neben den charakteristischen Störeinflüssen auf Funkkanälen (Fading) zu weiteren Interferenzen, die allerdings frequenz- und standortabhängig sind und nur einen Teil der schmalbandigen Einzelträger in einem Funkkanal betrifft.

 

Abbildung 169: Signalverarbeitung einer DVB-T-Sendeanlage 

 

Deshalb werden mithilfe des Modulationsverfahrens COFDM und redundanter Verteilung der Informationen auf mehrere Einzelträger diese Beeinträchtigungen durch Fading unterdrückt oder zumindest reduziert. Die COFDM-Parameter werden je nach Anzahl, Abstand und Leistung der einzelnen Sender im Gebiet eines Gleichwellennetzes entsprechend angepasst. Hierzu zählt unter anderem die Länge des Schutzintervalls oder die Art des Modulationsverfahrens (QPSK, 16-QAM oder 64-QAM). Die Anpassung der COFDM-Parameter hat direkte Auswirkungen auf die Nutzdatenrate. Je höher die Fehlerkorrektur, desto geringer die Datenübertragungsrate pro Kanal, die zwischen 12 Mbit/s und knapp über 20 Mbit/s. liegen kann.

Aus diesem Grund liegt in Ballungsgebieten wie Berlin die Datenrate bei bis zu 22,19 Mbit/s, während in Regionen mit niedriger Senderdichte (zum Beispiel Nordrhein-Westfalen) die Sendeleistung bei gerade einmal 13,27 Mbit/s liegt. Insofern ist der mobile DVB-T-Empfang etwa in einem Wohnmobil eher mit einer Wünschelrute vergleichbar. Da diese Datenübertragungsrate bei DVB-T mithilfe des Multiplexverfahrens auf vier Programme aufgeteilt wird, liegt die mittlere Bitrate für jedes einzelne Programm zwischen 3 Mbit/s bis 3,5 Mbit/s. Lässt man Witterungsbedingungen und Störeffekte einmal außer Betracht, kommt es allein schon bei der Übertragung von Bildern mit hoher Dynamik (z.B. Action- oder Sportszenen) aufgrund des geringen Datenvolumens (3,5 Mbit/s) zu unschönen Bildverzerrungen. Pixel so groß wie Bauklötzer (Blockartefakte) sowie erhebliche Strukturverluste sind die Folge (vgl. Kapitel „Klötzchenbildung“ in diesem Buch).

Was heute schon als überholt gilt, war allerdings bei Einführung von DVB-T quasi eine Revolution. Denn im Gegensatz zum analogen Fernsehempfang war es durch die Datenkompression für Videodaten (MPEG-2/H.264) möglich, auf der Bandbreite eines Funkkanals drei bis sechs Fernsehprogramme in Standardauflösung auszustrahlen. Mit MPEG-4/H.265 ist es bei DVB-T2 möglich, trotz des höheren Datenvolumens mehrere Programme pro Kanal zu transportieren – je nachdem, welches Verfahren zur Bildabtastung genutzt wird (1080i/50 = ein Programm; 720p/25 = zwei Programme), was wiederum grundsätzlich von den Sendeanstalten abhängt.

 

DVB-Variant

DVB-S/DVB-S2

DVB-C/DVB-C2

DVB-T/DVB-T2

Übertragungsart

Satellit

Kabel (Cable)

Antenne (VHF/UHF)

Modulationsart

QPSK (DVB-S)

8PSK, 16APSK oder 32APSK

16-256 QAM

16-4096 QAM

QPSK, 16-QAM,

64-QAM, 256 QAM

Übertragungs-kapazität

typisch: 33 Mbit/s

max.: 38 Mbit/s

typisch: 38 Mbit/s

max.: 83 Mbit/s

typisch: 4 Mbit/s

max.: 22 Mbit/s

Empfang

Parabolantenne

Kabelnetz

Terrestrisch

Empfangs-qualität

gut

sehr gut

anfällig

Mobilität

stationär

mobil (mit portablen Geräten möglich)

stationär

stationär

mobil (abhängig vom Empfang)

Kosten

Anschaffungspreis

keine Fixkosten

Anschaffungspreis + Fixkosten

Anschaffungspreis

+ Fixkosten

Programm-

vielfalt

sehr gut

gut

gering

HD+/Full HD

(Stand: 2016)

generell

tendenziell

mit DVB-T2

Abbildung 170: Vergleich DVB-S, DVB-C, DVB-T

 

Zusammenfassend betrachtet, haben die drei gängigen DVB-Varianten allesamt Vor- und Nachteile, die je nach Anspruch und Budget gewichtet werden müssen. Programmvielfalt und hochauflösende Bildqualität bringen vor allem der Satellitenempfang aber auch (teilweise) DVB-C mit. Dagegen kann DVB-T mit problemlos überall hin mitgenommen werden. Allerdings ist hier – wie beschrieben - der Empfang nicht generell garantiert und für den Empfang der Privatsender müssen Verbraucher mit der flächendeckenden Einführung von DVB-T2 zukünftig in die Tasche greifen. In der oben abgebildeten Übersicht (vgl. Abbildung) werden die zurzeit (Stand: 2016) gängigsten DVB-Varianten verglichen.

Die Einführung des terrestrischen Nachfolgestandards in Deutschland wurde im Frühjahr 2016 endlich Realität. Drei Jahre früher als geplant soll der Regelbetrieb für DVB-T2 im 1. Quartal 2017 starten, die offizielle Testphase begann bereits am 31. Mai 2016. Seither ist in einigen Teilen Deutschlands das neue terrestrische Fernsehen probehalber empfangbar. An dieser DVB-T2-Testphase nehmen insgesamt sechs Sender mit ihren HD-Programmen teil: ARD, ZDF, ProSieben, RTL, Sat.1 und VOX. Da die RTL-Group sowohl beim Testlauf mitmacht als auch an der Initiierung des "Projektbüros DVB-T2 HD" für das digitale Antennenfernsehen der zweiten Generation (DVB-T2) beteiligt war, können Gerüchte über den Ausstieg dieses Programmanbieters (zumindest vorerst) vernachlässigt werden. Der Regelbetrieb beginnt übrigens nach derzeitigem Stand (2016) im ersten Quartal 2017. Bis zur endgültigen Fertigstellung des DVB-T2-Sendernetzes (voraussichtlich Mitte 2019) bleibt der terrestrische HD-Empfang jedoch vorerst Bewohnern von Ballungszentren vorbehalten. Stufenweise soll ab 2018 allerdings erweitert werden, sodass zumindest die öffentlich-rechtlichen Programme auch in sogenannten Mittelzentren und ländlichen Gebieten empfangen werden können. Die gute Nachricht: Alle Programme via Antenne werden mit DVB-T2 in HD-Qualität (maximal Full HD) ausgestrahlt. Kostenlos gibt es dann allerdings nur noch das Angebot der Öffentlich-Rechtlichen. Die Privatsender (z.B. Sat.1, RTL oder ProSieben) werden verschlüsselt angeboten und verbinden den Empfang mit einem jährlichen Entgelt. Näheres dazu haben wir für Sie im folgenden Kapitel „freenet.tv“ zusammengefasst.

 

Abbildung 171: Quelle: Media Broadcast

 

In einschlägigen Foren wird seit mehreren Jahren über DVB-T2 HD/HEVC diskutiert. Immer wieder ist davon zu lesen, dass der Testbetrieb bereits läuft. Richtig ist, dass der führende Betreiber digital-terrestrischer TV- und Radionetze in Deutschland (MEDIA BROADCAST) seit Oktober 2014 seinen ersten Testlauf in Berlin gestartet hat, weitere Pilotprojekte laufen seitdem sowohl in München als auch seit August 2015 im Raum Köln/Bonn. Dieser Probelauf richtete sich seinerzeit jedoch nicht an private Verbraucher, sondern naturgemäß an die Hersteller, denen somit eine praktische Testumgebung für die Entwicklung ihrer entsprechenden Endgeräte zur Verfügung gestellt wurde. Darüber hinaus werden vonseiten der Programmanbieter diverse Tests durchgeführt, die sich auf die Umschaltung der Standards (von DVB-T auf DVB-T2 HD) beziehen.

Ähnlich wie auch schon beim Vorgänger DVB-T hängt auch der DVB-T2-Empfang vom Wohnort ab. Jedes Bundesland soll mit entsprechenden Senderstandorten (z.B. Berliner Fernsehturm) ausgestattet werden, vorläufig jedoch lediglich in Großstädten wie Berlin, München, Köln. Wer in der Nähe eines Ballungszentrums wohnt, könnte neben der Zimmerantenne mit einer Außen- oder Dachantenne das Signal verstärken, die im Übrigen weiterhin genutzt werden kann. Anders sieht es bei den Empfangsgeräten aus. Viele neue Fernseher sind bereits mit DVB-T2-Tunern ausgestattet, allerdings kann mit diesen ausschließlich unverschlüsseltes Antennenfernsehen empfangen werden. Hierzu zählen zirka fünfzehn kostenlose Sender der öffentlich-rechtlichen Rundfunkanstalten, die ab 2017 regelmäßig ausgestrahlt werden. Das komplette Programm-Bouquet soll insgesamt etwa 35 bis 40 Sender umfassen. Anders als bisher können die Sender der privaten Programmanbieter dann aber nur noch gegen ein jährliches Entgelt empfangen werden (vgl. Kapitel „freenet.tv“ in diesem Buch).

Mit dem Anlauf der offiziellen Testphase kamen im Mai 2016 die „richtigen“ DVB-T2-Receiver auf den Markt, mit denen dann auch die verschlüsselten Privatsender in HD-Qualität via Antenne auf den TV-Bildschirm übertragen werden können. Auch hier wurde in der Vergangenheit reichlich philosophiert. Nicht alles, was man zum Thema lesen konnte, entsprach zwangsläufig der Wahrheit. Fakt ist, dass das hochauflösende Antennenfernsehen in vielen Teilen Europas längst Usus ist, Deutschland jedoch erst jetzt aufschließt (Stand: 2016). Deshalb sollten deutsche Verbraucher beim Kauf eines DVB-T2-Receivers genau hinschauen. Denn gegenüber anderen Ländern, in denen DVB-T2 bereits eingeführt wurde, setzt Deutschland auf den zusätzlichen Codec HEVC/H.265 (High Efficiency Video Coding) – auch wenn dieses Videokompressionsverfahren nicht Bestandteil der internationalen DVB-Spezifikation ist. Somit kann nicht jeder DVB-T2-Tuner automatisch deutsche Programme empfangen. Wie bereits beschrieben, wurde hierzu vom Projektbüro DVB-T2 HD Deutschland am 8. Juni 2015 eine für den deutschen Fernsehempfang entwickelte Spezifikation und ein entsprechendes Logo eingeführt, das Verbrauchern zur Orientierung dienen und den terrestrischen Empfang deutscher Fernsehprogramme garantieren soll.

Doch auch wenn in den aktuellen TV-Geräten der DVB-T2-Tuner mit dem offiziellen Logo bereits eingebaut ist, kann damit noch längst nicht das volle Programm empfangen werden. Wie beschrieben, werden die Privatsender ihr Angebot ausschließlich verschlüsselt senden. Neben der mangelnden Abwärtskompatibilität und dem Codec H.265 ein weiterer Grund, weshalb die Anschaffung eines neuen Receivers (Set-Top-Box) nötig wird, der mit entsprechender Hardware ausgestattet sein muss. Ähnlich wie beim herkömmlichen Pay-TV dient auch hier ein CI-Plus-Schacht am Receiver beziehungsweise der Set-Top-Box für die nötige Entschlüsselung der Signale. Entsprechende Geräte kamen erstmals im Mai 2016 auf den Markt. Die Deutsche TV-Plattform stellt hierzu auf ihrer Webseite eine Geräteliste zur Verfügung, die ständig erweitert werden soll. Hier können Verbraucher nachschlagen, ob ihr Gerät bereits die Mindeststandards der deutschen Spezifikation DVB-T2 HD erfüllt. Hierzu zählt unter anderem ein Gerät aus dem Hause Humax (HUMAX HD NANO T2/EAN: 8809095667929), eine internetfähige Set-Top-Box, die die CI-Plus-Hardware bereits eingebaut hat. Weitere DVB-T2-Empfänger sind auf dem Markt und auf der Internetseite www.tv-plattform.de/de/dvb-t2-hd-geraeteliste abrufbar.

Generell sollte beim Kauf sowohl auf das DVB-T2-HD-Logo als auch auf den entsprechenden Codec (HEVC/H.265) geachtet werden. Denn grundsätzlich gilt: Mit nicht-zertifizierten Receivern/Tunern (AVC/H.264) ist kein Empfang von deutschem Antennen-TV in HD möglich. Die alte DVB-T-Box kann entsorgt werden, da der neue HD-Standard nicht abwärtskompatibel ist. Jedoch können mit den neuen Empfängern durchaus die alten Signale empfangen werden. Wer sich also schon in 2016 entschließt, eine neue Box mit DVB-T2-Standard (ETSI EN 302 755 V1.3.1) zu kaufen, der kann bis zur Abschaltung 2017 nach wie vor herkömmliches DVB-T empfangen. 

Entscheidender ist natürlich die Frage, was uns der neue Standard bringt.
Auf die Standardauflösung (SD-TV) mit 720x576 Pixeln soll bei DVB-T2 HD komplett verzichtet werden. Gesendet wird ab 2017 überwiegend im progressiven Verfahren und Full-HD-Auflösung (1080p) mit 50 Bildern pro Sekunde und 1920 x 1080 Bildpunkten. Ob die ARD ebenfalls progressiv (im Vollbildverfahren) überträgt oder am Interlacing (Halbbildverfahren) festhält, ist bisher (Stand: 2016) noch nicht endgültig geklärt - wohl aber, dass Testläufe in diesem Format laufen. Obwohl hochauflösendes Fernsehen aufgrund der vielfachen Pixelanzahl pro Bild mehr Datenvolumen mit sich bringt, erhöht sich mithilfe der aktuellen Videokompressionsverfahren die Übertragungskapazität bei DVB-T2 um stolze 70 Prozent. Dies bringt gleich mehrere Vorteile mit sich. Zum einen können bei gleicher Bandbreite mehr Programme in besserer Qualität gesendet werden. Im sogenannten Multiplex können bei DVB-T2 HD bis zu sieben Programme pro Kanal zusammengefasst werden, bei  DVB-T waren es lediglich vier. Zum anderen erhöht sich die Benutzerfreundlichkeit beispielsweise durch eine robustere Signalstärke, die wiederum weniger Bild-Artefakte zur Folge hat und schnellere Umschaltzeiten ermöglicht. Die berühmten Klötzchen während eines Gewitterschauers könnten somit bestenfalls der Vergangenheit angehören. Denn durch die Einbindung des IP-Signals und eine Erhöhung der sogenannten Sende-Diversität (Multiple Input Multiple Output-Konzept) entsteht unter anderem eine bessere Versorgung zwischen zwei Sendeantennen. Somit wird nicht nur der stationäre Empfang via Antenne als kostengünstiges Pendant zum Kabel- und Satellitenfernsehen schneller und stärker, der TV-Empfang mit DVB-T2 wird zudem mobiler. Mit Geschwindigkeiten von bis zu 200 km/h kann das terrestrische Fernsehsignal demnächst sogar während der Fahrt im Auto, Zug oder Wohnmobil empfangen werden. 

Denn mit der offiziellen Testphase ab Mai 2016 sind die technischen Entwicklungen noch längst nicht abgeschlossen. So befasst sich beispielsweise das Projekt ROMEO mit der Verbreitung beziehungsweise Live-Übertragung von 3D-Inhalten (www.ict-romeo.eu). Darüber hinaus gibt es viele Vermutungen im WWW ...

 

freenet.tv

Mitte 2016 wurde endlich bekannt, dass der Service „freenet TV“ von Media Broadcast ab 1. Juli 2017 für den Empfang der privaten Sender sorgen wird und jährlich 69 Euro kostet. Bis dahin bleiben die derzeit im Rahmen der Testphase bereitgestellten Privatsender kostenlos. Wer bis Juli 2017 den kostenpflichtigen Empfang nicht freigeschaltet hat, kann dann nur noch die Öffentlich-Rechtlichen sehen.

Für derzeit (Stand: 2016) 79,99 Euro bietet der neue TV-Dienstleister „freenet TV“ verschlüsselten DVB-T2-Empfang an, der über das entsprechende freenet TV CI+ Modul" realisiert wird. Im Lieferumfang enthalten ist ein für drei Monate geltender Gratiszugang. Damit ist ab März 2017 der Empfang von bis zu 20 privaten Sendern in FULL HD möglich. Die Freischaltung erfolgt ähnlich wie bei Prepaid-Karten per Telefon oder über das Internet und soll nicht länger als fünf bis zwanzig Minuten dauern. Entsprechende Gutscheine sind dann im Handel erhältlich. Wie bereits erwähnt, sollte beim Kauf eines DVB-T2-Receivers beziehungsweise Fernsehers inklusive DVB-T2-Tuner auf den dafür nötigen Kartenslot und das weiter oben beschriebene DVB-T2HD-Logo geachtet werden.

 

Abbildung 172: freenet TV 89001 DVB-T2 HD CI+ Modul

 

Die Empfangsvoraussetzungen hier noch einmal im Überblick:

  • DVB-T-Antenne: kein neues Modell nötig

  • Interner/externer Tuner: DVB-T2 HD, H.265/HEVC, CI-Plus-Slot

  • Laufende Kosten: 69 Euro pro Jahr (Freischaltung nötig)

  • Offizieller DVB-T2-Start: 1. Quartal 2017 (voraussichtlich Ende März)

Weitere Hinweise zu Empfang und Programmangebot finden sich auf der Seite www.freenet.tv.

 

DVB-Spezifikationen

Im Zuge der Weiterentwicklung der DVB-Technologien traten auch zunehmend die Ansprüche der Verbraucher nach mehr Mobilität in den Mittelpunkt der Konzipierung neuer Systemvorschläge. Insofern befassen sich aktuelle Modelle aus dem Hause DVB nicht mehr ausschließlich mit der Übertragung von Audio- und Videodaten. Zeitgemäße DVB-Spezifikationen entsprechen den technischen Möglichkeiten für eine neue Art des mobilen digitalen TV-Entertainments.

 

DVB-IPTV (TV over IP)

Mehr Mobilität bringt die relativ neue DVB-Technologie mit, die unter den Begriffen DVB-IPTV oder auch DVB-IPI bekannt ist. Dabei handelt es sich um einen offenen IP-basierten DVB-Standard. Die Audio- und Videoübertragung erfolgt über das Internet-Protokoll (IP), woraus sich die Bezeichnung IPTV beziehungsweise IPI (Internet Protocol Infrastructure) ableitet. Von der Organisation Digital Video Broadcasting Project (DVB) wird der Begriff DVB-IPTV verwendet, obwohl sich IPTV auf diverse Übertragungswege beziehen kann. Deshalb wird das allgemeine Internetfernsehen (IPTV) in einem gesonderten Abschnitt dieses Buches unabhängig vom DVB-Standard noch einmal ausführlich betrachtet (vgl. hierzu Kapitel „Praxis der modernen Fernsehtechnik“).

 

Abbildung 173: Logo DVB-IPTV (www.dvb.org)

 

Wie die übrigen DVB-Varianten ist DVB-IPTV ein zugelassener Übertragungsstandard der European Telecommunications Standards Institute (ETSI) und wird von Übertragungsanstalten zunehmend favorisiert. Insbesondere das öffentlich-rechtliche Fernsehen setzt auf IPTV und überträgt seine Programme im offenen DVB-IP-Standard – Tendenz steigend. Schon heute können sowohl auf dem Fernseher als auch auf Computern TV-Programme empfangen werden. Beim PC ist neben dem Internetempfang dafür lediglich eine Player-Software nötig, die kostenlos aus dem Internet geladen werden kann (z.B. VLC-Player).

DVB-IPTV wurde bereits im Jahre 2001 spezifiziert. Mit diesem Standard werden audiovisuelle Inhalte dem DVB-Datenstrom (MPEG-2 und MPEG-4 AVC) entnommen und für die Verteilung über das IP-Netz (Heimnetzwerk) ein sogenannter IP-Datenrahmen erstellt. Damit ist es möglich, nicht nur bestimmte Sendungen zeitversetzt aus dem Fernsehen (z.B. ZDF-Mediathek) kostenlos zu empfangen, sondern Pay-TV-Übertragungen und Video-on-Demand (VoD) zu realisieren. Auf Maxdome, Netflix und das Videostreaming im Allgemeinen wird im entsprechenden Kapitel noch näher eingegangen.

Da der Trend zu All-IP geht, werden die Entwicklungen der einzelnen Anbieter weitergehen. Kabel Deutschland etwa setzt für die Zukunft auf ein Kabelnetz aus Koax und Glasfaser, das in Verbindung mit der Schnittstellen-Spezifikation DOCSIS 3.1 (Data Over Cable Service Interface Specification) die Basis für eine Datenübertragungsrate von über 1 GBit/s gewährleisten soll. Wann es soweit sein wird? Näheres hierzu findet sich im Kapitel „All-IP (Quad Play“ und in den folgenden Ausführungen.

 

DVB-GEM/MHP

Ähnlich wie DVB-IPTV ist DVB-GEM eine interoperable Applikation, die gemeinsame Application Programming Interfaces (API) definiert und somit unabhängig von Netzwerkprotokollen und Signalisierung in einem speziellen Übertragungsnetz arbeitet. Deshalb handelt es sich hierbei nicht mehr um eine DVB-Übertragungstechnik, sondern streng genommen nur noch um eine DVB-Spezifikation mit dem Standard ETSI TS 102 728 und ITU-Empfehlung (ITU-T J.202).

 

Abbildung 174: Logo DVB-GEM (www.dvb.org)

 

Globally Executable MHP (GEM) ist ein spezifizierter MHP-Standard aus dem DVB-Projekt, der auf der Programmiersprache Java beruht. MHP (Multimedia-Home-Plattform) wurde für die Übertragung und Darstellung interaktiver Inhalte entwickelt, die verschiedene Dienste wie Videotext, EPG, Nachrichtenticker, Video on Demand und sogar E-Mail umfassen.

 

Abbildung 175: Hybrid-Plattform IPTV/OTT Set-Top-Box IRENIS 5700 ICT2/HD von PROTEL

 

GEM ist somit eine Java-basierte Softwareplattform, über die interaktive Dienste im Digitalfernsehen angeboten werden können. Da GEM nicht direkt implementiert wird, bildet sie lediglich die Basis für spezifische Netze und Geräteklassen. Sie wird demnach in Geräten für Internetfernsehen (IPTV) sowie in Set-Top-Boxen (Broadcast) und Blu-ray-Playern (Packaged Media) verwendet. Darüber hinaus ist die Kombination verschiedener Geräteklassen mit unterschiedlichen Netzwerkschnittstellen zu einer sogenannten Hybrid-Plattform möglich, beispielsweise eine Broadcast/Internet/Set-Top-Box, wie sie im Folgenden noch eingehender beschrieben werden soll.

 

MHP (DVB-J/DVB-HTML)

Das Grundprinzip von MPH basiert allerdings nicht ausschließlich auf Java-Anwendungen, sondern ebenfalls auf HTML. Der Unterschied von DVB-J und DVB-HTML begründet sich letztlich also nur in den jeweilig verwendeten Programmiersprachen, wobei DVB-HTML ebenfalls mit optional eingebetteten Java-Codes arbeitet, ähnlich wie Internet-Browser mit Java-Applets. Der zweite Unterschied besteht in der praktischen Anwendung selbst, das heißt, auf welchen Endgeräten sie zur Anwendung kommen. Die MHP-Technologie unterstützt einen Rückkanal, was bedeutet, dass die Interaktion in beide Richtungen möglich ist. So können insbesondere bei Pay-TV über sogenannte Punkt-zu-Punkt-Verbindungen Bestellungen und Bezahlvorgänge initiiert und abgewickelt werden. Der MHP-Rückkanal arbeitet dabei unabhängig von der jeweiligen Übertragungstechnik. Insofern können MHP-Endgeräte je nach Beschaffenheit auf verschiedene Verbindungen (ISDN, DSL, Kabel, GPRS oder UMTS) zurückgreifen.

MHP als ursprünglicher Standard konnte sich allerdings nur bedingt durchsetzen. Obwohl sich die Technologie gerade für das kostenpflichtige Kabelfernsehen vorteilhaft hätte auswirken können, zog der Pay-TV-Sender Premiere im Jahre 2003 den Auftrag für eine MPH-Software für seine D-Box2 zurück. In den folgenden Jahren distanzierten sich auch andere Fernsehbetreiber, so etwa der Hessische Rundfunk und auch das ZDF. Beide Sender beendeten die Ausstrahlung von MHP über DVB-T Mitte 2007. Die öffentlich-rechtlichen Rundfunkanstalten schalteten mit der ARD als letztem Broadcaster den MHP-Service im April 2010 ab. Allerdings bot MHP im Rahmen der technischen Entwicklung die Basis für verschiedene Standards, wie:

 

  • DVB-GEM (Globally Executable MHP)

  • OCAP (für amerikanische Kabelnetze)

  • ACAP (für amerikanische terrestrische Fernsehnetze)

  • ARIB B.23 (für japanische Fernsehnetze) und

  • BD-J (für Blu-ray-Disc ohne Rundfunkunterstützung).

 

DVB-H (Mobil)

Auch eine weitere Spezifikation aus dem DVB-Projekt wurde im Laufe der Zeit vom Markt verdrängt: DVB-H (Digital Video Broadcasting – Handhelds). Diese Technologie wurde als separater Standard für Mobilgeräte (EN 302 304) entwickelt und in der Entwicklungsphase auch unter der Abkürzung DVB-M (Mobile) und DVB-X geführt. Obwohl sich DVB-H anfänglich durchzusetzen schien, scheiterte es letztlich an der Nachfrage der Mobilfunkanbieter.

 

Abbildung 176: Logo DVB-H (nicht mehr aktuell)

 

Im Jahre 2006 startete parallel zur Fußball-Weltmeisterschaft in Italien DVB-H. Ende 2007 verzeichnete der Mobilfunkanbieter „3“ in Italien 750.000 Kunden. Im selben Jahr sprach sich die Europäische Kommission für eine Einführung von DVB-H als einheitliches europäisches System für mobiles Fernsehen aus. 2008 erfolgte auf EU-Ebene der Beschluss der Aufnahme von DVB-H in das EU-Verzeichnis der Normen und Spezifikationen.

In Deutschland war seinerzeit die Reaktion allerdings eher verhalten. Der Bundesrat lehnte die gesonderte Reservierung bestimmter Frequenzen (unter anderem im L-Band) für die mobile Übertragungstechnologie ab. Im Oktober 2007 vergab die Bundesnetzagentur Frequenzen für die bundesweite DVB-H-Abdeckung. Das Bundeskartellamt erteilte Genehmigungen an verschiedene Mobilfunknetzbetreiber (T-Mobile, Vodafone und O2).

Jedoch beschloss 2008 die Gesamtkonferenz der Landesmedienanstalten die Übertragung von Sendelizenzen lediglich an das Betreiberkonsortium “Mobile 3.0”. Aufgrund der schlechten Nachfrage verlangte allerdings im selben Jahr die Kommission für Zulassung und Aufsicht der Landesmedienanstalten (ZAK) vom ebenjenem Konsortium die Übertragungslizenzen für mobiles Fernsehen über DVB-H zurück. Ebenfalls in 2008 erklärte Vodafone-Chef Friedrich Joussen das Projekt DVB-H für gescheitert. Trotz verschiedener Testläufe (z.B. zur Fußball-EM 2008) ist es zumindest in Deutschland nie zu einem Regelbetrieb von DVB-H gekommen. Anfang 2010 erklärte die ZAK, dass die Übertragungslizenzen neu vergeben werden könnten. Jedoch fand sich kein Mobilfunkanbieter, sodass es zu keiner Neuausschreibung kam. Ende 2010 wurde der Sendebetrieb für DVB-H eingestellt.

Allerdings ist DVB-H auf Transportstromebene mit DVB-T kompatibel, was die Erzeugung gemischter DVB-H/T-Multiplexe ermöglicht, die sich einen entsprechenden Kanal teilen. Insofern kann DVB-H über DVB-T gesendet werden. Auf der bereits bestehenden DVB-T-Basis kamen ebenfalls mobile Geräte auf dem Markt, mit denen der terrestrische Fernsehempfang möglich ist. Näheres hierzu findet sich im folgenden Kapitel über das mobile Fernsehen.

 

Entdecken Sie auch unsere weiteren Websites: burosch.de, nf-technik.de, radiogeschichte.de


Home         Impressum