- Kanalkapazität
-
Die Kanalkapazität ist Teil der informationstheoretischen Beschreibung eines Übertragungskanals. Sie gibt an, wie hoch die Bitrate ist, welche über einen Übertragungskanal fehlerfrei übertragen werden kann.
Claude Shannon und Ralph Hartley zeigten in Form des Shannon-Hartley-Gesetzes, dass sich die theoretische Kanalkapazität durch geeignete Kodierung näherungsweise erreichen lässt.
Inhaltsverzeichnis
Definition
Die Kanalkapazität C für einen diskreten, gedächtnisfreien Kanal ist das Supremum aller fehlerfrei in einer Zeitspanne τ übertragbaren Symbole. Dabei wird zwischen dem Informationsgehalt der gesendeten Symbole X und der empfangenen Symbole Y unterschieden. Der Unterschied ergibt sich:
- durch Störungen welche am Übertragungskanal auf die Symbole einwirken und diese verfälschen,
- durch den Umstand, dass eine gesendete Information am Übertragungskanal verloren gehen kann.
Mathematisch lässt sich durch die Entropiefunktion I(·), welche die wechselseitige Information beschreibt, für diese beiden Fälle ausdrücken als:
- I(X;Y) = H(X) − H(X | Y) = H(Y) − H(Y | X)
Die Kanalkapazität C lässt sich als jenes Maximum angeben:
Arten von Übertragungskanälen
Die Kanalkapazität ist abhängig von der Art des Übertragungskanals. Im folgenden wird für wichtige Modelle von Übertragungskanälen die Kanalkapazität dargestellt.
Binärer symmetrischer Kanal
Der binäre Übertragungskanal stellt einen wertdiskreten Übertragungskanal dar, somit ist dessen maximale Kanalkapazität auf ein Bit limitiert. Der Kanal kann nur die zwei Symbole (Zustände) annehmen welche mit 0 oder 1 bezeichnet werden. Somit kann die Kanalkapazität bei diesem Kanalmodell nur im Intervall 0 bis 1 liegen.
Die Kanalkapazität dieses binären symmetrischen Kanals, im Englischen auch als Binary Symmetric Channel (BSC) bezeichnet, ist:
wobei H(p) die binäre Entropiefunktion darstellt:
und p die Fehlerwahrscheinlichkeit ist.
Für die Extremwerte der Fehlerwahrscheinlichkeit von p = 1 oder p = 0 ist die Kapazität eins und somit maximal. Wobei im ersten Fall der Übertragskanal einen Inverter darstellt. Im Fall p = 0 liegt ein fehlerfreier binärer Übertragungskanal vor. Für p = 0,5 ist die Kanalkapazität C = 0, also minimal. In diesem Fall wird der BSC zu einer idealen Rauschquelle und keine Informationsübertragung kann erfolgen.
Binärer Auslöschungskanal
Auch der binäre Auslöschungskanal stellt einen wertdiskreten Übertragungskanal dar, dessen Kanalkapazität ist:
- C = 1 − p
mit der Fehlerwahrscheinlichkeit p. Die Kanalkapazität ist bei diesem Kanal maximal für p = 0, wo keinerlei Auslöschung erfolgt. Sie ist minimal für p = 1 wo jegliche Information ausgelöscht wird und keinerlei Informationsübertragung möglich ist.
AWGN-Kanal
Der AWGN-Kanal stellt einen wertkontinuierlichen Übertragungskanal dar, welcher als Störgröße additives weißes gaußsches Rauschen (AWGN) aufweist. Aufgrund der wertkontinuierlichen Kanaleigenschaft können im Prinzip unendlich viele Symbole vorkommen, welche allerdings durch die Störgröße unter Umständen nicht mehr sicher voneinander unterschieden werden können. Die sich daraus ergebende Kanalkapazität C des AWGN-Kanals ist:
Dabei ist der Ausdruck S/N das Signal-Rausch-Verhältnis, abgekürzt als SNR bezeichnet, zwischen der zu übertragenden Information und des am Kanal auftretenden, additiven weißen gaußschen Rauschens. Für eine maximale Kanalkapazität ist es notwendig, dass das SNR maximal wird. Im Grenzfall eines Kanals mit S/N → ∞ kann durch den Umstand einer unendlich großen Symbolmenge auch eine unendlich hohe Kanalkapazität erreicht werden - dieser Grenzfall ist allerdings praktisch durch immer vorhandene Störquellen nicht erreichbar.
Abgrenzung
Die Kanalkapazität stellt keine Übertragungsrate R dar, ausgedrückt in Bit pro Sekunde (Bit/s), da keinerlei Zeitbezug vorliegt. Um zur Übertragungsrate zu gelangen, werden in zeitlicher Abfolge unterschiedliche Symbole über den Kanal übertragen. Diese zeitliche Abfolge von unterschiedlichen Symbolen ergibt eine Symbolrate, welche von der Frequenz abhängt und belegt spektral eine bestimmte Bandbreite. Die Übertragungsrate R ergibt sich dann aus der Symbolrate und dem Wert wie viele Bits an Information pro Symbol transportiert wird. Der Wert wie viele Bits pro Symbol übertragen werden, hängt direkt von der Kanalkapazität und somit vom jeweiligen Kanal ab.
Literaturquellen
- André Neubauer, Jürgen Freudenberger, Volker Kühn: Coding Theory. Algorithms, Architectures, and Applications. John Wiley & Son, Chichester 2007, ISBN 978-0-470-02861-2.
Wikimedia Foundation.