... text je určen jak zájemcům z řad studentů magisterského, doktorského a bakalářského studia elektrotechnických oborů vysokých škol, tak i zájemcům z řad odborné veřejnosti, kteří si potřebují osvěžit či doplnit znalosti z dané oblasti. Text je členěn do celkem 18 kapitol. Pomyslně může být rozdělen do dvou částí - úvodní spíše teoreticky zaměřené (Teorie informace, Komunikační signály, Mezi symbolové interference, Příjem komunikačních signálů), následované více aplikačně zaměřenými kapitolami (Číslicové modulace, Rozprostřené spektrum a CDMA, Systémy s více nosnými a OFDM, Kombinace OFDM/CDMA/UWB, Komunikační kanály, Vyrovnavače kanálů, Protichybové kódování, UWB komunikace, MIMO systémy, Softwarové, kognitivní a kooperativní rádio, Adaptivní metody v rádiových komunikacích, Analýza spektra rádiových signálů, Změna vzorkovacího kmitočtu, Zvyšování přenosové rychlosti rádiových komunikačních systémů) ...
24)
Je tedy třeba maximalizovat vzájemnou informaci ohledem funcki hustoty pravdě-
podobnosti pX(x).23)
Nk jsou vzorky šumového signálu rozptylem σ2
N Předpokládejme dále, průměrný
výkon vysílače E[X2
k Kapacita (propustnost) kanálu je:
C max
pX(x)
{I(Xk; Yk)}. (1. platí:
I(Xk; Yk) h(Xk) h(Xk|Yk) h(Yk) h(Yk|Xk).Teorie rádiové komunikace 12
Obrázek 1. Předpokládejme vysílač generuje stacionární náhodný proces X(t) nulovou
střední hodnotou. (1. Jak již bylo řečeno, diferenciální en-
tropie maximální pro případ normálního rozdělění [2]. (1. Vzorkováním
přijatého signálu (t) zašuměného aditivním bílým gausovským šumem nulovou střední
hodnotou spektrální hustotou výkonu N0/2 vzniknou vzorky Yk:
Yk Nk.1: Vztahy mezi entropiemi [8]
kde pX,Y (x, simultánní hustota pravděpodobnosti náhodých proměnných a
pX(x|y) podmíněná hustota pravděpodobnosti.1
Po zavedení potřebných veličin nyní můžeme přistoupit odvození teorému kapacitě
kanálu. (1. Obdobně jako pro diskrétní kanál, platí
i tomto případě:
I(X; h(X) h(X|Y h(Y h(Y |X). Jelikož pro rušivý signál byl
zaveden předpoklad normálního rozdělění součet dvou veličin normálním rozdělěním
. (1. Jak bylo uvedeno výše. Jeho vzorkováním vzniknou vzorky n).22)
Vztahy mezi entropiemi možné graficky ilustrovat, jak uvedeno obr.26)
Protože h(Nk) nezávisí rozdělění pravděpodobnosti pX(x), maximalizace vzájemné
informace I(Xk; Yk) dosáhneme maximalizací h(Yk). 1.25)
Vzhledem tomu, jsou nezávislé, platí h(Yk|Xk) h(Nk) také:
I(Xk; Yk) h(Yk) h(Nk)