... text je určen jak zájemcům z řad studentů magisterského, doktorského a bakalářského studia elektrotechnických oborů vysokých škol, tak i zájemcům z řad odborné veřejnosti, kteří si potřebují osvěžit či doplnit znalosti z dané oblasti. Text je členěn do celkem 18 kapitol. Pomyslně může být rozdělen do dvou částí - úvodní spíše teoreticky zaměřené (Teorie informace, Komunikační signály, Mezi symbolové interference, Příjem komunikačních signálů), následované více aplikačně zaměřenými kapitolami (Číslicové modulace, Rozprostřené spektrum a CDMA, Systémy s více nosnými a OFDM, Kombinace OFDM/CDMA/UWB, Komunikační kanály, Vyrovnavače kanálů, Protichybové kódování, UWB komunikace, MIMO systémy, Softwarové, kognitivní a kooperativní rádio, Adaptivní metody v rádiových komunikacích, Analýza spektra rádiových signálů, Změna vzorkovacího kmitočtu, Zvyšování přenosové rychlosti rádiových komunikačních systémů) ...
(1.3
H(X yk) =
J−1
j=0
P(xj|yk) log2
1
P(xj|yk)
(1.
. redundance.9)
Průměrováním tohoto výrazu přes všechny prvky dostaneme podmíněnou entropii:
H(X |Y) =
K−1
k=0
H(X yk)P(yk), (1.13)
a její jednotkou bit (bit znak).Teorie rádiové komunikace 10
Podmíněná entropie předpokladu je, ekvivalentně rovnici 1.14)
pak existuje způsob kódování umožňující přenášet výstup zdroje dat libovolně malou
pravděpodobností chyby.12)
z nějž lze vypozorovat, vzájemná informace závisí jednak vlastnostech kanálu
(P(yk|xj)), jednak způsobu jeho využití (P(xj)). Protože
(jak bylo uvedeno výše) entropie určuje nejistotu vstupu kanálu před pozorováním
jeho výstupu, množství informace vstupu získané pozorováním výstupu kanálu tzv.11)
Dá ukázat [2], pro vzájemnou informaci platí vztah:
I(X =
J−1
j=0
K−1
k=0
P(yk|xj)P(xj) log2
P(yk|xj)
P(yk)
(1.
Hlavním úkolem kanálového kódování zvětšit odolnost komunikačního systému vůči
chybám vznikajícím vlivem komunikačního kanálu. Teorém kanálovém kódování velmi
významným výsledkem teorie informace.10)
která určuje množství nejistoty vstupu kanálu pozorování výstupu kanálu. přenášeného signálu proto při-
dává informace, která není pro vlastní přenos nezbytná tzv. Naneštěstí ale neříká, jakým způsobem možné
vhodný způsob kódování konstruovat. Kapacita kanálu pak definována
jako maximum průměrné vzájemné informace pro jedno použití kanálu (symbolový inter-
val):
C max I(X (1. Motivací pro
druhý Shannonových teorémů otázka "Existuje takový způsob kódování, který
zaručí, pravděpodobnost chybného příjmu menší než libovolné ǫ?"Teorém kaná-
lovém kódování vyjádřit takto: Pokud diskrétní zdroj dat bez paměti entropií
H(S)generuje výstupní prvek dobou trvání komunikační kanál kapacitou je
schopen přenést signál jedenkrát čas pokud splněna podmínka:
H(S)
Ts
≤
C
Tc
, (1.
vzájemná informace (mutual information) je:
I(X H(X H((X |Y)). Pokud tato podmínka neplatí, pak neexistuje způsob kódování
zaručující přenos malou pravděpodobností chyby. zavedení pojmu kapacita kanálu můžeme směřovat
k uvedení druhého Shannonových teorémů Teorému kanálovém kódování (channel
coding teorem)