... text je určen jak zájemcům z řad studentů magisterského, doktorského a bakalářského studia elektrotechnických oborů vysokých škol, tak i zájemcům z řad odborné veřejnosti, kteří si potřebují osvěžit či doplnit znalosti z dané oblasti. Text je členěn do celkem 18 kapitol. Pomyslně může být rozdělen do dvou částí - úvodní spíše teoreticky zaměřené (Teorie informace, Komunikační signály, Mezi symbolové interference, Příjem komunikačních signálů), následované více aplikačně zaměřenými kapitolami (Číslicové modulace, Rozprostřené spektrum a CDMA, Systémy s více nosnými a OFDM, Kombinace OFDM/CDMA/UWB, Komunikační kanály, Vyrovnavače kanálů, Protichybové kódování, UWB komunikace, MIMO systémy, Softwarové, kognitivní a kooperativní rádio, Adaptivní metody v rádiových komunikacích, Analýza spektra rádiových signálů, Změna vzorkovacího kmitočtu, Zvyšování přenosové rychlosti rádiových komunikačních systémů) ...
.3 Teorém kanálovém kódování
Předtím, než bude uveden druhý Shannonových teorémů, třeba definovat vysvětlit
několik dalších veličin teorie informace. Pro efektivní kódování třeba znát statistiku
výskytu jednotlivých symbolů.
.7)
Kódem, který blíží tomuto optimálnímu případu například Huffmanův kód.
1.
. (1.
P(y0|xJ−1) P(y1|xJ−1) P(yK−1|xJ−1)
(1.9
1..2 Teorém zdrojovém kódování
Jedním základních problémů komunikačních systémů problém efektivního vyjádření
zdrojových dat tzv. Nechť mají jednotlivá kódová slova délku lk. Pak například můžeme prvkům vysokou pravděpodob-
ností přiřadit krátké kódové slovo naopak, prvkům malou pravděpodobností kódové
slovo velkou délkou.
. zdrojového kódování.. (1.
Jedná matematický model, který každou jednotku času vygeneruje výstup K-
prvkové množiny základě vstupního prvku J-prvkové množiny Takovýto
kanál lze popsat pomocí matice:
P(y0|x0) P(y1|x0) P(yK−1|x0)
P(y0|x1) P(y1|x1) P(yK−1|x1)
.8)
přičemž P(yk|xj) podmíněná pravděpodobnost prvku předpokladu vstupního
prvku xj..4)
Pokud označíme minimální délku kódového slova Lmin, můžeme definovat účinnost kódo-
vání:
η =
Lmin
L
(1. všeho nejdříve ale definujme diskrétní kanál bez paměti.6)
V optimálním případě tedy platí Lmin H(S) účinnost kódování pak:
η =
H(S)
L
(1. Patří mezi podmíněná entropie, vzájemná
informace kapacita kanálu..
První Shannonových teorémů říká: Pro daný zdroj dat bez paměti entropií H(S)
je průměrná možná délka kódového slova určena vztahem [2]:
L H(S).. Pak průměrná délka
slova je:
L =
K−1
k=0
Pklk.5)
přičemž neboť Lmin