... text je určen jak zájemcům z řad studentů magisterského, doktorského a bakalářského studia elektrotechnických oborů vysokých škol, tak i zájemcům z řad odborné veřejnosti, kteří si potřebují osvěžit či doplnit znalosti z dané oblasti. Text je členěn do celkem 18 kapitol. Pomyslně může být rozdělen do dvou částí - úvodní spíše teoreticky zaměřené (Teorie informace, Komunikační signály, Mezi symbolové interference, Příjem komunikačních signálů), následované více aplikačně zaměřenými kapitolami (Číslicové modulace, Rozprostřené spektrum a CDMA, Systémy s více nosnými a OFDM, Kombinace OFDM/CDMA/UWB, Komunikační kanály, Vyrovnavače kanálů, Protichybové kódování, UWB komunikace, MIMO systémy, Softwarové, kognitivní a kooperativní rádio, Adaptivní metody v rádiových komunikacích, Analýza spektra rádiových signálů, Změna vzorkovacího kmitočtu, Zvyšování přenosové rychlosti rádiových komunikačních systémů) ...
.. (1.3 Teorém kanálovém kódování
Předtím, než bude uveden druhý Shannonových teorémů, třeba definovat vysvětlit
několik dalších veličin teorie informace.7)
Kódem, který blíží tomuto optimálnímu případu například Huffmanův kód. (1.
První Shannonových teorémů říká: Pro daný zdroj dat bez paměti entropií H(S)
je průměrná možná délka kódového slova určena vztahem [2]:
L H(S). zdrojového kódování.2 Teorém zdrojovém kódování
Jedním základních problémů komunikačních systémů problém efektivního vyjádření
zdrojových dat tzv.
Jedná matematický model, který každou jednotku času vygeneruje výstup K-
prvkové množiny základě vstupního prvku J-prvkové množiny Takovýto
kanál lze popsat pomocí matice:
P(y0|x0) P(y1|x0) P(yK−1|x0)
P(y0|x1) P(y1|x1) P(yK−1|x1)
..
.
. Pak průměrná délka
slova je:
L =
K−1
k=0
Pklk. Patří mezi podmíněná entropie, vzájemná
informace kapacita kanálu. Nechť mají jednotlivá kódová slova délku lk. všeho nejdříve ale definujme diskrétní kanál bez paměti..9
1.4)
Pokud označíme minimální délku kódového slova Lmin, můžeme definovat účinnost kódo-
vání:
η =
Lmin
L
(1.5)
přičemž neboť Lmin...
1.8)
přičemž P(yk|xj) podmíněná pravděpodobnost prvku předpokladu vstupního
prvku xj.6)
V optimálním případě tedy platí Lmin H(S) účinnost kódování pak:
η =
H(S)
L
(1.
P(y0|xJ−1) P(y1|xJ−1) P(yK−1|xJ−1)
(1.
. Pro efektivní kódování třeba znát statistiku
výskytu jednotlivých symbolů. Pak například můžeme prvkům vysokou pravděpodob-
ností přiřadit krátké kódové slovo naopak, prvkům malou pravděpodobností kódové
slovo velkou délkou