... text je určen jak zájemcům z řad studentů magisterského, doktorského a bakalářského studia elektrotechnických oborů vysokých škol, tak i zájemcům z řad odborné veřejnosti, kteří si potřebují osvěžit či doplnit znalosti z dané oblasti. Text je členěn do celkem 18 kapitol. Pomyslně může být rozdělen do dvou částí - úvodní spíše teoreticky zaměřené (Teorie informace, Komunikační signály, Mezi symbolové interference, Příjem komunikačních signálů), následované více aplikačně zaměřenými kapitolami (Číslicové modulace, Rozprostřené spektrum a CDMA, Systémy s více nosnými a OFDM, Kombinace OFDM/CDMA/UWB, Komunikační kanály, Vyrovnavače kanálů, Protichybové kódování, UWB komunikace, MIMO systémy, Softwarové, kognitivní a kooperativní rádio, Adaptivní metody v rádiových komunikacích, Analýza spektra rádiových signálů, Změna vzorkovacího kmitočtu, Zvyšování přenosové rychlosti rádiových komunikačních systémů) ...
Pak hovoříme diskrétním zdroji bez paměti (neboť současný výstup
není závislý předzházejících výstupech). Pozorováním výskytu nějakého
prvku pak tedy nějakou informaci buď získáme nebo ne, ale žádném případě informaci
neztratíme.
1.2)
Z této definice vyplývá několik důležitých poznatků. Musí platit, součet pravděpodobností výskytu všech prvků roven
jedné. definovaná takto:
H(S) =
K−1
k=0
PkI(sk) =
K−1
k=0
Pk log2
1
Pk
.5 odpovídá množství
informace bit. Množství informace získané
pozorováním tohoto prvku pravděpodobností definováno následujícím vztahem:
I(sk) log2
1
Pk
(1. (1. Maximální entropie tedy
odpovídá maximální nejistotě pozorování. Pravděpodobnosti výskytu 0. Pravděpodobnost výskytu k-tého prvku
sk označme Pk.2 použito číslo Výsledná jednotka množství
informace pak bit (binary unit).
.Teorie rádiové komunikace 8
1 Teorie informace
Tato část zabývá teorií informace, jejíž základy byly položeny Shannonem již roce
1948 jeho známém článku [5]. Pokud pravděpodobnost některého
prvku dané abecedy rovna jedné (jeho výskyt jistý), nezískáme jeho pozorováním
žádnou informaci tedy I(sk) Pokud pravděpodobnost výskytu rozsahu
< množství informace větší nebo rovno nule.
Jako základ logaritmu rovnici 1. Entropii H(S), [5].1)
Předpokládejme dále, symboly výstupu zdroje dat jednotlivých okamžicích jsou
na sobě nezávislé.
K−1
k=0
Pk (1.1 Informace, Entropie
Pro zavedení pojmů Informace Entropie předpokládejme pozorujeme diskrétní zdroj
dat, jehož výstup lze považovat diskrétní náhodnou proměnnou nabývající libovol-
ného prvku množiny prvky s0, s1, sK−1. Oproti tomu hodnota entropie log2 odpovídá
případu stejné pravděpodobnosti (1/K) výskytu všech prvků sk. Níže uvedený popis vychází především literatury [2, 5].3)
Entropie diskrétního zdroje bez paměti možnými prvky nabývá hodnot rozsahu
0 H(S) log2 Nulová entropie odpovídá případu kdy pravděpodobnost jednoho
z prvků rovna jedné (nulové nejistotě). Nyní nás zajímá, jak velké množství "infor-
mace"získáme při zjištění, výstupu zdroje prvek sk.
Pro zhodnocení průměrného množství informace přes všechny prvky abecedy je
možné použít tzv