Teorie rádiové komunikace

| Kategorie: Skripta  | Tento dokument chci!

... text je určen jak zájemcům z řad studentů magisterského, doktorského a bakalářského studia elektrotechnických oborů vysokých škol, tak i zájemcům z řad odborné veřejnosti, kteří si potřebují osvěžit či doplnit znalosti z dané oblasti. Text je členěn do celkem 18 kapitol. Pomyslně může být rozdělen do dvou částí - úvodní spíše teoreticky zaměřené (Teorie informace, Komunikační signály, Mezi symbolové interference, Příjem komunikačních signálů), následované více aplikačně zaměřenými kapitolami (Číslicové modulace, Rozprostřené spektrum a CDMA, Systémy s více nosnými a OFDM, Kombinace OFDM/CDMA/UWB, Komunikační kanály, Vyrovnavače kanálů, Protichybové kódování, UWB komunikace, MIMO systémy, Softwarové, kognitivní a kooperativní rádio, Adaptivní metody v rádiových komunikacích, Analýza spektra rádiových signálů, Změna vzorkovacího kmitočtu, Zvyšování přenosové rychlosti rádiových komunikačních systémů) ...

Vydal: FEKT VUT Brno Autor: UREL - Roman Maršálek

Strana 10 z 144

Vámi hledaný text obsahuje tato stránku dokumentu který není autorem určen k veřejnému šíření.

Jak získat tento dokument?






Poznámky redaktora
.Teorie rádiové komunikace 10 Podmíněná entropie předpokladu je, ekvivalentně rovnici 1.11) Dá ukázat [2], pro vzájemnou informaci platí vztah: I(X = J−1 j=0 K−1 k=0 P(yk|xj)P(xj) log2 P(yk|xj) P(yk) (1. Hlavním úkolem kanálového kódování zvětšit odolnost komunikačního systému vůči chybám vznikajícím vlivem komunikačního kanálu. zavedení pojmu kapacita kanálu můžeme směřovat k uvedení druhého Shannonových teorémů Teorému kanálovém kódování (channel coding teorem).10) která určuje množství nejistoty vstupu kanálu pozorování výstupu kanálu. (1.3 H(X yk) = J−1 j=0 P(xj|yk) log2 1 P(xj|yk) (1. Naneštěstí ale neříká, jakým způsobem možné vhodný způsob kódování konstruovat. Teorém kanálovém kódování velmi významným výsledkem teorie informace. redundance.9) Průměrováním tohoto výrazu přes všechny prvky dostaneme podmíněnou entropii: H(X |Y) = K−1 k=0 H(X yk)P(yk), (1. Pokud tato podmínka neplatí, pak neexistuje způsob kódování zaručující přenos malou pravděpodobností chyby. Kapacita kanálu pak definována jako maximum průměrné vzájemné informace pro jedno použití kanálu (symbolový inter- val): C max I(X (1. Motivací pro druhý Shannonových teorémů otázka "Existuje takový způsob kódování, který zaručí, pravděpodobnost chybného příjmu menší než libovolné ǫ?"Teorém kaná- lovém kódování vyjádřit takto: Pokud diskrétní zdroj dat bez paměti entropií H(S)generuje výstupní prvek dobou trvání komunikační kanál kapacitou je schopen přenést signál jedenkrát čas pokud splněna podmínka: H(S) Ts ≤ C Tc , (1. přenášeného signálu proto při- dává informace, která není pro vlastní přenos nezbytná tzv. vzájemná informace (mutual information) je: I(X H(X H((X |Y)). Protože (jak bylo uvedeno výše) entropie určuje nejistotu vstupu kanálu před pozorováním jeho výstupu, množství informace vstupu získané pozorováním výstupu kanálu tzv.14) pak existuje způsob kódování umožňující přenášet výstup zdroje dat libovolně malou pravděpodobností chyby.12) z nějž lze vypozorovat, vzájemná informace závisí jednak vlastnostech kanálu (P(yk|xj)), jednak způsobu jeho využití (P(xj)).13) a její jednotkou bit (bit znak)