Teorie rádiové komunikace

| Kategorie: Skripta  | Tento dokument chci!

... text je určen jak zájemcům z řad studentů magisterského, doktorského a bakalářského studia elektrotechnických oborů vysokých škol, tak i zájemcům z řad odborné veřejnosti, kteří si potřebují osvěžit či doplnit znalosti z dané oblasti. Text je členěn do celkem 18 kapitol. Pomyslně může být rozdělen do dvou částí - úvodní spíše teoreticky zaměřené (Teorie informace, Komunikační signály, Mezi symbolové interference, Příjem komunikačních signálů), následované více aplikačně zaměřenými kapitolami (Číslicové modulace, Rozprostřené spektrum a CDMA, Systémy s více nosnými a OFDM, Kombinace OFDM/CDMA/UWB, Komunikační kanály, Vyrovnavače kanálů, Protichybové kódování, UWB komunikace, MIMO systémy, Softwarové, kognitivní a kooperativní rádio, Adaptivní metody v rádiových komunikacích, Analýza spektra rádiových signálů, Změna vzorkovacího kmitočtu, Zvyšování přenosové rychlosti rádiových komunikačních systémů) ...

Vydal: FEKT VUT Brno Autor: UREL - Roman Maršálek

Strana 10 z 144

Vámi hledaný text obsahuje tato stránku dokumentu který není autorem určen k veřejnému šíření.

Jak získat tento dokument?






Poznámky redaktora
(1. Kapacita kanálu pak definována jako maximum průměrné vzájemné informace pro jedno použití kanálu (symbolový inter- val): C max I(X (1. přenášeného signálu proto při- dává informace, která není pro vlastní přenos nezbytná tzv.10) která určuje množství nejistoty vstupu kanálu pozorování výstupu kanálu.Teorie rádiové komunikace 10 Podmíněná entropie předpokladu je, ekvivalentně rovnici 1. Protože (jak bylo uvedeno výše) entropie určuje nejistotu vstupu kanálu před pozorováním jeho výstupu, množství informace vstupu získané pozorováním výstupu kanálu tzv. Teorém kanálovém kódování velmi významným výsledkem teorie informace.3 H(X yk) = J−1 j=0 P(xj|yk) log2 1 P(xj|yk) (1. Naneštěstí ale neříká, jakým způsobem možné vhodný způsob kódování konstruovat. Hlavním úkolem kanálového kódování zvětšit odolnost komunikačního systému vůči chybám vznikajícím vlivem komunikačního kanálu. . Pokud tato podmínka neplatí, pak neexistuje způsob kódování zaručující přenos malou pravděpodobností chyby. redundance.11) Dá ukázat [2], pro vzájemnou informaci platí vztah: I(X = J−1 j=0 K−1 k=0 P(yk|xj)P(xj) log2 P(yk|xj) P(yk) (1.13) a její jednotkou bit (bit znak). Motivací pro druhý Shannonových teorémů otázka "Existuje takový způsob kódování, který zaručí, pravděpodobnost chybného příjmu menší než libovolné ǫ?"Teorém kaná- lovém kódování vyjádřit takto: Pokud diskrétní zdroj dat bez paměti entropií H(S)generuje výstupní prvek dobou trvání komunikační kanál kapacitou je schopen přenést signál jedenkrát čas pokud splněna podmínka: H(S) Ts ≤ C Tc , (1.9) Průměrováním tohoto výrazu přes všechny prvky dostaneme podmíněnou entropii: H(X |Y) = K−1 k=0 H(X yk)P(yk), (1.12) z nějž lze vypozorovat, vzájemná informace závisí jednak vlastnostech kanálu (P(yk|xj)), jednak způsobu jeho využití (P(xj)). zavedení pojmu kapacita kanálu můžeme směřovat k uvedení druhého Shannonových teorémů Teorému kanálovém kódování (channel coding teorem). vzájemná informace (mutual information) je: I(X H(X H((X |Y)).14) pak existuje způsob kódování umožňující přenášet výstup zdroje dat libovolně malou pravděpodobností chyby