Teorie rádiové komunikace

| Kategorie: Skripta  | Tento dokument chci!

... text je určen jak zájemcům z řad studentů magisterského, doktorského a bakalářského studia elektrotechnických oborů vysokých škol, tak i zájemcům z řad odborné veřejnosti, kteří si potřebují osvěžit či doplnit znalosti z dané oblasti. Text je členěn do celkem 18 kapitol. Pomyslně může být rozdělen do dvou částí - úvodní spíše teoreticky zaměřené (Teorie informace, Komunikační signály, Mezi symbolové interference, Příjem komunikačních signálů), následované více aplikačně zaměřenými kapitolami (Číslicové modulace, Rozprostřené spektrum a CDMA, Systémy s více nosnými a OFDM, Kombinace OFDM/CDMA/UWB, Komunikační kanály, Vyrovnavače kanálů, Protichybové kódování, UWB komunikace, MIMO systémy, Softwarové, kognitivní a kooperativní rádio, Adaptivní metody v rádiových komunikacích, Analýza spektra rádiových signálů, Změna vzorkovacího kmitočtu, Zvyšování přenosové rychlosti rádiových komunikačních systémů) ...

Vydal: FEKT VUT Brno Autor: UREL - Roman Maršálek

Strana 9 z 144

Vámi hledaný text obsahuje tato stránku dokumentu který není autorem určen k veřejnému šíření.

Jak získat tento dokument?






Poznámky redaktora
Pro efektivní kódování třeba znát statistiku výskytu jednotlivých symbolů. P(y0|xJ−1) P(y1|xJ−1) P(yK−1|xJ−1)      (1. všeho nejdříve ale definujme diskrétní kanál bez paměti..9 1. Patří mezi podmíněná entropie, vzájemná informace kapacita kanálu.2 Teorém zdrojovém kódování Jedním základních problémů komunikačních systémů problém efektivního vyjádření zdrojových dat tzv.7) Kódem, který blíží tomuto optimálnímu případu například Huffmanův kód. (1..6) V optimálním případě tedy platí Lmin H(S) účinnost kódování pak: η = H(S) L (1. Pak například můžeme prvkům vysokou pravděpodob- ností přiřadit krátké kódové slovo naopak, prvkům malou pravděpodobností kódové slovo velkou délkou. První Shannonových teorémů říká: Pro daný zdroj dat bez paměti entropií H(S) je průměrná možná délka kódového slova určena vztahem [2]: L H(S)... . (1. 1.3 Teorém kanálovém kódování Předtím, než bude uveden druhý Shannonových teorémů, třeba definovat vysvětlit několik dalších veličin teorie informace. .8) přičemž P(yk|xj) podmíněná pravděpodobnost prvku předpokladu vstupního prvku xj. . Pak průměrná délka slova je: L = K−1 k=0 Pklk.. Nechť mají jednotlivá kódová slova délku lk.4) Pokud označíme minimální délku kódového slova Lmin, můžeme definovat účinnost kódo- vání: η = Lmin L (1.5) přičemž neboť Lmin. Jedná matematický model, který každou jednotku času vygeneruje výstup K- prvkové množiny základě vstupního prvku J-prvkové množiny Takovýto kanál lze popsat pomocí matice:      P(y0|x0) P(y1|x0) P(yK−1|x0) P(y0|x1) P(y1|x1) P(yK−1|x1) .. zdrojového kódování