Teorie rádiové komunikace

| Kategorie: Skripta  | Tento dokument chci!

... text je určen jak zájemcům z řad studentů magisterského, doktorského a bakalářského studia elektrotechnických oborů vysokých škol, tak i zájemcům z řad odborné veřejnosti, kteří si potřebují osvěžit či doplnit znalosti z dané oblasti. Text je členěn do celkem 18 kapitol. Pomyslně může být rozdělen do dvou částí - úvodní spíše teoreticky zaměřené (Teorie informace, Komunikační signály, Mezi symbolové interference, Příjem komunikačních signálů), následované více aplikačně zaměřenými kapitolami (Číslicové modulace, Rozprostřené spektrum a CDMA, Systémy s více nosnými a OFDM, Kombinace OFDM/CDMA/UWB, Komunikační kanály, Vyrovnavače kanálů, Protichybové kódování, UWB komunikace, MIMO systémy, Softwarové, kognitivní a kooperativní rádio, Adaptivní metody v rádiových komunikacích, Analýza spektra rádiových signálů, Změna vzorkovacího kmitočtu, Zvyšování přenosové rychlosti rádiových komunikačních systémů) ...

Vydal: FEKT VUT Brno Autor: UREL - Roman Maršálek

Strana 12 z 144

Vámi hledaný text obsahuje tato stránku dokumentu který není autorem určen k veřejnému šíření.

Jak získat tento dokument?






Poznámky redaktora
(1. Jelikož pro rušivý signál byl zaveden předpoklad normálního rozdělění součet dvou veličin normálním rozdělěním . (1.23) Nk jsou vzorky šumového signálu rozptylem σ2 N Předpokládejme dále, průměrný výkon vysílače E[X2 k Kapacita (propustnost) kanálu je: C max pX(x) {I(Xk; Yk)}. (1. Předpokládejme vysílač generuje stacionární náhodný proces X(t) nulovou střední hodnotou. Vzorkováním přijatého signálu (t) zašuměného aditivním bílým gausovským šumem nulovou střední hodnotou spektrální hustotou výkonu N0/2 vzniknou vzorky Yk: Yk Nk.Teorie rádiové komunikace 12 Obrázek 1. Jak bylo uvedeno výše.24) Je tedy třeba maximalizovat vzájemnou informaci ohledem funcki hustoty pravdě- podobnosti pX(x).22) Vztahy mezi entropiemi možné graficky ilustrovat, jak uvedeno obr.26) Protože h(Nk) nezávisí rozdělění pravděpodobnosti pX(x), maximalizace vzájemné informace I(Xk; Yk) dosáhneme maximalizací h(Yk). platí: I(Xk; Yk) h(Xk) h(Xk|Yk) h(Yk) h(Yk|Xk).1 Po zavedení potřebných veličin nyní můžeme přistoupit odvození teorému kapacitě kanálu. (1. Obdobně jako pro diskrétní kanál, platí i tomto případě: I(X; h(X) h(X|Y h(Y h(Y |X).25) Vzhledem tomu, jsou nezávislé, platí h(Yk|Xk) h(Nk) také: I(Xk; Yk) h(Yk) h(Nk). Jak již bylo řečeno, diferenciální en- tropie maximální pro případ normálního rozdělění [2].1: Vztahy mezi entropiemi [8] kde pX,Y (x, simultánní hustota pravděpodobnosti náhodých proměnných a pX(x|y) podmíněná hustota pravděpodobnosti. 1. Jeho vzorkováním vzniknou vzorky n). (1