Teorie rádiové komunikace

| Kategorie: Skripta  | Tento dokument chci!

... text je určen jak zájemcům z řad studentů magisterského, doktorského a bakalářského studia elektrotechnických oborů vysokých škol, tak i zájemcům z řad odborné veřejnosti, kteří si potřebují osvěžit či doplnit znalosti z dané oblasti. Text je členěn do celkem 18 kapitol. Pomyslně může být rozdělen do dvou částí - úvodní spíše teoreticky zaměřené (Teorie informace, Komunikační signály, Mezi symbolové interference, Příjem komunikačních signálů), následované více aplikačně zaměřenými kapitolami (Číslicové modulace, Rozprostřené spektrum a CDMA, Systémy s více nosnými a OFDM, Kombinace OFDM/CDMA/UWB, Komunikační kanály, Vyrovnavače kanálů, Protichybové kódování, UWB komunikace, MIMO systémy, Softwarové, kognitivní a kooperativní rádio, Adaptivní metody v rádiových komunikacích, Analýza spektra rádiových signálů, Změna vzorkovacího kmitočtu, Zvyšování přenosové rychlosti rádiových komunikačních systémů) ...

Vydal: FEKT VUT Brno Autor: UREL - Roman Maršálek

Strana 8 z 144

Vámi hledaný text obsahuje tato stránku dokumentu který není autorem určen k veřejnému šíření.

Jak získat tento dokument?






Poznámky redaktora
Musí platit, součet pravděpodobností výskytu všech prvků roven jedné.2 použito číslo Výsledná jednotka množství informace pak bit (binary unit). K−1 k=0 Pk (1.5 odpovídá množství informace bit. Jako základ logaritmu rovnici 1. (1. Oproti tomu hodnota entropie log2 odpovídá případu stejné pravděpodobnosti (1/K) výskytu všech prvků sk. definovaná takto: H(S) = K−1 k=0 PkI(sk) = K−1 k=0 Pk log2 1 Pk . Pak hovoříme diskrétním zdroji bez paměti (neboť současný výstup není závislý předzházejících výstupech). Množství informace získané pozorováním tohoto prvku pravděpodobností definováno následujícím vztahem: I(sk) log2 1 Pk (1. Pokud pravděpodobnost některého prvku dané abecedy rovna jedné (jeho výskyt jistý), nezískáme jeho pozorováním žádnou informaci tedy I(sk) Pokud pravděpodobnost výskytu rozsahu < množství informace větší nebo rovno nule. Níže uvedený popis vychází především literatury [2, 5].1) Předpokládejme dále, symboly výstupu zdroje dat jednotlivých okamžicích jsou na sobě nezávislé.3) Entropie diskrétního zdroje bez paměti možnými prvky nabývá hodnot rozsahu 0 H(S) log2 Nulová entropie odpovídá případu kdy pravděpodobnost jednoho z prvků rovna jedné (nulové nejistotě).1 Informace, Entropie Pro zavedení pojmů Informace Entropie předpokládejme pozorujeme diskrétní zdroj dat, jehož výstup lze považovat diskrétní náhodnou proměnnou nabývající libovol- ného prvku množiny prvky s0, s1, sK−1. Maximální entropie tedy odpovídá maximální nejistotě pozorování. Pravděpodobnost výskytu k-tého prvku sk označme Pk.2) Z této definice vyplývá několik důležitých poznatků. . Pozorováním výskytu nějakého prvku pak tedy nějakou informaci buď získáme nebo ne, ale žádném případě informaci neztratíme. Pravděpodobnosti výskytu 0. Nyní nás zajímá, jak velké množství "infor- mace"získáme při zjištění, výstupu zdroje prvek sk. 1.Teorie rádiové komunikace 8 1 Teorie informace Tato část zabývá teorií informace, jejíž základy byly položeny Shannonem již roce 1948 jeho známém článku [5]. Entropii H(S), [5]. Pro zhodnocení průměrného množství informace přes všechny prvky abecedy je možné použít tzv