Teorie rádiové komunikace

| Kategorie: Skripta  | Tento dokument chci!

... text je určen jak zájemcům z řad studentů magisterského, doktorského a bakalářského studia elektrotechnických oborů vysokých škol, tak i zájemcům z řad odborné veřejnosti, kteří si potřebují osvěžit či doplnit znalosti z dané oblasti. Text je členěn do celkem 18 kapitol. Pomyslně může být rozdělen do dvou částí - úvodní spíše teoreticky zaměřené (Teorie informace, Komunikační signály, Mezi symbolové interference, Příjem komunikačních signálů), následované více aplikačně zaměřenými kapitolami (Číslicové modulace, Rozprostřené spektrum a CDMA, Systémy s více nosnými a OFDM, Kombinace OFDM/CDMA/UWB, Komunikační kanály, Vyrovnavače kanálů, Protichybové kódování, UWB komunikace, MIMO systémy, Softwarové, kognitivní a kooperativní rádio, Adaptivní metody v rádiových komunikacích, Analýza spektra rádiových signálů, Změna vzorkovacího kmitočtu, Zvyšování přenosové rychlosti rádiových komunikačních systémů) ...

Vydal: FEKT VUT Brno Autor: UREL - Roman Maršálek

Strana 8 z 144

Vámi hledaný text obsahuje tato stránku dokumentu který není autorem určen k veřejnému šíření.

Jak získat tento dokument?






Poznámky redaktora
Pro zhodnocení průměrného množství informace přes všechny prvky abecedy je možné použít tzv.1) Předpokládejme dále, symboly výstupu zdroje dat jednotlivých okamžicích jsou na sobě nezávislé. Jako základ logaritmu rovnici 1. Maximální entropie tedy odpovídá maximální nejistotě pozorování.2) Z této definice vyplývá několik důležitých poznatků. (1.2 použito číslo Výsledná jednotka množství informace pak bit (binary unit). Pokud pravděpodobnost některého prvku dané abecedy rovna jedné (jeho výskyt jistý), nezískáme jeho pozorováním žádnou informaci tedy I(sk) Pokud pravděpodobnost výskytu rozsahu < množství informace větší nebo rovno nule. Entropii H(S), [5]. Množství informace získané pozorováním tohoto prvku pravděpodobností definováno následujícím vztahem: I(sk) log2 1 Pk (1. Nyní nás zajímá, jak velké množství "infor- mace"získáme při zjištění, výstupu zdroje prvek sk. definovaná takto: H(S) = K−1 k=0 PkI(sk) = K−1 k=0 Pk log2 1 Pk . . Oproti tomu hodnota entropie log2 odpovídá případu stejné pravděpodobnosti (1/K) výskytu všech prvků sk. K−1 k=0 Pk (1. Pravděpodobnosti výskytu 0. Pozorováním výskytu nějakého prvku pak tedy nějakou informaci buď získáme nebo ne, ale žádném případě informaci neztratíme. Pravděpodobnost výskytu k-tého prvku sk označme Pk.Teorie rádiové komunikace 8 1 Teorie informace Tato část zabývá teorií informace, jejíž základy byly položeny Shannonem již roce 1948 jeho známém článku [5]. Pak hovoříme diskrétním zdroji bez paměti (neboť současný výstup není závislý předzházejících výstupech).5 odpovídá množství informace bit.1 Informace, Entropie Pro zavedení pojmů Informace Entropie předpokládejme pozorujeme diskrétní zdroj dat, jehož výstup lze považovat diskrétní náhodnou proměnnou nabývající libovol- ného prvku množiny prvky s0, s1, sK−1.3) Entropie diskrétního zdroje bez paměti možnými prvky nabývá hodnot rozsahu 0 H(S) log2 Nulová entropie odpovídá případu kdy pravděpodobnost jednoho z prvků rovna jedné (nulové nejistotě). 1. Níže uvedený popis vychází především literatury [2, 5]. Musí platit, součet pravděpodobností výskytu všech prvků roven jedné