)m{t) + ^-A cA'ccos (t), a f c — częstotliwość nośna. a) Pokazać, iż widmo sygnału zmodulowanego s(t) nie ma składowych o częstotliwościach należących do przedziału —f c< f< f c i jest przy tym nieograniczone. b) Dana jest funkcja fazowa o postaci: (p(t) = j»sin(27t/mt) gdzie (i — wskaźnik modulacji, a f m— częstotliwość modulująca, wyprowadzić odpowiednie wyrażenie opisujące falę zmodulowaną s(t).
(3.18)
3.4. MODULACJA DWUWSTĘGOWA ZE STŁUMIONĄ FALĄ NOŚNĄ
141
Rys. 3.14. Widmo sygnału wyjściowego modulatora iloczynowego, gdy na jego wejście podawana jest modulowana fala DSB-SC
Pierwszy składnik równania (3.18) reprezentuje zmodulowany sygnał DSB-SC o częstotliwo ści nośnej 2/ c, a drugi składnik jest proporcjonalny do sygnału modulującego m(r). Odzwierciedla to widmo V (f) pokazane na rysunku 3.14, gdzie przyjęto, iż sygnał modulujący m{t) zajmuje pasmo — ^ W. Jest więc widoczne, iż pierwszy składnik równania (3.18) usuwany jest przez filtr dolnoprzepustowy (rys. 3.13), jeśli tylko częstotliwość graniczna tego filtru jest większa niż W, lecz mniejsza od 2/c—W. Warunek ten jest spełniony, gdy wybierze się f c > W. Na wyjściu filtru otrzymujemy wówczas sygnał: v0(t) = ^-A cA'ccos
(3.19)
Sygnał zmodulowany r0(t) jest więc proporcjonalny do n?(r), jeśli tylko błąd fazy 0 pozostaje stały. Amplituda tego sygnału zdemodulowanego jest maksymalna, gdy 0 = 0, a minimalna (zerowa) gdy 0 = ± n/2. Zero sygnału zdemodulowanego, jakie występuje przy 0 = ± n/2, stanowi tak zwany efekt zera kwadraturowego detektora koherentnego. Błąd fazowy 0 oscylatora lokalnego powoduje, iż sygnał wyjściowy doznaje tłumienia w stosunku równym cos 0. Jak długo błąd fazy 0 pozostaje stały, na wyjściu detektora mamy niezniekształconą wersję oryginalnego sygnału informacyjnego m(f). W praktyce mamy jednak do czynienia z błędem fazowym 0 zmieniającym się przypadkowo w czasie, co jest spowodowane przypadkowym zmianom zachodzącym w kanale telekomunikacyjnym. W efekcie czynnik cos 0, przez który mnożony jest sygnał wyjściowy detektora, zmienia się także przypadkowo w czasie, co jest oczywiście zjawiskiem niepożądanym. Należy więc zadabać o to, aby utrzymać lokalny oscylator odbiornika w dokładnym synchronizmie zarówno jeśli chodzi o częstotliwość, jak i o fazę, z falą nośną użytą w nadajniku do generacji sygnału zmodulowanego DSB-SC. Złożoność całego systemu jest ceną, jaką płaci się za wyeliminowanie fali nośnej celem zmniejszenia przesyłanej mocy.
Odbiornik C ostasa Jedną z metod uzyskania praktycznej realizacji odbiornika synchronicznego, dogodnego dla demodulacji fal DSB-SC, jest odbiornik Costasa3) o schemacie blokowym, pokazanym na rys. 3.15. Odbiornik ten składa się tylko z dwóch detektorów koherentnych zasilanych tym samym sygnałem wejściowym, a mianowicie przychodzącą falą DSB-SC /łccos(27c/cf)m(r), lecz o oddzielnych sygnałach oscylatora lokalnego z fazami w kwadraturze względem siebie. Częstotliwość oscylatora lokalnego dostraja się do częstotliwości nośnej f c, co do której
Kanał /
Modulator iloczynowy
—-4^ cos
Sygnał zdemodulowany
cos (2i r f c i +0)
Oscylator sterowany napięciem A
Sygnał DSB-SC c cos (2i c f c t) m ( t )
Przesuwnik fazy - 90°
sin (2Trfc t +0)
Modulator iloczynowy
Filtr dolnoprzepustowy -j/4c sin0w(r)
Kanał Q
Rys. 3.15. Odbiornik Costasa zakłada się, iż jest znana a priori. Detektor górnego kanału zwany jest detektorem koherentnym synfazowym lub kanałem I, a detektor dolnego kanału detektorem koherentnym kwadraturowym lub kanałem Q. Te dwa detektory pracują w zamkniętym układzie ujemnego sprzężenia zwrotnego zaprojektowanego w taki sposób, aby zapewnić synchronizację oscylatora lokalnego z fałą nośną. Aby poznać działanie tego odbiornika przypuśćmy, iż sygnał oscylatora lokalnego ma tę samą fazę, co fala nośna Accos(2nfct) użyta przy generacji przychodzącego sygnału DSB-SC. W tych warunkach na wyjściu kanału / pojawia się pożądany zdemodulowany sygnał m(t), a na wyjściu kanału Q otrzymujemy zero, co jest spowodowane efektem zera kwadraturowego. Załóżmy dalej, iż faza oscylatora lokalnego odchyli się od swej nominalnej wartości o mały kąt >radianów. Sygnał wyjściowy kanału / pozostanie wówczas w zasadzie nie zmieniony, a na wyjściu kanału Q pojawi się niewielki sygnał, proporcjonalny do sin (p ca (f>, dla małych 4>. Sygnał ten będzie miał tę samą polaryzację co sygnał kanału I dla jednego znaku zmiany fazy oscylatora lokalnego, a polaryzację przeciwną dla przeciwnego znaku dryftu fazowego tego oscylatora. Podając sygnały wyjściowe kanałów /, Q, na wejście dyskryminatorafazy (który składa się z układu mnożącego oraz filtru dolnoprzepustowego) (rys. 3.15), otrzymuje się stałoprądowy sygnał sterujący, korygujący automatycznie lokalne błędy fazowe oscylatora sterowanego napięciem.
3.5. FILTRACJA WSTĘG
143
Jest oczywiste, iż sterowanie fazy w odbiorniku Costasa ustaje wraz z ustaniem modulacji i przy ponownym jej pojawieniu się należy przywrócić synchronizację fazową. Nie jest to poważny problem przy odbiorze sygnału mowy, gdyż zsynchronizowanie się faz przebiega zwykle na tyle szybko, iż nie zauważa się żadnych zniekształceń dźwięku.
Zw ielokrotnianie k w ad ratu ro w e fali nośnej Efekt zera kwadraturowego zachodzący w detektorze koherentnym może zostać wykorzys tany w przypadku tak zwanego kwadraturowego zwielokrotniania fali nośnej lub inaczej kwadraturowej modulacji amplitudy (QAM). W tym systemie dwie fale zmodulowane DSB-SC (pochodzące od dwu fizycznie niezależnych sygnałów informacyjnych) zajmują to samo pasmo, a jednak mogą być zmodulowane tak, iż na wyjściu odbiornika oba sygnały informacyjne występują oddzielnie. Jest to zatem układ zachowujący szerokość pasma. Schemat blokowy systemu z kwadraturowym zwielokrotnianiem fali nośnej został przedstawiony na rys. 3.16. Nadawcza strona tego systemu (rys. 3.16a) składa się z dwóch oddzielnych modulatorów iloczynowych, na których wejścia podawane są dwie fale nośne o tej samej częstotliwości, lecz przesunięte względem siebie w fazie o —90 stopni. Nadawany sygnał s(r) jest sumą sygnałów wyjściowych obu tych modulatorów iloczynowych i wynosi: s(t) = Acml{t)cos{2nfct) + Acm2{t)śm(2nfct)
(3.20)
gdzie m1(t) oraz m2(t) — dwa różne sygnały informacyjne podawane na wejścia modulatorów iloczynowych. Tak więc s(t) zajmuje kanał o szerokości 2 W i o częstotliwości środkowej równej częstotliwości nośnej f c, gdzie W jest szerokością pasma każdego z sygnałów informacyjnych mft), m2{t). Zgodnie z równaniem (3.20), możemy rozpatrywać czynnik 4 ^ ( 0 jako składową synfazową zwielokrotnionego sygnału środkowoprzepustowego s(f), a czynnik —Acm2{t) jako jego składową kwadraturową. Odbiorcza strona systemu pokazana została na rys. 3.16b. Zwielokrotniony sygnał s(t) podawany jest równocześnie na dwa oddzielne detektory koherentne, do których dochodzą także dwa sygnały z lokalnego generatora fali nośnej o tej samej częstotliwości, lecz przesunięte w fazie o —90 stopni. Sygnał wyjściowy detektora górnego wynosi ^- Af mf t ) , 1 2 a sygnał z detektora dolnego ma postać —A'(m2{t). Aby system działał prawidłowo, należy zachować właściwe zależności fazowe i amplitudowe pomiędzy oscylatorami lokalnymi użytymi po nadawczej i odbiorczej stronie systemu. Aby zachować niezbędną synchronizację można posłużyć się opisanym wcześniej odbiornikiem Costasa. Inną powszechnie stosowaną metodą jest wysyłanie sygnału pilotują cego znajdującego się poza pasmem sygnału zmodulowanego. W tej ostatniej metodzie, typowy sygnał pilotujący składa się z tonu sinusoidalnego o małej mocy, którego częstotliwość i faza związana jest z falą nośną c(f). W odbiorniku, sygnał pilotujący zostaje wydzielony za pomocą odpowiednio nastrojonego układu filtrującego, a następnie przesunię ty na odpowiednią częstotliwość, dostosowaną do użycia w detektorze koherentnym.
3.5. Filtracja wstęg Kolejnym zagadnieniem, jakie chcemy teraz przedyskutować jest proces takiego prze kształcania zmodulowanego sygnału DSB-SC, aby wygenerować sygnał z częściowo stłumioną wstęgą boczną (VSB) lub sygnał z modulacją jednowstęgową (SSB). Zgodnie
144
3. MODULACJA CIĄGŁA
a Sygnał zwielokrotniony
s(t)
b
C Ą 'e
(f)
Sygnał zwielokrotniony s(t)
j Ac .-tj m2(r)
Rys. 3.16. System z kwadraturowym zwielokrotnianiem fali nośnej: a) nadajnik, b) odbiornik z intuicją należy sądzić, iż właściwą metodą osiągnięcia tego celu jest metoda dyskryminacji częstotliwości, oparta na zastosowaniu odpowiedniego filtru, dołączonego na wyjście modulatora iloczynowego, pozwalającego na wygenerowanie zmodulowanego sygnału DSB-SC. Dobór odpowiednich parametrów filtru zależy oczywiście od wymaganego rodzaju modulacji. Weźmy pod uwagę układ przedstawiony na rys. 3.17a, gdzie u(t) oznacza sygnał wyjściowy modulatora iloczynowego o postaci: u(t) = Ą.m(t)cos(27t/ft) Niech H{f) oznacza transmitancję filtru dołączonego na wyjście modulatora iloczynowego. Widmo zmodulowanego sygnału s(t) wytworzonego po przejściu u(r) przez filtr wynosi:
145
3.5. FILTRACJA WSTĘG
a Sygnał inormacyjny
Modulator iloczynowy
m(t)
u(t)
Filtr środkowoprzepustowy H( f )
Sygnał zmodulowany
s(t)
A A ( cos (2nff t)
Sygnał zmodulowany
Sygnał zdemodulowany
s(t)
v„<0
A\ cos (2 nf ri)
Rys. 3.17. a) Schemat blokowy układu przetwarzania wstęg bocznych, b) detektor koherentny dla odtwarzania sygnału informacyjnego
S(f)=U(f)H(f)
gdzie M( f ) — transformata Fouriera sygnału informacyjnego m(t). Nasz problem polega na znalezieniu transmitancji H{f), przy której wytworzony sygnał zmodulowany s(t) ma takie widmo, aby oryginalny sygnał informacyjny m(f) mógł zostać odtworzony na podstawie s(r) za pomocą detekcji koherentnej. Pierwszy etap procesu detekcji koherentnej obejmuje mnożenie zmodulowanego sygnału s(t) przez lokalnie wygenerowaną falę sinusoidalną A'ccos(2nfct), zsynchronizowaną z falą nośną Accos(2nfct) zarówno co do częstotliwości jak i fazy (rys.3.17b). Możemy więc napisać: t?(t) = /4'ccos(27t/ct)s(r) Transformując podaną relację w dziedzinę częstotliwości otrzymujemy transformatę Fourie ra sygnału v(t) o postaci: V(f) = - y - [ S ( /—/ () + S
(3.22)
Podstawiając równanie (3.21) do (3.22) otrzymamy zatem: m
-
( / - / ') + m f + f j i + 2f,) H ( / - / t ) + M ( /+ 2/ t)W (/+/;i]
(3'23)
Składowe wielkoczęstotliwościowe sygnału t>(t) reprezentowane przez drugi składnik rów nania (3.23) eliminowane są za pomocą filtru dolnoprzepustowego z rys. 3.17b, dając w efekcie sygnał wyjściowy u0(r), którego widmo określa pozostały składnik: 10 Systemy telekomunikacyjne cz. 1
146
3. MODULACJA CIĄGŁA
n (/)= —
M (/)[H < /-/,) + W + / , ) ]
(3.24)
Aby uzyskać niezniekształcone odtwarzanie oryginalnego sygnału informacyjnego m(r) na wyjściu detektora koherentnego, wymagane jest, aby widmo V0(f) było przeskalowaną wersją widma M{f). Oznacza to, iż transmitancja H(f) powinna spełniać warunek: H ( f - f c) + H( f +f c) = 2H(fc)
(3.25)
gdzie H(JC), będąca wartością transmitancji H{f) przy częstotliwości/ = f c jest stałą. Gdy widmo pasma podstawowego M( f ) jest zerowe poza przedziałem częstotliwości — < W, wymagane jest, aby równanie (3.25) było spełnione jedynie dla częstotliwości / z tego przedziału. Ponadto, dla uproszczenia dyskusji, przyjmujemy H(JC) = 1/2. Warunek dla transmitancji H(f) przyjmuje więc ostatecznie postać: H ( f ~ f c) + H( f +f c) = 1,
W
(3.26)
Warunek ten daje dużą swobodę przy wyborze transmitancji H(f), jak pokażemy dalej w punktach 3.6 i 3.7. Tak czy inaczej, z równania (3.24) i warunku (3.26) wynika, iż sygnał wyjściowy detektora koherentnego z rys. 3.17b jest określony wzorem: ta o = —
^0)
(3.27)
Równanie (3.21) określa widmo sygnału zmodulowanego s(t). Biorąc pod uwagę, iż sygnał s(t) jest sygnałem pasmowym, sformułujemy teraz jego opis w dziedzinie czasu z rozłożeniem na składową synfazową i składową kwadraturową, z użyciem metody opisanej w punkcie 2.12. W szczególności, wyrazimy s(t) w postaci kanonicznej: s(t) = st (t)cos(2nfct) —sQ(t)sin(2nfct)
(3.28)
gdzie Sj(t) — składowa synfazowa sygnału s(t), a sQ(t) — składowa kwadraturowa. Przy wyznaczaniu składowej s,(0 zauważmy, iż jej transformata Fouriera jest związana z transfor matą Fouriera całego sygnału s(f) w sposób następujący (zobacz zadanie 2.29): \ s ( f - f ') + s ( / + a - w ś / ś w
s , ( t )
<
=
(.0,
gdzie indziej
(3.29)
Podstawiając równanie (3.21) do (3.29) otrzymujemy transformatę Fouriera składowej s;(t) w postaci: S,(f) =
cM ( /) [ H ( /- /c) + H (/+ /c)] 1
(3.30)
= j ACM (/), - W ^ f ^ W gdzie w drugim wierszu wykorzystano warunek (3.26) nałożony na transmitancję H(f). Z równania (3.30) otrzymujemy, iż składowa synfazowa zmodulowanego sygnału s(f) jest określona wzorem: S/0) =
(3.31)
Różni się ona od oryginalnego sygnału informacyjnego m{t) jedynie o stały współczynnik skali.
3.5.
147
FILTRACJA WSTĘG
Przy wyznaczaniu składowej kwadraturowej sQ{t) sygnału s(f) zauważmy, iż jej transformata Fouriera jest związana z transformatą Fouriera całego sygnału s(r) w sposób następujący (zobacz zadanie 2.29): f K S ( f - f c) - S ( f + f e) l W SQ(f) = < CO, gdzie indziej
(3.32)
Podstawiając równanie (3.21) do (3.32) otrzymujemy: (3.33) Równanie to sugeruje, iż można wygenerować składową s0(t), za wyjątkiem czynnika skalującego, przepuszczając sygnał informacyjny m(t) przez dodatkowy filtr o transmitancji związanej z transmitancją filtru z rys. 3.17a w sposób następujący: W
(3.34)
Niech m'(t) oznacza odpowiedź tego filtru na wymuszenie m(r). Składowa kwadraturowa sygnału s(f) wyrazi się wówczas zależnością: MO = \ ^ { t )
(3.35)
Podstawiając równania (3.35) i (3.35) do (3.28) otrzymujemy następującą kanonicz ną formę sygnału s(t): "*(0 = ^ A cm{t)cos(2nfct ) - —Acm'{t)sm(2nfct)
(3.36)
Równanie (3.36) pozwala, z dokładnością do współczynnika skalującego 1/2, na utworzenie układu o schemacie blokowym z rys. 3.18, będącego przykładem zastosowania metody dyskryminacjifazy dla generacji fali modulowanej s(t). W związku z tym należy zauważyć dwa istotne fakty: 1. Składowa synfazowa Sj(t) jest zupełnie niezależna od postaci transmitancji H(Jj filtru środkowoprzepustowego układu z rys. 3.17a generującego falę modulowaną s(f), dopóki spełnia on warunek określony równaniem (3.26). 2 Modyfikacja widma dokonywana przez układ o transmitancji H{Jj ogranicza się jedynie do składowej kwadraturowej sQ(t). Rola składowej kwadraturowej polega jedynie na takiej interferencji ze składową synfazową, aby zredukować lub wyeliminować, zależnie od konkretnego zastosowania, moc jednej ze wstęg bocznych sygnału zmodulowanego s(t). Przedstawione dotąd rozważania noszą charakter ogólny. W następnych dwu punktach rozpatrzymy generację sygnałów zmodulowanych VSB i SSB, jako szczególnych przypadków sygnału s(t) zdefiniowanego równaniem (3.36).
io*
148
3. MODULACJA CIĄGŁA
Fala zmodulowana
s(t)
Rys. 3.18. Schemat blokowy metod dyskryminacji fazy dla przetwarzania wstęg bocznych
3.6. Modulacja z częściowo stłumioną wstęgą boczną4) Zakładając, iż chcemy wygenerować sygnał zmodulowany z częściowo stłumioną wstęgą boczną (VSB), zawierający pozostałość dolnej wstęgi stwierdzamy, że równanie (3.26) jest spełnione w przypadku zastosowania filtru środkowoprzepustowego o transmitancji H(f) pokazanej na rysunku 3.19, gdzie dla prostoty zilustrowano jedynie charakterystykę amplitudową dla dodatnich częstotliwości. Jest ona tak znormalizowana, aby \H(f)\ była równa 1/2 dla częstotliwości fali nośnej f c. Warto zauważyć, iż narastające zbocze charakterystyki w zakresie odcięcia ma w otoczeniu częstotliwości nośnej f c symetrię nieparzystą. Innymi słowy, wewnątrz przedziału przejściowego f c—f v ^ \f\ / c+ W), transmitancja H(f ) może mieć dowolny charakter. Odpowiednia charakterystyka dla filtru wytwarzającego składową kwadraturową zmodulowanego sygnału VSB, zgodnie z równaniem (3.34), przedstawiona została na rys. 3.20. Rysunki 3.19 oraz 3.20 odnoszą się do zmodulowanego sygnału VSB zawierającego pozostałość dolnej wstęgi bocznej. W przypadku zmodulowanego sygnału VSB zawierające go pozostałość górnej wstęgi, wyniki są podobne z następującymi różnicami: górne zbocze charakterystyki H(f ) musi mieć w obszarze tłumienia, w otoczeniu częstotliwości nośnej f c, symetrię nieparzystą, a przebieg tej charakterystyki w dolnej partii jest dowolny. Stanowi to
3.6. MODULACJA Z CZĘŚCIOWO STŁUMIONĄ WSTĘGĄ BOCZNĄ
149
f Rys. 3.19. Charakterystyka amplitudowa filtru VSB; pokazano tylko częstotliwości dodatnie
r V
'
Rys. 3.28 Charakterystyka amplitudowa filtru służącego do wytwarzania składowej kwadraturowej fali VSB
efekt zastąpienia znaku minus w węźle sumacyjnym znajdującym się na wyjściu układu z rys. 3.18 przez znak plus.
Sygnały telew izyjne Rozważania na temat modulacji z częściowo stłumioną wstęgą boczną byłyby niekompletne bez wzmianki na temat jej roli w telewizji5). Dokładne dane dotyczące formatu modulacji używanej przy transmisji sygnałów wideo, charakteryzujące system TV zależą od dwu czynników: 1. Sygnał wideo cechuje duża szerokość pasma i znacząca rola składowych o małych częstotliwościach, co sugeruje zastosowanie modulacji z częściowo stłumioną wstęgą. 2. Układy elektroniczne stosowane przy demodulacji sygnału w odbiorniku powinny być proste i dlatego tanie; sugeruje to z kolei zastosowanie detekcji obwiedni, do czego wymagane jest dodanie fali nośnej do fali zmodulowanej VSB. W odniesieniu do punktu 1 należy jednak podkreślić, iż choć podstawowym dążeniem jest zachowanie pasma o zadanej szerokości, w komercyjnych systemach TV przesyłany sygnał nie jest dokładnie sygnałem zmodulowanym w systemie VSB. Powód bierze się stąd, iż moce wysyłane przez nadajnik są bardzo wielkie, a zatem staranne filtrowanie wstęg bocznych byłoby zbyt kosztowne. Zamiast tego filtr VSB umieszcza
150
3. MODULACJA CIĄGŁA
się w odbiorniku, gdzie poziom mocy jest niski. Jakość całego systemu jest taka sama, jak w przypadku konwencjonalnej modulacji z częściowo stłumioną falą nośną, za wyjątkiem pewnej dodatkowo traconej mocy i pasma. Uwagi te zilustrowane zostały na rys. 3.21. W szczególności, na rys. 3.2la pokazano wyidealizowane widmo transmitowanego sygnału TV. Przesyłana jest górna wstęga boczna, 25 procent wstęgi dolnej oraz fala nośna wizji. Charakterystykę częstotliwościową filtru VSB kształtującego widmo, znajdującego się w odbiorniku, pokazano na rys. 3.21 b. Szerokość kanału TV stosowana w Ameryce Północnej wynosi 6 MHz, jak to zaznaczono na rys. 3.21b. Pasmo to nie tylko spełnia wymagania związane z transmisją zmodulowanego sygnału wizji w systemie VSB, lecz pozwala na przesyłanie sygnału fonii, modulującego swą własną falę nośną. Wartości podane na osi częstotliwości (rys. 3.2ła, b) odnoszą się do typowego kanału TV. Zgodnie z tymi rysunkami, częstotliwość nośna wizji wynosi 55,25 MHz, a częstotliwość nośna fonii 59,75 MHz. Zauważmy jednak, że informacja zawarta w kanale TV leży w widmie pasma podstawowego roz ciągającego się od wartości 1,25 MHz poniżej częstotliwości nośnej wizji, do wartości 4,5 MHz powyżej tej częstotliwości.
jo .2 <0 3 «
3 JO N
S^f ^ o> E « 52
™
T35 £*0 O IQ . JcoYc cę "O *< /> ro o < c c
Pasmo kanału 6 MHz
Rys. 3.21. a) Wyidealizowane widmo amplitudy nadawanego sygnału TV, b) charakterystyka amplitudowa filtru kształtującego VSB, znajdującego się w odbiorniku
151
3.7. MODULACJA JEDNOWSTĘGOWA
Odnośnie punktu 2, zastosowanie detekcji obwiedni (w stosunku do fali zmodulo wanej w systemie VSB plus fala nośna) wywołuje zniekształcenia sygnału wideo odzys kiwanego na wyjściu detektora. Zniekształcenia te wywoływane są za przyczyną składowej kwadraturowej zmodulowanej fali VSB, w sposób przedstawiony dalej.
Zniekształcenia sygnału inform acyjnego Używając wyrażenia (3.36), zadanego w postaci czasowej, można określić zniekształcenia przebiegu sygnału informacyjnego, powstające w detektorze obwiedni. Dodanie do tego wyrażenia składnika odpowiadającego fali nośnej /lc.cos(27c/t.t) pomnożonego przez współ czynnik ka powoduje, iż zmodyfikowany sygnał podawany na wejście detektora obwiedni ma postać: s(t) = Acl \ + —kam(ty]cos(2Kfct ) - —k0Acm'(t)sm{2nfct)
(3.37)
gdzie stała ka określa głębokość modulacji. Na wyjściu detektora obwiedni powstaje sygnał u(t) opisany następującym wyrażeniem: a(t) = Ac 1/2
1 +yfc«»i(f)
1+
(3.38) .1 + j k am(t)_
Z równania (3.38) widać, iż za zniekształcenia odpowiedzialny jest czynnik m'(r), powodujący pojawienie się składowej kwadraturowej zmodulowanego sygnału VSB. Zniekształcenia te mogą zostać zredukowane dwoma sposobami: • Poprzez zmniejszenie głębokości modulacji określonej współczynnikiem ka. • Poprzez zwiększenie szerokości częściowo stłumionej wstęgi bocznej, co zmniejsza składową ka. Obie te metody są w praktyce używane. W telewizji komercyjnej, szerokość częściowo stłumionej wstęgi bocznej (wynosząca około 0,75 MHz, co odpowiada jednej szóstej całego pasma) ustala się tak, aby zniekształcenia spowodowane przez składową m'(t) mieściły się w dopuszczalnych granicach, gdy głębokość modulacji wynosi prawie 100 procent.
3.7. Modulacja jednowstęgowa Rozpatrzmy z kolei wytwarzanie sygnału zmodulowanego SSB, zawierającego jedynie górną wstęgę boczną. Z praktycznego punktu widzenia, przy generacji tego sygnału najbardziej surowe wymagania dotyczą eliminowanej wstęgi bocznej. Jej najbliższa składowa częstot liwość oddalona jest od pożądanej wstęgi górnej o dwukrotną wartość najniższej częstotliwo ści sygnału informacyjnego (modulującego). Jak stąd wynika, aby możliwe było wytworzenie zmodulowanego sygnału SSB, widmo sygnału informacyjnego powinno mieć lukę ener getyczną wokół częstotliwości zerowej, jak na rys. 3.22. Warunek ten spełniony jest w sposób naturalny w przypadku sygnałów mowy, dla których podana luka energetyczna ma szerokość około 600 Hz (tzn. rozciąga się od —300 do + 300 Hz). Można wówczas wytworzyć
152
3. MODULACJA CIĄGŁA
gómowstęgowy sygnał SSB za pomocą filtru środkowoprzepustowego, którego charakterys tyka amplitudowa w sposób idealny dopasowana jest do częstotliwości nośnej f c, jak pokazano na rys. 3.23a. Przymując widmo sygnału informacyjnego jak na rys. 3.22, otrzymamy odpowiadające mu widmo sygnału SSB przedstawione na rys. 3.23b. Projektując filtr środkowoprzepustowy dla układu generującego sygnał SSB o schemacie blokowym jak na rys. 3.17a, musimy spełnić trzy podstawowe wymagania:
-H
H— Luka energetyczna
Rys. 3.22. Widmo sygnału informacyjnego m(r) z luką energetyczną wokół środka układu współrzędnych
Rys. 3.23. a) Wyidealizowana charakterystyka amplitudowa filtru środkowoprzepustowego. b) widmo sygnału SSB z górną wstęgą boczną
3.7.
153
MODULACJA JEDNOWSTĘGOWA
m{t)
Modulator iloczynowy
A , cos (2?r/j f)
Filtr środkowoprzepustowy
Modulator iloczynowy
Filtr s2(f) środkowoprzepustowy
A 2 cos (2łr/jt}
Rys. 3.24. Schemat blokowy dwustopniowego modulatora SSB
• Pożądana wstęga boczna leży wewnątrz pasma przepustowego filtru. • Eliminowana wstęga boczna leży wewnątrz pasma zaporowego tego filtru. • Zakres przejściowy, oddzielający pasmo przepustowe od pasma zaporowego, jest dwa razy większy od najniższej częstotliwości sygnału modulującego. Ten rodzaj wymagań nałożonych na charakterystykę wymaga stosowania filtrów o dużej selektywności, realizowalnych w praktyce jedynie za pomocą rezonatorów kwarcowych6*. W przypadku konieczności wygenerowania sygnału SSB zajmującego o wiele wyższe pasmo częstotliwości, niż sygnał z pasma podstawowego (np. przy przeniesieniu sygnału mowy do radiowego pasma wielkich częstotliwości), odpowiedni filtr staje się niezwykle trudny do zaprojektowania ze względu na niemożność wydzielenia pożądanego pasma w prostym układzie z rys. 3.17a. W tej sytuacji niezbędne staje się przejście do metody modulacji wielokrotnej, co łagodzi wymagania odnośnie selektywności sto sowanych filtrów. Podejście takie, z zastosowaniem modulacji dwustopniowej, przed stawiono na schemacie z rys. 3.24. Sygnał SSB s^t) otrzymywany na wyjściu pierwszego filtru środkowoprzepustowego służy jako sygnał modulujący drugiego modulatora ilo czynowego wytwarzającego sygnał DSB-SC o widmie symetrycznie rozłożonym wokół drugiej częstotliwości nośnej f 2. Odstęp częstotliwości pomiędzy wstęgami bocznymi tego sygnału DSB-SC wynosi efektywnie tyle, co podwojona wartość pierwszej częstotliwości nośnej f u co czyni względnie prostym usunięcie niepożądanej wstęgi bocznej za pomocą drugiego filtru środkowoprzepustowego i wygenerowanie tym samym sygnału SSB s2(r).
Opis czasow y zm odulow anego sygnału SSB Zajmiemy się obecnie opisem zmodulowanego sygnału SSB s(t) w dziedzinie czasu. Rozpatrując wyidealizowaną charakterystykę częstotliwościową H(f) jak na rys. 3.23a, z równania (3.34) otrzymujemy charakterystykę HQ(f) odpowiedzialną za generację składo wej kwadraturowej sG(t), jak na rys. 3.25. Używając definicji funkcji signum sgn{f), na podstawie rys. 3.25 otrzymujemy wyrażenie: H q(/) = —jsgn(/)
(3.39)
które rozpoznajemy jako transmitancję transformatora Hilberta (zobacz punkt 2.10). Innymi słowy, funkcja m'(t) w równaniu (3.36) jest dokładnie transformatą Hilberta oryginalnego sygnału informacyjnego m{t). Oznaczając tę transformatę Hilberta przez m(f), możemy w sposób formalny opisać zmodulowany sygnał SSB, zawierający tylko górną wstęgę boczną, w następującej postaci: s(*) = —A cm (t)cos(2nff)-—Acm(t)sin{2nff)
(3.40)
154
3. MODULACJA CIĄGŁA
1
Rys. 3.25. Charakterystyka amplitudowo-fazowa filtru kwadraturowego dla modulacji jednowstęgowej z górną wstęgą boczną
oznacza to, iż filtr odpowiedzialny za generację składowej kwadraturowej sygnału s(£) w modulatorze z rys. 3.18 stanowi transformator Hilberta. W przypadku, gdy chcemy wygenerować zmodulowany sygnał SSB, zawierający jedynie dolną wstęgę boczną, wystarczy zastąpić znak minus w węźle sumacyjnym na wyjściu układu z rys. 3.18 znakiem plus. Modulator SSB oparty na schemacie blokowym jak na rys. 3.18, w sposób tu opisany, nazywany jest modulatorem Hartleya.
Dem odulacja sygnałów SSB Zdemodulowany sygnał u0(f) określony równaniem (3.27) uzyskiwany jest przy założeniu idealnego synchronizmu fazowego i amplitudowego między oscylatorem detektora koheren tnego z rys. 3.17b i oscylatorem znajdującym się w modulatorze z rys. 3.17a. Można to zapewnić dwoma sposobami: • Przesyłając pilotujący sygnał nośny oprócz wybranej wstęgi lub • stosując w odbiorniku wysokostabilny oscylator nastrojony na tę samą częstotliwość co fala nośna. W tej drugiej metodzie, nie do uniknięcia jest pewien błądfazy (p sygnału oscylatora lokalnego w stosunku do fali nośnej użytej do generacji odbieranej fali zmodulowanej s(r). Zapisując sygnał oscylatora lokalnego przez zl'cos(2n/t £+ (f>) otrzymujemy po prostych przekształ ceniach sygnał zdemodulowany (dla przypadku, gdy przesyłamy wstęgę górną) o postaci: u0(£) = —AcA'c[m(t)cos(p + m(t)ńn4)~\
(3.41)
W odróżnieniu od wyidealizowanego procesu detekcji koherentnej opisanego równaniem (3.27), sygnał zdemodulowany r0(f) z równania (3.41) zawiera niepożądaną składową proporcjonalną do m(r)sin<£, której nie można usunąć poprzez filtrację. Ta niepożądana składowa pojawia się jako zniekształcenie fazowe. Aby to pokazać, dokonujemy transfor macji Fouriera przebiegu u0(£) z równania (3.41) i otrzymujemy: Kit) = - A cA £ M ( f ) cos
(3.42)
Na podstawie definicji transformaty Hilberta ró(f) wiemy, iż transformata Fouriera sygnału m(t) związana jest z transformatą Fouriera sygnału oryginalnego m(t) zależnością
155
3.8. PRZESUW CZĘSTOTLIWOŚCI
M( f ) = - }sgn( f ) M( f )
(3.43)
Podstawiając równanie (3.43) do (3.42) po pewnych uproszczeniach uzyskujemy zależność: A
K
i t )
CA
’C M
( f ) e x p
( —
/> 0
}(f> ),
=
—AcA'cM{f)exp{]
f <
(3.44)
o
Błąd fazy $ sygnału wyjściowego oscylatora lokalnego powoduje zatem zniekształcenia fazowe polegające na tym, iż każda składowa oryginalnego sygnału informacyjnego m(t) doznaje w trakcie demodulacji w odbiorniku stałego przesunięcia fazowego o argument
3.8. Przesuw częstotliwości Podstawowa operacja związana z modulacją jednowstęgową jest w istocie jedną z postaci przesuwu częstotliwości i dlatego modulacja jednowstęgową znana jest również pod nazwą przemiana częstotliwości, mieszanie lub heterodynowanie. Operację tę dobrze ilustruje widmo sygnału pokazane na rys. 3.23b w porównaniu z widmem sygnału oryginalnego z rys. 3.22. W szczególności, widmo sygnału informacyjnego zajmujące na rys. 3.22 pasmo o d /a do f b dla częstotliwości dodatnich, jest na rys. 3.23b przesunięte do wyższych częstotliwości o wartość częstotliwości nośnej f c; widmo sygnału informacyjnego dla częstotliwości ujemnych uległo symetrycznemu przesunięciu w dół. Opisaną już koncepcję przesuwania częstotliwości można uogólnić w następujący sposób. Przyjmijmy, iż fala zmodulowana s /t) ma widmo rozłożone symetrycznie względem częstotliwości nośnej f x, a wymagane jest przesunięcie tego widma w górę tak, aby nowa wartość częstotliwości nośnej wynosiła f 2. Aby to uzyskać stosuje się mieszacz pokazany na rys. 3.26, podobnie jak na schemacie blokowym z rys. 3.17a. Mieszacz ten jest układem złożonym z modulatora iloczynowego i filtru środkowoprzepustowego. Filtr jest tak zaprojektowany, aby szerokość jego pasma przepustowego była równa szerokości pasma zmodulowanego sygnału s /r ) występującego na wejściu mieszacza. Kluczowym problemem jest dobór częstotliwości oscylatora lokalnego dołączonego do modulatora iloczynowego. Niech / oznacza tę częstotliwość. Z powodu przesuwu częstotliwości dokonywanego przez mieszacz, częstotliwość nośnaf x przychodzącego sygnału zmodulowanego zostaje zmieniona o wartość równą/,; mamy zatem:
Fala zmodulowana Si ( t ) o częstotliwości nośnej fi
Modulator iloczynowy
A t cos (2n / t t)
Rys. 3.26. Schemat blokowy mieszacza
Filtr ^rAlHL AIAI/S 5lO\j RUW O-" przepustowy
Fala zmodulowana S2 ( t ) o częstotliwości nośnej f2
156
3. MODULACJA CIĄGŁA
f i —f i + f Wyznaczając stąd f x uzyskujemy: fi = f i f i W relacji tej założono, że f 2 > f i i wówczas częstotliwość nośna zostaje podwyższona. Jeśli natomiast f x > f 2, częstotliwość nośna zostaje obniżona, a odpowiednia częstotliwość oscylatora lokalnego wynosi: f= U ~h Warto zauważyć, iż mieszanie jest operacją liniową. W związku z tym położenie wstęg bocznych względem częstotliwości nośnej sygnału na wyjściu mieszacza jest takie samo, jak dla jego sygnału wejściowego.
3.9. Zwielokrotnianie i mnożenie częstotliwości^ Innym ważnym procesem przetwarzania sygnałów jest zwielokrotnianie, przy którym za pomocą pewnej liczby sygnałów niezależnych uzyskuje się sygnał złożony, umożliwiający transmisję przez wspólny kanał komunikacyjny. Częstotliwości akustyczne przesyłane przez kanały telefoniczne obejmują przykładowo zakres od 300 do 3100 Hz. Aby przesłać pewną liczbę takich sygnałów poprzez ten sam kanał należy je tak rozdzielić, aby ze sobą wzajemnie nie interferowały, a więc by mogły zostać rozdzielone po stronie odbiorczej. W tym celu stosuje się separację sygnałów w częstotliwości albo w czasie. Metoda częstotliwościowej separacji sygnałów nazywa się zwielokrotnianiem częstotliwościowym (FDM), a metoda separacji sygnałów w czasie nosi nazwę zwielokrotniania czasowego (TDM). W tym punkcie zajmiemy się systemami FDM, a systemy TDM rozpatrzmy w rozdziale 6. Schemat blokowy systemu FDM pokazano na rys. 3.27. O przychodzących sygnałach informacyjnych zakłada się, iż są typu dolnopasmowego, lecz ich widma niekoniecznie przybierają wartości niezerowe aż do częstotliwości równej zeru. Na każdym wejściu sygnałowym znajduje się filtr dolnoprzepustowy służący do usuwania składowych wielkoczęstotliwościowych nie odgrywających istotnej roli w reprezentacji sygnału, lecz zdolnych do zakłócania pozostałych sygnałów informacyjnych przesyłanych we wspólnym kanale. Te filtry dolnoprzepustowe mogą być pominięte tylko w przypadku, gdy sygnały wejściowe mają dostatecznie ograniczone widma. Odfiltrowane sygnały zostają podane na wejścia modulatorów przesuwających ich widma w taki sposób, aby wzajemnie na siebie nie zachodziły. Sygnały nośne o odpowiednich częstotliwościach, niezbędne do uzyskania prawidłowego przesunięcia widm, uzyskiwane są za pomocą generatora. Jeśli chodzi o modulację, to można użyć jednej z metod opisanych w poprzednich punktach tego rozdziału. Jednak najczęściej stosowaną przy zwielokrotnianu metodą modulacji jest modulacja jednowstęgowa, przy której w przypadku sygnałów mowy wymagane jest w przybliżeniu takie samo pasmo częstotliwości, jak dla oryginalnego sygnału akustycznego. W praktyce, każdemu sygnałowi wejściowemu przyznawane jest pasmo o szerokości 4 kHz. Filtry pasmowe po każdym modulatorze mają na celu ograniczenie pasma każdej z fal modulowanych do z góry określonego zakresu. Sygnały wyjściowe tych filtrów są połączone równolegle, tworząc wspólny kanał. Po stronie odbiorczej znajduje się bank filtrów środkowoprzepustowych o wejściach połączonych równolegle, służący do częstotliwościowego rozdzielenia sygnałów informacyjnych. Ory ginalne sygnały informacyjne odzyskiwane są następnie za pomocą oddzielnych demo-
157
3.9. ZWIELOKROTNIANIE I MNOŻENIE CZĘSTOTLIWOŚCI Filtry dolnoprzepustowe FHtry Wejścia Modulatory środkowoinformacyjne przepustowe
Generator częstotliwości nośnej Nadajnik
1 i 1
I1 1 l
Filtfy środkowo-
1 i 1} ' ! i
Filtry dolnoprzepustowe Demodulatory Wyjścia
Generator częstotliwości nośnej Odbiornik
Rys. 3.27. Schemat blokowy systemu FDM
dulatorów. Należy zauważyć, iż system FDM z rys. 3.27 działa tylko w jednym kierunku. Dla zapewnienia transmisji dwustronnej, jak to ma miejsce na przykład w telefonii, wymagane jest podwojenie całego systemu zwielokrotniającego, przy czym poszczególne bloki drugiego systemu, w którym transmisja wszystkich sygnałów zachodzi z prawa na lewo, występują w porządku odwróconym. Przykład 2 Praktyczna realizacja systemu FDM obejmuje zwykłe cały szereg kolejnych modulacji i demodulacji, jak przedstawiono na rys. 3.28. Pierwszy etap zwielokrotniania łączy 12 wejść akustycznych w grupę pierwotną, w której n-ty sygnał wejściowy moduluje falę nośną o częstotliwości^ = 60 + 4n kHz, gdzie n = 1,2,..., 12. Dolne wstęgi boczne są następnie selekcjonowane za pomocą filtracji środkowoprzepustowej i łączone w grupę liczącą 12 dolnych wstęg bocznych (po jednej dla każdego wejścia akustycznego). Grupa pierwotna zajmuje więc pasmo częstotliwości 60-r 108 kHz. Następny krok w hierarchii FDM stanowi łączenie piątki grup podstawowych w grupę wtórną. Dokonuje się tego, modulując ra-tą grupą falę nośną o częstotliwościf c = 372 + 48n kHz, gdzie n — 1,2,...,5. Tutaj także selekcjonuje się dolne wstęgi boczne poprzez filtrację, a następnie łączy je w grupę wtórną zajmującą pasmo 312 552 kHz. Grupa wtórna jest więc przystosowana do przesyłania 60 niezależnych sygnałów akustycznych. Powodem tworzenia grupy wtórnej opisanym sposobem jest fakt, iż ekonomicznie uzasadnione jest stosowanie filtrów spełniających zadane wymagania, jedynie dla ograniczonej szerokości pasma. W podobny sposób, grupy wtórne łączy się w grupy trzeciego stopnia, a te z kolei w grupy czwartego stopnia.
158
3. MODULACJA CIĄGŁA
Częstotliwości nośne kanałów akustycznych (w kHz)
Kanał akustyczny
12
Częstotliwości nośne 9™p (w kHz)
kanałów akustycznych
Rys. 3.28. Ilustracja poszczególnych etapów modulacji w systemie FDM
3.10. Modulacja kąta W poprzednich punktach tego rozdziału badaliśmy wpływ wolnych zmian amplitudy sinusoidalnej fali nośnej w takt sygnału z pasma podstawowego (sygnału informacyjnego). Istnieje także inny sposób modulacji sinusoidalnej fali nośnej, a mianowicie modulacja kąta, w której kąt fali nośnej zmieniany jest w takt sygnału modulującego. W tej metodzie modulacji utrzymywana jest stała amplituda fali nośnej. Ważną cechą modulacji kąta jest większa odporność na szumy i interferencje, niż w przypadku modulacji amplitudy. Jak jednak pokażemy w rozdziale 5, ta poprawa jakości osiągana jest kosztem zwiększenia pasma transmisji; inaczej, modulacja kąta pozwala na praktyczną realizację wymiany szerokości pasma na polepszenie właściwości szumowych. Taki kompromis nie jest możliwy w przypad ku modulacji amplitudy.
Definicje p o d staw o w e Niech 0,(t) oznacza kąt zmodulowanej fali nośnej, będący z założenia funkcją sygnału informacyjnego. Przyjmujemy zatem falę zmodulowaną kątowo o postaci: s(f)
= 4ccos[0,(t)]
(3.45)
gdzie Ac — amplituda fali nośnej. W czasie pełnego okresu argument fy(t) zmienia się o 2tc radianów. Gdy 0,(t) zmienia się monotonicznie wraz z czasem, średnia częstotliwość liczona w hercach, dla przedziału od t do t + A t wynosi:
159
3.10. MODULACJA KĄTA
g,(f + AQ-Of(Q 27i:A t
(3.46)
Definiujemy częstotliwość chwilową sygnału zmodulowanego kątowo s(t) w sposób na stępujący: fi(t) = lim /Af(t) A ł-0
(t + A t ) - 6 2nAt 1 d 0,-(Q 2n d t
(3.47)
Zatem, zgodnie z równaniem (3.45), możemy interpretować sygnał zmodulowany kątowo s(r) jako wirujący wskaż o długości Ac i argumencie 0,(7). Prędkość kątowa tego wskazu mierzona w radianach na sekundę wynosi d0,(r)/dt, zgodnie z równaniem (3.47). W najprostszym przypadku niezmodulowanej fali nośnej, kąt Oft) wynosi: 0i(t) = 2nfct + (f>c i odpowiedni wskaż wiruje ze stałą prędkością kątową równą 2nfc. Stała
= 2nfct + kpm(t)
(3.48)
Składnik 2nfct reprezentuje kąt niezmodulowanej fali nośnej; stała kpjest czułością fazową modulatora, wyrażoną w radianach na wolt przy założeniu, iż sygnał m(t) jest napięciem. Dla wygody, w równaniu (3.48) przyjęto, iż faza niezmodulowanej fali nośnej wynosi zero przy t = 0. Zmodulowany fazowo sygnał s(£) jest w dziedzinie czasu opisany równaniem: s(t) = Accos [2tif ct-\- kpm (f)]
(3.49)
2. Modulacja częstotliwości (FM) jest postacią modulacji kąta, przy której częstotliwość chwilowaf(t) zmienia się liniowo wraz z sygnałem informacyjnym m(t), zgodnie z zależnością: m = f c+ kf m(t)
(3.50)
Składnik f c reprezentuje częstotliwość niezmodulowanej fali nośnej; stała kf jest czułością częstotliwościową modulatora, wyrażoną w hercach na wolt przy założeniu, iż sygnał ra(f) jest napięciem. Całkując równanie (3.50) względem czasu i mnożąc wynik przez 2n otrzymujemy: t
Off) = 2nfct + 2nkf $m(t)dt o
f3.51)
gdzie dla wygody założyliśmy, iż kąt niezmodulowanej fali nośnej wynosi zero dla r = 0. Sygnał zmodulowany częstotliwościowo jest więc w dziedzinie czasu opisany równaniem: t
s(t) = Accos[2nfct + 2Kkf $m(t)dt] o
(3.52)
160
3. MODULACJA CIĄGŁA
e
► Czas Rys. 3.29. Przykłady sygnałów AM, PM i FM uzyskiwanych przy modulacji pojedynczym tonem: a) fala nośna, b) sinusoidalny sygnał modulujący, c) sygnał zmodulowany amplitudowo, d) sygnał zmodulowany fazowo, e) sygnał zmodulowany częstotliwościowo
161
3.10. MODULACJA KĄTA
Konsekwencją tego, że kąt 0,(t) zależy od sygnału informacyjnego m(r) w sposób opisany równaniem (3.48) lub w postaci całki z równania (3.51) jest fakt, iż przejścia przez zero sygnału PM lub sygnału FM nie mają już idealnej regularności; przejścia przez zero mają miejsce w chwilach czasu, w których przebieg zmienia znak od wartości ujemnych na dodatnie lub vice versa. Jest to jedna z cech odróżniających sygnały PM i FM od sygnału AM. Inna ważna cecha polega na tym, iż obwiednia sygnałów PM i AM jest stała (równa amplitudzie fali nośnej), podczas gdy obwiednia sygnału AM zależy od sygnału informacyjnego. Podane różnice pomiędzy sygnałami zmodulowanymi amplitudowo, a sygnałami zmodulowanymi kątowo, dla przypadku modulacji sinusoidalnej, zilustrowano na rys. 3.29. Na rys. 3.29a i 3.29b pokazano odpowiednio sinusoidalną falę nośną i sinusoidalną falę modulącą. Na rysunkach 3.29c, d, e przedstawiono odpowiednio sygnały AM, PM i FM. Jak wynika z tych rysunków, rozróżnienia pomiędzy sygnałami zmodulowanymi PM i FM dokonać można jedynie po ich porównaniu z sygnałem modulującym. Wskazuje to na bliskie pokrewieństwo sygnałów PM i FM. Co więcej, porównanie wzorów (3.49) i (3.52) ujawnia, iż sygnał FM może być f
rozpatrywany jako sygnał PM, w którym fala modulująca jest postaci j m(r)dt zamiast m(t). o Oznacza to, iż sygnał FM może być generowany w ten sposób, iż najpierw całkuje się sygnał m(f), a następnie wynik zostaje użyty jako sygnał wejściowy modulatora fazy, jak na rys. 3.30a. Odwrotnie, sygnał PM można wygenerować tak, iż najpierw różniczkuje się sygnał m(t), a następnie wynik zostaje użyty jako sygnał wejściowy modulatora częstotliwości, jak na rys. 3.30b. Można więc wydedukować wszystkie właściwości sygnałów PM, na podstawie odpowiednich właściwości sygnałów FM i vice versa. Z tego względu skoncentrujemy się dalej na sygnałach FM. a Fala modulująca
Fala FM
Ac cos (2jr/cr)
Fala modulująca
Modulator częstotliwości
Fala PM
A c cos (27r/c/| Rys. 330. Ilustracja związku między modulacją częstotliwości a modulacją fazy: a) schemat blokowy generacji fali AM z użyciem modulatora fazy, b) schemat blokowy generacji fali PM z użyciem modulatora częstotliwości 11 Systemy telekomunikacyjne cz. I
162
3. MODULACJA CIĄGŁA
3.11. Modulacja częstotliwości Sygnał FM s(t) zdefiniowany równaniem (3.52) jest nieliniową funkcją modulującego sygnału m(t), co czyni modulację częstotliwości nieliniowym procesem modulacyjnym. W rezultacie, inaczej niż dla modulacji amplitudy, widmo sygnału FM nie jest w prosty sposób związane z widmem sygnału modulującego; jego analiza jest znacznie trudniejsza, niż w przypadku sygnału AM. Jak więc dokonać analizy widmowej sygnału FM? Proponujemy udzielić od powiedzi na to ważne pytanie w sposób empiryczny, postępując w sposób następujący: • Rozpatrzymy możliwie najprostszy przypadek, a mianowicie modulację jednotonową w warunkach, kiedy powstaje wąskopasmowy sygnał FM. • Następnie rozpatrzymy bardziej ogólny przypadek, dotyczący także modulacji jednym tonem, lecz gdy sygnał FM jest szerokopasmowy. Dalej tak postępując dochodzi się do jeszcze bardziej skomplikowanego przypadku wielotonowego sygnału FM 8). Tym nie będziemy się jednak zajmować, gdyż naszym bezpośrednim celem jest ustalenie empirycznej zależności między pasmem transmisyjnym sygnału FM, a pasmem sygnału informacyjnego. Jak dalej zobaczymy, dwustopniowa analiza widmowa zaproponowana wcześniej zapewni nam dostateczny wgląd w rozpatrywane zjawiska, aby umożliwić rozwiązanie postawionego problemu. Weźmy pod uwagę sinusoidalny sygnał modulujący dany zależnością: m{t) = Amcos(2nfmt)
(3.53)
Częstotliwość chwilowa odpowiedniego sygnału FM jest równa: fi(t) = fc+ kf Amcos(2nfmt)
(3.54)
=fc + A/cos (2ic/mf) gdzie: A / —kf A m
(3.55)
Wielkość A /nazyw ana jest dewiacją częstotliwości, będącą maksymalnym odchyleniem częstotliwości chwilowej sygnału FM od częstotliwości nośnej/c. Podstawową cechą sygnału FM jest więc proporcjonalność dewiacji częstotliwości Af do amplitudy sygnału modulujące go i jej niezależność od częstotliwości tego sygnału. Jak wynika z równania (3.54), kąt 0,(t) sygnału FM wynosi: 0,(0 = 2n$fi(t)dt = o 2nf ct + y-sin (2 n f j ) Jm
(3.56)
Stosunek dewiacji częstotliwości A /do częstotliwości modulującej f m nosi nazwę wskaźnika modulacji sygnału FM. Oznaczając go przez (I piszemy: (3.57) oraz: 0,(0 = 2nfct + /?sin {2nfmt)
(3.58)
3.11. MODULACJA CZĘSTOTLIWOŚCI
163
Jak wynika z równania (3.58), w sensie fizycznym parametr (3jest dewiacją fazy sygnału FM, czyli maksymalnym odchyleniem kąta dt{t) od wartości 2nfct odnoszącej się do przypadku niezmodulowanej fali nośnej; wskaźnik fi jest więc mierzony w radianach. Sam sygnał FM ma postać: s(r) = Accos [27t/cf + /Ssin (2n:/mf)]
(3.59)
W zależności od wartości wskaźnika modulacji (i, można wyróżnić dwa rodzaje modulacji częstotliwości: • Wąskopasmowa modulacja FM, gdy P jest małe w stosunku do jednego radiana. • Szerokopasmowa modulacja FM, gdy p jest duże w stosunku do jednego radiana. Rozpatrzymy teraz kolejno oba wymienione przypadki.
W ąskopasm ow a m odulacja częstotliw ości Weźmy pod uwagę równanie (3.59), opisujące sygnał FM przy sinusoidalnym sygnale modulującym. Dokonując jego rozwinięcia otrzymujemy wzór: s(f) = Accos(2jt/ct)cos[j3sin(2ji/mr)] - Acsm(2nfct)sin [j?sin(27i/j)]
^ ,60)
Zakładając, iż wskaźnik modulacji Pjest mały w stosunku do jednego radiana, można przyjąć następujące przybliżenia: cos[/fsin(2jt/mf)] ~ 1 oraz: sin[0sin(2rc/mf)] ^ /?sin(2rc/mr) Równanie (3.60) upraszcza się wówczas do postaci: s(t) =* Accos(2nfct) —pAcsm(2Kfct)sm(2nfmt)
(3.61)
Równanie (3.61) opisuje przybliżoną postać wąskopasmowego sygnału FM, wytworzonego przy sinusoidalnym sygnale modulującym /tmcos(2n/mr). Pozwala ona utworzyć schemat blokowy modulatora, pokazany na rys. 3.31. W modulatorze tym, fala nośna /łccos(2jt/ff) skierowana zostaje dwiema drogami. Jedna z nich jest bezpośrednia; druga zawiera układ przesuwający fazę o —90 stopni oraz modulator iloczynowy, dając na wyjściu zmodulowany sygnał DSB-SC. Po odjęciu obu tych sygnałów, na wyjściu całego układu powstaje wąskopasmowy sygnał FM, zawierający jednak pewne zniekształcenia. Idealny sygnał FM ma stałą obwiednię, a dla przypadku sinusoidalnego sygnału modulującego o częstotliwości f m, kąt 0,(t) jest też sinusoidą o tej samej częstotliwości. Sygnał zmodulowany, wytworzony przez modulator wąskopasmowy z rys. 3.31, różni się jednak od sygnału idealnego w dwu istotnych aspektach: 1. Obwiednia zawiera resztkową modulację amplitudy i dlatego zmienia się w czasie. 2. Przy sinusoidalnej fali modulującej, kąt 0,(t) zawiera zniekształcenia harmoniczne w formie trzeciej i czwartej harmonicznej częstotliwości modulującej f m. Ograniczając jednak wskaźnik modulacji do wartości P < 0,3 radiana, można ograniczyć wpływ resztkowej modulacji AM i harmonicznej modulacji PM do dopuszczalnego poziomu. Powracając do równania (3.61), możemy je sprowadzić do postaci: s(t) ~ Accos (2nfct ) + —PAC{cos [2ji {fc+ f j t ] - cos [2it {fc- f j t ] }
(3.62)
164
3. MODULACJA CIĄGŁA
n
r Fala modulująca
Wąskopasmowa fala FM
Fala nośna Ac
cos(2rrf ct)
Wąskopasmowy modulator fazy Rys. 3.31. Schemat blokowy jednej z metod generacji wąskopasmowego sygnału FM
Podane wyrażenie jest nieco podobne do odpowiedniego wzoru definiującego sygnał AM, podanego w przykładzie 1, i mającego następującą postać: W O = >fccos(2n/cf) + — f i A c (cos [ 2 n ( f c + f m)t] + cos [ 2 n ( fc —f m)t]}
(3.63)
gdzie ju — głębokość modulacji sygnału AM. Porównując równania (3.62) i (3.63) widzimy, iż w przypadku modulacji sinusoidalnej, podstawowa różnica pomiędzy sygnałem AM i wąskopasmowym sygnałem FM polega na tym, iż znak składowej różnicowej wąskopas mowego sygnału FM jest ujemny. Wąskopasmowy sygnał FM wymaga więc w zasadzie takiej samej szerokości pasma (tzn. 2 / j jak sygnał AM. Możliwa jest też reprezentacja wąskopasmowego sygnału FM za pomocą wykresu wskazowego pokazanego na rys. 3.32a, gdzie wskaż fali nośnej przyjęto o fazie początkowej równej zeru. Jak widać, wypadkowa wskazów obu prążków bocznych jest zawsze prostopad ła do wskazu fali nośnej. Z tego powodu, wskaż całego sygnału wąskopasmowego FM ma w przybliżeniu taką samą amplitudę, jak wskaż fali nośnej, lecz jest z nią niezgodny w fazie. Jeśli porównać ten wykres z wykresem z rys. 3.32b reprezentującym sygnał AM zauważamy, iż w tym ostatnim przypadku wskaż wypadkowy reprezentujący sygnał AM ma amplitudę różną od amplitudy fali nośnej, lecz jest z nią zawsze zgodny w fazie.
Szerokopasm ow a m odulacja częstotliw ości Zajmiemy się teraz wyznaczeniem widma sygnału FM zmodulowanego pojedynczym tonem, opisanego równaniem (3.59) przy dowolnej wartości wskaźnika modulacji fi. W ogólności, sygnał FM zmodulowany przebiegiem sinusoidalnym jest sygnałem nieokresowym, chyba że częstotliwość nośna / ‘jest całkowitą wielokrotnością częstotliwości modulującej f m. Analizę takiego sygnału można jednak uprościć, stosując zespoloną reprezentację sygnałów środkowopasmowych, opisaną w rozdziale 2. Zakładamy, iż częstotliwość nośna f c jest dostatecznie duża (w porównaniu z szerokością pasma sygnału FM), aby zapisać równanie (3.59) w postaci:
s(r) = Re[Acexp(j27c/ct+jj5sin(27i/mf))] = = Re[ś(t)exp(j2rc/cf)] gdzie s(t) - obwiednia zespolona sygnału FM s(f) zdefiniowana jako:
(3.64)
165
3.11. MODULACJA CZĘSTOTLIWOŚCI Suma wskazów
dla częstotliwości bocznych
bocznych
Rys. 332. Porównanie wykresów wskazowych wąskopasmowej fali FM i fali AM przy modulacji sinusoidalnej: a) wąskopasmowa fala FM, b) fala AM
s(t) = AcexpD0sin(2rc/mt)]
(3.65)
Zatem w odróżnieniu od sygnału FM s(t), obwiednia zespolona s(f) jest okresową funkcją czasu, o częstotliwości podstawowej równej częstotliwości modulującej f m. Możemy więc rozwinąć s(t) w zespolony szereg Fouriera o postaci: 00 s(0 = Z c„exp(j2™/wt) n= - oo
(3.66)
gdzie zespolony współczynnik Fouriera c„ określono wzorem: c*= L
J "
s(r)exp( —}2nfmt)dt =
1/ 2 / m 1 / 2 /m
(3.67)
= fmAc J exP D^sin (2rc/mf) —j27in/mf] dr -1/2/„ Definiujemy nową zmienną: x = 2ti f j
(3.68)
Równanie (3.67) może teraz zostać napisane w nowej postaci: A " cn = —1 J exp [j (J3sin x —nx)] dx 2n
(3.69)
Całka po prawej stronie równania (3.69) jest z dokładnością do stałego mnożnika funkcją Bessela pierwszego rodzaju n-ego rzędu9) od argumentu fi. Funkcja ta jest zwykle oznaczana symbolem Jn{fi) i ma postać:
166
3. MODULACJA CIĄGŁA
1 J„(P) = — f exp [] (/?sin x —nx)] d t 2 n -n zgodnie z którą równanie (3.69) redukuje się do postaci:
(3.70)
(3.71)
= Acj nm
Podstawiając równanie (3.71) do (3.66) otrzymujemy następujące rozwinięcie obwiedni zespolonej sygnału FM, zapisane za pomocą funkcji Bessela Jn(/?):
s(t) = Ac Z
(3.72)
•/ n(^)exp(j2tin/„1f)
n = - oo
Podstawiając dalej równanie (3.72) do (3.64) otrzymujemy: X
s(r) = /4cRe
I
^Q5)exp02ji(fc+ nfm)Q
(3.73)
. n — — co
Zmieniając kolejność sumowania i biorąc część rzeczywistą prawej strony równania (3.73) dostajemy: s(0 = -4t E
7„(/))cos[>(/c+ n/J<]
(3.74)
n — — od
Jest to poszukiwana postać szeregu Fouriera zmodulowanego pojedynczym tonem sygnału FM s(f) dla dowolnej wartości /?. Dyskretne widmo sygnału s(t) można otrzymać biorąc transformaty Fouriera obu stron równania (3.74); mamy zatem: * /> -£ ^
I
J M W - f - n f J + S I J + f . + nfJ-]
(3.75)
n = — cc
Na rysunku 3.33 podano wykresy funkcji Bessela J„(P) w funkcji wskaźnika modulacji /? dla różnych całkowitych dodatnich wartości n. Można uzyskać lepszy wgląd w zachowanie się funkcji Bessela biorąc pod uwagę następujące właściwości (zobacz dodatek 4): 1. Dla parzystych n zachodzi równość = J - n{fi), a dla nieparzystych n: Jn(P) = —J_„(/ł), a zatem dla każdego n: =
(3-76)
2. Dla małych wartości wskaźnika modulacji fi otrzymujemy: JM » i J ,W - j
(3.77)
J M =0,
n>2
3. £ J 2M »= - 00
=1
(3.78)
Biorąc pod uwagę równania od (3.75) do (3.78) oraz krzywe z rys. 3.33, możemy poczynić następujące obserwacje: 1. Widmo sygnału FM zawiera falę nośną i nieskończoną liczbę sygnałów harmonicznych rozmieszczonych symetrycznie po obu stronach częstotliwości nośnej, w odległościach odpowiednio/m,2/m, 3/m,.... Pod tym względem istnieje tu zasadnicza różnica w stosunku
167
3.11. MODULACJA CZĘSTOTLIWOŚCI
0
Rys. 333. Wykresy funkcji Besseia pierwszego rodzaju
do modulacji AM, gdzie przy sinusoidalnym sygnale modulującym powstaje tylko jedna para prążków bocznych. 2. W szczególnym przypadku, gdy jest małe w stosunku do jedynki, tylko współczynniki Besseia J 0(/?) i Jj(/ł) przybierają niepomijalne wartości tak, iż sygnał FM składa się w praktyce jedynie z fali nośnej i pojedynczej pary prążków bocznych o częstotliwościach f c± fm. Odpowiada to szczególnemu przypadkowi modulacji wąskopasmowej FM rozpa trzonemu uprzednio. 3. Amplituda fali nośnej zmienia się w funkcji Ę zgodnie z J 0(P). Oznacza to, iż w odróżnieniu od sygnału AM, amplituda składowej nośnej sygnału FM zależy od wskaźnika modulacji 0. Fizyczna interpretacja tej właściwości związana jest ze stałością obwiedni sygnału FM, gdyż średnia moc takiego sygnału, wydzielana na oporze o wartości 1 oma jest wówczas również stała i wynosi: P=
(3.79)
Gdy fala nośna zostaje zmodulowana, tworząc sygnał FM, moc prążków bocznych może powstać jedynie kosztem mocy fali nośnej, przez co amplituda tej fali staje się zależna od Zauważmy, iż średnią moc sygnału FM otrzymać można także na podstawie równania (3.74), mamy wtedy:
P
=
\
A
‘
t
(3.80)
168
3. MODULACJA CIĄGŁA
Podstawiając równanie (3.78) do (3.80) stwierdzamy, iż wyrażenie opisujące średnią moc P redukuje się, jak powinno, do postaci (3.79). PRZYKŁAD 3 W tym przykładzie pragniemy prześledzić sposób, w jaki zmiany amplitudy i częstotliwości sinusoidalnego sygnału modulującego wpływają na kształt widma sygnału FM. Zacznijmy od przypadku, gdy częstotliwość sygnału modulującego jest ustalona, lecz jego amplituda ulega zmianie, powodując z kolei zmiany dewiacji częstotliwości A/ Przy ustalonej
—2 Af-M
f
Rys. 334. Dyskretne widma ampitudy sygnału FM, znormalizowane w stosunku do amplitudy fali nośnej dla przypadku modulacji sinusoidalnej o stałej częstotliwości i różnych aplitud. Pokazano tylko widma dla częstotliwości dodatnich
3.11. MODULACJA CZĘSTOTLIWOŚCI
169
częstotliwości modulującej f m uzyskujemy widmo amplitudowe zmodulowanego sygnału FM jak na rys. 3.34, gdzie przyjęto /J = 1,2,5. Widmo to zostało znormalizowane w stosunku do amplitudy niezmodulowanej fali nośnej. Rozważmy następnie przypadek, gdy amplituda sygnału modulującego jest ustalo na; tzn. dewiacja częstotliwości pozostaje stała, a częstotliwość modulująca f m ulega zmianie. Uzyskujemy teraz widmo amplitudowe zmodulowanego sygnału FM jak na rys. 3.35, gdzie przyjęto /? = 1,2,5. Stwierdzamy, iż przy ustalonej dewiacji A/ wraz ze wzrostem wskaźnika
■*--------- 2 A f ------------ ► Rys. 335. Dyskretne widma amplitudy sygnału FM, znormalizowane w stosunku do amplitudy fali nośnej, dla przypadku modulacji sinusoidalnej o różnych częstotliwościach i stałej amplitudzie. Pokazano tylko widma częstotliwości dodatnich
170
3. MODULACJA CIĄGŁA
fi wzrasta liczba prążków mieszczących się w ustalonym przedziale częstotliwości f c- A/ < | / | < / c+A/. Gdy /? dąży do nieskończoności, szerokość pasma zajmowanego przez falę FM dąży do wartości granicznej 2A/, co jest sprawą bardzo istotną.
Szerokość pasm a transm isyjnego sygnałów FM W teorii, sygnał FM zawiera nieskończoną liczbę prążków bocznych tak, iż pasmo wymagane do przesyłania tego sygnału jest także nieskończone. W praktyce jednak efektywna szerokość pasma sygnału FM ogranicza się do skończonej liczby prążków bocznych, przy założonym poziomie zniekształceń. Można zatem określić efektywną szerokość pasma, wymaganą dla transmisji sygnału FM. Zacznijmy od przypadku, gdy sygnał FM jest zmodulowany za pomocą pojedynczego tonu sinusoidalnego o częstotliwości f m. Dla tego rodzaju sygnału FM, amplitudy prążków bocznych oddalonych od częstotliwości nośnej f c o więcej niż jedną dewiację Af dążą szybko do zera, tak iż pasmo jest stale szersze od pełnego zakresu zmian częstotliwości, lecz pozostaje mimo wszystko ograniczone. Dla dużych wartości wskaźnika modulacji /J, szerokość pasma zbliża się do pełnego zakresu zmian częstotliwości 2Af, pozostając niewiele od niego większa. Z drugiej strony, dla małych wartości wskaźnika modulacji /?, widmo sygnału FM ogranicza się efektywnie do częstotliwości nośnej f c i jednej pary częstotliwości bocznych f c± fm tak, iż szerokość pasma jest bliska 2/m. Możemy więc podać przybliżony wzór do obliczania szerokości pasma transmisyjnego sygnału FM zmodulowanego pojedynczym sygnałem sinusoidalnym o częstotliwości f m, o postaci: BT 2* 2Af+ 2/m = 2A/f 1+
j)
<3-8,>
Podany wzór empiryczny znany jest pod nazwą reguły Carsonal0). Aby dokładniej oszacować wymagania odnośnie szerokości pasma sygnału FM, można posłużyć się definicją wynikającą z zachowania maksymalnej liczby istotnych prążków bocznych, których amplitudy są większe od pewnej wybranej wartości. Dogodnie jest przyjąć, iż wartość ta wynosi 1 procent amplitudy niezmodulowanej fali nośnej. W ten sposób definiujemy szerokość pasma fali FM jako odstęp między takimi dwiema częstotliwoś ciami, poza którymi żaden z prążków bocznych nie przewyższa 1 procenta amplitudy niezmodulowanejfali nośnej. Tak zdefiniowana szerokość pasma wynosi 2nmax/ m, gdzie f mjest częstotliwością modulującą, a nmax największą liczbą całkowitą n spełniającą warunek \ J M > 0,01. Wartość nmax zmienia się wraz ze wskaźnikiem modulacji (i i można ją wyznaczyć za pomocą tablic wartości funkcji Bessela J„(fi). W tablicy 3.1 podano całkowitą liczbę znaczących prążków bocznych (leżących zarówno poniżej jak i powyżej częstotliwości nośnej) dla różnych wartości fi, obliczoną na podstawie wyżej podanego kryterium 1 procenta. Szerokość pasma B, obliczona tą metodą może być przedstawiona w postaci uniwersalnej krzywej, znormalizowanej w stosunku do dewiacji częstotliwości A /i wykreś lonej w funkcji wskaźnika fi. Krzywa ta pokazana została na rys. 3.36, gdzie poszczególne punkty otrzymane na podstawie tablicy 3.1 zostały połączone najlepiej przystającą do nich linią ciągłą. Zauważmy, iż wraz ze wzrostem wskaźnika modulacji fi, pasmo zajmowane przez istotne prążki boczne maleje do asymptotycznej wartości równej pełnemu zakresowi zmian częstotliwości fali nośnej w wyniku modulacji. Oznacza to, iż przy małych wartościach wskaźnika modulacji wykorzystanie pasma jest gorsze, niż przy większych wartościach (i. Przejdźmy teraz do ogólniejszego przypadku dowolnego sygnału modulującego m(f), dla którego najwyższa częstotliwość widma wynosi W Aby oszacować szerokość pasma, wymaganą dla transmisji sygnału FM zmodulowanego takim sygnałem, wystarczy wziąć pod
171
3.11. MODULACJA CZĘSTOTLIWOŚCI
Rys. 336. Krzywa uniwersalna dla obliczania 1-procentowej szerokości pasma fali FM
Tablica 3.1. LICZBA ISTOTNYCH PRĄŻKÓW BOCZNYCH SZEROKOPASMOWEGO SYGNAŁU FM DLA RÓŻNYCH WSKAŹNIKÓW MODULACJI Wskaźnik modulacji fi
Liczba prążków bocznych 2"ma*
0,1 0,3 0,5 1,0 2,0 5,0 10,0 20,0 30,0
2 4 4 6 8 16 28 50 70
uwagę najgorszy przypadek modulacji pojedynczym przebiegiem sinusoidalnym. Na po czątek wyznaczymy współczynnik zwany indeksem modulacji D, określony jako stosunek dewiacji częstotliwości A/ odpowiadającej maksymalnej amplitudzie sygnału modulującego m(t), do największej częstotliwości modulującej W, gdy mamy do czynienia z przypadkiem ekstremalnym. Indeks modulacji D odgrywa taką samą rolę przy modulacji niesinusoidalnej, co wskaźnik modulacji fi w przypadku modulacji sinusoidalnej. Zastępując więc fi przez D oraz f m przez W i wykorzystując regułę Carsona (3.81) oraz krzywą uniwersalną z rys. 3.36, otrzymujemy szerokość pasma sygnału FM dla przypadku modulacji niesinusoidalnej. Z praktycznego punktu widzenia, reguła Carsona zaniża nieco pasmo wymagane w sys-
172
3. MODULACJA CIĄGŁA
ternach FM, podczas gdy krzywa uniwersalna z rys. 3.36 w pewnym stopniu zawyża jego niezbędną wielkość. Wybór szerokości pasma, mieszczącej się w granicach wyznaczonych przez obie podane reguły, uznać należy za właściwy dla większości praktycznych zastosowań. Przykład 4 W Ameryce Północnej, maksymalna wartość dewiacji A/dla radiowej transmisji FM została ustalona na 75 kHz. Jeśli przyjąć częstotliwość modulującą W — 15 kHz, co stanowi typową „maksymalną” częstotliwość pasma akustycznego przy transmisji FM, otrzyma się wartość indeksu modulacji wynoszącą odpowiednio:
Stosując wzór Carsona (3.81), w którym zastępujemy P przez D oraz f mprzez W, otrzymujemy przybliżoną szerokość przenoszonego pasma dla sygnału FM równą: B t = 2(75 + 15) = 180 kHz Odpowiednia szerokość pasma sygnału FM otrzymana na podstawie wykresu z rys. 3.36 wynosi: B t = 3,2A f = 3,2 x 75 = 240 kHz Wzór Carsona daje więc pasmo o 25 procent węższe, niż krzywa uniwersalna z rys. 3.36.
G eneracja sygnałów FM Istnieją w zasadzie dwie podstawowe metody generacji sygnałów zmodulowanych częstot liwościowe, a mianowicie pośrednia i bezpośrednia. W metodzie pośredniej, sygnał modulują cy zostaje najpierw użyty do wytworzenia wąskopasmowego sygnału FM, po czym stosuje się powielanie częstotliwości, celem zwiększenia dewiacji częstotliwości do wymaganego pozio mu. W metodzie bezpośredniej natomiast, częstotliwość nośna zmieniana jest bezpośrednio w takt wejściowego sygnału informacyjnego. Najważniejsze cechy obu tych metod zostaną przedstawione dalej. Pośrednia modulacja FM n>. Uproszczony schemat blokowy systemu pośredniej modulacji FM pokazano na rys. 3.37. Sygnał informacyjny (modulujący) m(t) zostaje scałkowany, a następnie moduluje fazę oscylatora kwarcowego; zastosowanie kwarcu zapewnia dobrą
Sygnał z pasma podstawowego
Sygnał FM
Rys. 3.37. Schemat blokowy pośredniej metody generacji szerokopasmowego sygnału FM
3.11. MODULACJA CZĘSTOTLIWOŚCI Sygnał FM s (t) 0 częstotliwości nośnej fc 1wskaźniku modulacji G
173 Sygnał FM s' (t) 0 częstotliwości nośnej n f z 1wskaźniku modulacji nfi
Rys. 338. Schemat blokowy powielacza częstotliwości
stabilizację częstotliwości. Aby zminimalizować zniekształcenia związane z modulacją fazy, maksymalna dewiacja fazy, a więc i wskaźnik modulacji fi, muszą być utrzymywane na niskim poziomie, co jest równoznaczne z generowaniem wąskopasmowego sygnału FM. Sam wąskopasmowy modulator fazy może być realizowany w układzie z rys. 3.31. Wąskopas mowy sygnał FM zostaje następnie powielony w częstotliwości za pomocą powielacza częstotliwości tak, aby otrzymać sygnał FM o wymaganej szerokości pasma. Powielacz częstotliwości składa się z bezinercyjnego układu nieliniowego za którym następuje filtr środkowoprzepustowy, jak pokazano na rys. 3.38. Bezinercyjność układu nieliniowego sprowadza się do tego, iż nie zawiera on elementów zdolnych do magazynowa nia energii. Relacja wejście — wyjście dla takiego układu może zostać wyrażona w na stępującej ogólnej postaci: y(t) = ajS(r) + a 2s2(t) + ... + a„.s"(t)
(3.82)
gdzie ay,a 2,.:,a n — współczynniki wynikające z punktu pracy układu, a n — najwyższy stopień nieliniowości. Innymi słowy, bezinercyjny układ nieliniowy jest układem opisanym wielomianem n-tego stopnia. Sygnał wejściowy s(r) jest sygnałem FM określonym na stępująco: t
s(t) = /łccos 2nfct + 2nkf J m(t)dt o a jego częstotliwość chwilowa wynosi: f { t ) = f c+ kf m{t)
(3.83)
Częstotliwość środkową filtru środkowoprzepustowego z rys. 3.38 ustala się na wartość równą nfc, gdzie /J e s t częstotliwością nośną przychodzącego sygnału FM s(t). Ponadto, filtr jest tak zaprojektowany, aby jego szerokość pasma była n razy większa od szerokości pasma sygnału s(f). W punkcie 3.13, poświęconym nieliniowym zjawiskom w systemach FM, opiszemy składowe widma wnoszone za pośrednictwem nieliniowych czynników drugiego i trzeciego stopnia występujących w relacji wejście-wyjście opisanej równaniem (3.82). Obecnie poprzestaniemy na stwierdzeniu, iż po filtracji środkowoprzepustowej, sygnału wyjściowego układu nieliniowego u(t), otrzymujemy nowy sygnał FM opisany zależnością: s'(t) = A'ccosylKnfct + 2nnk f jm(t)df
(3.84)
którego częstotliwość chwilowa wynosi: = nfc + nkfmit)
(3.85)
Porównując wzory (3.85) i (3.83) widzimy, iż nieliniowy układ przetwarzający z rys. 3.38 działa jak powielacz częstotliwości. Stopień powielenia częstotliwości jest określony przez najwyż szy stopień n w wyrażeniu na relację wejście-wyjście z równania (3.82), charakteryzującego bezinercyjny układ nieliniowy.
174
3. MODULACJA CIĄGŁA
Sygnał
Rys. 3.39. Schemat blokowy szerokopasmowego modulatora częstotliwości do przykładu 5
Przykład 5 Na rysunku 3.39 pokazano uproszczony schemat blokowy typowego nadajnika FM (opartego na metodzie pośredniej), używanego dla transmisji sygnałów akustycznych w zakresie od 100 Hz do 15 kHz. Wąskopasmowy modulator fazy otrzymuje sygnał nośny o częstotliwości =0,1 MHz generowany przez oscylator kwarcowy. Sygnał FM na wyjściu nadajnika powinien mieć częstotliwość nośną f c — 100 MHz oraz minimalną dewiację częstotliwości równą A/ = 75 kHz. W celu ograniczenia zniekształceń harmonicznych produkowanych przez wąsko pasmowy modulator fazy, ograniczamy wartość wskaźnika modulacji tego modulatora do wartości maksymalnej 0,3 radiana. Przyjmijmy zatem wartość =0,2 radianów, dobrze spełniającą to ograniczenie. Przy najniższej częstotliwości modulującej 100 Hz dewiacja częstotliwości sygnału na wyjściu wąskopasmowego modulatora fazy wynosi A/j = 20 Hz, a przy najwyższej częstotliwości modulującej 15 kHz jest równa A/j = 3 kHz. Krytyczna sytuacja zachodzi więc dla najniższych częstotliwości, gdyż dewiacja częstotliwości jest wówczas znacznie mniejsza, niż dla najwyższej częstotliwości modulującej. Należy zatem spełnić wymaganie, aby przy najmniejszej częstotliwości modulującej 100 Hz dewiacja częstotliwości została podwyższona do 75 kHz. Aby uzyskać na wyjściu nadajnika dewiację częstotliwości A/ = 75 kHz niezbędne staje się użycie powielacza częstotliwości. W szczególności dla naszego przykładu, przy A/j = 20 Hz oraz A/ = 75 kHz, całkowity mnożnik częstotliwości wynosi 3750. Przy bezpośrednim pomnożeniu częstotliwości przez taką wartość, na wyjściu nadajnika otrzyma my znacznie wyższą częstotliwość nośną, niż wymagane 100 MHz. Dla wygenerowania sygnału FM mającego zarówno wymaganą dewiację częstotliwości jak i częstotliwość nośną, konieczne staje się więc zastosowanie dwustopniowego powielania częstotliwości ze stopniem pośrednim przesunięcia częstotliwości, jak na rys. 3.39. Niech n{ i n2 oznaczają odpowiednie mnożniki częstotliwości tak, iż zachodzi równość: A/ «1«2 = A/j~ “
75000 20
= 3750
(3.86)
Częstotliwość nośna n j j sygnału na wyjściu pierwszego powielacza częstotliwości zostaje przesunięta w dół do wartości (f2—n J j ) poprzez zmieszanie z falą sinusoidalną o częstotliwo ścif 2 = 9,5 MHz, dostarczaną przez drugi oscylator kwarcowy. Częstotliwość nośna sygnału na wejściu drugiego mnożnika częstotliwości musi być równa f j n 2. Porównując te dwie częstotliwości otrzymujemy równość:
175
3.11. MODULACJA CZĘSTOTLIWOŚCI
Tablica 3.2. WARTOŚCI CZĘSTOTLIWOŚCI NOŚNEJ I DEWIACJI CZĘSTOTLIWOŚCI W RÓŻNYCH PUNKTACH SZEROKOPASMOWEGO MODULATORA CZĘSTOTLIWOŚCI Z RYS. 3.39 Wyjście modulatora fazy
Wyjście pierwszego powielacza częstotliwości
Wyjście mieszacza
Wyjście drugiego powielacza częstotliwości
Częstotliwość nośna
0,1 MHz
7,5 MHz
2,0 MHz
100 MHz
Dewiacja częstotliwości
20 Hz
1,5 kHz
1,5 kHz
75 kHz
fl
ni f \ —
n2
z której po podstawieniu wartości f x = 0,1 MHz, f 2 = 9,5 MHz oraz f e — 100 MHz uzyskujemy warunek: 100 9 ,5 -0 ,1 1 1 ,= ----*2
(3.87)
Rozwiązując równania (3.86) i (3.87) względem n{ oraz n2 otrzymujemy wartości: n1 = 75,
n2 = 50
Używając podanych mnożników częstotliwości otrzymujemy zbiór wartości, które zebrano w tablicy 3.2. Bezpośrednia modulacja FM. W systemie bezpośredniej modulacji FM częstotliwość chwilowa fali nośnej podlega bezpośrednio zmianom w takt sygnału informacyjnego, co dzieje się, gdy używamy układu znanego pod nazwą oscylatora sterowanego napięciem. Jednym ze sposobów realizacji takiego układu jest zastosowanie oscylatora drgań sinusoidal nych z obwodem rezonansowym o dużej selektywności, decydującym o generowanej częstotliwości, sterowanego poprzez symetryczne zmiany przyrostowe wartości jego elemen tów reaktancyjnych. Przykładem takiego układu jest tzw. oscylator Hartleya, pokazany na rys. 3.40. Zakładamy, iż składowa pojemnoścowa obwodu rezonansowego decydującego o częstotliwości drgań oscylatora składa się z kondensatora o stałej pojemności, zabocznikowanego dodatkowym kondensatorem o pojemności zależnej od napięcia. Ich wypad-
Rys. 3.40 Oscylator Hartleya
176
3. MODULACJA CIĄGŁA
kowa pojemność reprezentowana jest na schemacie z rys. 3.40 przez element C(t). Kondensator o pojemności zależnej od napięcia, zwany inaczej waraktorem lub warikapem, stanowi pojemność o wartości zależnej od napięcia przyłożonego do jego zacisków. Taką pojemność sterowaną napięciem można uzyskać, przykładowo, za pomocą diody złączowej p —n spolaryzowanej w kierunku zaporowym; im większe jest napięcie wsteczne na takiej diodzie, tym mniejsza pojemność diody. Częstotliwość drgać oscylatora Hartleya z rys. 3.40 jest określona wzorem: m
= ------t =
(3.88) + L2)C(f)
gdzie: C(t) — całkowita pojemność kondensatora stałego i kondensatora sterowanego napięciem, L 1 i L 2 — indukcyjności obwodu rezonansowego oscylatora. Zakładamy, iż dla sinusoidalnej fali modulującej o częstotliwości f m pojemność C(r) wyraża się zależnością: C(t) = C0 + ACcos(2rt/mr)
(3.89)
gdzie: C0 — całkowita pojemność przy braku modulacji, a AC — maksymalna zmiana pojemności. Podstawiając (3.89) do (3.88) otrzymujemy: (3.90) gdzie / 0 — niemodulowana częstotliwość drgań, równa: 1
(3.91)
2ny/ C 0{Ll + L 1) Przy założeniu, iż maksymalna zmiana pojemności AC jest mała w porównaniu z pojemnoś cią C0 występującą przy braku modulacji, możemy aproksymować równanie (3.90) zależnością:
m
= /o
(3.92)
Niech: AC 2Ć0
(3.93)
Częstotliwość chwilowa oscylatora modulowanego w częstotliwości, poprzez zmiany pojemności jego obwodu rezonansowego, wyraża się wówczas przybliżonym wzorem: fi(t) —/o + 4 f'cos(2Tt/mt)
(3.94)
Równanie (3.94) jest poszukiwaną zależnością określającą częstotliwość chwilową fali FM, przy założeniu modulacji sinusoidalnej. Aby wygenerować szerokopasmowy sygnał FM o wymaganej dewiacji częstotliwo ści, można użyć modulatora pokazanego na rys. 3.41, składającego się z oscylatora sterowanego napięciem oraz szeregu powielaczy częstotliwości i mieszaczy. Za pomocą tego układu można uzyskać dobrą stabilizację częstotliwości oscylatora, stałą proporcjonalność między zmianami częstotliwości wyjściowej, a zmianami napięcia wejściowego oraz dewiację częstotliwości niezbędną do realizacji szerokopasmowej modulacji FM.
177
3 . 11. M O D U L A C J A C Z Ę S T O T L I W O Ś C I
Szeroko-
Rys. 3.41. Schemat blokowy szerokopasmowego m odulatora częstotliwości z oscylatorem sterowanym napięciem
Rys. 3.42. Schemat blokowy szerokopasmowego układu stablilizacji częstotliwości ze sprzężeniem zwrotnym
Nadajnik FM pracujący w układzie realizującym opisaną już metodę bezpośrednią ma jednak tę wadę, iż częstotliwość nośna nie jest generowana przez oscylator o wysokiej stabilności. Trzeba zatem w praktyce zapewnić pewne dodatkowe środki, za których pomocą częstotliwość nośna będzie sterowana przez stabilne źródło częstotliwości, ge nerowanej przez oscylator kwarcowy. Jedna z metod takiego sterowania została przed stawiona na rys. 3.42. Sygnał wyjściowy z generatora FM jest podawany na wejście mieszacza wraz z sygnałem uzyskiwanym za pomocą oscylatora kwarcowego. N a wyjściu tego mieszacza otrzymuje się sygnał o częstotliwości różnicowej. Sygnał ten przychodzi lastępnie na wejście dyskryminatora częstotliwości i dalej na filtr dolno-przepustowy. lyskryminator częstotliwości jest układem, w którym amplituda napięcia wyjściowego jst proporcjonalna do częstotliwości chwilowej wejściowego sygnału FM. Jego działanie ostanie przedstawione w następnym podpunkcie. Gdy nadajnik FM generuje falę nośną prawidłowej częstotliwości, sygnał na wyjściu filtru dolnoprzepustowego jest równy ru. Jakiekolwiek odchylenie częstotliwości nośnej nadajnika od wartości nominalne; woduje jednak pojawienie się na wyjściu filtru dolnoprzepustowego dyskryminator; iłego napięcia wyjściowego o znaku określonym przez kierunek odchylenia częstotliwość dajnika od tej wartości nominalnej. Napięcie to zostaje po odpowiednim wzmocnieni iane na oscylator sterowany napięciem nadajnika FM tak, aby zmienić częstotliwo ylatora w kierunku przywrócenia nominalnej wartości częstotliwości nośnej. stemy telekomunikacyjne cz. 1
178
3. MODULACJA CIĄGŁA
Dem odulacja sygnałów FM Demodulacja częstotliwości jest procesem pozwalającym odzyskać oryginalny sygnał modu lujący na podstawie sygnału zmodulowanego częstotliwości owo. Chodzi tu o utworzenie układu o charakterystyce odwrotnej do tej, jaką ma modulator częstotliwości, co można zrealizować w sposób bezpośredni łub pośredni. Opiszemy tu bezpośrednią metodę demodulacji częstotliwości z użyciem układu znanego pod nazwą dyskryminatora częstot liwości, dla którego amplituda chwilowa na wyjściu jest wprost proporcjonalna do częstotliwości chwilowej wejściowego sygnału FM. W następnym podpunkcie podamy natomiast pośrednią metodę demodulacji częstotliwości, w której stosuje się inny szeroko znany układ zwany pętlą fazową. Dyskryminator częstotliwości składa się zasadniczo z obwodu rezonansowego pracującego na zboczu krzywej rezonansowej, po którym następuje detektor obwiedni. Idealny rozstrojony obwód rezonansowy ma czysto urojoną charakterystykę amplitudowo-fazową, liniowo zależną od częstotliwości wewnątrz zadanego przedziału częstotliwości. Weźmy pod uwagę charakterystykę przedstawioną na rys. 3,43a, opisaną za pomocą zależności:
«.*/> = < j2 n a ( /+ /t - — j , l 0,
- f - ~
< /«
(3.95)
gdzie indziej
gdzie a — stała. Zajmijmy się oszacowaniem odpowiedzi tego układu Sj (f) na sygnał FM s(f), o częstotliwości nośnej f c i szerokości pasma BT. Zakładamy przy tym, iż widmo sygnału s(t) jest zerowe poza przedziałem częstotliwości f c—BT/ 2 ^ \ f \ ^ f c+ BT/2. Aby oszacować odpowiedź s(t) dogodne okazuje się zastosowanie procedury opisanej w punkcie 2.13, polegającej na zastąpieniu rozstrojonego obwodu rezonansowego przez równoważny filtr dolnoprzepustowy zasilany sygnałem analitycznym wejściowego sygnału FM s{t). Niech H l(Jj oznacza charakterystykę amplitudowo-fazową układu, podaną na rys. 3.43a. Charakterystyka ta związana jest z funkcją H 1{f) za pomocą relacji: B tf- f.) =
f> 0
(3.96)
Używając równań (3.95) i (3.96) otrzymujemy zależność:
(3.97) zilustrowaną na rys. 3.43b. Wejściowy sygnał FM s(r) jest dany równaniem (3.52), które tu dla wygody powtarzamy: s(r) = Xccos 2nfct + 2nkf Przyjmując, iż częstotliwość nośna f c jest duża w porównaniu z szerokością pasma sygnału zmodulowanego s(t), odpowiadająca mu obwiednia zespolona ma postać:
3.11. MODULACJA CZĘSTOTLIWOŚCI
179
Rys. 3.43. a) Charakterystyka częstotliwościowa idealnego rozstrojonego obwodu rezonansowego, b) charakterystyka częstotliwościowa układu pracującego na zboczu krzywej rezonansowej, c) charakterystyka częstotliwościowa filtru dolnoprzepustowego równoważnego idealnemu rozstrojonemu obwodowi rezonansowemu, komplementarnemu w stosunku do obwodu o charakterystyce z rys. 3.43a
s(t) = Acexpjj2nfcy J m(t)dt J
(3.98)
Niech s t (t) oznacza obwiednię zespoloną odpowiedzi z rys. 3.43b na wymuszenie s(f). Zgodnie z teorią podaną w punkcie 2.13, transformata Fouriera sygnału sl (r) ma postać: 12*
180
3. MODULACJA CIĄGŁA
S~,(/) = j 8 tV ) 8 j ) =
(3.99)
= {o.
gdzie indziej
gdzie S(f) — transformata Fouriera obwiedni zespolonej s(f). Wiedząc, iż mnożenie transformaty Fouriera danego sygnału przez czynnik j2rc/jest równoważne różniczkowaniu tego sygnału w dziedzinie czasu (zobacz punkt 2.3), z równania (3.99) uzyskujemy: ds(Q MO = a d t +j7tBrs(0
(3.100)
Podstawiając równanie (3.98) do (3.100) otrzymujemy: s ^ t ) = j n B Ta A c
exp j2nkf j" m(t)ćt "HO Bt o
(3.101)
Pożądana charakterystyka układu ma zatem postać: MO = Re[M0exp(j2x/cr)] = 2k n — nBTaAt 1 + ^ W ( 0 Icos I 2nfct + 2nkf J m(t)dt + -£■ B o
(3.102)
Sygnał sx(0 jest hybrydowo zmodulowanym sygnałem, którego zarówno amplituda jak i częstotliwość fali nośnej zmieniają się w takt sygnału informacyjnego m(t). Gdy jednak spełnione zostanie następujące ograniczenie: 2kf B
m(0
< 1, dla wszystkich t
możemy zastosować detektor obwiedni do odtworzenia zmian amplitudy, a więc do otrzymania oryginalnego sygnału informacyjnego, z dokładnością do czynnika stałego. Sygnał wyjściowy detektora obwiedni będzie wówczas miał postać: IM*)I =
2k l+ -^ m (t)
(3.103)
Składowa stała nBraAc po prawej stronie równania (3.103) jest proporcjonalna do nachylenia a charakterystyki obwodu pracującego na zboczu krzywej rezonansowej. Sugeruje to, iż składową stałą można wyeliminować, odejmując od sygnału wyjściowego detektora obwiedni IMOI sygnał z wyjścia oddzielnego detektora obwiedni, poprzedzonego komplementarnym rozstrojonym obwodem rezonansowym o charakterystyce H 2{f) (rys. 3.43c). Charakterystyki amplitudowo-fazowe obu tych układów spełniają zależność: #2 « = £ , ( - / )
(3.104)
Niech s2(r) oznacza odpowiedź obwodu komplementarnego na sygnał FM s(t). Stosując procedurę analogiczną do już opisanej, znajdujemy obwiednię przebiegu s(r) o postaci: IM0I = n B ^ A '
(3.105)
3.11. MODULACJA CZĘSTOTLIWOŚCI
181
gdzie s2(r) — obwiednia zespolona przebiegu s2(t). Różnica między dwoma sygnałami z równań (3.103) oraz (3.105) wynosi: MO = IM 0 H M 0 I = 4nkf aAcm{t) (3.106) i nie zawiera już składowej stałej. Można zatem zrealizować idealny dyskryminator częstotliwości w układzie złożo nym z dwu rozstrojonych obwodów rezonansowych o charakterystykach amplitudowo-fazowych związanych zależnością (3.104), połączonych kaskadowo z detektorami obwiedni, których wyjścia dochodzą do węzła sumacyjnego, jak na rys. 3.44a. Układ ten zwany jest zrównoważonym dyskryminatorem częstotliwości. Wyidealizowany układ z rys. 3.44a można zrealizować z dobrym przybliżeniem w układzie pokazanym na rys. 3.44b. Dolny i górny obwód rezonansowy tego układu zostaje dostrojony do częstotliwości leżącej odpowiednio powyżej i poniżej niezmodulowanej częstotliwości nośnej/c. Na rysunku 3.44c podano wykresy charakterystyk amplitudowych tych obu obwodów oraz wypadkową charakterystykę całego układu przy założeniu, iż oba obwody mają dużą dobroć Q. Dobroć Q obwodu rezonansowego jest miarą jakości całego opisywanego układu. Jest ona formalnie zdefiniowana jako 2k razy stosunek maksymalnej energii zmagazynowanej w obwodzie w czasie jednego okresu, do energii traconej za okres. W przypadku równoległego (lub szeregowego) obwodu rezonansowego RLC, dobroć Q jest równa stosunkowi jego częstotliwości rezonansowej do szerokości 3-decybelowego pasma przenoszenia obwodu. W przypadku równoległych obwodów rezonansowych RLC układu z rys. 3.44b, opór R stanowi głównie straty własne indukcyjności obu obwodów. Liniowość użytecznego zakresu charakterystyki wypadkowej z rys. 3.44c, symet rycznego względem częstotliwości f c, jest określona przez odstęp pomiędzy częstotliwościami rezonansowymi obu obwodów. Jak wynika z rys. 344c, odstęp 3B można uznać za zadowalający, przy czym 3-decybelowe pasmo każdego z obwodów wynosi 2B. Na wyjściu omawianego dyskryminatora częstotliwości wystąpią zniekształcenia spowodowane na stępującymi przyczynami: 1. Widmo sygnału wyjściowego FM s(f) nie jest w rzeczywistości zerowe przy częstotliwoś ciach leżących poza przedziałem f c—BT/2 < / < f c+ BT/2. 2. Sygnały wyjściowe filtrów rezonansowych nie są dokładnie rzecz biorąc sygnałami o ograniczonym widmie i dlatego dolnoprzepustowe filtry RC na wyjściach układów diodowych detektorów obwiedni wnoszą pewne zniekształcenia. 3. Charakterystyki filtrów rezonansowych nie są liniowe w całym zakresie częstotliwości pasma wejściowego sygnału FM s(t). Mimo to, przy odpowiednim zaprojektowaniu, poziom zniekształceń wnoszonych wskutek wymienionych czynników daje się utrzymać w dopuszczalnych granicach.
Zw ielokrotnianie sygnałów stereofonicznych FM12) Zwielokrotnianie sygnałów stereofonicznych jest formą zwielokrotniania z podziałem częstot liwości (FDM), służącą do przesyłania dwu oddzielnych sygnałów za pomocą tej samej fali nośnej. Jest ono szeroko stosowane w radiofonii FM do przesyłania dwu różnych elementów programu (np. dwu różnych sekcji orkiestry, wokalisty i akompaniatora) tak, aby uzyskać wymiar przestrzenny muzyki odbieranej przez słuchacza. Przy ustalaniu norm dla stereofonicznej transmisji radiowej FM należy brać pod uwagę dwa czynniki: 1. Transmisja powinna ograniczać się do przyznanych kanałów fonicznych FM. 2. Powinna być kompatibilna z monofonicznymi odbiornikami radiowymi.
3. MODULACJA CIĄGŁA
182
Fala FM
Sygnał z pasma podstawowego
Rys. 3.44. Symetryczny dyskryminator częstotliwości: a) schemat blokowy, b) schemat ideowy, c) charakterystyka częstotliwościowa
3.11. MODULACJA CZĘSTOTLIWOŚCI
183
a
b
Podwajacz częstotliwości -------- «------Filtr wąskopasmowy nastrojony na fc = 19 kHz
Rys. 3.45. a) Multiplekser w stereofonicznym nadajniku FM, b) demultiplekser w odbiorniku stereofonicznym FM
Pierwszy czynnik determinuje dopuszczalne parametry częstotliwościowe, włącznie z dewia cją częstotliwości. Drugi czynnik jest powodem ograniczeń nakładanych na postać przesyła nego sygnału. Na rysunku 3.45a przedstawiono schemat blokowy systemu zwielokrotniającego, stosowanego w nadajnikach stereofonicznych FM. Niech m,(f) i mr(t) oznaczają odpowiednio sygnały odbierane przez lewy i prawy mikrofon, po stronie nadawczej systemu. Są one podawane na wejście prostego układu generującego sygnał sumaryczny m,(t) -I- mr{t) oraz sygnał różnicowy mr(t). Sygnał sumaryczny pozostaje w swej pierwotnej postaci sygnału o paśmie podstawowym; jest on przeznaczony do odbioru monofonicznego. Sygnał różnicowy oraz podnośna o częstotliwości 38 kHz (otrzymywana z oscylatora kwarcowego 19 kHz poprzez podwajanie częstotliwości), są podawane na wejścia modulatora iloczynowego, dając na jego wyjściu zmodulowaną falę DSB-SC. Oprócz sygnału sumacyjnego i zmodulowanej fali DSB-SC, zwielokrotniony sygnał m (t) zawiera także sygnał pilota o częstotliwości 19 kHz, służącej jako częstotliwość odniesienia dla detekcji koherentnej sygnału różnicowego, za chodzącej w odbiorniku stereofonicznym. Zwielokrotniony sygnał m(r) jest postaci:
184
3. MODULACJA CIĄGŁA
m(t) = [m,(t) + mr(f)] + [m,(0 —mr(0]cos(4jt/cr)+ Kcos(2nfct)
(3.107)
gdzie: f ( — 19kHz, a K — amplituda tonu pilotującego. Zwielokrotniony sygnał m(r) moduluje w częstotliwości główną częstotliwość nośną dając ostateczną postać nadawanego sygnału. Pilotowi nadaje się od 8 do 10 procent dewiacji górnej częstotliwości pasma; ampliudę K w równaniu (3.107) dobiera się tak, aby spełnić ten warunek. W odbiorniku stereofonicznym, zwielokrotniony sygnał m(t) jest odtwarzany w procesie demodulacji częstotliwości odbieranej fali FM, a następnie podawany na wejście demultipleksera pokazanego na rys. 3.45b. Poszczególne składowe zwielokrotnionego sygnału m(t) zostają wydzielone za pomocą odpowiednich filtrów. Sygnał pilotujący odtworzony za pomocą wąskopasmowego filtru nastrojonego na 19 kHz zostaje następnie poddany podwajaniu częstotliwości, aby uzyskać sygnał podnośnej o częstotliwości 38 kHz. Sygnał podnośnej umożliwia detekcję koherentną zmodulowanej fali DSB-SC, a co za tym idzie odtworzenie sygnału różnicowego mt(t) —mr(t). Filtr dolnoprzepustowy pasma pod stawowego, znajdujący się w górnej gałęzi układu z rys. 3.45b jest tak zaprojektowany, aby przepuszczał sygnał sumacyjny m,(r) + mr(f). Na koniec, prosty matrixer dokonuje od tworzenia sygnałów kanału lewego m,(t) i kanału prawego mr(t), które zostają doprowadzone do odpowiednich głośników,
3.12. Układ z pętlą fazową Pętla fazowa (PLL) jest układem z ujemnym sprzężeniem zwrotnym, którego działanie jest blisko związane z modulacją częstotliwości. Może być stosowana do synchronizacji, podziału/powielania częstotliwości oraz pośredniej demodulacji częstotliwości. Celem naszego zainteresowania będzie to ostatnie zastosowanie. Pętla fazowa składa się zasadniczo z trzech podstawowych bloków: układu mnożącego, filtru pędowego i oscylatora przestrajanego napięciem (VCO), połączonych w pętli sprzężenia zwrotnego, jak na rys. 3.46. VCO jest generatorem fali sinusoidalnej, której częstotliwość zależy od przyłożonego napięcia pochodzącego ze źródła zewnętrznego. Każdy modulator częstotliwości może więc pełnić rolę generatora VCO. Załóżmy, że generator VCO został tak nastrojony, iż przy napięciu sterującym równym zeru spełnione są dwa następujące warunki: 1. Częstotliwość VCO jest dokładnie równa częstotliwości niezmodulowanej fali nośnej f c. 2. Przebieg na wyjściu generatora VCO jest przesunięty w fazie o 90° względem nie zmodulowanej fali nośnej. Załóżmy, że na wejście pętli fazowej działa sygnał FM o postaci: s(r) = Acsm[2nf.t + (f>ft)]
(3.108)
gdzie Ac — amplituda fali nośnej. Przy sygnale modulującym m(t), kąt (jtft) jest powiązany z m(t) za pomocą całki: Fala FM
s(t)
<
>Y-e- V y
Filtr pętlowy
v(r>
- ■/-(o
Oscylator sterowany napięciem
Rys. 3.46 Pętla fazowa
3.12. UKŁAD Z PĘTLĄ FAZOWĄ
= 2nkf Jm(r)dt o
185
(3.109)
gdzie kf — czułość częstotliwościowa modulatora częstotliwości. Niech sygnał wyjściowy generatora VCO pętli fazowej będzie opisany równaniem: r{t) = /l„cos [2ji f t +
(3.110)
gdzie Av — amplituda drgań generatora. Gdy na wejście generatora VCO działa napięcie sterujące u(r), kąt
Nieliniowy model pętli fazow ej13> Zgodnie z rys. 3.46, przychodzący sygnał FM s(f) i sygnał wyjściowy generatora VCO r(t) są podawane na układ mnożący, na wyjściu którego powstają dwie składowe: 1. Składowa o wielkiej częstotliwości, reprezentowana przez składnik o podwojonej częstot liwości: kmAcA vsm[4nfct +
km^Asin l
(3.112)
186
3. MODULACJA CIĄGŁA
(3.113)
Filtr pętlowy, w odpowiedzi na sygnał e(t), wytwarza sygnał wyjściowy v(r), który można zapisać w postaci splotu: QO y(t) = f e(x)h{t-x)dt (3.114) —00 gdzie h(t) — odpowiedź impulsowa filtru pędowego. Za pomocą równań od (3.111) do (3.113) znajdujemy zależność pomiędzy kątami fazowymi
(3’115)
gdzie K 0 — parametr wzmocnienia pętli, określony zależnością: K0 = kmkvAcAv
(3.116)
Amplitudy Ac i Av są mierzone w woltach, wzmocnienie układu mnożącego kmw woltach" \ a czułość częstotliwościowa kv w hercach na wolt. Jak więc wynika z równania (3.116), parametr K 0 ma wymiar częstotliwości. Równanie (3.115) pozwala na utworzenie schematu blokowego pętli fazowej, pokazanego na rys. 3.47. W modelu opisywanym tym schematem uwzględniono także związek pomiędzy sygnałami u(t) oraz e(t), opisany równaniami (3.112) i (3.114). Model ten przypomina jak widać schemat blokowy z rys. 3.46. Układ mnożący, znajdujący się na wejściu pętli fazowej zastąpiony tu został węzłem różnicowym i nieliniowoś cią sinusoidalną, a generator VCO integratorem. Nieliniowość sinusoidalna w modelu z rys. 3.47 powiększa znacznie trudność analizy działania pętli fazowej. Pomocna staje się więc linearyzacja tego modelu, tak aby ułatwić analizę, zachowując jednocześnie dobry przybliżony opis zachowania się pętli w wybranych rodzajach pracy. Tym się teraz zajmiemy.
Liniowy model pętli fazow ej Gdy błąd fazy (pe(t) jest zerowy mówimy, że pętla fazowa znajduje się w synchronizmie. W przypadku, kiedy 4>e(t) przybiera dla wszystkich czasów wartości małe w porównaniu do jednego radiana, można zastosować przybliżenie: 1
U{t)
Rys. 3.47. Nieliniowy model pętli fazowej
187
3.12. UKŁAD Z PĘTLĄ FAZOWĄ
>• Hf)
b
lir)tv
Rys. 3.48. Modele pętli fazowej: a) model linearyzowany, b) model uproszczony dla przypadku, gdy wzmocnienie jest dużo większe od jedności
(3.117)
sin[<£e(f)] -
słuszne z błędem nie przekraczającym 4 procent dla 4>e(t) mniejszego od 0,5 radiana. W takim przypadku mówimy, że pętla znajduje się w stanie bliskim synchronizmu, a sinusoidalną nieliniowość z rys. 3.47 można pominąć. Można wówczas zastąpić pętlę fazową modelem liniowym, pokazanym na rys. 3.48a. Zgodnie z tym modelem, błąd fazy (f>e(t) jest związany z fazą (^(f) za pomocą liniowego równania różniczkowo-całkowego postaci: QC d
=
d0i(f) dt
(3.118)
Transformując równanie (3.118) w dziedzinę częstotliwości i rozwiązując je względem transformaty Fouriera
*1 if)
(3.119)
Funkcja U J) z równania (3.119) jest zdefiniowana następująco: Hjf) L{f)=K0 jf
(3.120)
gdzie H(f) — charakterystyka ampiitudowo-fazowa filtru pętlowego. Wielkość U J) zwana jest charakterystyką amplitudowojazową otwartej pętli. Przypuśćmy, iż dla wszystkich wartości częstotliwości / leżących w paśmie podstawowym, moduł funkcji UJ) pozostaje dużo większy od jedności. Wówczas, jak wynika z równania (3.119),
3. MODULACJA CIĄGŁA
188
Jak widać na rys. 3.48a, transformata Fouriera V(f) sygnału wyjściowego pętli fazowej u(0 związana jest z funkcją
(3.121)
VU) =
Korzystając z równania (3.120) możemy napisać: Hf) = — Uf)*,if)
(3.122)
K
Podstawiając równanie (3.119) do równania (3.122) otrzym ujem y: (3.123) m
-
~ T fw T
itf)
Przy założeniu |L(/)| » 1 możemy aproksymować równanie (3.123) następująco: (3.124) Odpowiednie równanie w dziedzinie czasu ma postać: 1 d«MQ 2nkv d t
(3.125)
Przy założeniu, iż moduł charakterystyki otwartej pętli ŁĄf) jest dostatecznie duży w interesującym nas zakresie częstotliwości, pętla fazowa może być więc traktowana jako układ różniczkujący, którego sygnał wyjściowy jest dodatkowo mnożony przez czynnik stały \/2nkv, jak na rys. 3.48b. Uproszczony model z rys. 3.48b umożliwia pośrednią metodę zastosowania pętli fazowej jako demodulatora częstotliwości. Gdy sygnał wejściowy pętli jest sygnałem FM, jak opisany równaniem (3.108), kąt 0 1(z) związany jest z sygnałem informacyjnym m(t) za pomocą równania (3.109). Podstawiając zatem równanie (3.109) do (3.125) stwierdzamy, iż sygnał wyjściowy pętli fazowej wyraża się przybliżonym wzorem: t>(t)~—^-m(t) K
(3.126)
Równanie (3.126) stanowi, iż w przypadku gdy pętla fazowa znajduje się w stanie synchronizmu, jej sygnał wyjściowy t'(f) jest praktycznie (z dokładnością do stałego czynnika kf /kv) taki sam, jak oryginalny sygnał informacyjny m(f); dokonana zostaje zatem demodulacja częstotliwości przychodzącego sygnału FM s(f). Istotną cechą pętli fazowej pracującej w charakterze demodulatora jest to, że szerokość pasma przychodzącego sygnału FM może znacznie przekraczać pasmo samego filtru pętlowego opisywanego za pomocą charakterystyki H{f). Ta ostatnia charakterystyka bowiem może i powinna być ograniczona do pasma podstawowego. Sygnał sterujący oscylatora VCO zajmuje wówczas takie samo pasmo, jak sygnał informacyjny m(t), podczas gdy sygnał wyjściowy tego oscylatora jest szerokopasmowym sygnałem zmodulowanym częstotliwościowo, którego częstotliwość chwilowa pozostaje dokładnie równa częstotliwo ści przychodzącego sygnału FM. Jest to po prostu powtórnym stwierdzeniem faktu, iż pasmo zmodulowanego sygnału FM jest znacznie szersze od pasma sygnału informacyjnego, odpowiedzialnego za jego generację.
189
3.12. UKŁAD Z PĘTLĄ FAZOWĄ
Złożoność pętli fazowej jest określona przez typ charakterystyki H(f) filtru pętlowego. Najprostszą postać pętli uzyskuje się w przypadku, gdy H(J) = 1; to znaczy gdy nie ma w ogóle filtru pętlowego. W tym przypadku pętla fazowa nosi nazwę pętli fazowej pierwszego rzędu. W przypadku pętli fazowych wyższych rzędów, charakterystyka H(f) przybiera bardziej złożoną postać. Rząd pętli fazowej określony jest stopniem wielomianu mianownika transmitancji pętli zamkniętej, określającej transformatę V(f) sygnału wyj ściowego w funkcji transformaty (_/'), jak to wynika z równania (3.123). Podstawowym ograniczeniem jest w przypadku pętli fazowej pierwszego rzędu fakt, iż parametr wzmocnienia K 0 kontroluje zarówno szerokość pasma pętli, jak i zakres trzymania (synchronizacji) częstotliwości pętli; przy czym zakres częstotliwości trzymania jest to zakres częstotliwości, dla którego pętla pozostaje w stanie synchronizmu względem sygnału wejściowego. Z tego względu pętla pierwszego rzędu jest rzadko stosowana w praktyce. Dlatego w dalszej części tego paragrafu będziemy zajmować się tylko pętlą fazową drugiego rzędu.
Pętla fazow a drugiego rzędu Dla ustalenia uwagi rozpatrzymy obecnie pętlę fazową drugiego rzędu z filtrem pędowym o charakterystyce amplitudowo-fazowej o postaci: (3.127)
H(f)=\ +
gdzie a — stała. Filtr ten składa się z integratora (ze wzmacniaczem operacyjnym) i bezpośredniego połączenia, jak pokazano na rys. 3.49. Podstawiając równanie (3.127) do (3.119) uzyskujemy następujące równanie rozpatrywanej pętli: ( j/) 2/« * o
<*>(/) = 1
(3.128)
(/)
+ [G/V«] + [ftf f / a K , ]
Definiujemy teraz częstotliwość własną pętli: (3.129)
/. = v ^ oraz współczynnik tłumienia:
(3.130)
2fu/i
Sygnał wejściowy
Rys. 3.49. Filtr pędowy dla pętli fazowej drugiego rzędu
Sygnał wyjściowy
190
3. MODULACJA CIĄGŁA
Przekształcimy teraz wzór (3.128) wprowadzając parametry /„ oraz £: (jf/ff
i+xom+wf
*i (f )
(3.131)
Załóżmy, iż przychodzący sygnał FM wytwarzany jest przy modulacji pojedynczym tonem sinusoidalnym, dla którego faza wynosi: = 0sin(2 nfmt)
(3.132)
W tym przypadku, z równania (3.131) otrzymujemy wyrażenie na błąd fazy w postaci:
(3.133)
gdzie amplituda
(3.134)
n m j f n ) \b = ——tan 1 2 L l - i f j f n ) 2]
(3.135)
oraz
Na rysunku 3.50 wykreślono amplitudę (f>e0 błędu fazy, znormalizowaną względem Af/fn, w funkcji f j f n dla różnych wartości (. Jest oczywiste, iż dla wszystkich wartości współczyn nika tłumienia (, przy ustalonej wartości dewiacji częstotliwości A/, błąd fazy jest niewielki przy małych częstotliwościach modulujących, osiąga maksimum dla częstotliwości/m = /„,
Rys. 3.50. Charakterystyka amplitudowa błędu fazy pętli fazowej drugiego rzędu
191
3.12. UKŁAD Z PĘTLĄ FAZOWĄ
a dalej spada przy wyższych częstotliwościach modulujących. Warto zauważyć, iż maksymal na wartość błędu fazy zmniejsza się wraz ze wzrostem współczynnika (. Transformata Fouriera sygnału wyjściowego pętli związana jest z transformatą
v
{
j )
=
1
K 1
+
v
)
ę
<3'l36)
m
W świetle definicji danej równaniami (3.129) oraz (3.130), wzór (3.136) przybiera postać: (3.137) Podstawiając równanie (3.131) do (3.137) otrzymujemy wzór: { Hf/K) D + Wif/fJ] \ , (f)
(3.138)
Dlatego, dla fazy sygnału wejściowego (pL(t) określonej równaniem (3.132), sygnał wyjściowy pętli fazowej jest równy: y(t) = A 0cos(2nfmt + a)
(3.139)
gdzie amplituda A0 i faza a wynoszą odpowiednio: (Af/kv) V + 4 t 2( f J f f Y 12 { [ l - ( / J / J 2] 2 + 4 C V j/n)2}1/2
(3.140)
oraz ifjfn) 1
1- ifjfn)2J
(3.141)
Z równania (3.140) widać, że amplituda A0 osiąga maksimum równe A//k„ dla = 0; maleje ze wzrostem f j f n, dążąc do zera przy ( f j f n) -* oo. Ważna cecha pętli fazowej drugiego rzędu polega na tym, że przy sygnale wejściowym FM powstałym przy sinusoidalnej fali modulującej o stałej amplitudzie (gdy dewiacja częstotliwości pozostaje stała) i zmieniającej się częstotliwości, charakterystyka częstotliwościowa pętli wyznaczająca błąd fazy >e(r) stanowi odpowiednik filtru środkowoprzepustowego [zobacz równanie (3.134)], lecz charakterystyka wyznaczająca sygnał wyjściowy pętli i?(f) odpowiada charakterystyce filtru dolnoprzepustowego [zobacz równanie (3.140)]. Dlatego, poprzez odpowiedni dobór parametrów ( i /„ wyznaczających postać charakterystyki częstotliwościowej pętli, możliwe jest utrzymywanie na tyle małego błędu fazy, by pętla fazowa pracowała w zakresie liniowym, a jednocześnie sygnał modulujący (informacyjny) był odtwarzany na wyjściu pętli z minimalnymi zniekształceniami. Jest to jednak ograniczenie zachowawcze, jeśli chodzi o możliwości uzyskiwania synchronizmu pętli. Należy tu przyjąć sensowną regułę mówiącą, iż pętla powinna znajdować się w stanie synchronizmu, gdy wartość maksymalna błędu fazy
192
3. MODUŁACJ, 9
Eksperyment komputerowy II
Wchodzenie pętli fazowej w synchronizm14)
Gdy pętla fazowa jest stosowana do detekcji koherentnej (demodulacji synchroi pętla musi najpierw zsynchronizować się z sygnałem wejściowym, a następnie za zmianami czasowymi jego kąta fazowego. Mamy tu do czynienia z procesem wchc pętli w synchronizm, a następnie z procesem nadążania za zmianami kąta sj wejściowego, zwanym procesem śledzenia. Przy wchodzeniu pętli w synchronizm, a puszczalnie także w stanie śledzenia, błąd fazowy
C = 0 ,3 ; 0 ,7 0 7 ; 1,0
N a rysunku 3.51 przedstaw iono zm iany b łęd u fa z y (f>e(t) w f u n k c j i c z a s u , d la tr z e c h w a r to ś c i współczynnika tłum ienia ( , przy kro k u c z ę s to tliw o ś c i w y n o s z ą c y m 0 ,1 2 5 H z. U z y s k a n e
Rys. 3.51. Odpow iedź jednostkow a błędu fazy (f>e(t) przy różnych wartościach współczynnika tłum ienia £
3.13. NIELINIOWE ZJAWISKA W SYSTEMACH FM
193
wykresy wskazują na to, iż współczynnik tłumienia £ = 0,707 zapewnia najlepszy kompromis pomiędzy szybkością dochodzenia do synchronizmu, a oscylacyjnym charakterem tego procesu. Na rysunku 3.52 podano zmiany częstotliwości chwilowej oscylatora VCO w funkcji czasu dla następujących parametrów pętli fazowej, przy trzech różnych krokach zmian częstotliwości sygnału wejściowego: 50 K..O= — Hz Parametr wzmocnienia w pętli 2n i f = Hz Częstotliwość własna •" 2n £ = 0,707 Współczynnik tłumienia Przebieg na rysunku 3.52a odpowiada krokowi częstotliwości A f = 0,125 Hz, dla którego błąd częstotliwości i błąd fazy są równe zeru po zakończeniu procesu wchodzenia w synchronizm (tzn. po dojściu pętli do stanu ustalonego). Przebieg na rysunku 3.52b odpowiada krokowi częstotliwości A f = 0,5 Hz; dynamiczne właściwości pętli w czasie wchodzenia w synchronizm są tu bardziej skomplikowane. Chociaż wartość ustalona błędu częstotliwości wynosi także zero, w pętli zachodzi zjawisko zwane poślizgiem cyklu. Występuje tu mianowicie błąd fazy wynoszący 2k radianów, odpowiadający po ślizgowi o jeden cykl. Przebiegi na rysunkach 3.52c oraz 3.52d odnoszą się odpowiednio do kroków częstotliwości 7/12 Hz i 2/3 Hz. Pętla doznaje poślizgu odpowiednio o dwa i trzy cykle. Poślizg cyklu jest zjawiskiem niepożądanym, ponieważ powoduje wzrost błędu fazy w funkcji czasu. Błąd ten może nawet narastać w sposób nieograniczony, jeśli nie będzie się go kontrolować w odpowiedni sposób.
3.13. Nieliniowe zjawiska w systemach FM W poprzednich trzech punktach zajmowaliśmy się teorią modulacji częstotliwości oraz metodami uzyskiwania modulacji i demodulacji. Zakończymy teraz rozważania na temat modulacji częstotliwości, rozpatrując nieliniowe zjawiska zachodzące w systemach FM. Nieliniowości występują w takiej czy innej formie, we wszystkich układach elektrycznych. Należy rozpatrywać dwa przypadki nieliniowości: 1. O nieliniowości mówimy, że jest silna, gdy wprowadzona została do układu w sposób świadomy i kontrolowany dla konkretnego zastosowania. Za przykład układów z silną nieliniowością mogą służyć modulatory kwadratowe, ograniczniki i powielacze częstot liwości. 2. O nieliniowości mówimy, że jest słaba, gdy pożądane jest liniowe działanie układu, a nieliniowości o charakterze pasożytniczym są rezultatem nieidealności tego układu. Skutkiem istnienia takich słabych nieliniowości jest ograniczenie użytecznego poziomu sygnałów w układzie, co stanowi poważny problem przy jego projektowaniu. W obecnym punkcie zbadamy efekty wywoływane przez słabe nieliniowości, występujące przy modulacji częstotliwości15*. Weźmy pod uwagę kanał telekomunikacyjny, którego właściwości określa na stępująca nieliniowa relacja wejście-wyjście: (3.142) 13 Systemy telekomunikacyjne cz. 1
194
3. MODULACJA CIĄGŁA
a
gdzie: »t(r) i u0(f) — odpowiednio sygnał wejściowy oraz wyjściowy, alt a2, a3 — stałe współczynniki. Równanie (3.142) jest obciętą wersją równania (3.82) stosowanego już przy rozpatrywaniu powielania częstotliwości. O kanale opisanym równaniem (3.142) mówimy, że jest bezinercyjny, gdyż sygnał wyjściowy r0(f) jest funkcją wartości chwilowej sygnału wejściowego t?,(t) (tzn. w opisie tym nie występuje zjawisko magazynowania energii). Pragniemy wyznaczyć efekt związany z transmisją fali zmodulowanej częstotliwościowo przez kanał o podanych własnościach. Sygnał FM jest określony wzorem: v,{t) = Accosl2nfct +
3.13. NIELINIOWE ZJAWISKA W SYSTEMACH FM
195
c
Rys. 3.52. Zmiany częstotliwości chwilowej oscylatora pętli fazowej sterowanego napięciem dla różnych kroków zmiany częstotliwości A/: a) A/ = 0,125 Hz, b) A /= 0,5 Hz, c) A /= 7/12 Hz, d) A/ = 2/3 Hz
gdzie: t (f>(t) = 2 n k f $ m ( t ) d t
o 13*
3. MODULACJA CIĄGŁA
196
Dla podanego sygnału wejściowego, z równania (3.142) otrzymujemy: v0(t) = a yAccos[2n f ct + 4>(t)'] +a 2A 2Ccos2[2nfct + (p(t)']+
(3.143)
+ a3A3ccos3[2nfc14- <£(0] Podnosząc składniki tego wyrażenia odpowiednio do kwadratu i do sześcianu oraz dokonując redukcji wyrazów podobnych, uzyskujemy wyrażenie: v0{t) = ^ a 2A 2c + (a 1Ac+ -^a 3A?
}c o s [ 2 tc/ c/
+ — a2A 2cos [4n fct -I- 2 0 (f)] -I-
+ 0 (0 ]
+
(3.144)
4r
+ —a3A ccos [6 n fct + 3<ł>(t)] Sygnał wyjściowy kanału zawiera więc składową stałą oraz trzy składowe zmodulowane częstotliwościowe o częstotliwościach nośnych f (, 2/c, 3/r; wnoszone odpowiednio przez liniowy, kwadratowy i sześcienny składnik wyrażenia (3. 142). W celu wyodrębnienia pożądanego sygnału z wyjścia kanału v0(t), tzn. składowej o częstotliwości nośnej / c, konieczne jest jego oddzielenie od najbliżej położonej na osi częstotliwości składowej o częstotliwości nośnej 2f c. Niech A/oznacza dewiację częstotliwo ści przychodzącego sygnału FM t>,(f), a W najwyższą częstotliwość zawartą w sygnale informacyjnym m(t). Stosując regułę Carsona oraz zauważając, iż dewiacja częstotliwości wokół drugiej harmonicznej częstotliwości nośnej jest podwójna, otrzymujemy warunek konieczny, którego spełnienie zapewnia wydzielenie pożądanego sygnału FM o częstotliwo ści nośnej f c od składowej o częstotliwości nośnej 2f c. Ma on postać: 2f( - ( 2 A f+ W ) > fe+ A f+ W lub f c > 3A /+21F
(3.145)
Stosując filtr środkowoprzepustowy o częstotliwości środkowej f c i szerokości pasma przepustowego 2A/+ 2W , sygnał wyjściowy kanału redukuje się do postaci: u;(t) = | ayAc+ —a-yA? )cos[2n/ct + 0(01
(3.146)
Widzimy zatem, iż jedynym efektem przejścia sygnału FM przez kanał nieliniowy ze zniekształceniami amplitudowymi, zaopatrzony w odpowiedni filtr, jest tylko zmiana jego amplitudy. Inaczej niż w przypadku modulacji amplitudy, modulacja częstotliwości jest odporna na zniekształcenia powstające przy transmisji przez kanał nieliniowy. Z tego właśnie względu, modulacja częstotliwości jest szeroko stosowana w mikrofalowych systemach komunikacji radiowej i satelitarnej: umożliwia ona stosowanie silnie nieliniowych wzmac niaczy i nadajników dużej mocy, co pozwala na uzyskiwanie maksymalnych mocy przy częstotliwościach radiowych. Systemy FM są jednak bardzo wrażliwe na nieliniowości powodujące zniekształ cenia fazowe, czego zresztą można się intuicyjnie spodziewać. Często spotykanym w mikro falowych systemach radiowych rodzajem zniekształceń fazowych jest tzw. konwersja AM-PM. Jest ona wynikiem zależności charakterystyk fazowych repeterów i wzmacniaczy stosowanych w tych systemach, od amplitudy chwilowej sygnału wejściowego. W praktyce,
197
3.14. ODBIORNIK SUPERHETERODYNOWY
konwersja AM-PM charakteryzowana jest za pomocą stałej K, mierzonej w stopniach na dB, którą można interpretować jako maksymalną zmianę fazy, przypadającą na 1 dB zmiany obwiedni na wejściu. Gdy fala FM przesyłana jest przez mikrofalowe łącze radiowe, doznaje ona niepożądanych zmian amplitudy, spowodowanych przez szumy i interferencje za chodzące w czasie transmisji. Gdy taka fala FM przejdzie przez repeter z konwersją AM-PM, sygnał wyjściowy będzie miał niepożądaną modulację fazy; będzie więc zniekształcony. Ważne jest utrzymywanie konwersji AM-PM na odpowiednio niskim poziomie. Dla przykładu, w przypadku dobrego repetera mikrofalowego stała K jest mniejsza od 2 stopni na dB.
3 . 14 . Odbiornik superheterodynowy16) W systemach radiofonicznych, zarówno opartych na modulacji amplitudy jak i modulacji częstotliwości, zadaniem odbiornika jest nie tylko detekcja przychodzącego sygnału zmodulowanego, lecz ponadto wypełnianie wielu innych funkcji systemu: • Dostrajanie się do częstotliwości nośnej, przez co dokonuje się wyboru pożądanego sygnału (tzn. pożądanej stacji radiowej lub telewizyjnej). • Filtracja, wymagana w celu oddzielenia sygnału pożądanego od innych sygnałów modulowanych, jakie przychodzą do odbiornika. • Wzmacnianie, mające na celu kompensowanie strat mocy sygnału, zachodzących w trakcie transmisji. Odbiornik superheterodynowy stanowi typ odbiornika, w którym trzy wymienione funkcje, a szczególnie pierwsze dwie, dokonywane są w sposób elegancki i praktyczny. W odbiorniku tym unika się w szczególności problemu skonstruowania przestrajanego filtru o dużej (i zmiennej) dobroci. Praktycznie wszystkie budowane obecnie odbiorniki radiowe i telewi zyjne, są to odbiorniki superheterodynowe. Odbiornik omawianego typu składa się w zasadzie ze stopnia wielkiej częstotliwo ści (w.cz.), mieszacza wraz z oscylatorem lokalnym, stopnia pośredniej częstotliwości (p.cz.), demodulatora i wzmacniacza mocy. Typowe parametry częstotliwościowe produkowanych obecnie odbiorników radiowych AM i FM zostały podane w tablicy 3.3. Na rysunku 3.53 przedstawiono schemat blokowy odbiornika superheterodynowego AM z demodulatorem w postaci detektora obwiedni. Przychodząca fala zmodulowana amplitudowo zostaje odebrana przez antenę odbiorczą i wzmocniona w stopniu wielkiej częstotliwości, nastrojonym na częstotliwość nośną odbieranej fali. Mieszacz wraz z oscylatorem lokalnym (o strojonej częstotliwości) dokonuje operacji heterody nowania, za pomocą której sygnał przychodzący podlega konwersji polegającej na przesunięciu go na z góry określoną i ustaloną częstotliwość pośrednią, zwykle niższą od częstotliwości nośnej sygnału przychodzącego. To przesunięcie Tablica 33. TYPOWE PARAMETRY CZĘSTOTLIWOŚCIOWE ODBIORNIKÓW AM i FM Odbiornik Zakres odbieranych częstotliwości Częstotliwość pośrednia Szerokość pasma p.cz.
AM
FM
0,525-r 1,605 MHz 0,455 MHz 10 kHz
88-108 MHz 10,7 MHz 200 kHz
198
3. MODULACJA CIĄGŁA Antena Głośnik
Rys. 3.53. Podstawowe elementy odbiornika AM typu superhcterodynowego częstotliwości dokonywane jest bez naruszenia relacji pomiędzy wstęgami bocznymi a sygnałem nośnym. W rezultacie heterodynowania powstaje nośna częstotliwość pośrednia określona wzorem: fiF = /
rf
I
lo
(3-147)
gdzie:/^ — częstotliwość oscylatora lokalnego, a f R F — częstotliwość nośna przychodzącego sygnału w.cz. Częstotliwość f IF nazywamy częstotliwością pośrednią (p.cz.), gdyż nie jest to ani częstotliwość oryginalnego sygnału wejściowego, ani częstotliwość sygnału informacyj nego, otrzymywanego na wyjściu odbiornika. Układ składający się z mieszacza i oscylatora lokalnego nazywany jest często pierwszym detektorem, a właściwy demodulator nazywa się wówczas drugim detektorem. Blok pośredniej częstotliwości składa się z jednego lub większej liczby wzmacniaczy rezonansowych, o szerokości pasma odpowiedniej dla danego rodzaju odbieranego sygnału. Blok ten jest decydujący, jeśli chodzi o wzmocnienie i selektywność całego odbiornika. Z wyjścia bloku pośredniej częstotliwości sygnał podawany jest na demodulator, którego zadaniem jest odzyskiwanie sygnału informacyjnego. Przy zastosowaniu detektora koherent nego, w odbiorniku znajdować się musi odpowiednie źródło sygnału koherentnego. Końcowym procesem zachodzącym w odbiorniku jest wzmocnienie mocy odzyskiwanego sygnału informacyjnego. Mieszacz odbiornika superheterodynowego dostarcza sygnału pośredniej częstot liwości, gdy częstotliwość odbieranego sygnału jest większa lub mniejsza od częstotliwości oscylatora lokalnego o wartość równą częstotliwości pośredniej. Są więc dwie takie częstotliwości odbierane, a mianowicie \ f LO ± f I F |, dla któych na wyjściu mieszacza pojawi się sygnał pośredniej częstotliwości f l F . Pojawia się więc możliwość jednoczesnego odbioru dwu sygnałów, których częstotliwość różni się o podwojoną wartość częstotliwości pośredniej. Dla przykładu, odbiornik nastrojony na częstotliwość 1 MHz i mający częstotliwość pośrednią równą 0,455 MHz będzie odbierał dodatkowo sygnał lustrzany o częstotliwości 1,910 MHz. Każdy odbiornik o tej częstotliwości pośredniej, nastrojony na dowolną częstotliwość, jest więc narażony na interferencję sygnału lustrzanego mającego częstotliwość o 0,910 MHz z wyższą od częstotliwości sygnału pożądanego. Skoro funkcją mieszacza jest wytwarzanie sygnału o częstotliwości różnicowej, nie jest on w stanie rozróżnić sygnału pożądanego od sygnału lustrzanego i każdy z nich spowoduje pojawienie się na wyjściu mieszacza sygnału o częstotliwości pośredniej. Jedynym praktycznym sposobem pozbycia się interferencji sygnału lustrzanego jest zastosowanie w bloku wielkiej częstotliwości (tzn. pomiędzy anteną a mieszaczem) stopni o dużej selektywności, co faworyzuje sygnał pożądany dyskryminując jednocześnie niepożądany sygnał lustrzany. Efektywność tłumienia niepożą-
3.15. PODSUMOWANIE I DYSKUSJA
199
danych sygnałów lustrzanych wzrasta wraz z liczbą selektywnych stopni w bloku wielkiej częstotliwości oraz ze wzrostem stosunku częstotliwości pośredniej do częstotliwości sygnału odbieranego. Podstawowa różnica między odbiornikiem superheterodynowym AM i FM polega na zastosowaniu ogranicznika-dyskryminatora częstotliwości w charakterze de modulatora FM. W systemie FM, informacja przekazywana jest za pośrednictwem zmian częstotliwości chwilowej sinusoidalnej fali nośnej, której amplituda pozostaje stała. Każda zmiana amplitudy fali nośnej na wejściu odbiornika jest więc wynikiem szumu lub interferencji. Ogranicznik amplitudy, znajdujący się bezpośrednio za blokiem częstotliwości pośredniej, ma za zadanie usunąć zmiany amplitudy poprzez ucięcie wie rzchołków fali zmodulowanej na wyjściu bloku p.cz. na zadanym poziomie. Powstająca w ten sposób fala prostokątna jest następnie zaokrąglana z użyciem filtru środkowoprzepustowego usuwającego harmoniczne częstotliwości nośnej. Sygnał na wyjściu filtru staje się więc znów sinusoidalny, a jego amplituda praktycznie nie zależy od amplitudy fali nośnej na wejściu odbiornika (zobacz Zadanie 3.51).
3 . 15 . Podsumowanie i dyskusja W tym rozdziale poznaliśmy zasady modulacji z falą ciągłą (CW) i niektóre ważne metody generacji i demodulacji sygnałów zmodulowanych. Przy tej analogowej formie modulacji stosuje się sinusoidalną falę nośną, której amplituda lub kąt zmieniane są w takt sygnału informacyjnego. Rozróżniamy więc dwa rodzaje modulacji CW: modulację amplitudy i modulację kąta. Modulację amplitudy można z kolei podzielić na cztery typy, w zależności od rodzaju widma sygnału zmodulowanego. Te cztery typy modulacji amplitudy i ich praktyczne zalety są następujące: 1. Standardowa modulacja amplitudy (AM), przy której obie wstęgi boczne, dolna i górna, są przesyłane w całości, wraz z falą nośną. W rezultacie, demodulacja sygnału AM dokonywana jest w odbiorniku w raczej prosty sposób, na przykład z użyciem detektora obwiedni. Z tego względu konwencjonalna modulacja AM jest powszechnie stosowana w odbiornikach radiofonicznych, gdzie mamy do czynienia z jednym nadajnikiem dużej mocy i dużą liczbą odbiorników, które powinny być względnie tanie. 2. Modulacja dwuwstęgowa bez fali nośnej (DSB-SC), przy której przesyłana jest tylko dolna i górna wstęga boczna. Usunięcie fali nośnej oznacza, iż modulacja DSB-SC wymaga znacznie mniej energii do przesłania danego sygnału informacyjnego, niż standardowa modulacja AM. Ta przewaga modulacji DSB-SC nad pełną modulacją AM zostaje jednak osiągnięta za cenę zwiększonej złożoności odbiornika. Modulacja DSB-SC jest więc dobrze dostosowana do komunikacji z punktu do punktu, gdzie mamy do czynienia z jednym nadajnikiem i jednym odbiornikiem. Przy tym rodzaju komunikacji zmniej szenie przesyłanej energii staje się sprawą najistotniejszą i użycie bardziej skom plikowanego odbiornika jest w pełni uzasadnione. 3. Modulacja jednowstęgowa (SSB), przy której transmitowana jest jedynie górna lub dolna wstęga boczna. Modulacja ta stanowi optimum w tym sensie, iż wymaga najmniejszej energii oraz najmniejszej szerokości pasma kanału do przesyłania sygnału informacyjnego z jednego punktu do drugiego. Z tego względu, spośród znanych typów modulacji CW, modulacja SSB jest preferowana przy transmisji przewodowej sygnałów mowy na duże odległości, gdyż umożliwia zwiększenie odległości pomiędzy wzmacniakami, które są znacznie droższe od prostych urządzeń końcowych. Wzmacniak jest to po prostu
200
3. MODULACJA CIĄGŁA
szerokopasmowy wzmacniacz używany w pośrednich punktach linii przesyłowej, służący do skompensowania tłumienia przesyłanego sygnału. SSB jest także preferowanym rodzajem modulacji CW w przypadku, gdy mamy do czynienia z kanałem selektywnym częstotliwościowa. Zaniki odbioru (tzw. fading) mają miejsce w łączności radiowej wówczas, gdy mamy do czynienia ze zjawiskiem wielodrożności, kiedy odbierany sygnał zawiera dwie lub więcej składowych docierających od nadajnika do odbiornika różnymi drogami. W rezultacie może zachodzić znoszenie się pewnych składników na drodze interferencji, a stąd znaczne nawet zmiany mocy odbieranego sygnału. O fadingu mówimy, że jest selektywny częstotliwościowe, gdy zjawisko to silnie zależy od częstotliwości sygnału transmitowanego drogą radiową. Przy modulacji SSB przesyłana jest tylko jedna wstęga boczna i dlatego ten typ modulacji jest najmniej podatny na fading selektywny częstotliwościowo. 4. Modulacja z częściowo stłumioną wstęgą boczną (VSB), przy której „prawie” cała jedna wstęga oraz „szczątki” drugiej wstęgi bocznej są przesyłane w odpowiedni komplementar ny sposób. Modulacja VSB wymaga kanału o szerokości pasma, pośredniej w stosunku do wymaganych dla systemów SSB i DCB-SC, przy czym oszczędność na paśmie może być znaczna, gdy mamy do czynienia z szerokopasmowymi sygnałami modulującymi, jak w przypadku sygnałów telewizyjnych i szybkiej transmisji danych. Systemy DSB-SC, SSB i VSB są przykładami modulacji liniowej, przy której sygnał modulowany opisywany jest kanonicznym wyrażeniem: s(t) = s; (t)cos(2n/ct ) - s Q(t)sin(2n/c0 Składowa synfazowa s,(f) jest przeskalowaną wersją sygnału informacyjnego m{t). Składowa kwadraturowa sQ(t) powstaje natomiast poprzez liniową filtrację sygnału m{t). Zgodnie z zasadą superpozycji, sygnał wyjściowy s(t) modulatora liczony jest jako suma odpowiedzi modulatora na poszczególne składowe sygnału m(f). W tablicy 3.4 zebrano wyrażenia opisujące składowe s7(f) oraz SQ(t) w funkcji m{t), dla sygnałów modulowanych DSB-SC, SSB i VSB przy założeniu jednostkowej amplitudy fali nośnej. Zwykła modulacja amplitudy nie Tablica 3.4. RÓŻNE POSTACIE MODULACJI LINIOWEJ Typ modulacji
Składowa synfazowa
Składowa kwadraturowa
s,{t)
sQ(0
DSB-SC SSB:
m (t)
1
a) przesyłana wstęga górna
—m ( t )
b) przesyłana wstęga dolna
\rn(t)
0 i* < 0
2
Komentarz m(f) = sygnał informacyjny m(t) = transformata Hilberta sygna łu m(r)
VSB: a) przesyłana stłumiona wstę ga dolna b) przesyłana stłumiona wstę ga górna
m'(0 = wyjście filtru o transmitancji _HQ(Jj dla m { t) . HQ(f) zdefiniowane - y m'(0
' wzorem (3.34)
3.15. PODSUMOWANIE I DYSKUSJA
201
spełnia ściśle biorąc definicji modulacji liniowej w odniesieniu do sygnału informacyjnego. Jeśli bowiem (r) jest sygnałem AM wytworzonym pzez sygnał informacyjny (t), a s2(f)jest sygnałem AM wytworzonym przez sygnał informacyjny m2(t), to fala AM wytworzona przez sumę m^t) plus m2(t) nie jest z pewnością równa ^(f) plus s2(0- Mimo to, odchylenie od liniowości fali AM jest raczej nieistotne tak, iż wiele procedur matematycznych obowiązują cych dla modulacji liniowej może być nadal stosowanych. Dla przykładu, reprezentacja środkowoprzepustowa może być nadal stosowana dla fali AM, przy czym składowa synfazowa wynosi sJ(f) = 1 +kam{t), gdzie ka jest czułością amplitudową modulatora, a składowa kwadraturowa jest zerowa sQ(f) = 0. Modulacja kąta dzieli się na modulację częstotliwości (FM) i modulację fazy (PM). Przy modulacji FM częstotliwość chwilowa sinusoidalnej fali nośnej zmienia się propor cjonalnie do amplitudy sygnału informacyjnego. W przypadku modulacji PM natomiast, faza fali nośnej zmienia się proporcjonalnie do amplitudy tego sygnału. Częstotliwość chwilową definiuje się jako pochodną fazy chwilowej względem czasu, z dokładnością do stałego czynnika 1/(2 tr). Modulacje FM i PM są więc ściśle ze sobą powiązane; jeśli znamy właściwości jednej z nich, możemy określić też właściwości drugiej. Z tego względu, a także dlatego, iż modulacja FM jest powszechnie stosowana w radiofonii, większość materiału dotyczącego modulacji kąta poświęcono modulacji FM. W odróżnieniu od modulacji amplitudy, proces modulacji FM jest procesem nieli niowym. Zgodnie z tym, analiza widmowa sygnału FM jest znacznie trudniejsza, niż analiza sygnału AM. Mimo to, badając przypadek jednotonowej modulacji FM, byliśmy w stanie uzyskać znaczny wgląd we właściwości widmowe sygnału FM. W szczególności, wyprowa dziliśmy empiryczny wzór, znany jako reguła Carsona, pozwalający oszacować w przy bliżeniu szerokość pasma BT zajmowanego przez sygnał FM. Zgodnie z tą regułą, pasmo BT zależy od pojedynczego parametru: wskaźnika modulacji fi w przypadku jednotonowej modulacji FM lub ilorazu dewiacji D dla modulacji FM sygnałem niesinusoidalnym. Przy modulacji FM, amplituda fali nośnej, a zatem i przesyłana moc, pozostają stałe. To właśnie stanowi o istotnej przewadze modulacji FM nad modulacją AM, jeśli chodzi 0 zwalczanie wpływu szumów i interferencji po stronie odbiorczej systemu. Problemem tym zajmiemy się w rozdziale 5, po uprzednim zapoznaniu się z teorią prawdopodobieństwa 1 teorią procesów stochastycznych w następnym rozdziale. Przewaga ta staje się tym wyraźniejsza, im bardziej wzrasta wskaźnik modulacji (iloraz dewiacji), gdyż rośnie wówczas odpowiednio szerokość pasma sygnału przesyłanego. Modulacja częstotliwości pozwala na uzyskanie praktycznego kompromisu pomiędzy szerokością pasma kanału a polepszeniem właściwości szumowych, czego nie udaje się uzyskać w przypadku modulacji amplitudy.
PRZYPISY I LITERATURA 1) Terminy „fala ciągła” i „hetorodynowanie” zostały po raz pierwszy użyte przez Reginalda Fessendena we wczesnych latach 1900-nych. 2) Szczegółowy opis modulatora pierścieniowego używanego do wytwarzania sygnałów modulowanych DSB-SC, zobacz Tucker (1953). 3) Odbiornik Costasa został tak nazwany na cześć swego wynalazcy; zobacz Costas (1956). 4) W punkcie 3.6 opisano dwie metody generacji sygnału VSB, jedną opartą na schemacie z rys. 3.17a, a drugą na schemacie z rys. 3.18. W mało przejrzystym artykule. Hill (1974) podaje inną metodę czasowej reprezentacji sygnałów VSB. Sygnał VSB jest w tej metodzie zapisany w postaci iloczynu wąskopasmowej „obwiedni” i sygnału SSB.
202
3. MODULACJA CIĄGŁA
5) Zbiór artykułów dotyczących techniki telewizyjnej; zobacz książkę wydaną przez Rzeszewskiego (1984). 6) Dyskusja dotycząca wymagań nakładanych na filtry przy generacji sygnałów modulowanych SSB; zobacz pracę Kurtha (1976). 7) Opis działania transmisji ze zwielokrotnianiem; zobacz Bennett (1970, ss. 213^-218). Dodatkowe informacje na temat systemów FDM zawarte są w opracowaniach: „Transmission Systems for Communications”, Bell Telephone Laboratories, ss. 128-^137 (Western Electric, 1971) oraz „Reference Data for Radio Engineers”, International Telephone and Telegraph Corporation, ss. 30.23 -T- 30.27 (H. Sams, 1968). 8) W przypadku wielotonowego sygnału FM, sygnał modulujący składa się z szeregu składowych sinusoidalnych, dowolnych lub powiązanych ze sobą zależnością harmoniczną. Analiza widmowa wielotonowych sygnałów FM; zobacz książki: Blacka (1993) i Pantera (1965). 9) Funkcje Bessela odgrywają ważną rolę w rozwiązaniu pewnego równania różniczkowego, a także przy matematycznym formułowaniu wielu problemów fizyki. Szczegółowe omówienie tego zagad nienia; zobacz Wylie, Barrett (1982, ss. 572-625). Tablicę funkcji Bessela podano w dodatku 4, na końcu książki. 10) Reguła Carsona dotycząca szerokości pasma sygnałów FM została tak nazwana na cześć jej twórcy; Carson i Fry (1937) napisali jedną z wczesnych klasycznych prac na temat teorii modulacji częstotliwości. 11) Pośrednia metoda generacji szerokopasmowych sygnałów FM została po raz pierwszy za proponowana przez Armstronga (1936). Armstrong był także pierwszym, który zwrócił uwagę na odporność szumową modulacji częstotliwości. 12) Zwielokrotnianie sygnałów stereofonicznych związane jest zwykle z transmisją radiową z użyciem modulacji częstotliwości. Można tu jednak stosować także modulację amplitudy; szczegółowy opis podano w pracy Menniego (1978). 13) Gdy pętla fazowa stosowana jest do demodulacji fali FM, musi zostać najpierw zsynchronizowana z przychodzącym sygnałem FM, a następnie nadążać za zmianami fazy tego sygnału. W okresie wchodzenia w synchronizm, błąd fazy
ZADANIA Zadanie 3.1 Fala nośna o częstotliwości 1 MHz jest modulowana z głębokością 50 procent przez przebieg sinusoidalny o częstotliwości 5 kHz. Otrzymany sygnał AM jest podawany na wejście obwodu rezonansowego z rys. Z3.1, nastrojonego na częstotliwość nośną, o dobroci Q = 175. Wyznaczyć napięciowy sygnał zmodulowany na zaciskach tego obwodu. Jaka jest głębokość modulacji tego sygnału?
203
3.15. PODSUMOWANIE I DYSKUSJA
Źródło prądowe fali AM
R "S-
Sygnał wyjściowy
1
Rys. Z3.1
Zadanie 3.2 Dla diody półprzewodnikowej p-n, prąd diody i związany jest z napięciem u na jej zaciskach zależnością:
gdzie: / 0 — zwrotny prąd nasycenia, a VT— napięciowy odpowiednik temperatury, określony wzorem:
gdzie: k — stała Boltzmanna, wyrażona w dżulach na kelvin, T — temperatura bezwzględna w stopniach Kelvina, a e — ładunek elektronu. W temperaturze pokojowej, VT = 0,026 V. a) Rozwinąć i w szereg potęgowy względem u, uwzględniając składniki aż do t?3. b) Niech: v = 0,01cos(2rc/mt) + 0,01cos(27t/ct) V gdzie f m = 1 kHz oraz f c = 100 kHz. Wyznaczyć widmo prądu diody i. c) Określić parametry filtru środkowoprzepustowego, służącego do wydzielenia z prądu diody sygnału AM o częstotliwości nośnej Xd) Jaka jest głębokość modulacji tego sygnału AM?
Zadanie 3.3 Dany jest element nieliniowy o następującej charakterystyce prądowo-napięciowej: »0 = 0it>j + a 3 tfi
gdzie: a, i a3 — stałe. Wyjaśnić, jak opierając się na omawianym elemencie utworzyć: a) modulator iloczynowy, b) modulator amplitudy.
Zadanie 3.4 Na rysunku Z3.2 przedstawiono schemat modulatora kwadratowego. Sygnał podawany na element nieliniowy jest na tyle mały, iż można ograniczyć się do opisu w postaci charakterystyki kwadratowej: y2(f) = al vl {t)+a2vl(t) gdzie: av a2 — stałe, — napięcie wejściowe, a v2(t) — napięcie wyjściowe. Napięcie wejściowe określa zależność: v^t) = Accos(2nfct)+m(t) gdzie m{t) — sygnał informacyjny, a Accos(2nfct) — fala nośna.
204
3. MODULACJA CIĄGŁA
Rys. Z3.2
a) Wyznaczyć napięcie wyjściowe v2(t). b) Podać charakterystykę częstotliwościową obwodu rezonansowego z rys. Z3.2, przy której układ wytwarza sygnał AM o częstotliwości nośnej f c. c) Ile wynosi czułość amplitudowa tego sygnału AM? Zadanie 3.5 Dany jest sygnał AM o postaci: s(t) = 4 [ l + pcos(27t/mt)]cos(27t/ct) gdzie modulujący sygnał sinusoidalny ma częstotliwość f m. Niech współczynnik modulacji wynosi p = 2, a częstotliwość nośna f cjest o wiele większa od częstotliwościf m. Sygnał AM s(t) jest podawany na wejście idealnego detektora obwiedni, wytwarzającego sygnał wyjściowy t>(0a) Rozwinąć przebieg u(r) w szereg Fouriera. b) Jaki jest stosunek amplitudy drugiej harmonicznej do amplitudy składowej podstawowej sygnału u(t)?
Zadanie 3.6 Weźmy pod uwagę detektor kwadratowy, którego element nieliniowy ma charakterystykę o postaci: v2{t) = a, vl (t) + a2vj(t) gdzie: alt a2 — stałe, a u1(t), v2(t) — odpowiednio napięcie wejściowe i wyjściowe. Sygnał wejściowy AM wyraża się zależnością:
MO = 4 c[l + fcam(0]cos(2Tt/c0 a) Wyznaczyć sygnał wyjściowy t;2(r). b) Podać warunki, przy spełnieniu których sygnał informacyjny m(t) może być odzyskany z sygnału v2(t).
Zadanie 3.7 Sygnał AM o postaci s(0 = 4 c[ l + fcam(0]cos(27r/cf) jest podawany na wejście układu z rys. Z3.3. Zakładając, iż |kflm(t)| < 1 dla wszystkich t, oraz że sygnał informacyjny m(t) ma widmo ograniczone do przedziału — f ^ W, a częstot-
205
3.15. PODSUMOWANIE I DYSKUSJA
y, (/) = s 2 [ t )
V3(f) = \ / » 2 (f)
Rys. Z3.3
Rys. Z3.4
liwość nośna spełnia warunek f c> 2W pokazać, iż sygnał m(t) może zostać odzyskany z sygnału wyjściowego t?3(t) układu pierwiastkującego. Zadanie 3.8 Weźmy pod uwagę sygnał informacyjny m(t) o widmie pokazanym na rys. Z3.4. Przesyłane pasmo wynosi W= 1 kHz. Sygnał ten jest podawany na wejście modulatora iloczynowego wraz z falą nośną Accos{2Kfct). Na wyjściu modulatora powstaje sygnał modulowany DSB-SC. Sygnał ten przychodzi następnie na wejście detektora koherentnego. Zakła dając idealną synchronizację pomiędzy falami nośnymi w modulatorze i detektorze, wyznaczyć widmo sygnału wyjściowego detektora, dla dwu wartości częstotliwości nośnej: a) f c = 1,25 kHz, b) f c = 0,75 kHz. Jaka jest najniższa wartość częstotliwości nośnej, dla której każda składowa sygnału zmodulowanego s(r) jest jednoznacznie określona przez sygnał m(t)? Zadanie 3.9 Na rysunku Z3.5 przedstawiono schemat blokowy modulatora zrównoważonego. Sygnał na wejściu górnego modulatora AM wynosi m(t), a sygnał na wejściu dolnego modulatora AM jest równy —m(r); oba modulatory mają taką samą czułość amplitudową. Pokazać, iż sygnał wyjściowy s(t) modulatora zrównoważonego jest zmodulowanym sygnałem DSB-SC.
5(1)
Rys. Z3.5
206
3. MODULACJA CIĄGŁA
Zadanie 3.10 Na rysunku 3.10 przedstawiono schemat modulatora pierścieniowego. Załóżmy, iż wszystkie diody są identyczne, a transformatory iealnie zrównoważone. Niech R oznacza opór obciążenia na wejściu i wyjściu modulatora (zakładając idealne transformatory o przekładni 1:1). Wyznaczyć napięcie wyjściowe modulatora w obu przypadkach, przedstawionych odpowiednio na rys. 3.1Ob i 3.10c. Pokazać tym samym, iż oba te napięcia wyjściowe są równe co do amplitudy, a przeciwne jeśli chodzi o biegunowość. Zadanie 3.11 Modulowany sygnał DSB-SC został zdemodulowany za pomocą detektora koherentnego. a) Oszacować wpływ błędu A/ lokalnej częstotliwości nośnej detektora, mierzonego względem częstotliwości nośnej przychodzącego sygnału DSB-SC. b) Dla przypadku sinusoidalnej fali modulującej pokazać, iż obecność tego błędu częstot liwościowego powoduje dudnienia sygnału zdemodulowanego z częstotliwością Af. Dla zilustrowania odpowiedzi naszkicować przebieg tego sygnału zdemodulowanego. Zadanie 3.12 Rozważmy sygnał DSB-SC o postaci: s(r) = Accos(2nfct)m{t) gdzie: Accos(2nfct) — fala nośna, a m(r) — sygnał informacyjny. Ten sygnał zmodulowany podawany jest na element nieliniowy o charakterystyce kwadratowej o postaci: y(t) = s2(t) Sygnał wyjściowy y(r) jest następnie podawany na wejście filtru wąskopasmowego o charak terystyce amplitudowej równej jedności w paśmie przepustowym, częstotliwości środkowej 2f c oraz szerokości pasma A/. Załóżmy, iż pasmo A/ jest na tyle małe, aby widmo sygnału y(t) pozostawało prawie stałe w całym paśmie przepustowym filtru. a) Wyznaczyć widmo sygnału wyjściowego y(f) elementu nieliniowego. b) Pokazać, iż sygnał y(t) na wyjściu filtru jest w przybliżeniu sinusoidalny i wynosi: A2 y(t) ~ ——-£A/cos(4rc/cf) gdzie: E — energia sygnału informacyjnego m(f). Zadanie 3.13 Rozważmy kwadraturowy system ze zwielokrotnianiem fali nośnej z rys. 3.16. Zwielokrot niony sygnał s(t) z wyjścia nadajnika z rys. 3.16a jest przesyłany kanałem telekomunikacyj nym o charakterystyce H (/). Z wyjścia tego kanału sygnał przychodzi na wejście odbiornika z rys. 3.16b. Wykazać, że warunek: H (fe+ f) = H * ( f - f ) ,
0ś fś W
jest konieczny do odtworzenia sygnałów (t) i m2{t) na odpowiednich wyjściach odbiornika: f c oznacza częstotliwość nośną, a W szerokość pasma sygnału informacyjnego. Wskazówka: Wyznaczyć widma obu sygnałów wyjściowych odbiornika.
3.15. PODSUMOWANIE I DYSKUSJA
207
Zadanie 3.14 Niech w odbiorniku kwadraturowego systemu ze zwielokrotnianiem fali nośnej z rys. 3.16 lokalny sygnał nośny służący do demodulacji jest obarczony błędem fazy
Zadanie 3.15 Dla pewnego typu stereofonicznego sygnału AM stosuje się zwielokrotnianie kwadraturowe. Sygnał nośny Accos{2nfct) moduluje tu mianowicie sygnał sumacyjny: m ft) = t/o + mf(0 + mr(t) gdzie: U0 — składowa stała służąca do nadawania składowej nośnej, m( — sygnał lewego kanału akustycznego, a mr(t) — odpowiednio sygnał prawego kanału. Kwadraturowa składowa nośna Acs\n{2nfct) moduluje z kolei sygnał różnicowy: m2(t) = m,(r)-mr(0 a) Pokazać, iż za pomocą detektora obwiedni można wydzielić z sygnału zwielokrotnionego kwadraturowo składową sumacyjną m,(t) + mr(t). Jak zminimalizować zniekształcenia sygnału wytwarzanego przez detektor obwiedni? b) Pokazać, iż detektor koherentny jest w stanie wydzielić składową różnicową mft) —mr(t). c) Jak otrzymuje się sygnały pożądane m,(t) oraz mr(t)? Zadanie 3.16 Jednotonowy sygnał modulujący m(t) = Amcos(2nfmt) został użyty do wytworzenia sygnału VSB o postaci: s(f) = —aAmAcco$[2n(fe+ f J t ] + ^ A mAc(l-a )c o s[2 n (fc- f m)t'] gdzie a — stała mniejsza od jedności, reprezentująca tłumienie górnej częstotliwości bocznej. a) Znaleźć składową kwadraturową sygnału VSB s(t) b) Sygnał VSB plus fala nośna Accos(2nfct) zostają przepuszczone prżez detektor obwiedni. Wyznaczyć zniekształcenia powodowane przez składową kwadraturową. c) Ile wynosi wartość stałej a, dla której te zniekształcenia są największe?
Zadanie 3.17 Pokazać, iż składową kwadraturową sygnału VSB można otrzymać przepuszczając transfor matę Hilberta sygnału informacyjnego przez filtr górnoprzepustowy. Naszkicować charak terystykę amplitudową i fazową tego filtru.
208
3.
MODULACJA CIĄGŁA
Zadanie 3.18 Dla sygnału informacyjnego o postaci: 1 m(t) = l + t; wyznaczyć i naszkicować przebiegi zmodulowane następujących typów: a) Modulacja amplitudy o głębokości 50 procent. b) Modulacja dwuwstęgowa bez fali nośnej. c) Modulacja jednowstęgowa z nadawaniem jedynie górnej wstęgi bocznej. d) Modulacja jednowstęgowa z nadawaniem jedynie dolnej wstęgi bocznej. Zadanie 3.19 Na rysunku 3.24b pokazano schemat blokowy dwustopniowego modulatora SSB. Sygnał wejściowy m(t) stanowi sygnał mowy zajmujący pasmo częstotliwości od 0,3 do 3,4 kHz. Częstotliwości oscylatorów wynoszą: / , = 100 kHz, / 2 = 10 MHz. a) Wyznaczyć wstęgi boczne wszystkich sygnałów zmodulowanych występujących w układzie. b) Podać wymagania, jakie muszą spełniać filtry znajdujące się w układzie, aby sygnał wyjściowy s2(t) był sygnałem SSB zawierającym jedynie górną wstęgę boczną. Jakie jest pasmo częstotliwości zajmowane przez sygnał s2(t)? Zadanie 3.20 Oscylator lokalny służący do demodulacji sygnału SSB s(t) jest obarczony błędem częstotliwości A/ mierzonym w stosunku do częstotliwości nośnej f c nadajnika sygnału s(t). Prócz tego zachodzi pełny synchronizm pomiędzy oscylatorami odbiornika i nadajnika. Wyznaczyć sygnał zdemodulowany w dwu następujących przypadkach: a) Sygnał SSB s(t) zawiera jedynie górną wstęgę boczną. b) Sygnał SSB s(t) zawiera jedynie dolną wstęgę boczną. Zadanie 3.21 Na rysunku Z3.6 przedstawiono schemat blokowy metody Weavera służącej do generacji modulowanych sygnałów SSB. Sygnał informacyjny (modulujący) m(t) jest ograniczony częstotliwościowo do zakresu f a | / 1^ / b. Pomocnicza fala nośna dla pierwszej pary modulatorów iloczynowych ma częstotliwość / 0 będącą częstotliwością środkową tego pasma, a mianowicie: {■ fa +fb Jo — 2 Filtry dolnoprzepustowe znajdujące się w kanale synfazowym i kanale kwadraturowym są identyczne, każdy o częstotliwości górnej równej {fb—f a)l2. Fala nośna dla drugiej pary modulatorów iloczynowych ma częstotliwość / c, która jest większa od ( fb—f a)/2. Na szkicować widma sygnałów w różnych punktach modulatora z rys. Z3.6 i na tej podstawie pokazać, że: a) Dla dolnej wstęgi bocznej, składowe pochodzące z kanałów: synfazowego i kwadraturowego, mają przeciwną polaryzację, a po zsumowaniu ich na wyjściu modulatora dolna wstęga boczna zostaje wyzerowana. b) Dla górnej wstęgi bocznej, składowe pochodzące z kanałów: synfazowego i kwadraturowego, mają jednakową polaryzację, a po zsumowaniu ich na wyjściu modulatora dolna wstęga boczna zostaje podwojona. _ c) Jak można zmodyfikować układ z rys. Z3.6, aby nadawana była tylko dolna wstęga boczna?
209
3.15. PODSUMOWANIE I DYSKUSJA
>»(r)
Fala SSB
sin {2irf0t)
sin (2tt/
t)
Rys. Z3.6
Zadanie 3.22 a) Niech su(t) oznacza sygnał SSB mający jedynie górną wstęgę boczną, a ś„(f) będzie jego transformatą Hilberta. Wykazać, że zachodzą zależności:
2
m{t) = — [su(f)cos (2 7tycr)+ A
sin (2 Ti/ ct)]
oraz m(t) = ~ [ ś u(t)cos(2icfct) —su(t)sin(2nfct)] A gdzie: m(t) — sygnał informacyjny, m(t) — jego transformata Hilberta, f c — częstotliwość nośna oraz Ac - amplituda fali nośnej. b) Wykazać, iż odpowiednie równania dla sygnału SSB s,(f) mającego jedynie dolną wstęgę boczną mają postać:
2 m(r) = — [s1(r)cos(2n/c0 + ś Jsin(2n/c0] A oraz m(t) = -^-[s,(0cos(2jc/ct)-ś,(t)sin(27i/cf)]
A
c) Korzystając z wyników punktów a) i b), utworzyć schemat blokowy odbiornika służą cego do demodulacji sygnału SSB.
Zadanie 3.23 Weźmy pod uwagę falę modulowaną o postaci: s(r) = Ąxos(2n f ct) + m(t)cos(27c f ct) —m(t)sin(2jt f ct) 14 Systemy telekomunikacyjne cz. 1
210
3. MODULACJA CIĄGŁA
reprezentującą falę nośną plus sygnał SSB, przy czym m(f) — sygnał informacyjny, a m(r) — jego transformata Hilberta. Wyznaczyć warunki, w których idealny detektor obwiedni przy sygnale wejściowym s(f) zapewni na wyjściu dobrą aproksymację sygnału informacyj nego m(t).
Zadanie 3.24 a) Sygnał informacyjny m(t) ma składowe sinusoidalne o częstotliwościach 100, 200 i 400 Hz. Sygnał ten podawany jest na wejście modulatora SSB, wraz z falą nośną o częstotliwości 10 kHz, przy czym wytwarzana jest tylko górna wstęga boczna. Oscylator lokalny detektora koherentnego, stosowanego do odzyskiwania sygnału m(t), wytwarza falę sinusoidalną o częstotliwości 100,02 kHz. Wyznaczyć widmo amplitudowe i fazowe sygnału na wyjściu detektora. b) Powtórzyć tę analizę przyjmując, iż przesyłana jest jedynie dolna wstęga boczna.
Zadanie 3.25 Widmo sygnału mowy m(t) wynosi zero poza przedziałem częstotliwości/a< | / | < fh■Aby zapewnić ochronę informacji, sygnał ten podawany jest na wejście skrambłera, będącego układem składającym się z kaskadowo połączonych następujących bloków: modulatora iloczynowego, filtru górnoprzepustowego, drugiego modulatora iloczynowego oraz filtru dolnoprzepustowego. Fala nośna podawana na pierwszy modulator iloczynowy ma częstotliwość f c, a fala podawana na drugi modulator iloczynowy ma częstotliwość równą fb+fó °bie fale o amplitudzie jednostkowej. Filtry: górno- i dolnoprzepustowy, mają taką samą częstotliwość graniczną f c. Przyjąć, iż f c> fb. a) Wyznaczyć przebieg s(£) sygnału wyjściowego skrambłera i naszkicować jego widmo. b) Pokazać, iż oryginalny sygnał mowy m(f) może być odzyskany na podstawie sygnału s(f) z użyciem deskramblera, identycznego jak układ skrambłera już opisany.
Zadanie 3.26 Weźmy pod uwagę falę SSB: s(t) = m(£)cos(27c/cf) —m(t)sin(2rc_£t) gdzie: f c — częstotliwość nośna, m(£) — sygnał informacyjny, a m(t) — jego transformata Hilberta. Ta fala modulowana podawana jest na wejście nieliniowego elementu o charak terystyce kwadratowej o postaci: y(t) = s2(£) Wykazać, iż sygnał wyjściowy y(t) zawiera składową o częstotliwości równej podwojonej częstotliwości nośnej, lecz o fazie zmieniającej się w czasie, co czyni nieprzydatnym odzyskiwanie fali nośnej przez podnoszenie do kwadratu.
Zadanie 3.27 Metoda używana przy odzyskiwaniu fali nośnej w systemach modulacji SSB polega na przesyłaniu dwu częstotliwości pilotujących, dobranych odpowiednio w stosunku do przesyłanej wstęgi. Zostało to zilustrowane na rys. Z3.7a dla przypadku, gdy transmitowana
21
3.15. PODSUM OW ANIE I D YSK U SJA
iw
Filtr wąsko pasmowy nastrojony
Filtr dolnoprzepustowy
Filtr wąsko pasmowy v3(/ł nastrojony na f2
—
Filtr wąsko
Dzielnik częstotliwościj stosunku
_
pasmowy Wyjście nastrojony na fc
j Rys. Z3.7
jest dolna wstęga boczna. W tym przypadku, dwie częstotliwości pilotujące f x oraz f 2 są następujące: f i = f c ~ W —A f oraz
/ a = / e+ A / gdzie: f c — częstotliwość nośna, a W — szerokość przesyłanego pasma. W artość A f została tak dobrana, aby spełniać zależność:
gdzie n — liczba naturalna. Odzyskiwanie fali nośnej dokonuje się za pomocą układu o schemacie blokowym jak na rys. Z3.7b. Sygnały wyjściowe dwu filtrów wąskopasmowych o częstotliwościach środkowych odpowiednio f x oraz f 2 są następujące: 1^ ( 1)
= ^
c o s ^ tc
f i t + cfrO
oraz v2(t) = A 2cos(2 k f 2t + cf>2) Filtr dolnoprzepustowy jest tak zaprojektowany, aby przepuszczał składową różnicową sygnału wyjściowego pierwszego układu mnożącego, na którego wejścia przychodzą sygnały v^t) oraz y2(0a) Pokazać, iż sygnał wyjściowy układu z rys. Z3.7b jest proporcjonalny do sygnału fali nośnej ,4ccos(27i£f)> gdy kąty fazowe (f)l oraz
212
3. MODULACJA CIĄGL I
Wyjście
Rys. Z3.8
b) Dla przypadku, gdy transmitowana jest górna wstęga boczna, częstotliwości pilotujące wynoszą odpowiednio: f t
=
f
c
-
*
f
oraz f 2 = fc+ W + & f Jak zmodyfikować układ odzyskiwania fali nośnej z rys. Z3.7b, aby go dostosować do tego przypadku? Jaka jest odpowiednia relacja pomiędzy >, oraz (p2 , przy której sygnał wyjściowy zmodyfikowanego układu jest proporcjonalny do fali nośnej?
Zadanie 3.28 Na rysunku Z3.8 pokazano schemat blokowy syntezatora częstotliwości, który pozwala na generację sygnałów o różnych częstotliwościach, z których każda utrzymywana jest z taką samą dokładnością, jak oscylator sterujący. Oscylator sterujący o częstotliwości 1 MHz zasila dwa generatory widmowe, jeden bezpośrednio, a drugi poprzez dzielnik częstotliwości. Generator widma 1 wytwarza sygnał o dużej zawartości harmonicznych: 1, 2, 3, 4, 5, 6, 7, 8, 9 MHz. Dzielnik częstotliwości wytwarza sygnał wyjściowy o częstotliwości 100 kHz, za którego pomocą generator 2 wytwarza drugi sygnał o dużej zawartości harmonicznych: 100, 200, 300, 400, 500, 600, 700, 800, 900 kHz. Selektory harmonicznych są tak zaprojektowane, aby dostarczać na wejście mieszacza dwa sygnały, jeden z generatora widma 1, a drugi z generatora widma 2. Wyznaczyć zakres częstotliwości sygnałów wyjściowych syntezatora oraz ich rozkład widmowy.
Zadanie 3.29 Weźmy pod uwagę system zwielokrotniający, w którym cztery sygnały wejściowe: m,(r), m2(t), m3(t), m4(t) są mnożone odpowiednio przez fale nośne: [cos (2 u f a0 + cos (2 ref bf)]
[cos(2n/flt+ a 1)+cos(2jc/bf + j81)] [cos (2 %fat + a 2) + cos (2 tcf bt + 02)] [cos(2n/ut + a3) + cos(2jc/&+ 03)] a wytworzone sygnały DSB-SC zostają zsumowane, a następnie przesłane wspólnym kanałem. W odbiorniku, demodulację uzyskuje się mnożąc sumę sygnałów DSB-SC
213
3.15. PODSUMOWANIE I DYSKUSJA
cos (‘27rf,t)
Rys. Z3.9
oddzielnie przez każdą z fal nośnych, a składowe niepożądane usuwa się za pomocą odpowiednich filtrów. a) Wyznaczyć warunki, jakie powinny spełniać kąty fazowe oq, a2, a3 oraz fiy, /?2, /?3, aby sygnał wyjściowy fc-ego demodulatora wynosił mk(t), gdzie fc = 1, 2, 3, 4. b) Określić maksymalny odstęp częstotliwości nośnych f u oraz f b w stosunku do szerokości pasma sygnałów wejściowych, aby opisany układ działał prawidłowo.
Zadanie 3.30 Zadanie to dotyczy procesu mieszania częstotliwości w odbiorniku superheterodynowym. Dla ustalenia uwagi rozpatrzmy schemat blokowy mieszacza pokazanego na rys. Z3.9, składającego się z modulatora iloczynowego z oscylatorem lokalnym o zmiennej częstotliwo ści f oraz filtru środkowoprzepustowego. Sygnał wejściowy jest falą AM zajmującą pasmo 10 kHz, a jego częstotliwość nośna może przyjmować dowolną wartość z przedziału 0,535-1,605 MHz; parametry takie są typowe dla radiofonii AM. Należy przesunąć ten sygnał do pasma częstotliwości leżącego wokół ustalonej częstotliwości pośredniej {p.cz.) wynoszącej 0,455 MHz. Wyznaczyć zakres strojenia oscylatora lokalnego, zapewniający podane wymagania. Zadanie 3.31 Na rysunku Z3.10 pokazano schemat blokowy heterodynowego analizatora widma. Składa się on z oscylatora o zmiennej częstotliwości, układu mnożącego, filtru środkowoprzepustowego oraz miernika wartości skutecznej. Sygnał z oscylatora ma amplitudę A, a jego częstotliwość zmienia się w zakresie od f 0 do f 0+W, gdzie f Q jest częstotliwością środkową flitru, a W szerokością pasma sygnału. Zakładamy, iż / 0 = 2 W, pasmo przepustowe filtru A/ jest małe w porównaniu z /0, a charakterystyka amplitudowa tego filtru w paśmie przepustowym wynosi jeden. Wyznaczyć wartość skuteczną sygnału mierzoną na wyjściu analizatora, gdy na wejście filtru dolnoprzepustowego przychodzi sygnał g(t).
Sygnał wejściowy
9(0
Sygnał wyjściowy
Rys. Z3.10
214
3. MODULACJA CIĄGŁA
Rys. Z3.ll
Rys. Z3.12
Zadanie 3.32 Naszkicować przebiegi fal PM i FM zmodulowanych sygnałem piłokształtnym z rys. Z3.ll.
Zadanie 3.33 W radarze z modulacją częstotliwości, częstotliwość chwilowa nadawanej fali nośnej zmieniana jest zgodnie z rys. Z3.12, z użyciem trójkątnego sygnału modulującego. Częstot liwość chwilowa odbieranego sygnału echa została na rys. Z3.12 narysowana linią przerywaną, przy czym x jest opóźnieniem sygnału odbieranego względem sygnału nadawa nego. Oba te sygnały są podawane na wejścia mieszacza, przy czym zachowywana jest składowa o częstotliwości różnicowej. Zakładając, że f 0x « 1, określić średnią liczbę cykli zdudnionego sygnału na wyjściu mieszacza w czasie jednej sekundy, w fukcji maksymalnej dewiacji A/ częstotliwości nośnej, opóźnienie t oraz częstotliwość powtarzania f 0 sygnału nadawanego.
Zadanie 3.34 Częstotliwość chwilowa fali sinusoidalnej wynosi f c—A f dla \t\^ T /2 oraz f c dla |f|> T/2. Wyznaczyć widmo tej fali zmodulowanej częstotliwościowo. Wskazówka: Podzielić podany przedział czasowy na trzy zakresy: —oo < t < —Tjl, —772 < t < T jl oraz 772 < t< o o .
Zadanie 3.35 Modulacja jednowstęgowa może być rozpatrywana jako hybrydowa forma modulacji amplitudy i modulacji fazy. Wyznaczyć obwiednię oraz częstotliwość chwilową fali SSB w następujących dwu przypadkach: __ a) Gdy nadawana jest tylko górna wstęga boczna. b) Gdy nadawana jest tylko dolna wstęga boczna.
3.15. PODSUMOWANIE I DYSKUSJA
215
Zadanie 336 Weźmy pod uwagę wąskopasmowy sygnał FM opisany przybliżoną zależnością: s(f) ca Accos(2nfct) —fiAcsin(2nfct)sin(2nfmt) a) Wyznaczyć obwiednię tego sygnału modulowanego. Jaki jest stosunek maksymalnej do minimalnej wartości tej obwiedni? Naszkicować przebieg zależności tego stosunku w fukcji współczynnika ( i przyjmując, iż fi przybiera wartości z przedziału 0
Zadanie 3.38 Przypuśćmy, iż dła sygnału zmodulowanego fazowo z zadania 3.37, maksymalna wartość dewiacji fazy fip nie podlega ograniczeniu. Taki sygnał modulowany zostaje przepuszczony przez idealny filtr środkowoprzepustowy o częstotliwości środkowej f c i paśmie prze pustowym rozciągającym się od f c—1,5fmd o /c+ l,5/m. Wyznaczyć obwiednię, fazę i częstot liwość chwilową w funkcji czasu, dla sygnału zmodulowanego na wyjściu filtru. Zadanie 339 Fala nośna została zmodulowana częstotliwościowe sygnałem sinusoidalnym o częstotliwo ści f m i amplitudzie A m. a) Wyznaczyć wartości wskaźnika modulacji fi, dla których składowa nośna sygnału FM zostaje wyzerowana. Przy obliczeniach można wykorzystać wartości funkcji J 0(|3) podane w tablicy 1 w dodatku 4. b) W pewnym eksperymencie przeprowadzonym dla f m = 1 kHz, okazało się, że przy zwiększaniu amplitudy fali nośnej Ampoczynając od zera, składowa nośna zmodulowanej fali FM wyzerowała się po raz pierwszy dla Am = 2 V. Jaka jest czułość częstotliwościowa modulatora? Dla jakiej kolejnej wartości Am składowa nośna ponownie się wyzeruje?
216
3. MODULACJA CIĄGŁA
Zadanie 3.40 Sygnał FM o wskaźniku modulacji jest przesyłany poprzez idealny filtr środkowoprzepustowy o częstotliwości środkowej f c i szerokości pasma 5 /m, przy czym f cjest częstotliwością nośną, a f m częstotliwością sinusoidalnej fali modulującej. Wyznaczyć widmo amplitudowe sygnału na wyjściu filtru.
Zadanie 3.41 Fala nośna o częstotliwości 100 MHz jest modulowana częstotliwościowo falą sinusoidalną o amplitudzie 20 V i częstotliwości 100 kHz. Czułość częstotliwościowa modulatora wynosi 25 kHz/V. a) Wyznaczyć przybliżoną szerokość pasma tego sygnału FM, posługując się regułą Carsona. b) Określić szerokość pasma przy przesyłaniu tylko tych częstotliwości bocznych, których amplitudy przewyższają 1 procent amplitudy niezmodulowanej fali nośnej. Do obliczeń wykorzystać krzywą uniwersalną z rys. 3.36. c) Powtórzyć podane obliczenia zakładając, iż amplituda sygnału modulującego ma dwa razy większą wartość. d) Powtórzyć podane obliczenia zakładając, iż częstotliwość sygnału modulującego ma dwa razy większą wartość.
Zadanie 3.42 Dany jest szerokopasmowy sygnał PM uzyskany w wyniku modulacji falą sinusoidalną /łmcos(2rcf mt), z użyciem modulatora o czułości fazowej równej kp radianów na wolt. a) Pokazać, iż maksymalna dewiacja fazy tego sygnału PM jest dużo większa od jednego radiana, a szerokość pasma tego sygnału zmienia się liniowo wraz z częstotliwością sygnału modulującego f m. b) Porównać te parametry szerokopasmowego sygnału PM z odpowiednimi parametrami szerokopasmowego sygnału FM.
Zadanie 3.43 Na rysunku Z3.13 pokazano schemat blokowy analizatora widma pracującego w czasie rzeczywistym, na zasadzie modulacji częstotliwości. Analizowany sygnał g(r) oraz zmodulo wany częstotliwościowo sygnał s(t), są podawane na wejścia układu mnożącego, a jego sygnał wyjściowy g(r)s(r) zostaje przepuszczony przez filtr o odpowiedzi impulsowej h(t). Sygnały s(r) oraz h(t) są liniowymi sygnałami FM, których częstotliwości chwilowe zmieniają się w sposób przeciwny, zgodnie z wyrażeniami: s(t) = cos(2rc f ct —nkt2) h(t) = cos(2nfct + n k t2)
Rys. Z3.13
3.15. PODSUMOWANIE I DYSKUSJA
217
gdzie k — stała. Pokazać, iż obwiednia sygnału na wyjściu filtru jest proporcjonalna do widma amplitudowego sygnału wejściowego g(t), przy czym zmienna kt odgrywa rolę częstotliwości f. Wskazówka: Zastosować notację zespoloną opisaną w rozdziale 2 w za stosowaniu do analizy sygnałów środkowopasmowych i filtrów środkowoprzepustowych.
Zadanie 3.44 Sygnał FM o dewiacji częstotliwości równej 10 kHz i częstotliwości modulująej 5 kHz jest podawany na wejścia dwu powielaczy częstotliwości połączonych kaskadowo. Pierwszy powielacz podwaja częstotliwość, a drugi potraja. Określić dewiację częstotliwości oraz wskaźnik modulacji sygnału FM otrzymywanego na wyjściu drugiego powielacza. Jaka jest różnica częstotliwości sąsiednich prążków bocznych tego sygnału FM?
Zadanie 3.45 Sygnał FM jest podawany na wejście elementu nieliniowego o charakterystyce kwadratowej, dla którego napięcie wyjściowe u2 związane jest z napięciem na wejściu u i za pomocą zależności: v2 = av\ gdzie a — stała. Wyjaśnić, dlaczego za pomocą takiego elementu możliwe jest uzyskanie sygnału FM o większej dewiacji częstotliwości, niż dewiacja sygnału wejściowego.
Zadanie 3.46 Na rysunku Z3.14 pokazano układ decydujący o częstotliwości oscylatora napięciem. Modulację częstotliwości uzyskuje się tutaj podając sygnał Amsin(2nfmt) plus składową stałą Ub na układ dwu diod waraktorowych szeregowo na zaciski równoległego obwodu LC, przy czym L = 200 jiH i Pojemność każdej z diod waraktorowych jest związana z napięciem U na jej pomocą równania:
sterowanego modulujący dołączonych C — 100 pF. zaciskach za
C = 100 U ' 1/2 pF Niemodulowana częstotliwość drgań oscylatora wynosi 1 MHz. Sygnał wyjściowy VCO podawany jest na powielacz częstotliwości wytwarzający sygnał FM o częstotliwości nośnej 64 MHz i wskaźniku modulacji równym 5. Wyznaczyć: a) wartość napięcia polaryzacji Ub oraz b) amplitudę Am fali zmodulowanej przyjmując, iż f m = 10 kHz.
Zadanie 3.47 Sygnał FM o postaci: t
s(f) = Ą.cos 2 TCf ct + 2nkf J m(t) dt o
o
Rys, Z3.14
218
3. MODULACJA CIĄGŁA
o Fala FM
s(t)
Dekoder obwiedni
R
Sygnał wyjściowy
o
F a la
FM
,
Linia opóźniająca
Rys. Z3.15
V
J
Detektor obwiedni
Sygnał wyjściowy
1
Rys. Z3.16
jest podawany na wejście układu z rys. Z3.15, składającego się z filtru górnoprzepustowego RC oraz detektora obwiedni. Przyjmujemy, iż a) rezystancja R jest mała w porównaniu z reaktancją kondensatora C dla wszystkich istotnych składowych sygnału s(t) oraz b) detektor obwiedni nie obciąża filtru. Wyznaczyć sygnał otrzymywany na wyjściu detek tora obwiedni zakładając, iż kf \m(t)\< f c dla wszystkich t. Zadanie 3.48 W dyskryminatorze częstotliwości z rys. 3.44b oznaczamy odstęp częstotliwości rezonan sowych obu równoległych obwodów rezonansowych LC przez 2kB, gdzie 2 B jest 3-dB szerokością pasma obu obwodów, a k jest współczynnikiem skalującym. Przyjmujemy, iż oba obwody mają dużą dobroć Q. a) Wykazać, iż wypadkowa charakterystyka obu obwodów ma przy częstotliwości środ kow ej^ nachylenie równe 2k/B(i + k2)312. b) Niech D oznacza dewiację sygnału wyjściowego, mierzoną w odniesieniu do linii prostej przecinającej tę charakterystykę w punkcie / = f c. Narysować wykres D w funkcji 5 dla fc = 1,5 w zakresie —k B ^ d ^ k B , gdzie <5 = / —f c. Zadanie 3.49 Dany jest układ demodulacji częstotliwości jak na rys. Z3.16, w którym wejściowy sygnał FM s(t) przechodzi przez linię opóźniającą, która dla sygnału o częstotliwości nośnej f c daje przesunięcie fazy równe it/2 radianów. Sygnał z wyjścia linii jest odejmowany od sygnału wejściowego FM, a uzyskiwany przebieg zostaje poddany detekcji obwiedni. Demodulator ten znajduje zastosowanie przy detekcji mikrofalowych sygnałów FM. Zakładając, że sygnał s(t) jest o postaci: s(t) = A ccos[2n f ct +Psin(2nfmty\ przeanalizować działanie opisanego modulatora w przypadku, gdy indeks modulacji p jest mniejszy od jedności, a opóźnienie T linii opóźniającej jest dostatecznie małe, aby słuszne były przybliżenia: cos (2 Ti/mT) ~ 1 oraz sin(2n f mt) ^ 2 n fmT
5.75.
219
PODSUMOWANIE I DYSKUSJA
Generator impulsowy
Fala FM
Filtr dolnoprzepustowy
Sygnał wyjściowy
Rys. Z3.17
Zadanie 3.50 Na rysunku Z3.17 pokazano schemat blokowy detektora działającego na zasadzie licznika przejść przez zero, służącego do demodulacji sygnałów FM. Składa się on z ogranicznika, generatora impulsowego wytwarzającego krótki impuls, gdy sygnał wejściowy przechodzi przez zero, oraz filtru dolnoprzepustowego wydzielającego pożądany sygnał modulujący. a) Wykazać, iż częstotliwość chwilowa sygnału wejściowego FM jest proporcjonalna do liczby przejść przez zero w przedziale czasowym od r —(7j/2) do t + (TJ2), podzielonej przez Tj. Założyć, iż sygnał modulujący pozostaje w zasadzie stały w tym przedziale czasu. b) Zilustrować działanie omawianego modulatora na przykładzie piłokształtnego sygnału modulującego z rys. Z3.ll.
Zadanie 3.51 Przypuśćmy, iż sygnał odebrany w pewnym sytemie FM zawiera resztkową modulację amplitudy o dodatniej amplitudzie a(t), jak pokazuje zależność: s(t) = a(t)cos[2rc/ct + $(f)] gdzie f c — częstotliwość nośna. Faza
Zadanie 3.52 a) Modulowana fala s(t) z zadania 3.51 przychodzi na wejście idealnego ogranicznika amplitudy, którego sygnał wyjściowy z(t) jest opisany zależnością: z(r) = S0«[s(O] =
+ 1 , s ( t) > 0 — 1, s ( t) < 0
Pokazać iż sygnał wyjściowy ogranicznika ma następujące rozwinięcie w szereg Fouriera: z(t) = — Z
K n= o 2 n -FI
cos[2nfct(2n+ l) + (2n + l)
b) Przyjąć, iż sygnał z wyjścia ogranicznika jest podawany na filtr środkowoprzepustowy o charakterystyce amplitudowej równej jedności w paśmie przepustowym o szerokości BT
220
3. MODULACJA CIĄGŁA
i częstotliwości środkowej równej częstotliwości nośnej f c. BT jest przy tym równe szerokości pasma przesyłanego sygnału FM w braku modulacji amplitudy. Zakładając, iż f c jest dużo większe od BT, wykazać, iż sygnał na wyjściu filtru przyjmuje postać: 4 y(f) = - cos [_2nfct + 0(f)] K Porównując ten sygnał z oryginalnym sygnałem s(f) określonym w zadaniu 3.51, skomen tować praktyczną użyteczność otrzymanego wyniku.
Zadanie 3.53 a) Weźmy pod uwagę sygnał FM o częstotliwości nośnej f c otrzymany przy sygnale modulującym m(t). Załóżmy, iż f cjest dostatecznie wielka, aby móc traktować ten sygnał FM jako sygnał wąskopasmowy. Znaleźć przybliżoną postać transformaty Hilberta tego sygnału. b) Dla szczególnego przypadku sinusoidalnej fali modulującej m(t) = >łmcos(2n: f mt), znaleźć dokładne wyrażenie na transformatę Hilberta sygnału FM. Jaki jest w tym przypadku błąd aproksymacji zastosowanej w przypadku a)?
Zadanie 3.54 Jednowstęgowa modulacja kąta określona jest za pomocą zależności: s(r) = exp [ —$(O]cos[2rc/ct + 0(r)] gdzie
Rozdział 4
Procesy losowe 4.1. Wstęp W rozdziale 2 zajmowaliśmy się transformatą Fouriera jako aparatem matematycznym opisującym sygnały deterministyczne i ich przesyłanie przez liniowe filtry stacjonarne; za sygnały deterministyczne uważa się przy tym klasę sygnałów, które modelowane są przez określone funkcje czasu. W niniejszym rozdziale podejmujemy dalszą prezentację pod stawowych zagadnień niezbędnych dla lepszego zrozumienia systemów telekomunikacyj nych. W szczególności zajmiemy się opisem statystycznym sygnałów losowych, które często uważa się za drugi filar telekomunikacji. Przykłady sygnałów losowych napotyka się w praktycznie każdym systemie telekomunikacyjnym. Mówimy o sygnale „losowym” wtedy, gdy z góry nie można określić, jaką sygnał przyjmie wartość. Rozważmy dla przykładu system radiokomunikacyjny. Sygnał odbierany w takim systemie zazwyczaj składa się z sygnału niosącego informację, z losowej składowej zakłóceniowej (interferencyjnej) i z szumu odbiornika. Sygnał niosący informację może być na przykład sygnałem mocy, który w typowy sposób emituje przypadkowe porcje energii o losowym czasie trwania. Składowa interferencyjna może składać się z roz proszonych fal elektromagnetycznych, wysyłanych przez inne systemy telekomunikacyjne działające w pobliżu odbiornika radiowego. Głównym źródłem szumów odbiornika jest szum termiczny spowodowany przez przypadkowe ruchy elektronów w przewodnikach i podzes połach w wejściowej części odbiornika. Tak więc stwierdzamy, że sygnał odbierany ma całkowicie losowy charakter. Chociaż nie jest możliwe odgadnięcie wartości sygnału losowego z wyprzedzeniem, może on być opisany za pomocą swych właściwości statystycznych, takich jak moc średnia sygnału losowego lub rozkład widmowy uśredniony dla takiej mocy. Dyscypliną matematy czną, która zajmuje się charakterystyką stastystyczną sygnałów losowych jest teoria prawdopodobieństwa. Rozpoczynamy ten rozdział, dotyczący procesów losowych, od przeglądu pewnych podstawowych definicji teorii prawdopodobieństwa, aby przejść następnie do przeglądu pojęć dotyczących zmiennych losowych i procesów losowych. Proces losowy składa się ze zbioru (rodziny) funkcji prób, z których każda zmienia się losowo w czasie. Zmienna losowa otrzymywana jest przez obserwację procesu losowego w określonej chwili czasu.
222
4. PROCESY LOSOWE
4.2. Teoria prawdopodobieństwa Teoria prawdopodobieństwa11opisuje sferę zjawisk, które w sposób jawny lub uwikłany mogą być modelowane przez eksperymenty z wynikiem podlegającym prawom przypadku {szansy). Co więcej, jeśli eksperyment taki powtórzymy, to wynik może się różnić z powodu wpływu procesów przypadkowych, względnie mechanizmów losowych. Eksperyment taki nazywamy eksperymentem losowym. Na przykład eksperyment taki może polegać na oczekiwaniu na wynik rzutu prawidłową monetą. W takim eksperymencie możliwy wynik prób składa się z „reszek” i „orłów”. Dokładniej rzecz ujmując, aby opis dostarczył eksperymentu przypadkowego, wymagane jest spełnienie trzech warunków: 1. Eksperyment jest powtarzalny w identycznych warunkach. 2. Przy każdej próbie wynik nie daje się przewidzieć. 3. Dla dużej liczby prób w eksperymencie, wyniki wykazują statystyczną prawidłowość; oznacza to, że określony średni wynik prób daje się ustalić przy wielokrotnym powtarzaniu eksperymentu.
Częstość zdarzeń a praw dopodobieństw o Niech przypadek A oznacza jeden z możliwych wyników eksperymentu losowego. Na przykład dla rzutu monetą przypadek A można przypisać „reszkom”. Przypuśćmy, że dla n wykonanych prób, przypadek A zdarzył się N„(A) razy. Możemy więc przypisać stosunek Nn{A)jn do przypadku A. W oczywisty sposób częstość względna jest nieujemną liczbą rzeczywistą mniejszą lub równą jedności. Oznacza to:
„0 < - -
N *(A )
n
,
^ 1
(4.1)
Jeśli wynik A nie zdarzy się w żadnej z prób, to N„(A)/n = 0. Jeśli z drugiej strony przypadek A zdarzy się we wszystkich n próbach, to N„(,4)/n = 1. Mówimy, że eksperyment wykazuje statystyczną prawidłowość, jeśli dla jakiegokol wiek ciągu n prób względna częstość N n(A)/n zbieżna jest do tej samej granicy, o ile tylko liczba prób staje się duża. Wydaje się nam wtedy naturalne, że możemy zdefiniować prawdopodobień stwo zdarzenia A jako: P{A) = lim n~*oo Granica występująca w równaniu (4.2) nie powinna być rozpatrywana w sensie matematycz nym. Raczej traktujemy równanie (4.2) jako stwierdzenie, że prawdopodobieństwo zdarzenia jest długoterminową proporcją zdarzeń, w których określony przypadek A zdarza się w długiej serii prób. Na przykład w eksperymencie z rzucaniem monetą możemy oczekiwać, że na milion przypadkowych rzutów, około połowa powinna okazać się reszką. Prawdopodobieństwo zdarzenia może też być w intencji skłonnością próby w eks perymencie do dostarczenia akurat takiego wyniku, czyli zdarzenia. Dla wielu zastosowań w inżynierii i teorii gier zastosowanie definicji prawdopodobieństwa zdarzenia według równania (4.2) jest dozwolone. Jednakże dla wielu innych zastosowań definicja taka jest nieadekwatna. Weźmy na przykład analizę statystyczną rynku giełdowego: jak mielibyśmy osiągnąć powarzalność w tego rodzaju eksperymencie? Bardziej satysfakcjonujące podejście
223
4.2. TEORIA PRAWDOPODOBIEŃSTWA
polega na ustaleniu właściwości, które powinna mieć każda miara prawdopodobieństwa, zapostulowaniu ich jako aksjomatów, a następnie umotywowaniu tych aksjomatów przez interpretacje względnej częstości zdarzeń.
Aksjomaty teorii praw dopodobieństw a Gdy przeprowadzamy przypadkowy eksperyment, naturalnym jest spodziewać się różnych rezultatów, jakie są skłonne przy tym wyniknąć. Z tego powodu wygodnie jest myśleć o eksperymencie jako o przestrzeni złożonej z punktów definiujących możliwe wyniki. Dla k-tego wyniku eksperymentu możemy przyporządkować punkt zwany punktem próbki, który oznaczamy sk. Całkowity zbiór punktów próbek odpowiadający zagnieżdżeniu wszystkich możliwych wyników eksperymentu nazywamy przestrzenią próby, którą oznaczamy przez S. Przez zdarzenie rozumiemy albo pojedynczy punkt próbki, albo też pewien zbiór punktów próbki. W szczególności całkowita przestrzeń próby S nazywana jest zdarzeniem pewnytn; zerowy zbiór 0 nazywany jest zdarzeniem zerowym względnie niemożliwym, natomiast pojedynczy punkt próbki nazywany jest zdarzeniem elementarnym. Rozważmy dla przykładu zdarzenie polegające na rzuceniu kostką do gry. W tym eksperymencie mamy sześć możliwych wyników: pokaże się nam jedynka, dwójka, trójka, czwórka, piątka lub szóstka jako układ kropek na wierzchniej powierzchni kostki. Jeśli przyporządkujemy pojedynczy punkt próbki dla każdego z możliwych wyników, to możemy otrzymać jednowymiarową przestrzeń próby składającą się z sześciu punktów, jak pokazano na rys. 4.1. Zdarzenie elementarne polegające na stwierdzeniu „wypadła szóstka” odpowiada punktowi {6}. Z drugiej strony przypadek opisujący stwierdzenie „pojawiła się parzysta liczba kropek” odpowiada podzbiorowi (2, 4, 6} w przestrzeni próby. Zauważmy, że termin „zdarzenie” jest stosowany zamiennie, aby opisać podzbiór, względnie stwierdzenie. Jesteśmy już gotowi, aby sformułować formalną definicję prawdopodobieństwa. System prawdopodobieństwa składa się z trzech pojęć: 1. Przestrzeni próby S zdarzeń (wyników) elementarnych. 2. Klasy zdarzeń, które są podprzestrzeniami w S. 3. Miary prawdopodobieństwa P(-) przyporządkowanej każdemu zdarzeniu A w klasie S, cechującej się następującymi właściwościami: (i)
P(S) = 1
(4.3)
(ii)
0 < P(A) ^ 1
(4.4)
(iii)
Jeśli A + B jest sumą dwu wzajemnie wykluczających się zdarzeń rozłącznych w klasie S, to P(A+B) = P(A) + P(B)
(4.5)
Własności (i), (ii) i (iii) znane są jako aksjomaty prawdopodobieństwa. Aksjomat (i) stwierdza, że prawdopodobieństwo zdarzenia pewnego jest równe jedności. Aksjomat (ii) podaje, że prawdopodobieństwo zdarzenia jest nieujemną liczbą rzeczywistą mniejszą lub równą jedności. Punkt próbki
Rys, 4.1 1 V
J
Jednowymiarowa przestrzeń próby
Przestrzeń próby dla eksperymentu polegającego na rzucaniu kostką do gry
224
4. PROCESY LOSOWE
Aksjomat (iii) stwierdza, że prawdopodobieństwo sumy dwu zdarzeń rozłącznych jest sumą prawodpodobieństw tych zdarzeń. Te trzy aksjomaty wystarczają dla opisu eksperymentów o skończonej przestrzeni próby. Chociaż aksjomatyczne podejście do teorii prawdopodobieństwa jest abstrakcyjne w swej naturze, to wszystkie trzy aksjomaty mają swoje własne interpretacje w kontekście częstości względnej. Aksjomat (ii) odpowiada równaniu (4.1). Aksjomat (i) odpowiada granicznemu przypadkowi równania (4.1), kiedy zdarzenie A zdarza się we wszystkich n próbach. Aby zinterpretować aksjomat (iii) zanotujmy, że jeśli zdarzenie A zdarza się N n(A) razy w n próbach i zdarzenie B przytrafia się Nn{B) razy, wtedy zdarzenie łączne „A lub B” (które można też przedstawić jako „A i B”, ponieważ A i B nigdy nie występują w tej samej próbie) zdarza się w N„{A) + Nn{B) próbach. Stąd wynika Nn(A + 5) = N„(A) + Nn{B), i mamy zatem: N M + B) _ N n(Ą) [ N n(B) n n n o postaci matematycznej podobnej do aksjomatu (iii). Aksjomaty (i) (ii) i (iii) stanowią uwikłaną definicję prawdopodobieństwa. Możemy zatem opierając się na tych aksjomatach podać podstawowe właściwości prawdopodobieńst wa, jak opisano dalej.
Właściwość 1 P(A) = 1 -P {A ) gdzie A {oznaczające negację „nie A”) jest zdarzeniem dopełniającym do A. Użycie tej właściwości pomaga nam prześledzić przypadek zdarzenia niemożliwego. Aby to udowodnić, wyrazimy przestrzeń próby S jako sumę dwu nawzajem wykluczających się zdarzeń A i A; S = A +A Wtedy zastosowanie aksjomatów (i) i (iii) daje: 1 = P(A) + P(A) z czego bezpośrednio wynika równanie (4.6).
Właściwość 2 Jeżeli M zdarzeń rozłącznych A lf A2, ... AM ma własność: A\ + A 2 +... + Am = S wtedy tworzy się układ zupełny i zachodzi równość: P(Al) + P(A2) + ... + P(AM)= 1
(4-7) (4.8)
Aby udowodnić tę właściwość, najpierw zastosujemy aksjomat (i) do równania (4.7) aby napisać: P(Ai + A 2■+■... + A m) = 1 Następnie uogólniamy aksjomat (iii) pisząc: P{A, + A2+ ... + Am) = P{Al) + P(A2)+ m + P[AM) Stąd wynika już równanie (4.8). O ile wszystkie M zdarzeń są jednakowo prawdopodobne (czyli mają to samo prawdopodobieństwo występowania) wtedy równanie (4.8) upraszcza się do: P{At) =
M
i= 1,2,..., M
4.2. TEORIA PRAWDOPODOBIEŃSTWA
225
Właściwość 3 Jeśli zdarzenia A i B nie są rozłączne, wtedy prawdopodobieństwo zdarzenia łącznego „A lub £T równa się: P(A + B) = P(A) + P(B) - P(AB)
(4.9)
gdzie P(AB) jest prawdopodobieństwem zdarzenia łącznego „A i B'\ Prawdopodobieństwo P(AB) nazywane jest prawdopodobieństwem łącznym. Jego interpretacja za pomocą częstości względnej jest następująca: PMfl, = Urn M 1,-00\
(4.10) «
gdzie Nn(AB) oznacza, ile razy zdarzenie A i B wydarzy się jednocześnie w n próbach eksperymentu. Aksjomat (iii) jest specjalnym przypadkiem równania (4.9); gdy A i B są rozłączne, to P(AB) jest zerem i równanie (4.9) redukuje się do postaci identycznej z równaniem (4.5).
Praw dopodobieństw o w arunkow e Wyobraźmy sobie, że przeprowadzamy eksperyment, w wyniku którego mogą wystąpić dwa zdarzenia A i B. Niech P{B\A) oznacza prawdopodobieństwo zdarzenia B pod warunkiem, że zaszło zdarzenie A. Prawdopodobieństwo P(B/A) nazywane jest prawdopodobieństwem warunkowym B jeśli A. Zakładając, że A ma prawdopodobieństwo niezerowe, warunkowe prawdopodobieństwo P(B\A) zdefiniowane jest jako: P (AB) P(B\A) = P(A )
(4.11)
gdzie P(BA) — łączne prawdopodobieństwo A i B. Uzasadniamy definicję warunkowego prawdopodobieństwa danego równaniem (4.11) przez podanie jego interpretacji jako częstości względnej. Przypuśćmy, że wykonujemy eksperyment, w którym badamy występowanie par A i B. Niech Nn(AB) oznacza liczbę razy, w których łączne zdarzenie AB przytrafiło się w n próbach. Przypuśćmy, że w tych samych n próbach zdarzenie A wystąpiło N„(A) razy. Ponieważ zdarzenie łączne AB odpowiada wydarzeniu się zarówno A jak i B, więc wynika stąd, że Nn{A) musi zawierać w sobie N n(AB). Innymi słowy zachodzi: N n(AB)
N nW
1
Stosunek N„(AB)/N„(A) reprezentuje względną częstość zdarzenia B pod warunkiem, że zdarzyło się A. Dla dużych n stosunek ten równa się prawdopodobieństwu P{B\A); czyli: P{B\A) = lim n-> oo
lub równoważnie: ( N„(AB)/n
P(B\A) = hm ODV N„(A)/" 15 Systemy telekomunikacyjne cz. 1
226
4. PROCESY LOSOWE
Rozpoznając, że P(BA)- lim ( M ? ) ) » -o o \
”
)
oraz P(A) = Urn m 00 dostajemy wynik z równania (4.11). Możemy przepisać równanie (4.11) jako: P{AB) = P (B\A)P(A)
(4.12)
Oczywistym jest, że można również napisać: P(AB) = P(A\B)P(B)
(4.13)
Możemy zatem stwierdzić, że prawdopodobieństwo łączne dwu zdarzeń może być wyrażone jako iloczyn prawdopodobieństwa warunkowego zdarzenia A pod warunkiem B i prawdopodobieństwa warunku. Zanotujmy, że prawdopodobieństwo warunkowe P{B\A) i P(A\B) mają w zasadzie te same właściwości jak różne poprzednio zdefiniowane prawdopodobieństwa. Mogą zaistnieć sytuacje, w których prawdopodobieństwo warunkowe P{A\B) i prawdopodobieństwa P(A) i P(B) są łatwe do bezpośredniego wyznaczenia, ale życzeniem naszym jest znalezienie prawdopodobieństwa warunkowego P(B\A). Z równań przez (4.12) i (4.13) wynika, że o ile P(A) # 0, to możemy wyznaczyć P{B\A) przez skorzystanie z zależności: P(A\B)P(B) P(B\A) = P{A)
(4.14)
Zależność ta stanowi przypadek szczególny reguły Bayesa. Wyobraźmy sobie, że prawdopodobieństwo warunkowe P(B\A) po prostu równa się elementarnemu prawdopodobieństwu zdarzenia B, to znaczy: P(B\A) = P(B) W tych warunkach prawdopodobieństwo zdarzenia łącznego AB równa się iloczynowi elementarnych prawdopodobieństw zdarzeń A i B: P(AB) = P{A) P(B) tak więc P(A\B) = P(A) Oznacza to, że prawdopodobieństwo warunkowe zdarzenia A, zakładając przytrafienie się zdarzenia B, równa się po prostu elementarnemu prawdopodobieństwu zdarzenia A. Widzimy więc, że w tym konkretnym przypadku znajomość wystąpienia jednego zdarzenia nie mówi nam nic więcej o prawdopodobieństwie drugiego zdarzenia, niż wiedzielibyśmy nie mając takiej znajomości. Zdarzenia A i B spełniające takie warunki nazywane są statystycznie niezależnymi. Przykład 1
Symetryczny kanał binarny
Rozważmy dyskretny kanał bez pamięci stosowany do przesyłania danych binarnych. Kanał nazywany jest dyskretnym, jeśli został zaprojektowany do przesyłu informacji typu dyskret nego. Jest bez pamięci, ponieważ w dowolnej chwili wyjście kanału zależy jedynie od wejścia
4.2. TEORIA PRAWDOPODOBIEŃSTWA
227
w tym czasie. Nieuniknionej obecności szumów w kanale zawdzięczamy błędy czynione w odbieranym strumieniu danych binarnych. W szczególności, przy wysłaniu sygnału 1, przypadkowo przytrafia się błąd i odbieramy sygnał 0, lub vice versa. Zakładamy, że kanał jest symetryczny, co oznacza, że prawdopodobieństwo odebrania sygnału 1, gdy wysłano symbol 0, jest takie samo, jak prawdopodobieństwo odebrania symbolu 0, gdy wysłano symbol 1. Aby w pełni opisać probabilistyczną naturę takiego sygnału, potrzebujemy dwu zbiorów prawdopodobieństw. 1. Prawdopodobieństwa a priori wysłania symbolu binarnego O i l — wynoszą one: P ( A 0) = Po
oraz Pf4i) = p, gdzie A0 i A L oznaczają przypadek nadania odpowiednio symbolów 0 i 1. Zauważmy, że P 0 + Py
= 1.
2. Warunkowe prawdopodobieństwa błędu — wynoszą one: P(Bl\A0) = P(B0\Al) = p gdzie B0 i B x oznaczają zdarzenia polegające na odebraniu odpowiednio symbolów Oi l . Prawdopodobieństwo warunkowe P(Bj|/i0) jest prawdopodobieństwem odebrania sym bolu 1, o ile wysłano symbol 0. Drugie prawdopodobieństwo warunkowe PiB^Ay) jest prawdopodobieństwem odebrania symbolu 0, pod warunkiem, że wysłano symbol 1. Wymagane jest wyznaczenie prawdopodobieństw a posteriori P(A0\B0) i P(A1|Pi). Praw dopodobieństwo warunkowe P(A0\B0) jest prawdopodobieństwem, że symbol 0 był wysłany, o ile odebrano symbol 0. Drugie prawdopodobieństwo warunkowe P(A1|B1) jest prawdopodobieństwem, że wysłano symbol 1, jeśli odebrany był symbol 1. Obydwa te warunkowe prawdopodobieństwa odnoszą się do zdarzeń, które obserwuje się „po fakcie”; stąd też wynika nazwa prawdopodobieństw „a posteriori”. Skoro zdarzenia B0 i By są nawzajem rozłączne, to na podstawie aksjomatu (iii) mamy: P(B0\A0) + P(B1\A0)= 1 Można więc napisać: P(B0\A0) = \ - p Podobnie możemy napisać: P(Bl\Al) = l - p Stosownie do tego, możemy użyć diagramu prawdopodobieństwa przejścia pokazanego na rys. 4.2, aby symbolicznie przedstawić binarny kanał telekomunikacyjny opisany w tym przy kładzie; termin „prawdopodobieństwo przejścia” odnosi się do warunkowego prawdopodo bieństwa błędu. Rysunek 4.2 klarownie wskazuje na (założoną) symetryczną naturę kanału; stąd też i nazwa, „binarny kanał symetryczny”. Z rysunku 4.2 wyprowadzamy następujące wnioski: 1. Prawdopodobieństwo odebrania symbolu 0 dane jest przez: P(B0) = PiBolAJPiAJ + P W A jP iA y ) = (1 -p )p 0 + pPl 15*
228
4. PROCESY LOSOWE
Rys. 4.2 Diagram prawdopodobieństw przejścia dla symetrycznego kanału binarnego
2. Prawdopodobieństwo odebrania symbolu 1 dane jest wzorem: P(Bi) = P i B M o l P ^ + P iB M jP iA y ) = PPo + d -p)P i Stąd już przez zastosowanie reguły Bayesa otrzymujemy: P(A0\B0) =
P(B0\A0) P{AJ P(B0)
P(A1\Bl) = P (B M i)P (A ) P(Bt)
( l “ P)Po ( l- p ) p 0 + PPi pp0+ (l-p )P i
Te dwa prawdopodobieństwa a posteriori stanowią poszukiwany wynik.
4.3. Zmienne losowe Należy do zwyczaju, szczególnie gdy posługujemy się terminologią przestrzeni próby, by myśleć 0 wyniku eksperymentu jako o zmiennej, która może poruszać się po zbiorze punktów z próby 1której wartość określona jest przez eksperyment. Funkcja, której dziedzinąjest przestrzeń próby i której zakres jest pewnym zbiorem liczb rzeczywistych, nazywana jest zmienną losową eksperymentu. Jednakże nazwa ,.zmienna losowa” budzi pewne kontrowersje. Po pierwsze słowo „losowa” nie jest użyte w sensie równego prawdopodobieństwa zdarzeń, dla którego powinno być zarezerwowane. Po drugie słowo ,.zmienna” nie oznacza zależności (względem wyniku eksperymentu), która odpowiadałaby istotnej części jego znaczenia. Pomimo to, termin ten jest tak głęboko zakorzeniony w literaturze dotyczącej prawdopodobieństwa, że jego używanie jest nadal przyjęte. Gdy wynik eksperymentu stanowi zdarzenie s, to zmienna losowa oznaczana jest przez X (s) lub po prostu X. Na przykład, przestrzeń próby reprezentująca wynik rzutów kostką do gry stanowi zbiór sześciu punktów próbek, które można uważać za liczby całkowite 1, 2,.... 6. Jeśli teraz rozpoznamy punkt próbki k jako zdarzenie, że k naprawdę pojawia się gdy wyrzucimy kostkę, to funkcja X(k) = k jest zmienną losową taką, że X (k) równe jest liczbie kropek, które ukażą się gdy rzucimy kostką. W tym przypadku zmienna losowa przyjmuje jedynie dyskretny zbiór wartości. W takim przypadku mówimy, że mamy do czynienia z dyskretną zmienną losową. Bardziej precyzyjnie, zmienna losowa X może przyjąć jedynie skończoną liczbę wartości w jakimkolwiek skończonym okresie obserwacji. Jeśli jednak zmienna losowa X może przyjąć jakąkolwiek wartość w całym zakresie obserwacji, to X nazywana jest zmienną losową ciągłą. Na przykład, zmienna losowa reprezentująca amplitudę napięcia szumów w określonej chwili czasu jest ciągłą zmienną losową, gdyż może ona przyjąć jakąkolwiek wartość z zakresu od plus do minus nieskończoności.
229
4.3. ZMIENNE LOSOWE
Aby kontynuować, będziemy potrzebowali probabilistycznego opisu zmiennych losowych, który spełni zadanie równie dobrze dla dyskretnych jak i ciągłych zmiennych losowych. Rozważmy zmienną losową X i prawdopodobieństwo zdarzenia X ^ x. Oznaczymy je jako prawdopodobieństwo P(X < .x). Jest oczywiste, że prawdopodobieństwo to jest funkcją zmiennej fikcyjnej x. Aby uprościć naszą notację, piszemy: Ffix) = P ( X ^ x )
(4.15)
Funkcja Fx{x) nazywana jest dystrybuantą kumulatywną lub po prostu dystrybuantą zmiennej losowej X. Zauważmy, że F x(x)jest funkcją x, a nie zmiennej losowej X. Jednakże zależy ona od przyporządkowania do zmiennej losowej X, co usprawiedliwia użycie X jako indeksu dolnego. Dla dowolnego x, dystrybuantą Fx(x) wyraża prawdopodobieństwo. Dystrybuantą F x(x) ma następujące własności, wynikające wprost z równania (4.15): 1. Dystrybuantą Fx(x) ma wartości ograniczone do zakresu między 0 a 1. 2. Dystrybuantą jest monotoniczną niemalejącą funkcją x; to znaczy: Fx(x i) < Fx (x 2)
jeśli *i < x 2
(4.16)
Często użytecznym bywa alternatywny opis prawdopodobieństwa zmiennej losowej X. Polega ona na używaniu pochodnej dystrybuanty, a mianowicie: f x(x) = — Fx(x)
(4-17)
co daje w wyniku funkcję gęstości prawdopodobieństwa f x{x) zmiennej losowej X. Zwróćmy uwagę, że różniczkowanie w równaniu (4.17) wykonane jest względem zmiennej fikcyjnej x. Pochodzenie nazwy funkcja gęstości bierze się z faktu, że prawdopodobieństwo zdarzenia Xj < X ^ x2 wynosi: P(xj < X ^ x2) = P(X ^ x 2) - P ( X
x t) - F fix fi- F fix fi = (4.18)
= J/x(*)dx xi Prawdopodobieństwo w przedziale jest zatem równe polu zawartemu pod funkcją gęstości prawdopodobieństwa w tymże przedziale. Podstawiając x x = —oo w równaniu (4.18) i zmienia jąc nieco notację łatwo stwierdzamy, że dystrybuantą zdefiniowana jest za pomocą funkcji gęstości prawdopodobieństwa w następujący sposób: F x (x) =
—00
J / X«)d{
(4.19)
Ponieważ Fficc) = 1, co odpowiada prawdopodobieństwu zdarzenia pewnego, a F fi—oo) = O, co oznacza prawdopodobieństwo zdarzenia niemożliwego, więc znajdujemy z równania (4.18), że: J f x(x)dx = 1
(4.20)
—CO
Wcześniej wzmiankowaliśmy, że dystrybuantą musi być zawsze monotoniczną i niemalejąca. Oznacza to, że jej pochodna, czyli funkcja gęstości prawdopodobieństwa musi zawsze być nieujemna. W związku z tym możemy podsumować, że funkcja gęstości prawdopodobieństwa musi zawsze być nieujemną funkcją o polu całkowitym równym jedności.
230
4. PROCESY LOSOWE
Rys. 43. Rozkład jednostajny: a) funkcja gęstości prawdopodobieństwa, b) dystrybuanta Przykład 2
Rozkład jednostajny
O zmiennej losowej X mówi się, że ma rozkład jednostajny (jest równomiernie rozłożona) w przedziale (a, b), jeśli jej funkcja gęstości prawdopodobieństwa jest równa: x
a
, a
fx(x) =
(4.21)
x>b Dystrybuanta rozkładu X ma zatem postać: 0,
x< a a
(4.22)
Na rysunku 4.3 pokazano wykres funkcji gęstości prawdopodobieństwa oraz dystrybuanty dla równomiernie rozłożonej zmiennej losowej X.
Przypadek kilku zmiennych losowych Dotychczas koncentrowaliśmy naszą uwagę na sytuacjach, w których występuje pojedyncza zmienna losowa. Jednakże w eksperymentach często spotykamy się z sytuacją, że wynik wymaga opisu za pomocą kilku zmiennych losowych. Teraz zajmiemy się przypadkiem opisywanym przez dwie zmienne losowe. Opis probabilistyczny tak dokonany może być łatwo rozszerzony na przypadek dowolnej liczby zmiennych losowych. Rozważmy dwie zmienne losowe X i Y Definiujemy łączną dystrybuantę dwu wymiarową Fx y(x, y) jako prawdopodobieństwo, że zmienna losowa X jest mniejsza lub równa określonej wartości x i że zmienna losowa Yjest mniejsza lub równa określonej wartości y. Zmienne losowe X i Y mogą być dwiema jednowymiarowymi zmiennymi losowymi lub składowymi pojedynczej dwuwymiarowej zmiennej losowej. W każdym z przypadków wspólna przestrzeń próbek stanowi płaszczyznę xy. Łączna dystrybuanta FXY(x, y) jest prawdopodobieństwem, że wynik eksperymentu będzie stanowił punkt próbki leżący w ćwiartce (—oo < X s$x, —oo < Y< y) łącznej przestrzeni próby. Oznacza to, że: Fx A x’ y ) = p (x
(4.23)
231
4.3. ZMIENNE LOSOWE
Wyobraźmy sobie, że łączna dystrybuanta Fx y (x, y) jest wszędzie ciągła i że pochodna cząstkowa d2Fx,r(x’ y) dx 8y
f x . r(x, y) =
(4.24)
istnieje i jest wszędzie ciągła. Nazywamy funkcje / x y(x, y) łączną funkcją gęstości praw dopodobieństwa zmiennych losowych X i Y. Dwuwymiarowa dystrybuanta Fx y (x, y) jest monotoniczną funkcją obu zmiennych x i y. Stąd na podstawie równania (4.24) wynika, że łączna funkcja gęstości prawdopodobieństwa Fx y(x, y) jest zawsze nieujemna. Również całkowita objętość pod wykresem dwuwymiarowej łącznej funkcji gęstości prawdopodobieńst wa musi być równa jedności, jak zapisano dalej:
J — Q0 -
? A .r « .ł ) < K < l ł - l
(4-25)
CO
Funkcja gęstości prawdopodobieństwa dla pojedynczej zmiennej losowej (powiedz my X), może być otrzymana na podstawie łącznej funkcji gęstości prawdopodobieństwa z drugą zmienną losową (powiedzmy Y), w następujący sposób. Po pierwsze zanotujmy, że:
1
Fx(x) = “
f/x ,r(£ > 7)d£df?
(4.26)
0 0 — 00
Stąd różniczkując obie strony równania (4.26) względem x otrzymujemy pożądaną zależność: fx(x) =
J fxM x, —00
(4-27)
Tak więc funkcja gęstości prawdopodobieństwa / x(x) otrzymywana jest z łącznej funkcji gęstości / x y(x, y) po prostu przez scałkowanie jej względem wszystkich możliwych wartości niepożądanej zmiennej losowej Y. Stosując podobną argumentację dla drugiego wymiaru otrzymuje się/y(y). Funkcje gęstości prawdopodobieństwa f x(x) i / y(y) noszą nazwę gęstości prawdopodobieństwa rozkładów brzegowych**. Tak więc łączna funkcja gęstości prawdopodo bieństwa / x y (x, y) zawiera całą możliwą informację o łącznych zmiennych losowych X i Y. Wyobraźmy sobie, że X i Ysą dwiema ciągłymi zmiennymi losowymi o łącznej funkcji gęstości prawdopodobieństwa / x y (x, y). Funkcja gęstości widmowej prawdopodobieństwa warunkowego, że zajdzie Yo ile X = x zdefiniowana jest jako: AM*) =
AM
, ~
(4.28)
przy założeniu, że f x (x) > 0, gdzie f x(x) jest gęstością brzegową X. Funkcja / y(y|x) może być uważana za funkcje zmiennej y, przy dowolnej, ale ustalonej wartości zmiennej x. Spełnia ona odpowiednio wszystkie wymagania dotyczące zwykłej funkcji gęstości prawdopodobieństwa, jak pokazano dalej: fr(y\x)
> 0
oraz { / y(y|x)dy = 1 “
00
*’ Ang. marginal densities (przyp. tłum).
232
4. PROCESY LOSOWE
Jeśli zmienne losowe X i Y są statystycznie niezależne, to znajomość wyniku X w żaden sposób nie może mieć wpływu na rozkład Y. Rezultat jest taki, że funkcja gęstości prawdopodobieństwa warunkowego/r (y|x) redukuje się do gęstości rozkładu brzegowego/r (y) w postaci: f r i y \ x ) = f Y( y )
W takim przypadku możemy zapisać łączną funkcję gęstości prawdopodobieństwa zmiennych losowych X i Yjako iloczyn ich odpowiednich gęstości rozkładów brzegowych, co pokazano dalej: fx.rix,
y)
= f x ( x )fv(y)
Równoważnie możemy stwierdzić, że jeśli łączna funkcja gęstości prawdopodobieństwa dwu zmiennych losowych X i Yrówna się iloczynowi ich gęstości rozkładów brzegowych, to X i Ysą statystycznie niezależne.
4.4. Średnie statystyczne Po przedyskutowaniu pojęcia prawdopodobieństwa wraz z niektórymi jego uzupełnieniami, nadszedł czas na poszukiwanie sposobów wyznaczania średniego zachowania się wyników powstających w eksperymentach losowych. Wartość oczekiwana względnie średnia lub przeciętna zmiennej losowej X jest definiowana jako: OD
\ x f x(x) dx
(4.29)
gdzie E — operator średniej statystycznie oczekiwanej. Oznacza to, że średnia px wyznacza środek ciężkości pola pod krzywą gęstości prawdopodobieństwa zmiennej losowej X. Aby dać interpretację wartości oczekiwanej px piszemy całkę w równaniu definicji (4.29) jako granicę sumy aproksymującej w następujący sposób. Niech {xk\k = 0, +1, +2, ...} oznacza zbiór punktów równoodległych na prostej rzeczywistej: xk = ( &+ y j A,
k = 0, +1, ± 2, ...(4.30
gdzie A — odległość między sąsiednimi punktami. Możemy wtedy przepisać równanie (4.29) w postaci: w
( t + 1 )A
E W = Um £
J
A-*0 k ~ ~ oc
x j x(x)dx =
kA
(4.31)
OD
= lim
£
xkP
X ^ x £+
A~*0 k = - oo
Dla fizycznej interpretacji sumy po prawej stronie równania (4.31) wyobraźmy sobie, że czynimy n niezależnych obserwacji zmiennej losowej X. Niech Nn(k) oznacza, ile razy zmienna losowa X wypadła w fc-tym przedziale: A A xk—— < X < xk+ —,
k = 0, ±1, +2,...
233
4.4. ŚREDNIE STA TYSTYCZNE
Jeśli liczba obserwacji n będzie wzrastać, to stosunek N„(k)/n będzie dążyć do prawdopodobień stwa P{xk —A/2 < X < xk+ A/2). Odpowiednio, możliwa staje się aproksymacja wartości oczekiwanej zmiennej losowej X przez: £ [* ]-
1 °° — X xkN„(fc), przy czym n jest duże
I k
= —co
(4.32)
n k = ~ oo
Rozpoznajemy teraz wielkość po prawej stronie równania (4.32) po prostu jako „próbkę średnią”. Suma wzięta jest po wszystkich wartościach xk, które waży się przez liczbę przypadających na nie zdarzeń; po zsumowaniu suma dzielona jest przez całkowitą liczbę obserwacji dając w wyniku średnią z próbek. Faktycznie, równanie (4.32) stanowi podstawę do obliczenia wartości oczekiwanej £ [ 2f].
Funkcja zmiennej losowej Niech X oznacza zmienną losową i niech g(X) będzie funkcją o wartościach rzeczywistych zdefiniowaną na osi liczb rzeczywistych. Wielkość, którą otrzymujemy deklarując argument <7(AT) jako zmienną losową, będzie również zmienną losową, co zaznaczymy jako: Y = g(X )
(4.33)
Aby znaleźć wartość oczekiwaną zmiennej losowej 7, moglibyśmy oczywiście znaleźć funkcję gęstości prawdopodobieństwa f Y(y) i następnie zastosować wzór standardowy:
£ [r| = ?
yfy(y)dy
~ 00
Prostsza jednak procedura polega na napisaniu: Elg(X)] = J 3(x)/*(x)dx “ oo
(4.34)
Rzeczywiście, równanie (4.34) można uważać za uogólnienie pojęcia wartości oczekiwanej na dowolną funkcję g(X) zmiennej losowej X. Przykład 3 Niech Y= g(X) = cos (2Q gdzie X — zmienna losowa równomiernie rozłożona w przedziale (—n, n), to znaczy: J — fx(x) = \ 2n V-0,
-n < x < k pozostałe x
Według równania (4.34) oczekiwana wartość Y wynosi: 1 £ [7 ] = ] (cos x) 2n -n
234
4. PROCESY LOSOWE
M omenty W szczególnym przypadku, gdy g(X) — X n na podstawie równania (4.34) otrzymujemy n-ty moment rozkładu prawdopodobieństwa zmiennej losowej X, to znaczy; £ [* "]=
J X-/X(x)dx
(4.35)
Najważniejszymi momentami zmiennej X są dwa pierwsze momenty. Tak więc podstawienie n = l w równaniu (4.35) czyni przeciętną zmiennej losowej, opisaną już wcześniej, podczas gdy podstawienie n = 2 daje średniokwadratową wartość z X: co
E[AT2] = j x2f x(x)dx - oc
(4.36)
Możemy też zdefiniować momenty centralne, które po prostu są momentami różnic pomiędzy zmienną losową X a jej średnią px . Tak więc n-ty moment centralny wynosi: ( x - n xr
= f ( x - p xY fx(x)dx - oo
(4.37)
Dla n = 1 moment centralny jest oczywiście zerem, podczas gdy dla n = 2 drugi moment centralny nazywany jest wariancją zmiennej losowej X i zapisywany jest wzorem: var [żfj = E ( x - h ?
f ( '- r f / i W d x
(4.38)
— CO
Wariancja zmiennej losowej X jest zwyczajowo oznaczana symbolem o\. Pierwiastek kwadratowy z wariancji, czyli ax nazywany jest odchyleniem standardowym zmiennej losowej X. Wariancja ox zmiennej losowej X w pewnym sensie jest miarą jej „przypadkowości”. Określając wariancję o \ ograniczamy tym samym efektywną szerokość funkcji gęstości prawdopodobieństwa f x(x) zmiennej losowej X w otoczeniu średniej px. Precyzyjne twier dzenie na temat takiego ograniczenia pochodzi od Czebyszewa. Nierówność Czebyszewa podaje, że dla dowolnej dodatniej liczby e, prawdziwa jest zależność P ( \X -n x\ ^ e ) <
(4.39)
Na podstawie tej nierówności widać, że średnia i wariancja stanowią częściowy opis rozkładu prawdopodobieństwa. Na podstawie równań (4.36) i (4.38) możemy stwierdzić, że wariancja ax i wartość przeciętna E [X 2] są powiązane relacją: o2x = E [X 2- 2 g xX + M2x] = E [X 2] - 2 g xE[X] + M2x = E [X 2] - p ź
(4.40)
przy czym w wierszu drugim użyliśmy właściwości liniowości operatora wartości oczekiwanej E. Równanie (4.40) ukazuje, że jeśli przeciętna px jest zerem, to wariancja o \ i wartość średniokwadratowa £[3Ć2] są sobie równe.
Funkcja charakterystyczna Inną ważną średnią statystyczną jest funkcja charakterystyczna >*(ł>) rozkładu prawdopodo bieństwa zmiennej losowej X , którą definiuje się jako wartość oczekiwaną zespolonej funkcji wykładniczej exp(juX) w postaci:
235
4.4. ŚREDNIE STATYSTYCZNE
(4.41)
gdzie u — rzeczywiste, a j = y j —1. Innymi słowy, funkcja charakterystyczna
2n
QC 1
(4.42)
OD
Zależność ta może być wykorzystywana do wyznaczania funkcji gęstości prawdopodobień stwa f x(x) zmiennej losowej X na podstawie jej funkcji charakterystycznej (f>x (v).
Przykład 4 Gaussowska zmienna losowa Gaussowska zmienna losowa jest często spotykana w analizie statystycznej różnorodnych systemach fizycznych, włączając systemy telekomunikacyjne. Niech X oznacza zmienną losową o rozkładzie Gaussa z wartością średnią nx i wariancją ox. Funkcja gęstości prawdopodobień stwa takiej zmiennej losowej zdefiniowana jest jako: — OO < X < 00
(4.43)
Mając tę funkcję gęstości prawdopodobieństwa możemy łatwo dowieść, że średnia z tak zdefiniowanej zmiennej losowej X faktycznie równa jest nx a wariancja wynosi ox \ przy czym wykonanie odpowiednich przekształceń pozostawia się jako ćwiczenie dla Czytelnika. W przykładzie niniejszym, życzeniem naszym będzie wyznaczenie momentów wyższego rzędu na podstawie funkcji charakterystycznej gaussowskiej zmiennej losowej X. Różniczkując n-krotnie obie strony równania (4.41) względem v i podstawiając u = O otrzymujemy wynik: d" do"
= ar I x-AMdx v=0
“ W
Całka po prawej stronie równości odpowiada n-temu momentowi zmiennej losowej X. Możemy więc napisać: d" £ [* "] = ( - j r du"
(4.44)
cMi>) = ex p [ ] d h x - ^ v 2
(4.45)
=o Otóż funkcja charakterystyczna zmiennej losowej X Gaussa o średniej nx i wariancji ox dana jest jako (por. zadanie 4.1):
Równania (4.44) i (4.45) pokazują w jasny sposób, że momenty wyższych rzędów gaussowskiej zmiennej losowej są jednoznacznie określone przez średnią nx i wariancję ox. Faktycznie,
236
4. PROCESY LOSOWE
proste przekształcenia tej pary równań pozwalają wykazać, że momenty centralne zmiennej X są następujące 1 x 3 x 5...(n —1)0* dla n parzystych (4.46) ( x - f i Xr = dla n nieparzystych
M omenty łączne Rozważmy następnie parę zmiennych losowych X i Y. Zbiór średnich statystycznych ważnych w tym przypadku stanowią momenty łączne; są to mianowicie wartości oczekiwane iloczynów X ‘ Yk, przy czym i oraz k mogą przyjmować dodatnie całkowite wartości. Możemy więc napisać: X'Y* = 1 1 x ly 7x, y(x, y) dx dy —oO“ 00
(4.47)
Momentem łącznym o wyjątkowym znaczeniu jest korelacja zdefiniowana przez £[X Y ], co odpowiada i = k — 1 w równaniu (4.47). Korelacja wycentrowanych zmiennych losowych X —£ [X] i Y—£ [ Y], czyli mo ment łączny: (4.48)
cov[XY] = £ [ ( * - £ [ X ] ) ( Y - £ [ Y ] ) ] nazywany jest kowariancją X i Y Wyprowadzając px = £[AT] i równanie (4.48), aby otrzymać wynik:
— E[Y] możemy rozwinąć
cov[XY] = E[XY ]-Hxl*r
(4.49)
Niech a \ i
(4.50)
ax<*v Mówimy, że dwie zmienne losowe X i Ysą nieskorelowane wtedy i tylko wtedy, gdy ich kowariancja jest zerem, to znaczy wtedy i tylko wtedy, gdy: cov[XY] = 0 Mówimy też, że są one ortogonalne wtedy i tylko wtedy, gdy ich korelacja jest zerem, to znaczy wtedy i tylko wtedy jeśli: £[X Y ] = 0 Z równania (4.49) wynika, że jeśli jedna ze zmiennych losowych X i Ylub obie naraz mają zerowe średnie i ponadto są ortogonalne, to wtedy są one nieskorelowane i vice versa. Zanotujmy też, że jeśli X i Ysą statystycznie niezależne, to wtedy są nieskorelowane; odwrotne jednak twierdzenie nie zawsze jest prawdziwe.
4.5.
Przekształcenia zmiennych losowych
Problem, który często pojawia się w opisie statystycznych systemów telekomunikacyjnych polega na wyznaczaniu funkcji gęstości prawdopodobieństwa zmiennej losowej Ypowiązanej z inną losową X za pomocą transformacji: Y=g{X)
237
4.5. PRZEKSZTAŁCENIA Z M IENNY CH LOSOWYCH
Rys. 4.4 Transformacja wzajemnie jednoznaczna zmiennej losowej X
Istnieje potrzeba rozpatrzenia dwu oddzielnych przypadków: jeden to przekształcenia jednoznaczne (monotoniczne) i drugi to transformacje wieloznaczne (niemonotoniczne). Rozpatrzymy oba te przypadki po kolei.
Przekształcenia m onotoniczne Niech X będzie ciągłą zmienną losową o funkcji gęstości prawdopodobieństwa f x (x). Niech Y = g(X) będzie monotoniczną różniczkowalną funkcją X , jak zaznaczono na rys. 4.4. Załóżmy, że czynimy nieskończenie małe zmiany dx i dy zmiennych x i y. Wtedy zakładając, że: y = g(x)
(4.51)
Możemy napisać: dq y + dy = g(x + dx) =* g{x) + — dx dx
(4.52)
gdzie dg/dx — pochodna funkcji g(x) względem x. Rozważmy teraz zdarzenie (y < Y ^ y + dy). Na rys. 4.4 widzimy, że zdarzenie to daje identyczny wynik jak zdarzenie (x < X < x + dx). Stosownie do tego, prawdopodobieństwa tych dwu zdarzeń muszą być równe, czyli: P(y <
y+dy) = P(x < X < x + dx)
Wyrażając poprzez funkcje gęstości prawdopodobieństwa f x{x) i / r(y), możemy przeformułować równość prawdopodobieństw zdarzeń (x < X < x + dx) i (y < Y < y + dy) jak następuje: /r(y)dy =/*(x)dx przy czym zakłada się, że funkcja g(x) jest monotonicznie rosnącą funkcją, jak zaznaczono na rys. 4.4. Gdyby z drugiej strony #(x) była funkcją monotonicznie malejącą, to zachodziłoby: /r(y)dy = - f x(x) dx Możemy związać oba te wyniki pisząc: /r(y)|dy| = / x(x)|dx|
(4.53)
238
4. PROCESY LOSOWE
Ważna relacja zapisana równaniem (4.53) może być rozpatrywana jako zasada zachowania prawdopodobieństwa przy wzajemnie jednoznacznym przekształceniu ze zmiennej losowej X do innej zmiennej losowej Y zdefiniowanej jako funkcja zmiennej losowej X. Aby otrzymać funkcję gęstości prawdopodobieństwa f Y{y) czynimy dwa kroki: • dzielimy obie strony równania (4.53) przez |dy|, • do wynikłego stąd wyrażenia podstawiamy odwrotną zależność x = <5r- 1(y). Możemy wtedy napisać: /*(*) |d
(4.54)
co stanowi poszukiwane wyrażenie dla wzajemnie jednoznacznej transformacji zmiennych losowych.
Transform acje wieloznaczne Rozważmy następnie bardziej ogólny przypadek transformacji wieloznacznej y — g(x), w której kilka wartości x może być transformowanych na jedną wartość y. W tym przypadku wzór określający funkcję gęstości prawdopodobieństwa zmiennej losowej Yw przeliczeniu na funkcję gęstości prawdopodobieństwa zmiennej losowej X jest jak następuje: friy) = I k W d x J xk=9 *Cy)
(4.55)
gdzie xk — rozwiązania równania g(x) = y, znak zaś modułu użyty jest ponieważ praw dopodobieństwo musi być dodatnie. Jasne jest, że jeśli dla wybranej wartości y równanie to ma n rozwiązań, to wyrażenie na funkcję gęstości prawdopodobieństwa f Y(y) zawiera w danym punkcie n składników. Aby uwidocznić, że równanie (4.55) faktycznie obowiązuje, rozważmy sytuację przedstawioną na rys. 4.5, na którym możemy zobaczyć, że równanie g(x) — y ma trzy pierwiastki x v x 2 i x3. Podobnie równanie: 0(x + dx) = y + dy ma trzy pierwiastki x Y+ dxx, x2 + dx2, x3 + dx3. Zdarzenie (y < Y ^ y + dy) ma miejsce o ile wystąpi którekolwiek z trzech zdarzeń (xl < X < Xj -t-dx^, (x2 < X ^ x2 + dx2) lub (x3 < X < x3-t-dx3). Jeśli dy jest nieskończenie małe, to trzy przypadki związane ze zmienną losową X są nawzajem rozłączne i możemy wtedy napisać: P(y < Y< y + dy) = P(xl < X < Xj + d x 1)+ P (x 2 < X ^ x2+ dx2) + + P(x3 < X ^ x3+ dx3)
4.5. PRZEKSZTAŁCENIA ZMIENNYCH LOSOWYCH
239
Stosownie do tego możemy za pomocą funkcji gęstości prawdopodobieństwa f x(x) i f Y{y) napisać: f Y{y)dy = fx(xl)dxl +fx{x2) \dx2\ +fx{x3) dx3 przy czym w drugim członie zastosowaliśmy moduł w różniczce dx2, ponieważ drugie zdarzenie z rys. 4.5 ma ujemną pochodną dy/dx w punkcie x2 jako „uwstecznioną” komponentę. Po podzieleniu stronami przez dy otrzymujemy szczególną postać równania (4.55).
Przykład 5 Rozważmy ponownie transformatę Y = cosX przy czym zmienna losowa X jest rozłożona równomiernie w przedziale ( —n, ir). Zadanie polega na znalezieniu funkcji gęstości praw dopodobieństwa dla Y. Na rysunku 4.6 przedstawiającym wykres Y = cosX w interesującym nas przedziale widzimy, że dla —1 < Y < 1 równanie cosx = y ma dwa rozwiązania, mianowicie x Ł= —cos_1(y) i x2 = cos- 1(y), Biorąc y = cosx dostajemy: dy —- = —sinx dx Funkcja gęstości prawdopodobieństwa X dana jest jako: 1 —TE< x < te fx(x) = 2*’ 0, pozostałe x Zatem stosując równanie (4.55) do aktualnego problemu otrzymujemy: ----- —— _ -|--------_____—---dla —1 < y ^ 1 271-y/1 - y 2 27t-y/1 y2 n ^ l-y 2 Warto zastosować to wyrażenie do wyznaczenia wartości oczekiwanej zmiennej Y Otrzymuje my mianowicie: 00 E m = 1 yf,(y)dy = f =0 dy= - — 71 >’=-1 —oo -lTCy/T co pozostaje w zgodzie z wynikiem otrzymanym w przykładzie 3, jak zresztą być powinno.
Rys. 4.6. Zmienna losowa Y= cos X
240
4.6.
4. PROCESY LOSOWE
Procesy stochastyczne
Najistotniejszym problemem w analizie statystycznej systemów telekomunikacyjnych jest opis sygnałów stochastycznych, takich jak sygnał mowy, sygnał telewizyjny, komputerowe dane cyfrowe i szumy systemowe. Takie sygnały stochastyczne mają dwie charakterystyczne cechy. Po pierwsze są one funkcją czasu, zdefiniowanego w pewnym przedziale obserwacji. Po drugie, sygnały są przypadkowe w tym sensie, że nie jest możliwy dokładny opis analizowanych przebiegów, póki nie przeprowadzimy eksperymentu. Opisując zatem sygnały przypadkowe znajdujemy, że każdy punkt próby w przestrzeni prób jest funkcją czasu. Całkowita przestrzeń prób lub biblioteka złożona z funkcji czasu stanowią proces stochastyczny zwany też losowym. Nierozłączną częścią takiego procesu będzie założenie o istnieniu rozkładu prawdopodobieńst wa, który zdefiniowany jest w odpowiedniej klasie zbiorów w przestrzeni prób tak, aby móc mówić w sposób godny zaufania o prawdopodobieństwie różnorodnych zdarzeń. Rozważmy zatem eksperyment losowy określony przez wartości s z pewnej prze strzeni prób S, przez zbiór zdarzeń zdefiniowany w przestrzeni prób S, i przez prawdopodobień stwa tych zdarzeń. Przypuśćmy, że przyporządkowujemy każdemu punktowi próby s funkcję czasu zgodnie z regułą: X(t, s),
-T ^ t^ T
(4.56)
gdzie 2T — całkowity przedział obserwacji. Dla ustalonego punktu próby Sj wykres funkcji X (t, Sj) w funkcji czasu t nazywany jest realizacją lub funkcją próby procesu losowego. Aby uprościć zapis oznaczmy tę funkcję próby jako: x ft) = X{t, Sj)
(4.57)
Na rysunku 4.7. przedstawiono zbiór funkcji próby {xj(t)|j = 1, 2,...,n}. Na podstawie tego rysunku notujemy, że dla ustalonego czasu tk wewnątrz przedziału obserwacji, zbiór liczb {Xl(^Jk)»,X2(^it)>—1^ ( 0 } T s2),..., X (tk, s„)} ustanawia zmienną losową. Po prawej stronie mamy więc indeksowany zbiór (rodzinę) zmiennych losowych {X(t, s)}, która nazywa się procesem losowym. Dla uproszczenia zapisu zwyczajowo przyjęła się praktyka pomijania s i oznaczania procesu losowego przez X(t). Możemy zatem formalnie zdefiniować proces losowy X(t) jako zbiór funkcji czasu wraz z regułą prawdopodobieństwa, która przyporządkowuje prawdopodobieństwo każdemu znaczącemu zda rzeniu związanemu z obserwacją jednej z funkcji prób procesu losowego. Ponadto możliwe jest rozróżnienie pomiędzy zmienną losową a procesem losowym w następujący sposób: • Dla zmiennej losowej, wynik losowego eksperymentu odwzorowuje się w liczbę. • Dla procesu losowego, wyniki losowego eksperymentu odwzorowuje się w przebieg, który jest funkcją czasu.
4.7. Stacjonarność Wiele procesów losowych ma ważną właściwość: charakterystyka statystyczna procesu jest czasowo niezmienna. Aby uściślić to stwierdzenie, rozważmy proces losowy AT(t) rozpoczęty w chwili f = —co. Niech X(tt), A'(f2),...,X(tk) oznaczają odpowiednio zmienne losowe otrzymane w wyniku obserwacji procesu losowego X (f) w chwilach t 1,t 2>.»,th. Dystrybuanta łączna takiego zbioru zmiennych losowych wynosi ...., ^ (*„..., xt). Wyobraźmy sobie następnie, że przesuwamy wszystkie chwile obserwacji o usta lony czas t, otrzymując w ten sposób nowy zbiór zmiennych losowych A ^ + t),
241
4.7. STACJONARNOŚĆ
Rys. 4.7. Zbiór funkcji prób A'(t2 -ł- t) ,...» A(J* + t). Dystrybuanta łączna tego drugiego zbioru zmiennych losowych wynosi FX{,i+t) x(,k+t)(-xi... x*)- Proces losowy nazywany jest ściśle (silnie) stacjonarnym, jeśli spełniony jest następujący warunek: P X ( < ! + t)...... X(«k +r ) ( X l > - > Xjt) —
X(fk)(Xl'->Xk)-
(4.58)
przy czym spełnienie warunku dotyczy dowolnych czasów przesunięcia t , wszystkich k i wszystkich wyborów czasów obserwacji Innymi słowy proces losowy A(f) rozpoczęty w chwili czasu t = — cc, jest ściśle stacjonarny, jeśli dystrybuanta łączna zbioru zmiennych losowych otrzymanych przez obserwację procesu losowego AT(r) jest niezmiennicza względem umiejscowienia początku osi czasu t — 0. Podobnie, dwa procesy losowe A(i) i Y(t), oba rozpoczęte w chwili czasu t = —co, nazywane są łącznie stacjonarnymi jeśli obydwie dystrybuanty łączne zmiennych losowych A ^), X (t2),..., A(rfc) i 7(1/), Y(r2' 7 ( f '•) są niezmiennicze względem umiejscowienia początku osi czasu t = 0 dla wszystkich k i j i wszystkich możliwych wyborów czasów obserwacji ti,t2, tk 1 >^2’ f/' Powracając do równania (4.48) możemy rozróżnić dwa szczególnie interesujące przypadki: 1. Dla k = 1 mamy P*'(f)(x) ~ ^X(t+ti(x) —Fx(x) X(r + i)' 16 Systemy telekomunikacyjne cz. 1
dla wszystkich t i r
(2.59)
4. PROCESY LOSOWE
242
Ewentualna realizacja przebiegu funkcji próby
------------- t
T d2
Rys. 4.8. Ilustracja prawdopodobieństwa zdarzenia łącznego
Oznacza to, że dystrybuanta pierwszego rzędu stacjonarnego procesu losowego jest niezależna od czasu. 2. Dla k — 2 i r = —t l mamy Fx[ti).Xd2)(*i» x z) = Fx m X(t2- tlM u x 2)
dla wszystkich t1 i t2
(2.60)
Oznacza to, że dystrybuanta drugiego rzędu stacjonarnego procesu losowego zależy jedynie od różnicy czasu pomiędzy czasami obserwacji, nie zależy natomiast od poszczególnych czasów wybranych dla obserwacji procesu losowego. Podane dwie właściwości niosą ze sobą głębokie implikacje względem statystycznej parametryzacji stacjonarnego procesu losowego, co zostanie przedyskutowane w punkcie 4.8.
Przykład 6 Rozważmy trzy okna przestrzenne ulokowane dla czasów t L, t 2> t3 i przedstawione na rys. 4.8. Życzeniem naszym jest obliczenie prawdopodobieństwa otrzymania funkcji próby x(r) procesu losowego X(t), która przechodzi przez ten zbiór okien, to znaczy prawdopodobieństwa łącznego zdarzenia: A = {a{< X (tj < bt},
i = 1, 2, 3
Prawdopodobieństwo to, wyrażone za pomocą dystrybuanty łącznej jest równe: P{A) = FXUi) X(,2) x^^ib ^ b2, bi) —FX(t^ X{t2),xu3)(a i> a2> ^3) Przyjmijmy teraz, że proces losowy X(t) jest stacjonarny. Stacjonamość implikuje, że prawdopodobieństwo przejścia tego zbioru funkcji prób przez okna z rys. 4.9a jest równe prawdopodobieństwu przejść tego samego zbioru funkcji prób przez odpowiednie okna, lecz przesunięte w czasie, jak na rys. 4.9b. Podkreślmy, że obydwa wymienione zbiory niekoniecznie składają się z tych samych funkcji prób.
4.8. Wartość średnia, funkcje korelacji i kowariancji Weźmy pod uwagę stacjonarny proces losowy 2f(t). Definiujemy średnią procesu X(t) jako wartość oczekiwaną zmiennej losowej otrzymaną przez obserwowanie procesu w pewnej chwili t, co wyraża zależność:
4.8. WARTOŚĆ ŚREDNIA, FUNKCJE KORELACJI I KOWARIANCJI
Jl .
b
243
1 Ji h h +r U2
h +r
r
h +r Rys. 4.9 Ilustracja pojęcia stacjonarności w przykładzie 6
Hx{t) = £[X(t)] = f x /X(l)(x)dx - 00
(4.61)
przy czym f X(t) (x) jest pierwszego rzędu funkcją gęstości prawdopodobieństwa procesu. Z równania (4.59) wnioskujemy, że dla stacjonarnego procesu losowego funkcja f X(t) (x) jest niezależna od czasu t. Konsekwentnie średnia wartość stacjonarnego procesu losowego jest stała, a mianowicie: px(t) = ł*x
dla wszystkich t
(4.62)
Definiujemyfunkcję autokorelacji procesu losowego X(t) jako wartość oczekiwaną iloczynu dwu zmiennych losowych X(£,) i X(t2) otrzymanych przez zaobserwowanie procesu X(t) w chwilach odpowiednio £t i t2. Mamy zatem: CO
00
£ ^ 1, t2) = E lX (t1)X(t2)'] = ( ( x xx 2f x{f^ x(ti){x1, x2)dxj dx2 (4.63) - OD~ 00 gdzie: x2) — drugiego rzędu funkcja gęstości prawdopodobieństwa procesu. Z równania (4.60) wynika wniosek, że dla stacjonarnego procesu losowego funkcja f Xitih X(t2)Sx i
dla wszystkich tt i t2
(4.64)
Podobnie, funkcja autokowariancji stacjonarnego procesu losowego zapisuje się jako: Cx(t„ t2) « E l(X (tt) - p x)(X(t2) - f i xj] = R f a - t J - n ł
(2.65)
Równanie (4.65) pokazuje, że podobnie jak funkcja autokorelacji, funkcja autokowariancji stacjonarnego procesu losowego X(t) zależy tylko od różnicy czasów £2—tv Równanie to pokazuje również, że jeśli znamy wartość średnią i funkcję autokorelacji, to bez trudu wyznaczymy funkcję autokowariancji. Wartość średnia i autokorelacja są przeto wystar czające, aby napisać pierwsze dwa momenty procesu. 16*
244
4. PROCESY LOSOWE
Jednakże są dwie ważne sprawy, które powinny być pieczołowicie odnotowane: 1. Średnia po zbiorze realizacji i funkcja autokorelacji dostarczają jedynie częściowego opisu rozkładu procesu losowego X(t). 2. Warunki (4.62) i (4.64) obejmujące odpowiednio średnią i funkcję autokorelacji nie są wystarczające, aby zagwarantować stacjonamość procesu losowego X(r). Pomimo tego, praktyczne rozważania często dyktują konieczność zadowolenia się jedynie częściowym opisem procesu za pomocą średniej i funkcji autokorelacji. Proces losowy, dla którego warunki z równań (4.62) i (4.64) są spełnione nazywany jest procesem losowym stacjonarnym w szerszym sensie2) (stacjonamość słaba). Oczywiście wszystkie procesy silnie stacjonarne są również stacjonarne w szerszym sensie, ale nie wszystkie procesy słabo stacjonarne są ściśle stacjonarne.
W łaściwości funkcji autokorelacji
Dla wygody zapisu, przedefiniujmy funkcję autokorelacji procesu stacjonarnego X(t) do postaci: /?^(t) = £ [ 2ć(t + r)X(t)] dla wszystkich t(4.66) Tak zapisana funkcja autokorelacji ma następujące ważne właściwości: 1. Średniokwadraturowa wartość procesu może być otrzymana z R*(t) po prostu przez podstawienie t = 0 w równaniu (4.66) według wzoru: R,(0) = E [X J(<)]
(4.67)
2. Funkcja autokorelacji Rx(t) jest parzystą funkcją t, czyli: R ^ ) = Rx(~ t)
(4.68)
Właściwość ta wynika wprost z definiującego równania (4.66). Odpowiednio możemy bowiem zdefiniować funkcję autokorelacji R x(r) jako: RA t ) = ElX(t)X(t-z)-] 3. Funkcja autokorelacji R*(r) ma maksimum co do modułu dla t = 0, czyli: \ R M < RA0) Aby wykazać tę właściwość, rozważmy nieujemną wielkość:
(4.69)
El(E(t + r)±X(t))2l > 0 Rozwijając składniki dwumianu i biorąc ich wartości oczekiwane dostajemy: E lX 2(t + xj]±2E lX {t + z)X(tj] + E lX 2{t)li > 0 co w świetle równania (4.66) i (4.67) upraszcza się do: 2R*(0) ± 2Rjc(t) ^ 0 Równoważnym będzie zapis - R A 0) < RAt) < **<0) z którego wprost wynika równanie (4.69). Fizyczne znaczenie funkcji autokorelacji R * ( t ) polega na dostarczaniu opisu współzależności dwu zmiennych losowych otrzymanych z zaobserwowania procesu X(r)
4.8. WARTOŚĆ ŚREDNIA, FUNKCJE KORELACJI I KOWARIANCJI
245
Rys. 4.10. Funkcje autokorelacji dla procesów losowych wiclozmiennego i szybkozmiennego w chwilach odległych o r. Staje się zatem oczywiste, że im szybciej proces losowy X(r) zmienia się w funkcji czasu, tym szybciej funkcja autokorelacji Rx(x) maleje względem swego maksimum Rx(0) w miarę wzrostu t, jak pokazano na rys. 4.10. Opadanie to może być scharakteryzowane przez czas dekorelacji t 0 taki, że dla t > x0 wielkość funkcji autokorelacji Rx{x) pozostaje poniżej pewnej zadanej wartości. Możemy zatem zdefiniować czas z0 dekorelacji stacjonarnego w szerszym sensie procesu losowego X(f), o zerowej zadanej wartości średniej, jako czas niezbędny, aby wielkość funkcji autokorelacji R^fr) zmalała np. do 1 procenta wartości maksymalnej R^O).
Przykład 7 Fala sinusoidalna o fazie przypadkowej Rozważmy sygnał sinusoidalny o fazie przypadkowej zdefiniowany w postaci: X(r) = Acos(2nfct + &) gdzie: A i f c — stałe, 0 — zmienna losowa równomiernie rozłożona w przedziale (—n, rt), to znaczy: —Ti < 6 < n m gdzie indziej Oznacza to, że zmienna losowa 0 może z jednakowym prawdopodobieństwem przyjmować jakąkolwiek wartość z przedziału (—71, tc). Funkcja autokorelacji procesu X(t) jest równa: Rx(t )
=
£[X (r +
t)A :(0 ]
= E lA 2cos(2nfct + 2nfcx + 0)cos{2nfct + 0)] =
A2 = — £[cos(47t/f t + 2 tc/ ct +
A2
26>)] + —
£ [ c o s (27i/ ct )] =
2n l = — | —-cos(4nfj + 2 n fs + 26)d6 + - — cos(2nfcx) 2 -* 2n 2 Pierwszy człon po scałkowaniu daje zero, otrzymujemy więc: = -y-cos(2Ti/cT)
(4.70)
co pokazano na wykresie z rys. 4.11. widzimy więc, że funkcja autokorelacji fali sinusoidalnej o fazie przypadkowej jest inną sinusoidą o tej samej częstotliwości, lecz w dziedzinie raczej „czasu r” niż w oryginalnej dziedzinie czasu.
246
4. PROCESY LOSOWE
Rys. 4.11
Funkcja autokorelacji fali sinusoidalnej o losowej fazie
Przykład 8 Przypadkowa fala binarna Na rysunku 4.12 pokazano funkcje próbki x(f) procesu X (r) będącego przypadkowym ciągiem symboli binarnych 1 i 0. Czynimy następujące założenia: 1. Symbole 1 i 0 reprezentowane są przez impulsy o amplitudzie odpowiednio + A i —A woltów i o czasie trwania T sekund. 2. Impulsy nie są zsynchronizowane i półczas oczekiwania td na start pierwszego kompletnego impulsu dla dodatnich czasów przyjmuje równoprawdopodobne wartości leżące gdziekol wiek między 0 i T sekund. Tak więc td jest wartością próby równomiernie rozłożonej zmiennej losowej Td z jej funkcją gęstości prawdopodobieństwa zdefiniowaną jako: 0 < ta ^ T frjłd) = ) / 0, gdzie indziej 3. Dla dowolnego przedziału czasowego (n— \) T < t —td < nT, gdzie n jest całkowite, obec ność 1 lub 0 określona jest przez prawidłowy rzut monety; w szczególności, jeśli wyrzucony jest orzeł, to mamy 1, a jeśli reszka, to mamy 0. Obydwa symbole są równoprawdopodobne i obecność 1 lub 0 w dowolnym przedziale czasu jest niezależna od obecności w innych przedziałach czasu. Skoro poziomy amplitud —A i + A zdarzają się z jednakowym prawdopodobieńst wem, to wynika stąd natychmiast, że E [X (r)] = 0 dla wszystkich t i dlatego średnia po zbiorze realizacji procesu jest zerowa. Aby znaleźć funkcje autokorelacji Rx(tk, f{) musimy oszacować wartość E [X(rfc) X (t{)] przy czym X (t*) i X (t,) są zmiennymi losowymi otrzymanymi z obserwacji procesu losowego X (r) odpowiednio dla czasów tk i 1 Rozważmy najpierw przypadek gdy |tk—r j > T. Wtedy zmienne losowe X(tk) i X (tt) zdarzają się w odmiennych odstępach między impulsami i są z tego powodu niezależne. Mamy więc: E lX (tk)X(tJ] = = 0, |f*- f,-| > T
Rys. 4.12
Funkcja próby losowej fali binarnej
4.8. WARTOŚĆ ŚREDNIA, FUNKCJE KORELACJI I KOWARIANCJI
247
Rys. 4.13 Funkcja autokorelacji losowej fali binarnej
Rozważmy następnie przypadek gdy |ft - h\ < T, przy czym f, = 0 i f, < tk. W takiej sytuacji widzimy na rys. 4.12, że zmienne losowe X (rfc) i A"(f;) przypadają na ten sam okres impulsu wtedy i tylko wtedy, gdy opóźnienie td spełnia warunek td < T—|tk—1£|. Otrzymujemy w ten sposób warunkową wartość oczekiwaną: td < T—\tk —ti\ £[*(<,W i t M = | q 2’ gdzie indziej Uśredniając ten wynik po wszystkich wartościach td otrzymujemy: E C X C r,)^ ] = " f C'1A 2f r d(td)dtd = 0
\tk- h \ < T Podobne rozumowanie przeprowadzone dla jakiejkolwiek innej wartości tk doprowadza do wniosku, że funkcja autokorelacji losowej fali binarnej reprezentowanej przez funkcję pokazaną na rys. 4.12 jest funkcją jedynie różnicy czasów i = tk —r,-, co zapisuje się:. (4.71) Wynik ten wykreślono na rys. 4.13.
Funkcje korelacji wzajem nej Rozważmy następnie bardziej ogólny przypadek dwu procesów losowych i Y(r) o funkcjach autokorelacji odpowiednio Rx(t, u) i R Y(t,u). Dwie funkcje korelacji wzajemnej procesów X(t) i Y(t) zdefiniowane są jako: R xv(t,u) = ElX(t)Y{uj]
(4.72)
Ryx(t,U) = £[y(t)X(u)]
(4.73)
oraz gdzie: t i u — chwile czasu, w których proces jest obserwowany. W tym przypadku właściwości korelacyjne obu procesów losowych X(t) i 7(f) mogą być przedstawione w następującej wygodnej postaci macierzowej:
248
4. PROCESY LOSOWE
R(*,m) =
*r;r(^u) Ry(Cu) J
(4.74)
co nazywamy macierzą korelacji procesów losowych X (r) i Y(r). Jeśli procesy losowe X (r) i Y(r) są obydwa stacjonarne w szerszym sensie, wtedy macierz korelacyjna może być napisana w postaci: (4.75)
*rW gdzie z = t —u. Funkcja korelacji wzajemnej w ogólności nie jest parzystą funkcją t, jak to miało miejsce dla funkcji autokorelacji, ani też nie ma maksimum w początku układu. Jednakże podlega ona następującej symetrii (por. zadanie 4.12): R xy(z) = R yx{ - z)
(4.76)
Przykład 9 Procesy o modulacji kwadraturowej Rozważmy parę kwadraturowo modulowanych procesów X x(t) i X 2(t), które pozostają w następującym związku do procesu stacjonarnego w szerszym sensie 2f(t): X ^t) = X{t)cos(2nfct + 0) X 2{t) = X(r)sin(2rc/cr + <9) gdzie: f c — częstotliwość nośna, a zmienna losowa 0 ma rozkład równomierny w przedziale (0, 2tt). C o więcej, 0 nie zależy od X(f). Pewna funkcja korelacji wzajemnej między Xj(r) i X 2{t) dana jest przez: R l2(z) = E lX 1(t)X2(t-z j] = = E[X(t)X(t —r)cos(2n/cf+ 0)sin(27t/cf —2%fcz-\- 0)] = = E [X(t) X(t - t)] E [ co s (2jifct + &)sm(2nfct - 2nfcz + 0)] =
(4.77)
= —Rx(z)Elsm {4nfr-2nfcz + 20)-sm {2nfczj] = = - - R jY(t)sin(2n/cT) przy czym w ostatniej linijce poczyniliśmy użytek z równomiernego rozkładu zmiennej losowej 0 reprezentującej fazę. Zauważmy, że dla z = 0 czynnik sin (2ti^t) jest zerem i stąd: * 12(0 ) =
E IX ^X M
= 0
Wynik taki pokazuje, że zmienne losowe otrzymane przez równoczesną obserwację w pewnej ustalonej chwili czasu t kwadraturowo modulowanych procesów X Ł(t) i X 2(t) są ortogonalne względem siebie.
249
4.9. ERGODYCZNOSC
4.9. Ergodyczność Wartości oczekiwane lub średnie w zbiorze realizacji procesu stochastycznego X(f) stanowią średnie „w poprzek procesu”. Na przykład średnia procesu stochastycznego X(r) dla pewnego ustalonego czasu tk oznacza wartość oczekiwaną zmiennej losowej X(fk), która opisuje zbiór wszystkich możliwych wartości funkcji prób procesu obserwowanych w chwili t = tk. Naturalnie możliwe jest także zdefiniowanie uśrednień po czasie z prób „długotrwałych”, czyli skrótowo uśrednień po czasie, co oznacza uśrednienie „wzdłuż procesu”. Pojawia się zainteresowanie porównaniem zależności między uśrednieniami po zbiorze realizacji a uśrednieniami po czasie, gdyż uśrednianie czasowe stanowi praktyczny dostępny środek dla estymacji uśrednień po zbiorze realizacji. Kluczowe pytanie oczywiście brzmi: kiedy możliwe jest podstawienie uśrednień czasowych w miejsce uśrednień po zbiorze realizacji? Dla zbadania tej kwestii rozważmy funkcję próby x(r) procesu X(t) stacjonarnego w szerszym sensie z przedziałem czasu obserwacji zdefiniowanym jako — r < T. Staloprądowa wartość x(t) jest zdefiniowana przez średnią czasową: (4.78) Zrozumiałym jest, że średnia czasowa px(T ) jest zmienną losową, której wartość zależy od okresu obserwacji i od wyboru, który z przebiegów czasowych będzie próbką, wybieraną z procesu losowego X(t) i podstawianą do równania (4.78). Ponieważ proces AT(ż)jest z założenia stacjonarny w szerszym sensie, więc (po zmianie kolejności operatorów uśredniania i cał kowania) wartość średnia po czasie px{T) będzie dana przez: EW O] = ^
I £ O (0 ]d t —
J v xdt = t*x
(4-79)
gdzie px — uśrednienie po zbiorze realizacji procesu losowego X(t). Stosownie do tego średnia czasowa px(T) reprezentuje estymację nieobciążoną średniej po zbiorze realizacji gx. Mówimy, że proces X(t) jest ergodyczny w sensie średniej jeśli spełnione są dwa warunki: • Średnia po czasie px(T) zbliża się w granicy do średniej po zbiorze realizacji px w miarę, jak czas obserwacji T zdąża do nieskończoności, czyli: lim nx{T) = px T-*<* • Wariancja px(T \ traktowana jako zmienna losowa dąży w granicy do zera w miarę jak czas obserwacji T dąży do nieskończoności, to znaczy: lim var [/ix(T)] = 0 T-+co
Inną średnią czasową wzbudzającą szczególne zainteresowanie jest funkcja auto korelacji R J t , T ) zdefiniowana za pomocą funkcji próby x(t) obserwowanej w przedziale czasu — t ^ T. Zgodnie z równaniem (4.78) możemy formalnie zdefiniować uśrednioną po czasie funkcję autokorelacji dla funkcji próby x(t) jak następuje: 1 T J x(f+T)x(t)dt jRx(t , t) = 2f -T
(4.80)
250
4. PROCESY LOSOWE
Ta druga średnia po czasie również powinna być rozpatrywana jako zmienna losowa o własnej wartości średniej i wariancji. Na podobieństwo ergodyczności względem średniej, możemy powiedzieć, że x(f) jest ergodyczny w sensie funkcji autokorelacji, jeśli spełnione są następujące dwa warunki graniczne: lim R x(z, T) = K^r) T-+00 lim varfR^T, T )] = 0 r-oo Można oczywiście, podobnie dalej postępując, definiować ergodyczność w jeszcze ogólniejszym sensie, rozpatrując statystykę wyższego rzędu procesu X(t). W praktyce jednak opisane wcześniej: ergodyczność średnia i ergodyczność w funkcji autokorelacji są najczęściej (ale nie zawsze) uważane za wystarczające3'. Zanotujmy też, że użycie równań (4.79) i (4.80) dla obliczenia wartości średnich px(T) i Rx{t, T ) wymaga, aby proces X(t) był stacjonarny w szerszym sensie. Innymi słowy, aby proces losowy był ergodyczny, powinien być stacjonarny w szerszym sensie; odwrotne twierdzenie jest jednak niekoniecznie prawdziwe.
4 .10 . Transmisja procesu stochastycznego
przez filtr liniowy Przypuśćmy, że proces losowy X(t) przyłożony jest na wyjście liniowego stacjonarnego filtru o odpowiedzi impulsowej h(t), powodując powstanie na wyjściu tego filtru nowego procesu losowego Y(t), jak na rys. 4.14. Opisanie rozkładu prawdopodobieństwa wyjściowego procesu losowego Y(t) nawet, jeśli rozkład prawdopodobieństwa wejściowego procesu losowego jest dokładnie określony dla —oo < t < oo, jest w ogólności zagadnieniem trudnym. W niniejszym punkcie mamy zamiar określić czasową postać zależności między wejściem a wyjściem filtru w celu wyznaczenia średniej i funkcji autokorelacji wyjściowego procesu losowego 1(0 wyrażonych przez te funkcje wejściowego procesu X (0, przy założeniu, że X(t) jest procesem losowym stacjonarnym w szerszym sensie. Rozważmy najpierw średnią z wyjściowego procesu losowego 1(0- Z definicji mamy: 00 J dr (4.81) mao = £ c n o ] = e L —aO
gdzie: zx — zmienna „fikcyjna”. Wiedząc, że wartość oczekiwana E[X(t)] jest skończona dla wszystkich t, oraz że system jest stabilny, możemy zamienić porządek operacji uśredniania i całkowania względem tj w równaniu (4.81) i napisać pAf)
=~J00
= f M r j W t - r , ) d iŁ — oo
(4.82)
Jeśli wejściowy proces losowy X(t) jest stacjonarny w szerszym sensie, to średnia g^t) jest stałą gx i wtedy możemy uprościć równanie (4.82) do postaci:
xn>
Odpowiedz impulsowa h(t)
nr)
Rys. 4.14 Transmisja procesu losowego przez filtr liniowy
4.10. TRANSMISJA PROCESU STOCHASTYCZNEGO PRZEZ FILTR LINIOWY
f
Py = Fx “
h { x x) * t x = i i x H ® )
251
(4.83)
00
gdzie //(O) — odpowiedź systemu dla zerowej częstotliwości, a więc stałoprądowa. Równanie (4.83) stwierdza, że średnia procesu losowego Y(r), jaki pojawia się na wyjściu liniowego systemu stacjonarnego w odpowiedzi na proces wejściowy X(r) jest równa średniej z X(r) pomnożonej przez stałoprądową odpowiedź systemu, co jest intuicyjnie zadowalające. Rozważmy następnie funkcję autokorelacji wyjściowego procesu losowego Y(r). Z definicji mamy:
gdzie: t i u — dwie wartości czasu, dla których obserwuje się proces wyjściowy. Możemy zatem użyć całki splotu, aby napisać: Ry(t,U)
I fc friW t-T jd T ! J h(x2) X ( u - x 2)dx2 U“ 00 - co
(4.84)
Tutaj również, wiedząc, że średniokwadratowa wartość E [X 2(f)] jest skończona dla wszystkich t, i że system jest stabilny, możemy zamienić kolejność uśredniania i całkowania względem xx i t 2 w równaniu (4.84), aby otrzymać: 00 CO Ry(t,u)= J d T ^ T j J d T 2h ( T 2) £ [ A ' ( t - T 1) A ' ( u - T 2) ] = —co —oc
® 00 = f dijMii) J -
—
(4.85)
^ 2 h ^ 2) R ^ - ^ i > u - x 2)
00
Jeśli wejście X(t) stanowi proces stacjonarny w szerszym sensie, to funkcja autokorelacji X(r) jest jedynie zależna od różnicy pomiędzy czasami obserwacji t —xl oraz u —x2. Podstawiając więc x = t —u do równania (4.85 ) możemy napisać: oo oo R A *)=
I f
h ( x l ) h ( x 2) R x ( x - x 1 + x 2) d x l d x
(4.86)
-co-oo
Porównując ten wynik z otrzymanym dla nY możemy stwierdzić, że jeśli wejściem stabilnego liniowego filtru stacjonarnego stanowi proces stacjonarny w szerszym sensie, to wyjście filtru stanowi również stacjonarny w szerszym sensie proces losowy. Skoro Ry(0) = £ [Y 2(t)], to wynika stąd, że średniokwadratowa wartość wyjściowego procesu losowego Y(f) otrzymywana jest przez podstawienie x = O w równaniu (4.86). W ten sposób dostajemy wynik: E
[Yfy)] = f J h(i1)ń(i2)Rx(T2- t 1)d t1dt2
(4.87)
—oo —oo
który jest stałą.
4.11. Widmowa gęstość mocy Jak dotąd zajmowaliśmy się opisem procesów losowych stacjonarnych w szerszym sensie przesyłanych w systemach liniowych i badanych w funkcji czasu. Teraz zwrócimy się w kierunku analizy charakterystyk procesów losowych w systemach liniowych za pomocą
252
4. PROCESY LOSOWE
aparatu z dziedziny częstotliwości. W szczególności chcielibyśmy wyprowadzić ekwiwalent częstotliwościowy dla wyniku z równania (4.87) definiującego średniokwadratową wartość na wyjściu filtru. Z definicji, odpowiedź impulsowa liniowego filtru stacjonarnego jest równa odwrot nej transformacie Fouriera z transmitancji systemu. Możemy więc napisać oo h(Tt)= | H(/)exp(j27c/r1) d / (4.88) —00
Podstawiając to wyrażenie w miejsce h jx j w równaniu (4.87) dostaje się: H (/) exp (j27t/r y)d f h(x2)Rx(T2-Ti)dTjdT2
£[**(')]
00 X = J d/H(/) J dx2fi(x2) J ^ ( T 2- T 1)exp(j27i/Ti)dT1 —00 —00 —co GO
(4.89)
Zdefiniujmy teraz nową zmienną w ostatniej całce po prawej stronie równania (4.89) x
=
t2
-
t1
Wtedy możemy przepisać równanie (4.89) w postaci:
2) }
E [T 2(f)] = I J dt2A(T2)exp(j2ięft R ^T )rap(-j2^t)dt (4.90) —00 —00 - 00 Jednakże środkowa całka po prawej stronie równania (4.90) jest po prostu wielkością zespoloną sprzężoną H*(Jj względem transmitancji H{f) filtru, co pozwala uprościć ostatnie równanie do postaci:
Eimi= —J00dmuf “iX R*Mexp( —J2jc/t) dr
(4.91)
Możemy jeszcze bardziej uprościć równanie (4.91), gdyż ostatnia całka jest po prostu transformatą Fouriera z funkcji autokorelacji Rx{x) wejściowego procesu losowego X{t). W szczególności możemy wprowadzić definicje nowego parametru: S xif)=
J“ 00i*x(T)exp(-j2jt/x)dx
(4.92)
Funkcja SJ f ) nazywana jest widmową gęstością mocy lub widmem mocy procesu losowego X(t) stacjonarnego w szerszym sensie. Tak więc podstawiając równanie (4.92) do (4.91) otrzymujemy pożądaną relację: £ [T (()] = J |H(/H2s^(/) d / - 00
(4.93)
Równanie (4.93) stwierdza, że średniokwadratowa wartość na wyjściu stabilnego liniowego filtru stacjonarnego w odpowiedzi na proces stacjonarny w szerszym zakresie równa jest całce po całym zakresie częstotliwości z widmowej gęstości mocy wejściowego procesu losowego pomnożonej przez kwadrat modułu transmitancji filtru. Jest to pożądana dla nas relacja w dziedzinie częstotliwości odpowiadająca relacji z dziedziny czasu w postaci równania (4.87). Aby prześledzić fizyczne znaczenie widmowej gęstości mocy wyobraźmy sobie proces losowy X (jj przechodzący przez idealny filtr wąskopasmowy o charakterystyce amplitudowej skupionej wokół środkowej częstotliwości f^ jak pokazano na rys. 4.15; to znaczy:
253
4.11. WIDMOWA GĘSTOŚĆ MOCY
Rys. 4.15 Charakterystyka amplitudowa idealnego filtru wąskopasmowego
r 1 \f± fc\ < - a / \m n = < ’ .
(4.94)
gdzie A/ — pasmo filtru. W tej sytuacji na podstawie równania (4.93) znajdujemy, że jeśli pasmo filtru Af jest wystarczająco małe w porównaniu ze środkową częstotliwością f c i Sx{f) jest funkcją ciągłą, to średniokwadratowa wartość procesu na wyjściu filtru wynosi w przybliżeniu: £ [ y 2(0 ]^ (2 A n S /T c)
(4.95)
Filtr przepuszcza jednak tylko te składowe częstotliwości wejściowego procesu losowego X(t), które leżą w wąskim paśmie częstotliwości Af skupionym wokół częstotliwości ± fc. Tak więc SxLfc) reprezentuje częstotliwościową gęstość mocy średniej wejściowego procesu X(t) liczoną dla/ = f c. Wymiar gęstości mocy widmowej wyraża się dlatego w watach na herc.
W łasności w idm ow ej gęstości mocy Widmowa gęstość mocy Sx(f) i funkcja autokorelacji R x(t) procesu losowego X(t) stacjonar nego w szerszym sensie tworzą parę transformat Fouriera, w której t i/s ą interesującymi nas zmiennymi, a mianowicie: SxU)= f K*(T)exp(-j27i/T)dr - 00
(4.96)
R *M = ? SI(/)exp02ii/-I) d / - oo
(4.97)
Równania (4.96) i (4.97) są podstawowymi relacjami teorii analizy widmowej procesów losowych, a wspólnie zapisane stanowią, to co zazwyczaj nazywane bywa relacjami Ein steina- Wienera-ChinczinaA). Relacja Einsteina-Wienera-Chinczina pokazuje, że jeśli albo funkcja autokorelacji, albo gęstość mocy widmowej procesu jest znana, to druga z nich może być dokładnie wyznaczona. Obie te funkcje ujawniają różne aspekty informacji o korelacji procesu. Ogólnie panuje przekonanie, że dla celów praktycznych bardziej użytecznym „parametrem” jest widmowa gęstość energii Teraz pragniemy zastosować parę powyższych relacji do wyprowadzenia pewnych ogólnych właściwości widmowej gęstości mocy procesu stacjonarnego w szerszym sensie.
254
4. PROCESY LOSOWE
Właściwość 1 Wartość gęstości widmowej mocy przy zerowej częstotliwości dla procesu losowego stacjonarnego w szerszym sensie równa się całkowitej powierzchni pod wykresemfunkcji autokorelacji; to znaczy:
= f
R ^ z )dt
(4.98)
—co
Właściwość ta wynika bezpośrednio z równania (4.96) przez podstawienie / = 0.
Właściwość 2 Wartość średniokwadratowa procesu losowego stacjonarnego w szerszym sensie równa się całkowitemu polu pod wykresem widmowej gęstości mocy, to znaczy: E lX \t) ] =
f S J J )A f —
(4.99)
00
Właściwość ta wynika bezpośrednio z równania (4.97) przez podstawienie t = 0 i wiedząc, że Rx(0) = E [X 2(t)].
Właściwość 3 Widmowa gęstość mocy procesu losowego stacjonarnego w szerszym sensie jest zawsze nieujemna; to znaczy: Sj f f ) > 0 dla wszystkich / (4.100) Ta właściwość jest bezpośrednią konsekwencją faktu, że wartość średniokwadratowa E [ Y2^)] z równania (4.95) musi być zawsze nieujemna.
Właściwość 4 Widmowa gęstość mocy procesu losowego o wartościach rzeczywistych jest parzystą funkcją częstotliwości; to znaczy: Sx( - f ) = Sx(f)
(4.101)
Właściwość ta jest łatwa do otrzymania przez podstawienie —/ zamiast / w rów naniu (4.96): S A ~ f) = J K*(T)exp(j2n/T) dr —
00
Następnie, podstawiając —t zamiast t i rozpoznając, że R A —t) = Rx(t), dostaje się: S A - f ) = ? K ^i)exp(—j27i/T)dr = Sx{f) —
00
co stanowi pożądany wynik.
Właściwość 5 Widmowa gęstość mocy, jeśli tylko odpowiednio znormalizowana, ma własności przypisywane zwykle funkcji gęstości prawdopodobieństwa. Normalizacja, jaką mamy tutaj na myśli, dokonuje się względem całkowitego pola pod wykresem widmowej gęstości mocy (tzw. wartości średniokwadratowej procesu). Rozważ my przeto funkcję:
255
4.11. WIDMOWA GĘSTOŚĆ MOCY
Px(f) = «, J SM W f —
—
(4.102)
OD
W świetle właściwości 2 i 3 notujemy, że Px(f) > 0 dla wszystkich f. Co więcej, całkowite pole pod funkcją pAD równa się jedności. Stąd wynika, że znormalizowana postać widmowej gęstości mocy, zdefiniowana w równaniu (4.102) zachowuje się podobnie jak funkcja gęstości prawdopodobieństwa. W ramach użytecznego zastosowania właściwości 5 możemy zdefiniować dla procesu X(t) stacjonarnego w szerszym sensie pasmo środkowokwadratowe (rms) (ang. root mean square bandwidth) w następującej postaci: f' « 1/2 / . V /z f fS ^ if W'™. = ( { f P x i m ) < = — ------------> w ' I f S*O W j
(4-103)
Jak już wykazaliśmy w rozdziale 2, pasmo rms jest szczególnie interesujące z teoretycznego punktu widzenia, nie jest jednak łatwe do zmierzenia w laboratorium. *
Przykład 10 Fala sinusoidalna o fazie przypadkowej (kontynuacja) Rozważmy proces losowy X(t) = A cos(27ifct + 6>), przy czym & jest równomiernie rozłożoną zmienną losową w przedziale ( —k , n). Funkcja autokorelacji tego procesu losowego dana jest równaniem (4.70), które dla wygody przepisujemy: A2 RA*) = -y-cos(2rc/cr) Biorąc transformatę Fouriera z obu stron tej zależności znajdujemy, że widmowa gęstość mocy procesu sinusoidalnego 2f(f) wynosi: SAD =
(4.104)
czyli składa się z pary funkcji delta ważonych przez czynnik A2/4 i występujących w punktach ±fc, jak na rys. 4.16. Zanotujmy, że pole całkowite pod funkcją delta równa się jedności. Stąd całkowite pole pod SAD równa się, jak należy oczekiwać A2/!.
Przykład 11
Losowa fala binarna (kontynuacja)
Rozważmy ponownie losową falę binarną składającą się z ciągu jedynek i zer reprezen towanych przez wartości odpowiednio +A i —A W przykładzie 8 pokazaliśmy, że funkcja autokorelacji tego losowego procesu ma kształt fali trójkątnej, jak pokazano poniżej:
-ft
o
f
Rys. 4.16 Widmowa gęstość mocy fali sinusoidalnej o fazie przypadkowej
4. PROCESY LOSOWE
256
Rys. 4.17 Widmowa gęstość mocy losowej fali binarnej
|T|
R ^) =
\A > T Widmowa gęstość mocy procesu wynosi zatem: SjAJ)=
I ^ 2^ l - — r ^ e x p ( - j2 T t/t) d T
Stosując transformatę Fouriera z funkcji trójkątnej obliczoną w przykładzie 7 z rozdz. 2 dostajemy: S*{/) = A 2Tsinc2(fT)
(4.105)
co wykreślono na rys. 4.17. Ponownie widzimy, że widmowa gęstość mocy jest nieujemna dla wszystkich / i że jest parzystą funkcją f Zauważając, że Rx(0) = A 2 i stosując właści wość 3 znajdujemy, że pole całkowite pod Sx(f), czyli innymi słowy moc średnia losowej fali binarnej, wynosi A2. Wynik z równania (4.105) może zostać uogólniony w następujący sposób. Zauważmy, że widmowa gęstość energii impulsu prostokątnego g(t) o amplitudzie A i czasie trwania T dana jest przez: &iS) = A 2T 2sinc2(fT )
(4.106)
Możemy zatem przepisać równanie (4.105) w zależności od $ g{f) jako: (4.107) Równanie (4.107) stwierdza, że dla losowej fali binarnej, w której symbole 1 i 0 reprezentowane są odpowiednio przez impulsy g(t) i —y{t), widmowa gęstość mocy S*(/) jest równa widmowej gęstości energii &g{f) impulsu prostokątnego g(t), podzielonej przez czas trwania symbolu T.
Przykład 12 Mieszanie procesu losowego z procesem sinusoidalnym W praktyce często napotykana jest sytuacja, polegająca na mieszaniu (tzn. mnożeniu) procesu losowego X(t) stacjonarnego w szerszym sensie z falą sinusoidalną cos(2rc/ct + 6>), przy czym faza & jest zmienną losową równomiernie rozłożoną w przedziale (0,2n). Dodanie losowej fazy
4.11. WIDMOWA GĘSTOŚĆ MOCY
257
0 w taki sposób wynika jedynie z faktu, że początek osi czasu jest wybierany arbitralnie o ile Y(f) i cos2nfct + 0) pochodzą ze źródeł fizycznie niezależnych, co zazwyczaj ma miejsce. Nasze zainteresowanie zmierzać będzie w kierunku określenia widmowej gęstości mocy procesu losowego Y{t) określonego w następujący sposób: Y(t) = X(t)cos(2nfct + 0)
(4.108)
Stosując definicję funkcji autokorelacji procesu stacjonarnego w szerszym sensie i zauważając, że zmienna losowa 0 jest niezależna od Y(r), znajdujemy, że funkcja autokorelacji procesu Y(t) dana jest w postaci: RY{x) = E[7(f + r)7(t)] = = E[Y(£ + T)cos(2tt/cf + 2kJct + 0)X{i) cos (2nfct + 0)'] = = E[X(t + r) Y (£)] E [cos (2nfct + 2nfcx + 0)cos(2nfct 4- 0)] =
(4.109)
= ^~Rx(x)E[cos(2nfcx) + cos (4tifct + 2nfcx + 2 0 )] =
= —K*(T)cos(2n/cT) Ponieważ widmowa gęstość mocy jest transformatą Fouriera funkcji autokorelacji, więc na tej podstawie zapisujemy dla gęstości widmowych mocy procesów losowych Y(r) i 7(t) na stępującą relację: Syif) = | [ S x( / - / c) + Sx(/+X)]
(4.110)
Stosownie do równania (4.110) widmowa gęstość mocy procesu losowego 7(f) zdefiniowanego równaniem (4.108) otrzymywana jest w następujący sposób. Najpierw' przesuwamy dane widmo gęstości mocy SX(J) procesu losowego X(t) w prawo o wartość /^, następnie w lewo o wartość Ę dodajemy oba przesunięte widma i dzielimy wynik przez 4.
Zależności pom iędzy w idm ow ym i gęstościam i m ocy dla losow ych procesów w ejściow ego i w yjściow ego Niech Syif) oznacza widmową gęstość mocy wyjściowego procesu 7(f) otrzymanego przez przesłanie procesu losowego Y(t) przez filtr liniowy o transmitancji H(f). Rozpoznając na podstawie definicji, że widmowa gęstość mocy procesu losowego jest równa transformacie Fouriera z funkcji autokorelacji procesu, i używając równania (4.86), otrzymujemy w takim przypadku: Syif) = J Ry(T)exp(-j27t/T)dT = —OO X 00 OG = f { f h(x1)h{x2)Rx{ x - x 1+ x2)e\p(-}2Kfx)óxl dx2dx —00—00—00
(4.111)
Niech t —t 1 + x 2 = t 0 lub, zamiennie, i = To + T j — t 2. Wtedy za pomocą podstawienia do równania (4.111) stwierdzamy, że Syif) może być wyrażone jako iloczyn trzech członów transmitancji H(f) filtru, transmitancji zespolonej sprzężonej względem H{j) i widmowej gęstości mocy Sx(/) wejściowego procesu losowego Y(f). Możemy więc uprościć równanie (4.111) do postaci: 17 Systemy telekomunikacyjne cz. I
4. PROCESY LOSOWE
258 SY{f) = H{f)H*{f)SxU)
(4.112)
Na koniec znajdujemy, że \H(f)\2 = H(f)H*(f), a więc zależność pomiędzy widmową gęstością mocy wejściowego i wyjściowego procesu losowego wyraża się w dziedzinie częstotliwości W7nrpnv ’ Syif) = \H(f)\2Sx(f) (4.113) Równanie (4.113) stwierdza, że widmowa gęstość mocy procesu wyjściowego Y(f) równa jest widmowej gęstości procesu wejściowego X(t) pomnożonej przez kwadrat modułu transmitancji H(f) filtru. Za pomocą takiej zależności możemy określić wynik przejścia procesu losowego przez stabilny, liniowy, stacjonarny filtr. Z punktu widzenia obliczeniowego równanie (4.113) zazwyczaj jest łatwiejsze do wykorzystania, niż jego odpowiednik z dziedziny czasu w postaci równania (4.86), gdzie występuje funkcja autokorelacji.
Przykład 13 Filtr grzebieniowy Rozpatrzmy filtr z rys. 4.18a składający się z linii opóźniającej i urządzenia sumującego. Naszym życzeniem jest dokonanie oceny widmowej gęstości mocy na wyjściu filtru Y(t), pod warunkiem, że widmowa gęstość mocy na wejściu filtru X (t) jest równa Sx( f ). Transmitancja tego filtru wynosi: H(jj = 1 —exp(—j27i/Tj = 1 —cos(2nfT)+}s\n{2nfT) Kwadrat modułu H(f) jest równy: \H(f)\2 = [1 —cos(2n/T)]2+ sin2(2jr/T) = 2[1 —cos(2ir/T)] = 4sin2(7t/T) co pokazano na wykresie z rys. 4.18b. Z powodu okresowego kształtu tej charakterystyki częstotliwościowej filtr z rys. 4.18a znany jest pod nazwą filtru grzebieniowego.
Y(t)
f Rys. 4.18. Filtr grzebieniowy: a) schemat blokowy, b) charakterystyka częstotliwościowa
259
4.11. WIDMOWA GĘSTOŚĆ MOCY
Widmowa gęstość mocy na wyjściu filtru wynosi zatem: Syif) = Asin2(nfT)Sx(f) Dla częstotliwości / o wartościach małych w porównaniu do 1/T mamy: sin(rc/T) ~ n fT Pod takim warunkiem możemy aproksymować wyrażenie na Sy(j') jak następuje: SA/) - 4*2/ 2T2SA/)
(4.114)
Ponieważ różniczkowanie w dziedzinie czasu odpowiada mnożeniu przez j2nf w dziedzinie częstotliwości, więc na podstawie równania (4.114) widzimy, że dla przebiegów wejściowych o małej częstotliwości filtr grzebieniowy z rys. 4.18a działa jak filtr różniczkowy.
Zależność pomiędzy w idm ow ą gęstością mocy a w idm em am plitudy funkcji próby Pragniemy teraz powiązać widmową gęstość mocy SA/) bezpośrednio z właściwościami widmowymi funkcji próby x(t) procesu X (t) stacjonarnego w szerszym zakresie, który jest ergodyczny. Aby funkcja próby x(t) była transformowalna w sensie Fouriera musi być ona jednak bezwzględnie całkowalna, czyli: OD
J |x(r)|df < oo - oo Warunek ten nigdy nie może być spełniony przez jakąkolwiek funkcję próby x(t) o nieskoń czonym czasie trwania. Aby móc zastosować transformację Fouriera, weźmy pod uwagę obcięty segment funkcji x(f), zdefiniowany w przedziale obserwacji —T ś t ś T. Tak więc posługując się symbolem X(J, T) dla oznaczenia transformaty Fouriera tak zdefiniowanej obciętej funkcji próby, możemy napisać: T
X(J, T) = J x(t)exp(—}2nft)dt
(4.115)
-T
Zakładając, że proces losowy stacjonarny w szerszym sensie jest również ergodyczny, możemy wyznaczyć funkcję autokorelacji R ^ t) procesu losowego AT(f) stosując wzór na uśrednienie po czasie (por. punkt 4.9): R x( t)= lim T -* ory L 1
j x(f+T)x(t)df
(4.116)
_j
Traktując x(t) jako sygnał mocy możemy utworzyć następującą parę transformat Fouriera: — J x(t+T)x(t)dt ^
m2
(4.117)
Parametr po lewej stronie jest uśrednioną po czasie funkcją autokorelacji. Parametr po prawej stronie nazywany jest periodogramem, którego wymiar jest taki sam jak widmowej gęstości mocy. Termin taki jest jednak mylący, ponieważ periodogram jest funkcją częstotliwości, a nie okresu. Pomimo tego, ma on szerokie zastosowanie. Wielkość ta była początkowo używana przez statystyków do oceny okresowości sezonowych trendów w ciągach danych. 17*
260
4. PROCESY LOSOWE
Stosując wzór na odwrotną transformatę Fouriera do pary transformat Fouriera z równania (4.117) możemy wyrazić uśrednioną po czasie funkcję autokorelacji funkcji próby x(t) za pomocą periodogramu w następujący sposób: $ x(t + T)x(t)dt = J ~zz\X{J, 7')|2exp(j2ję/T)d/' —T
(4.118)
— cc ^ *
Stąd, podstawiając równanie (4.118) do (4.116) otrzymuje się: R *(r)= lim J \X(J\ T)|2exp(j2rc/T)d/ r -ł0° -00
(4.119)
Dla ustalonej wartości częstotliwości / periodogram jest zmienną losową w tym sensie, że jego wartość zmienia się w przypadkowy sposób pomiędzy jedną funkcją próby procesu losowego a drugą. Tak więc dla danej funkcji próby x(t), periodogram nie jest zbieżny w jakimkolwiek statystycznym sensie do żadnej wartości granicznej przy T dążącym do nieskończoności. Skoro tak, to byłoby błędem zamieniać porządek całkowania z operacją granicy w równaniu (4.119). Wyobraźmy sobie jednak, że stosujemy operację uśredniania do obu stron równania (4.119) względem zbioru wszystkich funkcji prób procesu losowego i konstatujemy, że dla procesu ergodycznego funkcja autokorelacji R^x) pozostaje po tej operacji bez zmian. Wtedy, ponieważ każda funkcja próby procesu ergodycznego przyjmuje w końcu prawie wszystkie sposoby zachowania każdej innej funkcji próby, więc możemy napisać: K*(t) = lim J ~ £ [ |X ( / , D |2]exp(j27r/T)d/ r - or. _ /
(4.120)
Teraz możemy zmienić porządek całkowania i przejścia do granicy, aby otrzymać: R ^ ) =-
1 ff ijh m — £ [|X (/,T )|2]|expU2n/r)d/
(4.121)
Stąd porównując równania (4.121) i (4.97) otrzymujemy pożądaną relację pomiędzy widmową gęstością mocy Sx(j~) procesu ergodycznego a widmem amplitudy \X (f, T)\ uciętej funkcji próby procesu: S J J ) = lim £ [| T-*oo
71|2] = (4.122)
= lim r-» oo
x(f)exp(-j2n/i)df
Ważne jest aby zanotować, że w równaniu (4.122) nie jest możliwe wzięcie T-> oc zanim nie przeprowadzi się operacji uśredniania. Równanie (4.122) stanowi matematyczną podstawę dla estymacji5) widmowej gęstości mocy ergodycznego procesu losowego dla funkcji próby x(t) tego procesu, obserwowanej w przedziale (—T, T).
Widma w zajem ne gęstości mocy Podobnie, jak widmowa gęstość mocy dostarcza miary dla rozkładu w funkcji częstotli wości w pojedynczym procesie losowym, tak samo widma wzajemne gęstości mocy są źródłem miary dla współzależności częstotliwościowych pomiędzy dwoma procesami losowymi.
4.11. WIDMOWA GĘSTOŚĆ MOCY
261
W szczególności, niech X(t) i Y(t) będą dwoma łącznie stacjonarnymi w szerszym sensie procesami losowymi z funkcjami korelacji wzajemnej oznaczonymi przez RXY(z) i R YX{z). Definiujemy wtedy widma wzajemne gęstości mocy SXY(Jj i SYX(f) dla tej pary procesów losowych jako transformaty Fouriera z ich odpowiednich funkcji korelacji wzajemnych, jak pokazano niżej:
J K*r(T)exp(—j2jt/r)dr
SXY(f) =
(4.123)
—X
oraz SYX( f) = —X
j RrI(i)exp(-j2n/T)dt
(4.124)
Funkcje korelacji wzajemnych i widma wzajemne gęstości mocy tworzą zatem pary transfor mat Fouriera. Zgodnie z taką umową, używając odwrotnej transformaty Fouriera możemy napisać: RxrW = ) S ,K(/>xp(j2it/T)d/'
(4.125)
—00
oraz RYX(T) = ] SYX(f)exp{j2nfz)df ~ Q0
(4.126)
Widma wzajemnej gęstości mocy SXY(jj i Syx(/) niekoniecznie są rzeczywistymi funkcjami częstotliwości f Jednakże podstawiając zależność R xy(*) = R yx(~~t ) do równania (4.123) i następnie biorąc równanie (4.124) znajdujemy, że SXY(Jj i Srv(/) są powiązane relacją: SXY(f) = SYX( - f ) = S tx(f)
(4.127)
Przykład 14 Przypuśćmy, że procesy losowe Y(f) i Y(f) mają zerową średnią i są oba stacjonarne w szerokim sensie. Rozważmy sumaryczny proces losowy: Z(0 = *(f) + Y(t)
Zadanie polega na wyznaczeniu widmowej gęstości mocy dla Z (t). Funkcja autokorelacji dla Z(t) dana jest przez:
RM
= ElZ(t)Z(uj] = E[{X(t)+ Y(t)){X(uH Y(u))] « = £U(OX(u)] + £[Y(t)iru)] + £[Y(f)Y(u)] + £[y(t)Y(M)] = =
RAć u) + RXY(t, u) + RYX(t, u) + R^tyU)
Definiując z = t —u możemy zapisać:
Rz(*) = R ^ ) + R x r ^ ) + R y ^ ) + R ^ )
(4-128)
przy czym procesy losowe X(t) i Y(r) są także stacjonarne w szerokim sensie. Zatem, biorąc transformatę Fouriera z obu stron równania (4.128) dostajemy: Szif) = s x( f ) + s XY(jj + s YX( j j + s Y(j-)
(4.129)
262
4. PROCESY LOSOWE
Widzimy więc, że widma wzajemne gęstości mocy SXY(f) i SYX( f ) reprezentują składowe spektralne, które muszą być dodane do widmowych gęstości mocy pary skorelowanych procesów losowych, aby można było otrzymać widmową gęstość mocy dla sumy tych procesów. Kiedy procesy losowe A^f) i Y(t) stacjonarne w szerszym sensie nie są skorelowane, to widma wzajemne gęstości mocy SXY(f) i SYX(f) są zerowe, i z tego powodu równanie (4.129) redukuje się do postaci: SzU ) = Sx(f) + SY(f)
(4.130)
Możemy uogólnić ten ostatni wynik stwierdzając, że jeśli mamy pewną liczbę procesów losowych o zerowej średniej i stacjonarnych w szerszym sensie, a ponadto nieskorelowanych ze sobą, to widmowa gęstość mocy sumy tych procesów równa jest sumie ich gęstości widmowych.
Przykład 15 Rozważmy następnie problem przesyłania dwu procesów łącznie stacjonarnych w szerszym sensie poprzez parę oddzielnych, stabilnych, liniowych filtrów stacjonarnych, jak pokazano na rys. 4.19. W szczególności przypuśćmy, że proces losowy AT(f)jest wejściem filtru o odpowiedzi impulsowej h^t), i że proces losowy Y(t) jest wejściem filtru o odpowiedzi impulsowej h2(t). Niech V(t) i Z(r) oznaczają procesy losowe na odpowiednich wyjściach Filtrów. Funkcja korelacji wzajemnej procesów V(t) i Z(t) ma zatem postać: *kzM
=
Eimzm =
oc f M * iW - T i) d T , J h 2(T 2) y ( u - T _—oo —00 OC 00 00
=
f
f
2) d r
(4.131)
)>,(TJ ) M T 2 ) E W - T 1) y ( U - T 2) ] d T , d T 2 = oc
00 00 = f I hl(xl)h2(x2)R XY( t - x l , u - T 2)dz1dT oo —oo
gdzie Rxr(t, u) — funkcja korelacji wzajemnej pomiędzy At (t) i y(f). Ponieważ wejściowe procesy losowe są (hipotetycznie) łącznie stacjonarne w szerszym sensie, możemy więc położyć t = t —u i przepisać równanie (4.131) jak następuje: 00
OC
RvzLf)= f J h1{x1)h2{x2)RXY{ x - x i +x2)dxi dx2 - X—00
(4.132)
Biorąc transformatę Fouriera z obu stron równania (4.132) i stosując procedurę podobną do tej, która prowadziła do wyprowadzenia równania (4.93), otrzymujemy wreszcie
V( t )
Rys. 4.19 Para oddzielnych filtrów
263
4.12. PROCESY GAUSSOWSKIE
SvAf) = H M H K flS x M )
(4-133)
gdzie: H ,(/) i H2if) są transmitancjami odpowiednich filtrów na rys. 4.19, natomiast H f(/) jest zespoloną sprzężoną od H2(f)- Taka jest pożądana relacja pomiędzy widmami wzajemnymi gęstości mocy procesów wyjściowych a odpowiednimi widmami procesów wejściowych.
4.12. Procesy gaussowskie Materiał, który zaprezentowano dotychczas w dyskusji na temat procesów losowych cechował się dość ogólnym podejściem. W niniejszym rozdziale zajmiemy się ważną rodziną procesów losowych znanych pod nazwą procesów gaussowskich6). Uczyńmy przypuszczenie, że obserwujemy proces losowy X{t) dla przedziału czasu startującego w t = 0 i trwającego do t = T. Załóżmy również, że ważymy proces losowy X(r) przez pewną funkcję
Y= f 0(t)*(Odf
(4.134)
o
Proces Yjest liniowym funkcjonałem procesu 2f(t). Różnica pomiędzy funkcją a funkcjonałem N
jest bardzo istotna. Na przykład suma Y= £ ajX;, w której at są stałymi, a X { są zmiennymi i= i losowymi, stanowi liniową/nn/cc/f X {: dla każdego obserwowanego zbioru wartości zmiennych losowych X-t mamy odpowiednią wartość zmiennej losowej Y. Z drugiej strony w równaniu (4.134) wartość zmiennej losowej Y zależy od przebiegu zmian, Junkcji argumentu g(t)X(t) w obrębie całkowitego przedziału obserwacyjnego od 0 do T. Tak więc funkcjonał jest wielkością, która zależy raczej od całkowitego przebiegu jednej lub wielu funkcji, niż od pewnej liczby zmiennych dyskretnych. Innymi słowy, dziedziną funkcjonału jest raczej zbiór lub przestrzeń funkcji dopuszczalnych, niż obszar w przestrzeni współrzędnych. Jeśli w równaniu (4.134) funkcja wagi g(t) jest taka, że średniokwadratowa wartość zmiennej losowej Yjest skończona, i jeśli zmienna losowa Y jest zmienną losową o rozkładzie Gaussa dla każdego g(t) w tej klasie funkcji, wtedy proces X{t) nazywany jest procesem gaussowskim. Innymi słowy, proces X{t) jest procesem gaussowskim, jeśli każdy liniowy funkcjonał z 2f(t) jest gaussowską zmienną losową. W przykładzie 4 podaliśmy podstawową charakterystykę gaussowskiej zmiennej losowej. Mówimy, że zmienna losowa Y ma rozkład Gaussa, jeśli jej funkcja gęstości prawdopodobieństwa ma postać:
1
I"
(y—Wv)2
J
(4135)
gdzie: pY — średnia, a oY — wariancja zmiennej losowej Y Wykres tej funkcji gęstości prawdopodobieństwa dany jest na rys. 4.20 dla specjalnego przypadku, kiedy gaussowska zmienna losowa Yjest znormalizowana i ma zerową średnią pr i jednostkową wariancję Oy, co zapisuje się: / ^
= - i = e x p( - 4 )
Taki znormalizowany rozkład Gaussa zwyczajowo zapisywany jest jako ^U(0,1).
264
4. PROCESY LOSOWE
Rys. 4.20 Znormalizowany rozkład Gaussa
y
Proces gaussowski ma dwie podstawowe zalety. Po pierwsze, proces ten ma wiele właściwości, które umożliwiają uzyskiwanie wyników analitycznych; będziemy dyskutować te prawidłowości w dalszej części rozdziału. Po drugie, procesy przypadkowe i losowo kreowane przez zjawiska fizyczne bardzo często są takie, że model gaussowski jest stosowany do ich opisu. Idąc dalej, wykorzystanie modelu gaussowskiego do opisu takich zjawisk fizycznych jest zazwyczaj potwierdzane w eksperymentach. Tak więc szerokie rozpowszechnienie zjawisk fizycznych, dla których model gaussowski jest adekwatny, wraz z łatwością, z którą przychodzi posługiwać się procesem gaussowskim w sensie matematycznym, czynią proces gaussowski bardzo ważnym przy studiowaniu systemów telekomunikacyjnych.
Centralne tw ierdzenie graniczne Centralne twierdzenie graniczne dostarcza matematycznego usprawiedliwienia dla zastosowa nia procesu gaussowskiego jako modelu do opisu znacznej liczby różnorodnych zjawisk fizycznych, w których obserwowana w poszczególnych chwilach czasu zmienna losowa jest wypadkowym wynikiem dużej liczby pojedynczych przypadkowych zdarzeń. Aby sformułować to ważne twierdzenie przyjmujemy, że X t,i = 1,2,...,N, jest zbiorem zmiennych losowych, które spełniają następujące warunki: 1. Zmienne X i są statystycznie niezależne. 2. Zmienne X, mają te same rozkłady prawdopodobieństwa o wartości średniej gx i wariancji O zmiennych X, tak zapisanych mówi się, że tworzą zbiór niezależnych i identycznie rozłożonych zmiennych losowych. Niech te zmienne losowe będą znormalizowane jak następuje: Yi = — { X i- n x), °x tak więc mamy
oraz var[*3 = 1
i =1,2
N
265
4.12. PROCESY GAUSSOWSKIE
Zdefiniujemy zmienną losową
Centralne twierdzenie graniczne stwierdza, że rozkład prawdopodobieństwa VN przybliża znormalizowany rozkład Gaussa .X'(0,1) w granicy, gdy N dąży do nieskończoności. Ważne jest jednak, aby zdać sobie sprawę, że centralne twierdzenie graniczne daje jedynie „graniczną” postać rozkładu prawdopodobieństwa znormalizowanej zmiennej losowej gdy N dąży do nieskończoności. Gdy N jest skończone czasami okazuje się, że granica w postaci rozkładu Gaussa jest relatywnie niezbyt dobrą aproksymacją faktycznego rozkładu prawdopodobieństwa i to pomimo tego, że N jest całkiem duże.
W łaściwości procesu gaussow skiego Kolejno opiszemy teraz pewne użyteczne właściwości, jakie ma proces gaussowski. Właściwość 1 Jeśli proces gaussowski X(t) przyłożony jest na wejście stabilnego filtru liniowego, wtedy losowy proces Yft) na wyjściu tego filtru jest również procesem gaussowskim. Właściwość tę można łatwo wyprowadzić stosując definicję procesu gaussowskiego opartego na równaniu (4.134). Rozważmy sytuację przedstawioną na rys. 4.14, gdzie mamy liniowy stacjonarny filtr z procesem losowym X(t) na wejściu i procesem losowym Y(t) na wyjściu. Zakładamy, że proces X(r) jest procesem gaussowskim. Procesy losowe Y(t) i X(r) pozostają w relacji przez całkę splotu: T
Y(0 = jA(t-T)X(T)dT o
0^ t
(4.136)
Zakładamy, że odpowiedź impulsowa h{t) jest taka, że średniokwadratowa wartość wyj ściowego procesu losowego Y(t) jest skończona dla wszystkich t w przedziale 0 < t < oo, dla których Y(t)jest zdefiniowane. Aby zademonstrować, że proces Y(r)jest procesem gaussowskim, musimy najpierw pokazać, że jakikolwiek liniowy funkcjonał procesu jest gaussowską zmienną losową. To znaczy, że jeśli zdefiniujemy zmienną losową: oc
Z
=
T
f gr(t)jh(t-x)X(x)óxót O O
(4.137)
to wtedy Z musi być gaussowską zmienną losową dla każdej funkcji gY(t) takiej, że średniokwadratowa wartość Z jest skończona. Zamieniając kolejność całkowania w równaniu (4.137) dostajemy: T
Z = $g{x)X(x)ĆT o przy czym
(4.138)
X
(4.139)
ponieważ X(t) jest na podstawie uczynionych hipotez procesem gaussowskim, więc na podstawie równania (4.138) wynika, że Z musi być gaussowską zmienną losową. W ten sposób wykazaliśmy, że jeśli wejście X (t) filtru liniowego jest procesem gaussowskim, to wtedy wyjście
266
4. PROCESY LOSOWE
Y(t) jest również procesem gaussowskim. Zauważmy również, że chociaż dowód ten był przeprowadzany przy założeniu stacjonarnego filtru liniowego, to wnioski są prawdziwe dla dowolnego stabilnego systemu liniowego.
Właściwość 2 Rozważmy zbiór zmiennych losowych lub prób A^tj), AT(t2),...,X(t„) otrzymanych przez obserwacje procesu losowego w chwilach t l , t 2,...,tn. Jeżeli X(t) jest procesem gaussowskim, wtedy cały zbiór zmiennych losowych jest łącznie gaussowski dla dowolnego n, przy czym n-krotna łączna funkcja gęstości prawdopodobieństwa jest określona w sposób zupełny przez zbiór średnich: PX(ti) = £[*(*,)]>
i = 1,2,
n
i przez zbiór funkcji autokowariancji:
Właściwość 2 często stosowana jest jako definicja procesu gaussowskiego71. Jednakże definicja ta jest trudniejsza w zastosowaniu, niż oparta na równaniu (4.134), które opisuje efekty filtracji procesu gaussowskiego. Możemy rozszerzyć właściwość 2 na dwa (lub więcej) procesów w sposób na stępujący. Rozważmy zbiór zmiennych losowych X(rt), X{t2),...,X(tn), Yfu,), Y(u2),..., T(um) otrzymanych przez obserwację procesu losowego X{t) dla czasów {th i = 1,2,..., n}, i drugiego procesu losowego Y(f) dla czasów {u*, k = 1,2,..., m}. Mówimy, że procesy A'(e) i Y(t) stanowią łącznie proces gaussowski, jeżeli mieszany zbiór zmiennych losowych jest wspólnie gaussowski dla jakiegokolwiek n lub m. Zauważmy, że oprócz średniej i funkcji korelacji dla procesów losowych AT(/) i Y{t) z osobna, musimy jeszcze znać funkcję kowariancji wzajemnej: E [(2f(fj) ~ Kx(l{)) (
—^y
—PX{t)Py(uk)
dla każdej pary obserwacji w chwilach (t^u*). Ta dodatkowa wiedza jest zawarta w funkcji korelacji wzajemnej obu procesów X(f) i Y(f).
Właściwość 3 Jeśli proces gaussowski jest stacjonarny w szerszym sensie, to proces ten jest stacjonarny również w ścisłym sensie. Właściwość ta wynika wprost z własności 2.
Właściwość 4 Jeśli zmienne losowe AT^), X (t2),..., A"(tJ, otrzymane przez próbkowanie procesu gaussowskiego w chwilach tl ,t 1, —,tn, są nieskorelowane, to znaczy: E [(AT(tk)—g
(Ajf;) —
= 0,
i^ k
to te zmienne losowe są statystycznie niezależne. Implikacją tej właściwości jest fakt, że łączna funkcja gęstości prawdopodobieństwa zbioru zmiennych losowych Ar(t1), X(t2),...,X(tJ może być wyrażona jako iloczyn funkcji gęstości prawdopodobieństwa pojedynczych zmiennych losowych w tym zbiorze.
267
4.13. SZUMY
4.13. Szumy W systemach telekomunikacyjnych przez termin szum rozumie się raczej pojęciowo zbiór fal nniepożądanych, które zakłócają przebieg transmisji i przetwarzania sygnałów, i nad którymi brak jest kontroli. W praktyce spotykamy się w systemach telekomunikacyjnych z wieloma różnorodnymi, potencjalnymi źródłami szumów. Źródła szumów mogą pochodzić z zewnątrz systemu, (np. szum atmosferyczny, szum galaktyczny, szum wytworzony przez człowieka), mogą też istnieć wewnątrz systemu. Ważne źródła szumów należące do drugiej kategorii, to szumy prądów lub napięć w obwodach elektrycznych pochodzące od przypadkowych fluktuacji8). Ten rodzaj szumu stanowi istotne ograniczenie w warunkach transmisji i detekcji sygnałów za pomocą elementów elektronicznych występujących w systemach telekomunika cyjnych. Przykładem dwu nagminnie występujących w obwodach elektrycznych fluktuacji są szumy śrutowe i szumy termiczne.
Szum śrutow y Szum śrutowy powstaje w elementach elektronicznych takich jak diody i tranzystory z powodu dyskretnej natury przepływu prądu w tych urządzeniach. Na przykład, w obwodzie elektrycz nym z fotodetektorem, impuls prądowy powstaje każdorazowo, gdy źródło światła o stałej intensywności spowoduje emisję elektronu z fotokatody. Elektrony są emitowane w naturalny sposób w przypadkowych chwilach oznaczanych przez zk, przy czym —oo < k < co. Zakładamy przy tym, że przypadkowe emisje elektronów następują w przeciągu długiego czasu. Dlatego całkowity prąd płynący przez fotodetektor może być zapisany w postaci nieskończonej sumy impulsów prądowych, a mianowicie: X « )=
I
h ( t - T,)
(4.140)
k= - cc
gdzie h(t — — impuls prądowy generowany w chwili xk. Proces X (t) zdefiniowany przez równanie (4.140) jest procesem stacjonarnym, któremu nadano nazwę szum śrutówy9). Liczba elektronów N(t) emitowanych w przedziale czasu (0,/) określa dyskretny proces stochastyczny, którego wartość wzrasta o jedność wraz z każdym przypadkiem emisji elektronu. Na rysunku 4.21 pokazano funkcję próby takiego procesu. Niech średnia wartość liczby elektronów v, emitowanych pomiędzy czasem t a t + t0 będzie zdefiniowana wzorem: £[v] = Xt0
(4.141)
Parametr Xjest stałą nazywaną wykładnikiem procesu. Całkowita liczba elektronów emitowa nych w przedziale (t, t + 10), to znaczy v = N(t + t0) — N{t) odwzorowuje rozkład Poissonea o wartość średniej równej Xt0. W szczególności praw dopodobieństwo, że k elektronów będzie wyemitowane w przedziale czasu (t,t + 10) zdefiniowa ne jest jako: ih 1* P(v = k) = — f - e " * o k!
k = 0,1,...(4.142
Niestety, szczegółowa analiza statystyczna procesu szumu śrutowego X(r) zdefiniowanego równaniem (4.140) jest dość trudnym zadaniem matematycznym. Tutaj po prostu przytoczymy wyniki dotyczące dwu pierwszych momentów procesu:
268
4. PROCESY LOSOWE
Rys. 4.21 Funkcja próby procesu zliczania Poissone’a
• Średnia J\T(r) wynosi: HX = k | h(t)dt - oo
(4.143)
gdzie X — wykładnik procesu, a h(t) — kształt impulsu prądowego. • Funkcja autokowariancji z X(f) wynosi: Q (r) = X J h(t)h{t + x)dt
(4.144)
—00
Wynik w tej postaci znany jest jako twierdzenie Campbella. W szczególnym przypadku, gdy impuls h(t) ma kształt prostokątny o amplitudzie A i czasie trwania T, średnia procesu X (r) szumu śrutowego wynosi XAT,a funkcja kowariancji jest równa: XA2( T - | t |), 0,
M
czyli tworzy kształt trójkątny podobny do przedstawionego na rys. 4.13.
Szum term iczny Szum termiczny wywodzi10' swą nazwę od szumu elektrycznego spowodowanego przypad kowymi ruchami elektronów w półprzewodnikach. Średniokwadratowa wartość napięcia ^TN szumu termicznego, pojawiającego się na zaciskach oporu i mierzonego w paśmie A/herców wynosi we wszystkich praktycznych przypadkach £ [ F tn] = 4/cTRĄ/" woltów2
(4.145)
gdzie k — stała Boltzmanna równa 1,38 x 10“ 23 dżuli na stopień Kelvina, T — temperatura bezwzględna w stopniach Kelvina, a R — opór w omach. Na rysunku 4.22a przedstawiono model szumiącego oporu w postaci zastępczego obwodu 1hevenina składającego się ze źródła napięciowego szumów o średniokwadratowej wartości E [V t\] połączonego w szereg z ideal-
269
4.13. SZUMY
Rys. 4.22 Schematy zastępcze szumiącego oporu a) źródło zastępcze Thevenina, b) źródło zastępcze N ortona
nym, bezszumnym oporem. Atlernatywnie możemy użyć schematu zastępczego Nortona z rys. 4.22b, w którym źródło prądowe szumów umieszczone jest równolegle z idealną bezszumną konduktancją. Sredniokwadratowa wartość prądu z generatora szumów równa się: £[/™ ] = 4 r £[^rjvJ=
famper2 A G 4kT
XV
gdzie G = 1/R — konduktancja. Będzie interesujące zanotować, że na podstawie centralnego twierdzenia granicznego, zastosowanego wobec wielkiej liczby elektronów w oporze wykonują cych ruchy przypadkowe statystycznie niezależne, otrzymuje się wynik wskazujący na opis szumu termicznego przez rozkład gaussowski o zerowej wartości średniej. Obliczenia szumowe mogą uwzględniać wartości mocy, gdzie często korzysta się z twierdzenia o dopasowaniu na maksimum mocy. Twierdzenie to głosi, że maksymalna możliwa moc przekazywana jest ze źródła o rezystancji R do obciążenia o rezystancji Rt w przypadku, gdy Rt = R. Mówimy wtedy, że układ pracuje w warunkach dopasowania, ponieważ moc wytworzona w źródle sygnału dzielona jest w połowie między wewnętrzną rezystancję źródła i rezystancję obciążenia, przy czym moc dostarczona do rezystancji obciążenia stanowi tzw. moc dysponowaną. Stosując twierdzenie o dopasowaniu na maksimum mocy do zastępczego obwodu Thevenina z rys. 4.22a lub zastępczego obwodu Nortona z rys. 4.22b, możemy stwierdzić, że szumiący opór wytwarza dysponowaną moc szumów równą A7A/watów.
Szum biały Analiza szumowa systemów telekomunikacyjnych często opiera się na wyidealizowanej formie szumu, któremu nadaje się nazwę szum biały, a którego widmowa gęstości mocy nie zależy od częstotliwości pracy. Przymiotnik „biały” można interpretować w tym sensie, że światło białe zawiera stałe widmo częstotliwości z widzialnego zakresu promieniowania elektromagnetycz nego. Wyrazimy widmową gęstość mocy szumu białego reprezentowanego przez funkcję próby w(f) w postaci: SwU) = — -
(4.147)
przedstawionej na rys. 4.23a. Wymiarem N 0 są waty na herc. Parametr N 0 zazwyczaj odnosi się do stopnia wejściowego odbiornika w systemie telekomunikacyjnym. Parametr ten może być wyrażony jako: N 0 = k Te
(4.148)
270
4. PROCESY LOSOWE Q
5W(/) Ha 2
(3
b
r w(rł
i ,v„
Rys. 4.23 ________________ 0
Charakterystyki szumu białego: a) widmowa gęstość mocy, b) funkcja autokorelacji
gdzie k — stała Boltzmanna, a Te — zastępcza temperatura szumów odbiornika11). Zastępcza temperatura szumów systemu zdefiniowana jest jako temperatura, w której stabilizowany termicznie szumiący rezystor po podłączeniu na wejście idealnej bezszumnej wersji systemu dostarczałby tej samej dysponowanej mocy szumu na wyjściu systemu, co moc dysponowana wytwarzana w realnym systemie przez wszystkie istniejące w nim źródła szumów. Równoważna temperatura szumów ma tę ważną cechę, że zależy jedynie od parametrów systemu. Ponieważ funkcja autokorelacji jest odwrotną transformatą Fouriera widmowej gęstości mocy, więc dla szumu białego wynika zależność: R w W -łj-* ®
,4149)
Tak więc funkcja autokorelacji szumu białego składa się z funkcji delta ważonej przez czynnik N J2 w punkcie i = 0, zgodnie z rys. 4.23b. Zanotujmy, że R w(x) jest zerem dla t # 0. Odpowiednio, jakiekolwiek dwie różne próbki szumu białego, bez względu na to, jak blisko względem siebie pobrane, stanowią parę nieskorelowaną. Jeśli szum biały w(t) jest również gaussowski, to obydwie próbki są również statystycznie niezależne. W pewnym sensie, biały szum gaussowski reprezentuje krańcowy przykład „przypadkowości”. Tak zdefiniowany szum biały miałby, ściśle mówiąc, nieskończoną moc średnią i jako taki nie byłby fizycznie realizowalny. Pomimo to, szum biały ma właściwości opisane matematycznie prostymi zależnościami, jak np. równania (4.147) i (4.148), co czyni go użytecznym do analizy statystycznej systemów. Użyteczność procesów statystycznych związanych z szumem białym w analizie systemów liniowych stanowi analogię względem użyteczności funkcji delta i odpowiedzi impulsowej. Podobnie jak efekt impulsu wejściowego może być zaobserwowany dopiero po przesłaniu go przez system o skończonym paśmie, tak też i efekt szumu białego obserwowany jest dopiero po przesłaniu go przez podobny system. Na tej podstawie możemy wnioskować, że dopóki pasmo procesu szumowego na wejściu systemu jest znacznie większe od pasma systemu jako takiego, dopóty możemy modelować proces przypadkowy za pomocą szumu białego.
271
4.13. SZUMY
Rys. 4.24. Charakterystyki szumu białego odfiltrowanego dolnoprzepustowo: a) widmowa gęstość mocy, b) funkcja autokorelacji Przykład 16
Idealny szum biały po filtracji dolnoprzepustowej
Przypuśćmy, że przykładamy szum gaussowski w(t) o zerowej wartości średniej i gęstości widmowej N 0/2 do idealnego dolnoprzepustowego filtru o charakterystyce amplitudowej równej jedności wewnątrz pasma B. Gęstość widmowa mocy szumu n(t) pojawiająca się na wyjściu filtru i przedstawiona na rys. 4.24a wynosi więc:
\f \ > B
(4.150)
Funkcja autokorelacji przebiegu n(f) otrzymywana jest przez odwrotną transformatę Fouriera gęstości widmowej mocy pokazanej na rys. 4.24a: f — exp(j27t/T)d/= iV0 Bsinc(2Br) —B
(4.151)
*•
Funkcja autokorelacji w tej postaci wykreślona została na rys. 4.24b. Widzimy, że RN(t) osiąga wartość maksymalną N 0B w początku układu, i że ma przejścia przez zero dla r = ± k/2B, przy k = 1,2,3,... Ponieważ hipotetycznie szum wejściowy w(r) jest szumem gaussowskim, więc wynika stąd, że ograniczony w paśmie szum n(t> na wyjściu filtru również jest szumem gaussowskim. Przypuśćmy teraz, że n(t) jest próbkowany z częstością 2B próbek na sekundę. Na podstawie
272
4. PROCESY LOSOWE
rys. 4.24b możemy spodziewać się, że otrzymane próbki szumu będą nieskorelowane, a ponieważ są gaussowskie, więc będą też statystycznie niezależne. Prowadzi to ku dalszym wnioskom, że łączna funkcja zbioru gęstości prawdopodobieństwa zbioru próbek szumowych otrzymanych w podany sposób stanowić będzie iloczyn z poszczególnych funkcji gęstości prawdopodobieństwa. Zanotujmy też, że każda z próbek szumu ma średnią równą zeru i wariancję równą N 0 B.
Przykład 17 Szum biały filtrowany przez dolnoprzepustowy filtr R C Rozważmy teraz biały szum gaussowski w(t) o średniej równej zero i gęstości N J 2 przyłączony na wejście dolnoprzepustowego filtru RC pokazanego na rys. 4.25a. Transmitancja filtru wynosi: v'
1 +j2iiJRC
Widmowa gęstość mocy szumu n(r) pojawiającego się na wyjściu dolnoprzepustowego filtru RC będzie zatem równa: SN(f)
N J2 1 + (2nfRC)2
Przypomnijmy teraz następującą parę transformat Fouriera z przykładu 3 w rozdziale 2 (w której użyjemy zmiennej z w miejsce t jako zmiennej dla rozstrzygnięcia naszego problemu): e x p (-a |t|)
2a a2 + (2nf)2
(4.152)
gdzie a — stała. Podstawiając teraz a = 1/RC możemy otrzymać funkcję autokorelacji od filtrowanego szumu n(t) w postaci: (4.153) wykreślonej na rys. 4.25c. Czas dekorelacji t 0 po którym Ra.(t) opada do, powiedzmy, 1 procenta swej maksymalnej wartości N J4RC i wynosi 4,61 RC. Wynika stąd, że jeżeli będziemy próbkować szum na wyjściu filtru z szybkością równą lub mniejszą od 0,217/RC próbek na sekundę, to otrzymane próbki będą w zasadzie nieskorelowane, i będąc próbkami gaussowskimi, będą statystycznie niezależne.
Eksperyment komputerowy Autokorelacja fali sinusoidalnej sumowanej z białym szumem gaussowskim W tym eksperymencie komputerowym poświęcimy się opisowi statystycznemu procesu losowego X(r) składającego się z fali sinusoidalnej Acos(2n/fr-f6>) i składowej procesu w postaci białego szumu gaussowskiego W(t), mającego zerową średnią i gęstość widmową N J2. Oznacza to, że możemy napisać: X(t) = A cos(2nfct + 0) + Wt)
(4.154)
gdzie: 0 — zmienna losowa o rozkładzie równomiernym w przedziale ( —tt, 7t). Jak się można spodziewać, obydwie składowe procesu X(r) są niezależne. Funkcja autokorelacji X(t) będzie zatem sumą funkcji autokorelacji sygnału (fali sinusoidalnej) i składowej szumu, czyli: K*(?) = —
cos(2 ti/ ct) +
^— <5(t )
(4.155)
273
4.13. SZUMY R
Q
W r Szum biały Uł(fl
Szum
M
Rys. 4.25. Charakterystyki szumu białego odfiltrowanego układem RC: a) dolnoprzepustowy filtr RC, b) widmowa gęstość mocy przebiegu n(t) z wyjścia filtru, c) funkcja autokorelacji szumu n(t)
Równanie to pokazuje, że dla |r| > 0 funkcja autokorelacji R*(t) ma tę samą postać przebiegu sinusoidalnego co składowa sygnału. Możemy więc uogólnić podany wynik stwierdzając, że obecność składowej sygnału zakłóconej przez addytywny szum biały może być wykryta za pomocą algorytmu obliczającego funkcję autokorelacji sumarycznego procesu X (r). Przeprowadzony dalej eksperyment ma na celu wykonanie obliczeń za pomocą dwu następujących metod: 1) uśredniania po zbiorze, 2) uśredniania po czasie. Górny przebieg 18 Systemy telekomunikacyjne cz. 1
274
4. PROCESY LOSOWE
z rys. 4.26a pokazuje sygnał sinusoidalny o częstotliwości f c = 0,002, fazie 6 = —n/2 i czasie trwania uciętym do skończonej wartości T= 1000; amplituda A tego sygnału ustalona jest jako y f l celem uzyskania jednostkowej mocy średniej. Dolny przebieg na rys. 4.26a pokazuje pojedynczą realizację x(f) procesu losowego X(t) składającego się z sygnału sinusoidalnego i addytywnego białego szumu gaussowskiego; widmowa gęstość mocy szumu dla tej realizacji wynosi (N J 2) = 1000. Oryginalny sygnał sinusoidalny zaledwie daje się odróżnić w przebiegu x(r). Aby przeprowadzić obliczenia metodą uśredniania po zbiorze realizacji, w celu wyznaczenia funkcji autokorelacji musimy postępować następująco: • obliczamy iloczyn x(t + t)x(t) w pewnej ustalonej chwili t i dla pewnego określonego przesunięcia czasowego r, przy czym x(r) jest pojedynczą realizacją losowego procesu X(t), • powtarzamy obliczenia iloczynu x(t + t)x(f) dla M niezależnych realizacji (czyli funkcji prób) procesu losowego X (t), • obliczamy średnią z otrzymanych obliczeń dzieląc sumę przez M, • powtarzamy sekwencję obliczeń dla różnych wartości t. Wyniki obliczeń przedstawiono na rys. 4.26b dla M —50 realizacji. Otrzymany obraz jest w idealnej zgodności z teorią reprezentowaną przez równanie (4.155). Można więc zanotować ważny wniosek, że proces uśredniania po zbiorze wyczyszcza estymator prawdziwej funkcji autokorelacji Rx (t) procesu losowego A(r). Co więcej, obecność sygnału sinusoidalnego jest w jasny sposób uwidoczniona na wykresie Rx(z) względem t. Aby uzyskać uśrednioną po czasie estymację funkcji autokorelacji procesu X(t) odwołujemy się do ergodyczności i stosujemy wzór (por. równanie (4.80)): RAr) = lim R Jr, T ) T cc
(4.156)
gdzie Rx(t, T) — uśredniona po czasie funkcja autokorelacji: 1 T R x(t ,T ) = — I x(t + r)x(0df
(4.157)
Funkcja x(t) w równaniu (4.157) jest określoną realizacją procesu A^(0, natomiast 2Fjest całkowitym przedziałem obserwacji. Zdefiniujmy więc funkcję z oknem czasowym x(t), x T(t) = 0,
- 7X f
T
gdzie indziej
(4.158)
Możemy więc przepisać równania (4.157) w postaci: R x(z,T) = — J xT(r + r)xT(r)dt Z 1 - CQ
(4.159)
Dla określonego przesunięcia czasowego t możemy obliczyć ^ ( t , T) bezpośrednio na podstawie równania (4.159). Jest jednak bardziej efektywnym z punktu widzenia obliczeniowe go posłużyć się metodą pośrednią opartą na transformacie Fouriera. W tym celu po pierwsze możemy zanotować, że uśredniona po czasie funkcja autokorelacji Rx(t, T) wzięta z równania (4.159) może być uważana za przeskalowaną formę splotu w dziedzinie t, czyli 7) = 2 ^ x r (T)*xr ( - r )
(4.160)
4.13. SZUMY
275
gdzie gwiazdka oznacza splot, a x T(x) to po prostu funkcja z oknem czasowym z argumentem r zamienionym przez t. Niech X T(f) oznacza transformatę Fouriera względem x t (t); zważmy przy tym, że X r (f) jest takie samo jak transformata Fouriera X (/, T) zdefiniowana w równaniu (4.115). Ponieważ splot w dziedzinie t transformuje się na iloczyn w dziedzinie częstotliwości. Mamy więc parę transformat Fouriera: K*(t, T ) - ~ | X t (/)|2
(4.161)
Parametr |X T(/)|2/2Trozpoznajemy jako periodogram procesu X(t). Równanie (4.161) jest matematyczną formą zapisu twierdzenia o korelacji, które formułuje się następująco: Dla określonejfunkcji próby wziętej z procesu losowegoJunkcja autokorelacji tej próby uśredniona po czasie stanowi wraz z periodogramem, otrzymanym na podstawie tej samej funkcji próby, parę transjormat Fouriera. Jesteśmy już teraz przygotowani do opisania pośredniej metody obliczania uśred nionej po czasie funkcji autokorelacji Rx(f,t): • obliczamy transformatę Fouriera X T(f) funkcji xr (r) z oknem czasowym, • obliczamy periodogram \XT{J)\2j l f • obliczamy odwrotną transformatę Fouriera z \X T(f)\2/2T. W celu przeprowadzenia dalszych obliczeń za pomocą techniki komputerowej przyjęte jest stosowanie algorytmów szybkiej transformaty Fouriera (FFT); opis algorytmów FFT zamieszczono w punkcie 2.15. Przy równomiernym próbkowaniu xr (r) procedura ob liczeniowa opisana dalej dostarcza pożądanych wyników w postaci Rx{t, T) dla t = 0,A,2A,...,(N —1)A, gdzie A — okres próbkowania, natomiast N — całkowita liczba próbek przyjęta w obliczeniach. Na rysunkach 4.26c i 4.26d przedstawiono wyniki otrzymane przy podejściu do „estymacji” funkcji autokorelacji za pomocą metody pośredniej uśredniania po czasie, w której zastosowano ten sam zestaw parametrów, jaki przedstawiono na rys. 2.46b dla metody uśredniania po zbiorze. Symbol R*(t) zastosowany na rys. 4.26d ma podkreślić fakt, że opisane tutaj obliczenia stanowią „estymację” funkcji autokorelacji (T)* Na rysunku 4.26e przedstawiono estymację funkcji Rx(t) za pomocą uśredniania po czasie dla trzech różnych stosunków sygnału do szumu, mianowicie -1 0 , 0, +10 dB. Stosunek sygnału do szumu zdefiniowany jest następująco: A2/ 2 SNR = N 0/(2T)
(4.162)
Na podstawie wyniku przedstawionego na rys. 4.26 możemy uczynić następujące obserwacje: • Uśrednianie po zbiorze i uśrednianie po czasie stanowią podejścia dostarczające identycz nych wyników odnośnie funkcji autokorelacji Rx{x\ co oznacza, że opisywany tu proces X (t) jest faktycznie ergodyczny. • Metoda pośrednia uśredniania po czasie, oparta na algorytmie FFT, dostarcza efektywnej metody estymacji R x(x) za pomocą techniki komputerowej. • W miarę wzrostu stosunku sygnału do szumu, dokładność numeryczna estymacji polepsza się, co jest intuicyjnie satysfakcjonujące. 18*
276
4. PROCESY LOSOWE
4 3 2
1 x(i)
O -1 ~2 “3 -4
O
i..................i ..... 200 400
i 600
*-------------800 1000
r Rys. 4.26. a) Przebieg na górnym rysunku pokazuje wycinek oryginalnej sinusoidy Acos{2nfct)y dla A = y j l , f c = 2/N = 0,002, t = 0 , —1; wykres dolny przedstawia zaszumioną wersję sygnału sinusoidalnego
4.13. SZUMY
111
b) uśredniona po zbiorze funkcja autokorelacji Rx(t) dla SNR = 0 dB, N = 1000, M = 50, c) periodogram; przebieg górny pokazuje wykres periodogramu dla „próbek” częstotliwości od 0 do 1000, natomiast przebieg dolny ukazuje powiększony wycinek wykresu dla próbek częstotliwości od 490 do 510,
278
4. PROCESY LOSOWE
d) funkcja autokorelacji k x(x) obliczona jako odwrotna transformata Fouriera periodogramu z rys. 4.26c,
o
1000
4.13. SZUMY
e) wykresy £*(t) dla zmiennego stosunku sygnału do szumu SNR: —10,0, 4-10 dB (poczynając od pierwszego wykresu)
279
280
4. PROCESY LOSOWE
Zastępcze pasm o szum ów W przykładzie 16 mieliśmy okazję zaobserwować, że jeśli źródło szumu białego o zerowej średniej i widmowej gęstości mocy N 0j 2 podłączone jest na zaciski wejściowe idealnego filtru dolnoprzepustowego o paśmie B i charakterystyce amplitudowej równej jedności w tym paśmie, to średnia wyjściowa moc szumu [lub ekwiwalentnie /?N(0)] jest równa N 0B. W przykładzie 17 obserwowaliśmy, że dla takiego samego źródła szumów podłączonego na wejście zwykłego dolnoprzepustowego filtru RC z rys. 4.25a, odpowiednia wartość średniej amplitudy wyjściowej mocy szumu jest równa N 0/{4RQ. Dla takiego filtru pasmo połowy mocy, a więc pasmo 3 dB równe jest \/(2nRQ. W tym przypadku ponownie stwierdziliśmy, że średnia moc szumu na wyjściu jest proporcjonalna do pasma. Możemy uogólnić powyższe stwierdzenie, aby dotyczyło ono wszystkich rodzajów filtrów dolnoprzepustowych poprzez zdefiniowanie równoważnego pasma szumów w na stępujący sposób. Przypuśćmy, że mamy źródło szumu białego o zerowej średniej i gęstości widmowej mocy N 0/ 2 podłączone na wejście dowolnego filtru dolnoprzepustowego o transmitancji H{f). Średnia moc szumu jaki pojawia się na wyjściu, wynosi więc: AU =
J |ł ł ( / ) |2 d / = w „ J
(4.163)
^ - 00 0 przy czym w dolnej linijce równania zrobiliśmy użytek z faktu, że charakterystyka amplitudowa \H(f)\ jest parzystą funkcją częstotliwości. Rozważmy następnie to samo źródło szumu białego przyłączone do wejścia idealnego filtru dolnoprzepustowego o transmitancji stałoprądowej H(0) i paśmie B. W tym przypadku średnia moc szumu na wyjściu wynosi: AU =
NaBH2(0)
Możemy teraz porównać średnią moc napisaną powyżej z tą, która występowała w równaniu (4.163) i na tej podstawie określić zastępcze pasmo szumów w postaci: 00
i |H (/)|2d / (4.165) Tak więc procedura obliczania zastępczego pasma szumów sprowadza się do zastąpienia dowolnego filtru dolnoprzepustowego o transmitancji H( f ) przez równoważny idealny filtr dolnoprzepustowy o transmitancji stałoprądowej H{0) i o paśmie B, zgodnie z rys. 4.27. W podobny sposób możemy też definiować zastępcze pasmo szumów dla filtrów pasmowoprzepustowych.
Rys. 4.27 Ilustracja definicji zastępczego pasm a szumów
4.14. SZUM WĄSKOPASMOWY
281
4.14. Szum wąskopasmowy Jednym z zadań, jakie stawia się przed odbiornikami w systemach telekomunikacyjnych jest wstępne przetwarzanie odbieranego sygnału. Taka wstępna procedura polega na zastosowaniu filtru wąskopasmowego o paśmie dostatecznym do przesłania interesującego nas sygnału w sposób niezniekształcony, lecz jednocześnie nie na tyle szerokim, by dopuścić do nadmiaru szumów na wejściu odbiornika. Proces szumowy pojawiający się na wyjściu takiego filtru nazywany jest szumem wąskopasmowym. Składowym widmowym wąskopasmowego szumu wycentrowanym dookoła pewnych częstotliwości środkowych + /ja k na rys. 4.28a odpowiada funkcja próby n(t), która dla takiego procesu pojawia się w kształcie nieco podobnym do fali sinusoidalnej o częstotliwości/f, przy czym kształt ulega powolnemu falowaniu zarówno pod względem amplitudy, jak i fazy, zgodnie z rys. 4.28b. Rozważmy następnie szum n(f) wytworzony na wyjściu filtru wąskopasmowego w odpowiedzi na funkcję próby w(t) procesu w postaci białego szumu gaussowskiego o zerowej średniej i jednostkowej widmowej gęstości mocy, który przyłączono na wejście filtru; w(f) i n(t) są funkcjami próby odpowiednich procesów W(t) i N(t). Niech H{f) oznacza transmitancję rozpatrywanego filtru. Odpowiednio do tego, możemy wyrazić widmową gęstość mocy SN(f) szumu n(t) za pomocą H(J) w postaci:
b
Rys. 4.28. a) Widmowa gęstość mocy szumu wąskopasmowego, b) funkcja próby szumu wąskopasmowego
282
4. PROCESY LOSOWE
SN( f ) = \H (f)\2
(4.166)
W rzeczywistości jakikolwiek napotykany w praktyce szum wąskopasmowy może być modelowany przez przyłożenie białego szumu na wejście odpowiedniego filtru w sposób tu opisany (por. zadanie 4.28). W niniejszym punkcie życzeniem naszym będzie reprezentacja wąskopasmowego szumu n(r) za pomocą synfazowej i kwadraturowej składowej w sposób podobny do opisanego w punkcie 2.12 dla szumu wąskopasmowego. Wyprowadzenie tutaj przedstawione opiera się na pojęciu sygnału analitycznego i pojęciach pokrewnych, które były przedyskutowane w rozdziale 2. Niech n+(t) i fj(r) oznaczają odpowiednio sygnał analityczny i obwiednię zespoloną wąskopasmowego szumu n(t). Zakładamy, że widmo mocy szumu n(r) wycentrowane jest wokół częstotliwości f c. Możemy wtedy napisać: M t) = n(t)+ju(t)
(4.167)
h(t) = n +(r)exp(-j2;r/ct)
(4.168)
oraz gdzie h(t) — transformata Hilberta n(t). Sama obwiednia zespolona h(t) może zostać wyrażona w postaci: »(*) = «iW +j«e(f)
(4.169)
Stąd łącząc równania (4.167) do (4.169), znajdujemy, że składowa synfazowa n,{ł) i składowa kwadraturowa nQ(t) wąskopasmowego szumu n(t) są odpowiednio opisane wzorami: n,(t) = n(f)cos(27r/r0+«(0sin(27t/ct)
(4.170)
nQ(t) = n{t)cos(2nfct)—n{t)sm(2nfct)
(4.171)
oraz Eliminując «(r) z równań (4.170) i (4.171) dostajemy pożądaną formę kanoniczną reprezentacji wąskopasmowego szumu n(f), opisanego wzorem: n(t) = n;(t)cos(27r/ct)—nQ(f)sin(2rtfct)
(4.172)
Podstawiając (4.170) do (4.172), można otrzymać pewne ważne właściwości składo wych synfazowych i kwadraturowych szumu wąskopasmowego, co opisano w dalszym tekście. Właściwość 1 Synfazowa składowa nj(t) i kwadraturowa składowa nQ(t) wąskopasmowego szumu n(t) mają obydwie zerową wartość średnią. W celu udowodnienia tej właściwości najpierw zaobserwujemy, że szum n(r) otrzymuje się po przesłaniu n(t) przez filtr liniowy (tzn. przez transformator Hilberta). Stosownie do tego ń(f) będzie mieć zerową średnią, ponieważ n(r) ma zerową średnią wynikającą z tego, że jest wąskopasmowy. Ponadto na podstawie równań (4.170) i (4.171) widzimy, że n;(t) i nQ{t) są ważonymi sumami n(t) i ń(f). Stąd z kolei wynika, że tworzące kwadraturę składowe n,(t) i nQ(t) obydwie mają zerową średnią. Właściwość 2 Jeśli wąskopasmowy szum n(t) jest szumem gaussowskim, to jego synfazowa składowa n,(t) i składowa kwadraturowa nQ(t) mają obydwie charakter gaussowski.
4.14. SZUM WĄSKOPASMOWY
283
Aby udowodnić tę właściwość zwróćmy uwagę na to, że n(t) jest wyprowadzone z n(f) za pomocą liniowej operacji filtracji. Zatem jeśli n(t) jest szumem gaussowskim, to n(f) jest również szumem gaussowskim, w związku z czym n(t) i n(t) są łącznie szumami gaussowskimi. Stąd wynika z kolei, że tworzące kwadraturę składowe n,(t) i nQ(t) są łącznie szumami gaussowskimi, ponieważ wynikają jako sumy ważone łącznie gaussowskich procesów. Właściwość 3 Jeśli wąskopasmowy szum n{t) jest stacjonarny w szerszym sensie, to jego składowa synfazowa nĄt) i składowa kwadraturowa nQ(t) są łącznie stacjonarne w szerszym sensie. Jeśli n(t) jest stacjonarne w szerszym sensie, to będzie tak również z jego transformatą Hilberta ń(t). Jednakże skoro tworzące kwadraturę składowe «/(r) i nQ(t) są ważonymi sumami n(t) i nQ(t), funkcje zaś wag, czyli cos(2rc/ct) i sin(27t/ct), są zmienne w czasie, to nie możemy bezpośrednio przyporządkować stacjonarności w szerszym sensie do nf(?) i nQ(t). Aby więc przeprowadzić dowód musimy wyznaczyć funkcje autokorelacji tych składowych. Stosując równania (4.170) i (4.171) znajdujemy, że składowa synfazowa i kwad raturowa nĄt) i nQ(r) wąskopasmowego szumu n(r), mają te same funkcje autokorelacji, a mianowicie (por. zadanie 4.30): RNj(j) = r nq(*) = RN{x)cos{2nfcT) + R N{x)sin{2nfcx)
(4.173)
a ich funkcje korelacji wzajemnej wynoszą: r n
,
n
q {*)
=
~
r n q
Nj (
t) = R Nsm(2nfcx ) - k N(x)cos{2%fcx)
(4.174)
gdzie R n — funkcja autokorelacji z n(r), a R N(x) — transformata Hilberta z RN(x). Na podstawie równań (4.173) i (4.174) widzimy, że funkcje korelacji RNj(x), RNq{x) i RNj Nq{x) składowych tworzących kwadraturę nj(t) i nQ(t) zależą jedynie od przesunięcia czasowego t. W powiązaniu z właściwością 1 otrzymujemy więc dowód na to, że nj(t) i nQ(t) są stacjonarne w szerszym sensie, o ile oryginalny wąskopasmowy szum n(t) jest stacjonarny w szerszym sensie. Właściwość 4 Zarówno szum synfazowy n,(t) jak i kwadraturowy nQ(t) mają tę samą widmową gęstość mocy, która pozostaje w następującej relacji do widmowej gęstości mocy SN{f) oryginalnego wąskopas mowego szumu n(t): SN( f - f c)+ SN(f+ fc), SNli f ) = SM (f ) = (4.175) 0, gdzie indziej gdzie założono, że SN(f) zajmuje przedział częstotliwości f c—B < If \ ś f e+ B, przy czym f c > B. Dla udowodnienia tej właściwości bierzemy transformatę Fouriera obu stron równania (4.173) i korzystamy z faktu, że n RN^ )l = -jsg n (/)F [R „(t)] = -jsgn(.f ) S N(f)
<4.176)
Otrzymujemy w ten sposób wynik = S„Q( f ) =
j [S „ (/-/c) + S „ (/+ /c)] - i [S „ (/-/,)s g n (/-/J +
- S K( /+ /t)sgn(/+/J] = - S „ ( / - / c) [ l - s g n ( / - / c)] +
+ |s „ ( / + / t)[l + sgn(/+/J]
(4.177)
284
4. PROCESY LOSOWE
- B O B
2B
V e
k S.V
- B O B
- V c
f
2B sgn(/) d
+1
e
sgnl f
0
r
0
f
~ f c)
fc
f
-1
sgnl/- + f c )
f
+1 f
~fc
0
Rys. 4.29. a) Widmowa gęstość mocy SN(f) typowa dla wąskopasmowego szumu n(r), b), c) wersje z przesunięciem częstotliwościowym SN(J) w kierunkach przeciwnych, d) funkcja signum sgn(r), części e) i Ij reprezentują wersje sgn(/) przesunięte w przeciwnych kierunkach Teraz mając widmową gęstość mocy SN( f ) oryginalnego szumu wąskopasmowego n(r) zajmującego przedział częstotliwości f c—B < | / | < / c+ B, przy czym f c > B, zgodnie z rys. 4.29a, znajdujemy, że funkcje SN(J—f c) i SN(f +f c) są postaci odpowiednio jak na rys. 4.29b i 4.29c. Na rysunku 4.29d, e, f przedstawiono odpowiednio przebiegi sgn( J \ sgn( /—f c) i sgn(f+fc). Możemy przeto uczynić następujące obserwacje: 1. Dla częstotliwości zadanych w przedziale —B < / < B mamy:
sgnif-fc) = - 1 oraz sgn ( / +fc) = + 1
4.14. SZUM WĄSKOPASMOWY
285
Stąd, podstawiając otrzymane wyniki do równania (4.177) dostajemy: SNji f ) = S„Q(f) = SN( f - f c) + SNif+ fc\ 2. Dla 2fc—B ^ f ^ 2 f c+ B mamy: sgn { f - f c) = 1 oraz
s N(f+fc) = 0 z wynikiem wskazującym na to, że SNj{f) i SN (/) są obie zerami. 3. Dla —2f c—B < —2f c+ B mamy: SN( f ~ f c) = 0 oraz sgn (/+ £) = - 1 z wynikiem takim, że również i tutaj, zarówno SNi{f) jak i SN (/) są równe zeru. 4. Poza zakresami częstotliwości, wymienionymi w 1, 2, 3, zarówno SN{f—f c) jaki i SN(f-\-fc) są zerami, a więc również SNj{f ) i SNq(J) są zerami. Łącząc wszystkie te wyniki, otrzymujemy relację zdefiniowaną w równaniu (4.175). W konsekwencji tej właściwości możemy dokonać wyodrębnienia synfazowej skła dowej rijit) i kwadraturowej składowej nQ(t) z dokładnością do czynników skalujących, z wąskopasmowego szumu n(t) za pomocą schematu pokazanego na rys. 4.30a, gdzie obydwa dolnoprzepustowe filtry mają częstotliwości graniczne równe B. Schemat pokazany na rys. 4.30a może być rozpatrywany jako analizator. Jeśli dana jest synfazowa składowa nj(t) i kwadraturowa składowa nQ(t), to możliwe jest wygenerowanie wąskopasmowego szumu n{t) za pomocą schematu pokazanego na rys. 4.30b, który może być uważany za syntetyzator.
Rys. 4.30. a) Wydobycie synfazowej i kwadraturowej składowej z procesu wąskopasmowego, b) generacja procesu wąskopasmowego na podstawie synfazowej i kwadraturowej składowej
286
4. PROCESY LOSOWE
Właściwość 5 Składowe n,(t) i nQ{t) mają taką samą wariancję, jak wąskopasmowy szum n(f). Właściwość taka wynika bezpośrednio na podstawie równania (4.175), zgodnie z którym całkowite pole pod krzywymi widmowej gęstości mocy nj(t) i nQ(f) jest takie samo jak pole pod krzywą widmowej gęstości mocy n{t). Stąd n,(t) i nQ(t) mają taką samą średniokwadraturową wartość jak n(f). Wcześniej pokazaliśmy, że ponieważ n(r) ma zerową średnią, to n^t) i nQ(t) również mają zerowe średnie. Stąd wynika więc, że n; (f) i nQ(t) mają tę samą wariancję co wąskopasmowy szum n(t).
Właściwość 6 Widma wzajemne gęstości mocy kwadraturowych składowych szumu wąskopasmowego są czysto urojone, co zapisuje się jako: S n,Nq(J) —
j [ W ^NqNjH) — o,
Q
c)
-
«
-B ^f^B gdzie indziej
(4.178)
Aby udowodnić tę właściwość, bierzemy transformaty Fouriera z obu stron równania (4.174) i biorąc pod uwagę wzór (4.176) otrzymujemy:
V 8l/> = - sv . l f ) = --[s *(/-/,)-s „(/+ X )] + + y [S » (/-/tl sgn ( / - / , ) + S„(/+£) sgn ( /+ /c)] = »
(4.179)
«
= - S „ ( / + / t) [1 + sg n (/+ /c)] -
i s N(/-/f)[l -s g n (/-/,)]
Postępując dalej zgodnie z procedurą podobną do opisanej w dowodzie właściwości 4 możemy pokazać, że równanie (4.179) redukuje się do postaci podanej w równaniu (4.178).
Właściwość 7 Jeśli wąskopasmowy szum n(f) jest szumem gaussowskim o zerowej średniej i widmowej gęstości mocy SN(f), która jest lokalnie symetryczna dookoła częstoliwości środka pasma ± fc, to wtedy synfazowy szum nj(t) i kwadraturowy nQ{t) są statystycznie niezależne. Dla udowodnienia tej właściwości stwierdzamy, że jeśli SN(f) jest lokalnie symetrycz na wokół ± fc, to: SN(J~fc) = SN(f+ fc),
-B ^ f^ B
(4.180)
W konsekwencji znajdujemy na podstawie równania (4.178), że widma wzajemne gęstości mocy będących w kwadraturze składowych nj(t) i nQ{t) są zerowe dla wszystkich częstotliwości. To zkolei oznacza, że funkcje korelacji wzajemnej R nj Nq(t) i RNqNi (t) są równe zeru dla wszystkich x, co można zapisać:
£ O A + t)Nc(r*)]=0
(4.181)
i co z kolei implikuje, że zmienne losowe N,(tk + 1) i N Q(tk) (otrzymane przez obserwacje szumu synfazowego w chwili tk + x i szumu kwadraturowego odpowiednio w chwili tj są ortogonalne dla wszystkich t. O wąskopasmowym szumie n{t) zakłada się, że jest szumem gaussowskim o zerowej średniej; stąd na podstawie właściwości 1 i 2 wynika, że zarówno Nj{tk+x) jak i N Q(tk)
287
4.14. SZUM WĄSKOPASMOWY
są szumami gaussowskimi o zerowej średniej. W ten sposób konkludujemy, że ponieważ N,(tk + t ) i N Q{tk) są ortogonalne i mają zerową średnią, to są one nieskorelowane, a ponieważ są szumami gaussowskimi, więc są statystycznie niezależne dla wszystkich t. Innymi słowy synfazowy szum nĄt) i kwadraturowy szum nQ(t) są statystycznie niezależne. W zgodności z właściwością 7 możemy wyrazić funkcję gęstości prawdopodobieńst wa zmiennych losowych N,{tk + x) i N Q(tk) (dla dowolnego opóźnienia r) jako iloczyn ich funkcji gęstości prawdopodobieństwa w następujący sposób: /n ;
< tk nq +1)
hq)— /n}(tk+t)(ni)fsQtk)(PQ )
1
exp
«/ 2u"
1
exp
(4.182)
y/ljZ
Przykład 18 Filtracja szumu białego przez idealny filtr pasmowoprzepustowy Rozważamy biały szum gaussowski z zerową średnią i widmową gęstością mocy N 0/2, który przesyłany jest przez idealny filtr pasmowoprzepustowy o jednostkowej charakterystyce amplitudowej wewnątrz pasma przepustowego, przy czym filtr ten ma częstotliwość środkową f c i pasmo 2B. Charakterystyka widmowej gęstości mocy filtrowanego szumu n(t) będzie taka, jak pokazana na rys. 4.3la. Zadaniem naszym będzie określenie funkcji autokorelacji dla n(t), jak również jego składowych: synfazowej i kwadraturowej. Funkcja autokorelacji z n(f) jest odwrotną transformatą Fouriera charakterystyki widmowej gęstości mocy przedstawionej na rys. 4.3la: Nn f <+B RN(t)= J — exp(j2it/t)d/+ J —-e x p (j2 ^ /r)d / = - f c-B z f c-B l = JV0J3suic(2£t) [exp(-j2ji/c r)+exp(j2^/cT)] = = 2N0B sine (25t) cos ( 2 tt/ ct ) ~
co
f
c
+
B
(4.183)
pokazano na wykresie z rys. 4.3 lb.
Charakterystyka gęstości widmowej z rys. 4.31a jest symetryczna wokół ± f c. Stąd znajdujemy, że odpowiednia charakterystyka gęstości widmowej dla składowej synfazowej szumu n7(0 i dla składowej kwadraturowej szumu nQ(t) jest taka, jak pokazano na rys. 4.3 lc.
288
4. PROCESY LOSOWE
v / > =% (/ }
- B O B Rys. 431. Charakterystyki idealnego szumu białego odfiltrowanego w sposób pasmowoprzcpustowy: a) widmowa gęstość mocy, b) funkcja autokorelacji, c) widmowa gęstość mocy składowej synfazowej i kwadraturowej
Funkcja autokorelacji dla n,(r) i nQ(t) wynosi dlatego (por. przykład 16): r
n
,(?)
=
r n
q (z )
= 2N0Bsinc(2Br)
(4.184)
Przykład 19 Transmisja szumu białego przez filtr rezonansowy o dużej dobroci Rozważmy obecnie pasmowoprzepustowy filtr RLC przedstawiony na rys. 4.32a. Transmitancja tego filtru wiążąca napięcie wyjściowe z napięciem wejściowym, jest postaci
4.14. SZUM WĄSKOPASMOWY
289
Rys. 432. a) Filtr RLC, b) widmowa gęstość mocy przebiegu szumowego n(t) z wyjścia filtru wytworzona przez szum biały z wejścia, c) widmowa gęstość mocy synfazowej i kwadraturowej składowej przebiegu n(t)
H
R + j2 n f L + (l/j2it/C)
(4.185)
Częstotliwość rezonansowa filtru wynosi: (4.186) 2%yjLĆ natomiast dobroć Q jest zdefiniowana wzorem: (4.187) Możemy zatem przepisać równanie (4.185) w postaci: 19 Systemy telekomunikacyjne cz. 1
290
4. PROCESY LOSOWE
1
(4.188)
Jeśli dobroć Q filtru będzie duża w stosunku do jedności, to możemy aproksymować równanie (4.188) w następujący sposób: 1
1+}2Q(f-fc)/fc * 1 1 +j2<2(/+/c)//c ’
/> 0 (4.189) /< 0
Przypuśćmy, że podłączamy na wejściu tego filtru źródło napięciowe generujące biały szum gaussowski, o zerowej średniej i o widmowej gęstości mocy N 0/ 2. Gęstość widmowa mocy szumu pojawiającego się na wyjściu filtru jest dana wzorem: Ng/2 1+4 Q2( f - f f / f r N J2 1+4 Q2(/+fc)2/ f c '
f> 0 (4.190) /< 0
co pokazano na wykresie rys. 4.32b. Tak więc odpowiednie widmowe gęstości mocy składowej synfazowej szumu rz,(t) i składowej kwadraturowej szumu nQ(t) są opisane w przybliżeniu wzorem: SNlif) = SNq(/) ~
l+ (2 Qf/fc)2
(4.191)
co pokazano graficznie na rys. 4.32c. Porównując tę ostatnią relację z widmową gęstością mocy z przykładu 17 dla szumu filtrowanego dolnoprzepustowo członem RC widzimy, że oba wzory mają w zasadzie podobną postać. Oznacza to, że składowe: synfazowa i kwadraturowa szumu n(t) na wyjściu filtru wąskopasmowego z rys. 4.32a mają efektywnie tę samą charakterystykę co proces szumowy wytworzony na skutek filtracji szumu białego przez odpowiedni filtr dolnoprzepustowy RC.
Przedstaw ienie szumu w ąskopasm ow ego za pom ocą obwiedni i składowych fazow ych Dotychczas rozważaliśmy opis szumu wąskopasmowego n(t) za pomocą jego składowych synfazowych i kwadraturowych. Możemy jednak również przedstawić szum n(r) za pomocą obwiedni i fazy w następujący sposób: »(0 = r(t)cos [2tzfct + (A(£)]
(4.192)
»■(*)- [«/(t) + Mc(f)]ł/2
(4.193)
'Kt) = arctg
(4.194)
gdzie
oraz
291
4.14. SZUM WĄSKOPASMOWY
Rys. 433. Ilustracja układu współrzędnych dla przedstawienia szumu wąskopasmowego: a) w przeliczeniu na składową synfazową i kwadraturową, b) za pomocą obwiedni i fazy
Funkcję r(r) nazywa się obwiednią szumu n(t), a funkcję if/(t) nazywa się fazą n(t). Rozkłady prawdopodobieństwa r(f) i \p(t) mogą być w następujący sposób otrzymane z rozkładów odpowiadających przebiegom i nQ(t). Niech N, i N Qoznaczają zmienne losowe otrzymane przez obserwację (w pewnym ustalonym czasie) procesów losowych reprezentowanych przez odpowiednie funkcje próby n,(f) i nQ(t). Zanotujmy, że N, i N Qsą niezależnymi gaussowskimi zmiennymi losowymi, o zerowej średniej i wariancji o2, skąd możemy wyrazić ich łączną funkcję gęstości prawdopodobieństwa w postaci: = ^ 2 e jp (
)
(4-195)
Odpowiednio więc, prawdopodobieństwo łącznego zdarzenia, że N, znajduje się w przedziale pomiędzy nf a n7+ dn,, i że N Qleży pomiędzy nQa.nQ+ dnQ(tzn., że para zmiennych losowych Nj i N q leży wspólnie w zacienionym obszarze z rys. 4.33a) dane jest relacją: fnINQ^ I,nQ)dnI dnQ =
1
-^-exp
„2
nl dnjdnq 2a1 j
(4.196)
Zdefiniujmy przekształcenie (por. rys. 4.33a) n1 = rcosif/
(4.197)
nQ = rsim/^
(4.198)
W granicznym sensie możliwe jest przyrównanie dwu elementarnych pól zacienionych na rys. 4.33a i 4.33b i napisanie dnjdnQ = r d r d ^
(4.199)
Niech teraz R i oznaczają odpowiednie zmienne losowe otrzymane przez obserwację (przy pewnym czasie f) procesów losowych reprezentowanych przez obwiednię r(t) i fazę if/(t). Wtedy podstawiając równania (4.197), (4.198) i (4.199) do (4.196) znajdujemy, że prawdopodobieństwo łącznego położenia zmiennych losowych R i W wewnątrz zacienionego obszaru na rys. 4.33b jest równe: 19*
292
4. PROCESY LOSOWE
2 ^ exp( “5?)drd* Tak więc łączna funkcja gęstości prawdopodobieństwa dla jR i =—
wynosi:
exp ( - ^ )
(4.200)
Ta funkcja gęstości prawdopodobieństwa jest niezależna od kąta xj/, co oznacza, że zmienne R i są statystycznie niezależne. Możemy więc wyrazić/K^ ( r ^ ) jako iloczyn f R(r) i f ^ ) . W szczególności zmienna losowa 11/ reprezentująca fazę jest równomiernie rozłożona wewnątrz zakresu 0 do 2rc, zgodnie ze wzorem: 0 ^ i)/ < 2n
(4.201)
gdzie indziej W ten sposób funkcja gęstości prawdopodobieństwa zmiennej losowej R jest postaci: exp
(4.202)
(.0, gdzie indziej gdzie
(4.204)
Wtedy możliwe staje się przepisanie rozkładu Rayleigha z równania (4.202) w znormalizowanej postaci: (4.205) gdzie indziej
u
v
3
Rys. 4.34 Rozkład Rayleigha
4.15. SYGNAŁ SINUSOIDALNY Z SZUMEM WĄSKOPASMOWYM
293
Zależność (4.205) została pokazana na wykresie z rys. 4.34. Maksimum funkcji f y(o) występuje przy v = 1 i równe jest 0,607. Zanotujmy również, że w przeciwieństwie do rozkładu Gaussa, rozkład Rayleigha jest zerem dla ujemnych wartości u. Jest tak, ponieważ obwiednia r(f) może przyjmować jedynie dodatnie wartości.
4.15. Sygnał sinusoidalny z szumem wąskopasmowym Następny nasz krok to dodanie fali sinusoidalnej A cos(2nfct) do szumu wąskopasmowego n(t), przy czym A if. są obydwie stałymi. Zakładamy, że częstotliwość fali sinusoidalnej jest taka sama, jak nominalna częstotliwość nośna szumu. Funkcja próby wzięta z sumy fali sinusoidalnej i szumu może być wyrażona jako: x(f) = /4cos(2^f t ) + n(t)
(4.206)
Przedstawiając wąskopasmowy szum n(t\ w postaci sumy jego synfazowej i kwadraturowej składowej możemy napisać: x(t) = ri1{t)cos(2nft)-nQ{t)sm(2nft)
(4.207)
n'i(t) = A + njit)
(4.208)
gdzie
Zakładamy, że n(t) jest szumem gaussowskim o zerowej średniej i wariancji o2. Stosownie więc możemy stwierdzić co następuje: 1. Zarówno ni(t) jak i nQ(t) są szumami gaussowskimi i są statystycznie niezależne. 2. Średnia n'/(t) wynosi A, natomiast średnia nQ(t) równa się zeru. 3. Wariancja zarówno dla n'r(t) jak i nQ(t) wynosi a2. Możemy więc wyrazić łączną funkcję gęstości prawdopodobieństwa zmiennych losowych N’j i N q odpowiadających n)(t) i nQ(t) w następujący sposób: (rij — A + riQ la 2 ) 2
fN’r NQ(n'i,nQ)
2 ^ eXP
(4.209)
Niech r(r) oznacza obwiednię x(t) i niech \f/(t) oznacza fazę. Z równania (4.207) znajdujemy, że: -•(<) = {[ni(t)]2 + 4 (t)} 1,:!
(4.210) (4.211)
W ) = arctg[ * t t ]
Naśladując procedurę podobną do wyprowadzenia rozkładu Rayleigha w poprzednim punkcie stwierdzamy, że łączna funkcja gęstości prawdopodobieństwa zmiennych losowych R i odpowiadających r(f) i \}/(t) w pewnym ustalonym czasie t, opisana jest zależnością: 2ko 2 « p l
r2+ A 2 —2Ar cos ^ \ --------- j ? ------- )
(4.212)
Stwierdzamy, że jednak w tym przypadku nie możemy wyrazić łącznej funkcji gęstości prawdopodobieństwa f RtV(r,\(/) jako iloczyn f R(r) i Dzieje się tak, ponieważ mamy teraz człon zawierający wartości obu zmiennych losowych pomnożonych przez siebie w postaci
294
4. PROCESY LOSOWE
rcosi/f. Stąd R i są zależnymi zmiennymi losowymi dla niezerowych wartości amplitudy A składowej fali sinusoidalnej. Szczególne nasze zainteresowanie wzbudza funkcja gęstości prawdopodobieństwa dla R. W celu obliczenia tej funkcji całkujemy równanie (4.212) po wszystkich możliwych wartościach i\i otrzymując gęstość brzegową: f R(r) = f / a . - r M W = — 2 e
x
p
^ J e x p ^ c o s ^ d iA
(4.213)
Całka po prawej stronie równania (4.213) może być rozpoznana jako całka definiująca zmodyfikowaną funkcję Bessela pierwszego rodzaju zerowego rzędu (por. dodatek 4); czyli: 1 2* (4.214) /„<*> = 2n J exp(xcost^)di^ o Tak więc wprowadzając zmienną x = Arjo2 jesteśmy w stanie przepisać równanie (4.213) w zwartej formie: m
= -e * p (-
(4.215)
Tak zapisana relacja nosi nazwę rozkładu Rice’a13). Podobnie, jak w przypadku rozkładu Rayleigha, możliwe jest uproszczenie graficznej prezentacji rozkładu Rice’a przez podstawienie: u= — o
(4.216)
a=—
(4.217)
fyip) = fffR(r)
(4.218)
<7
Możemy teraz wyrazić rozkład Rice’a z równania (4.215) w znormalizowanej postaci: / t>2 + a2\ / K(u)exp(------ -— J I 0(ao)
(4.219)
którą przedstawiono na wykresie z rys. 4.35 dla wartości parametru a równych 0, 1, 2, 3, 4, 5. Na podstawie wykreślonych krzywych możemy dokonać następujących spostrzeżeń 1. Gdy a jest równe zeru, to rozkład Rice’a redukuje się do rozkładu Rayleigha. 2. Gdy a jest duże, to w okolicy v>— a obwiednia rozkładu jest w przybliżeniu krzywą Gaussa, a ma to miejsce wtedy, gdy amplituda fali sinusoidalnej A znacznie przewyższa a, czyli pierwiastek kwadratowy średniej mocy szumu n(t).
4.16. Podsumowanie Większa część materiału przedstawionego w tym rozdziale dotyczyła charakterystyki specjalnej grupy procesów losowych, o których wiadomo, że są stacjonarne w szerszym sensie i ergodyczne. Implikacją stacjonarności w szerszym sensie jest fakt, że możemy rozwinąć częściowy opis procesów losowych za pomocą dwu parametrów uśrednianych po zbiorze: (1) średniej, która jest niezależna od czasu i (2) funkcji autokorelacji, która zależy jedynie od
295
4.16. PODSUMOWANIE
t’ Rys. 435. Rozkład Rice’a różnicy pomiędzy chwilami czasu, w których dokonuje się dwu obserwacji procesu14*. Ergodyczność umożliwia nam użycie średnich po czasie jako „estymatorów” interesujących nas parametrów. Średnie po czasie obliczane są za pomocą funkcji próby (tzn. pojedynczej realizacji) procesu losowego. Innym ważnym parametrem procesu losowego jest jego widmowa gęstość mocy. Funkcja autokorelacji i widmowa gęstość mocy stanowią parę transformat Fouriera. Wzory, które definiują przeliczanie widmowej gęstości mocy na funkcję autokorelacji i vice versa znane są jako relacje Einsteina—Wienera—Chinczina. W tablicy 4.1 prezentujemy postać graficzną funkcji autokorelacji i widmowych gęstości mocy pewnych ważnych procesów losowych przestudiowanych w tym rozdziale. Wszystkie procesy opisane w tej tablicy powinny z założenia mieć zerową średnią i jednostkową wariancję. Przedstawiona tablica powinna zapewnić Czytelnikowi wyczucie problemów takich, jak: (1) współzależność między funkcją autokorelacji a widmową gęstością mocy procesów losowych, (2) rola filtracji liniowej w kształtowaniu funkcji autokorelacji lub, ekwiwalentnie, widmowej gęstości mocy procesu mającego postać szumu białego. Końcowe partie rozdziału dotyczą procesów szumowych, które są gaussowskie o wąskim paśmie, będących rodzajem odfiltrowanych szumów, pojawiających się na wejściach idealnych odbiorników telekomunikacyjnych. Gaussowski charakter procesów oznacza, że zmienne losowe otrzymywane przez obserwację wyjścia filtru w pewnym ustalonym czasie mają rozkład Gaussa. Wąskopasmowa natura szumu oznacza, że może on być przedstawiony poprzez składową synfazową i kwadraturową. Obie te składowe są dolnopasmowe, są procesami gaussowskimi, każdy o zerowej średniej i wariancji równej tej, która związana jest z oryginalnym wąskopasmowym przebiegiem szumowym. Alternatywnie możemy przedstawić wąskopasmowy szum gaussowski za pomocą obwiedni o rozkładzie Rayleigha i za pomocą fazy o rozkładzie równomiernym. Każdy ze sposobów opisu wiąże się z pewnym specyficznym zakresem zastosowań, co pokazano w następnych rozdziałach tej książki. Materiał przedstawiony w tym rozdziale został w całości ograniczony do rzeczywis tych procesów losowych. Można go uogólnić na zespolone procesy losowe. Powszechnie
296
4. PROCESY LOSOWE
Tablica 4.1. FUNKCJE AUTOKORELACJI I WIDMOWE GĘSTOŚCI MOCY WYBRANYCH PROCESÓW LOSOWYCH O ZEROWEJ ŚREDNIEJ I JEDNOSTKOWEJ WARIANCJI
297
4.16. PODSUMOWANIE
Tablica 4.1. cd. Typ procesu, X(f)
Funkcja autokorelacji Rx{x)
Szum biały odfiltrowany układem RLC
Widmowa gęstość mocy Sx(f) A
1
—W / /
f
1
/
■■■■■■1 -1,0
__________
<)
1,0
/
spotykanym rodzajem zespolonego procesu losowego jest zespolony dolnopasmowy proces o charakterze gaussowskim, który pojawia się przy rozpatrywaniu równoważnej reprezentacji dla wąskopasmowego szumu gaussowskiego n(t). W punkcie 4.14 stwierdziliśmy, że szum n(t) jest jednoznacznie zdefiniowany za pomocą synfazowej składowej rij(t) i kwadraturowej składowej nQ(t). W ekwiwalentny sposób możemy zaprezentować szum wąskopasmowy n(t) za pomocą obwiedni zespolonej ń(t) zdefiniowanej wzorem nf(r) +jnQ(t). W celu zapoznania się ze statystyczną charakterystyką obwiedni zespolonej ń{t) odsyłamy Czytelnika do dodatku 7.
PRZYPISY I LITERATURA 1) Wstępny kurs teorii prawdopodobieństwa obejmuje książka Hamminga (1991). Wstęp do teorii prawdopodobieństwa i procesów losowych w ujęciu inżynierskim, por. Leon G arda (1989) i Helstrom (1990); pierwszy rozdział książki Leona Gardi zawiera dyskusję interpretacyjną modeli praw dopodobieństwa. Dokładne potraktowanie problemu można znaleźć w poz. Gray i Davisson (1986), Papoulis (1984), Wong (1983), Feller (1968) i Doob (1953). Podstawy teorii prawdopodobieństwa są w poz. Fine (1973), Jeffreys (1957), Kolmogorov (1956). 2) W praktyce spotyka się często inną ważną grupę procesów losowych, których średnia i funkcja autokorelacji wykazują okresowość w postad:
Px(t\+T)=Px(h) KyUi ł r , t j + 7 ) =
Rx^l’h)
dla wszystkich t t i t2. Proces losowy X (t) spełniający tę parę warunków nazywany jest cyklostacjonarnym (w szerszym sensie). Cyklostacjonamość modelu procesu X (t) dodaje nowy wymiar, mianowide okres T, w cząstkowym opisie procesu. Przykładem procesu cyklostacjonarnego może być sygnał telewizyjny otrzymany w wyniku wybierania rastrowego przypadkowego pola obrazu TV, względnie proces modulacji otrzymany przy zmiennośd amplitudy, fazy lub częstotliwośd fali sinusoidalnej. Dokładniej sza dyskusja procesów cyklostacjonamych dostępna jest w książce Franksa (1969), str. 204—214 i w publikacji Gardnera i Franksa (1975). 3) Dokładniejsze omówienie zagadnienia ergodycznośd znajduje się w poz. Gray i Davisson (1986). 4) Tradycyjnie, równ. (4.96) i (4.97) znane są w literaturze jako relacje Wienera—Chinczina w uznaniu pionierskich prac Norberta Wienera i A. I. Chinczina; ich oryginalne publikacje por. Wiener (1930) i Chinczin (1934). Odkryde zapomnianej pracy Alberta Einsteina dotyczącej analizy szeregów czasowych (dostarczonej do Swiss Physical Society w lutym 1914 r. Podczas spotkania w Bazylei) ujawnia, że Einstein na wiele lat przed Wienerem i Chinczinem przedyskutował funkcję autokorelacji i jej zależność od widmowej zawartośd szeregów czasowych. Angielskie tłumaczenie artykułu Einsteina wydrukowano w IEEE ASSP Magazine, vol. 4, October 1987. To specjalne wydanie zawiera również artykuł W. A. Gardnera i A. M. Yagloma omawiający oryginalną pracę Einsteina.
298
4. PROCESY LOSOWE
5) Dalsze szczegóły na temat estymacji widma mocy można znaleźć w poz. Blackman i Tukey (1958), Box i Jenkins (1976), Marple (1987) i Kay (1988). 6) Rozkład Gaussa i związane z nim procesy gaussowskie nazywane są w uczczeniu pamięci wielkiego matematyka C. F. Gaussa. W wieku 18 lat Gauss odkrył metodę najmniejszych kwadratów dla dopasowania prawdopodobnej wartości w ciągu pomiarów pewnej wielkości. Następnie Gauss użył metody najmniejszych kwadratów dla dopasowania orbit planet na podstawie danych pomiarowych po czym opublikował tę procedurę w książce z 1809 roku zatytułowanej Teoria ruchu Ciał Niebieskich. Zbierając dane na temat błędów obserwacji, rozwinął teorię rozkładu Gaussa. Rozkład ten znany jest również jako rozkład normalny. Częściowo ze względów historycznych przyjęło się, że matematycy posługują się terminem normalny, natomiast inżynierowie i fizycy używają nazwy gaussowski. 7) Łączna funkcja gęstości prawdopodobieństwa wektora gaussowskiego o wymiarze (n, 1) w postaci
*(*i) X «2) ♦
x
( 0
jest zdefiniowana jako:
1
-(x -p ^ C /lx -ti)
gdzie wskaźnik górny T oznacza transpozycję oraz = średni wektor X = E[X] Cx = macierz kowariancji X = E[(X —pY)(X—p*)7] C J 1 = transpozycja macierzy kowariancji Cx | C v | —wyznacznik macierzy kowariancji Cx
8) 9) 10)
11)
12) 13) 14)
Z wyprowadzeniem tej funkcji można zapoznać się w poz. Thomas (1969, str. 128—144), Davcnpotr i Root (1958, str. 147— 154) i Sakrison (1968, str. 87—97). Dokładne omówienie szumu elektrycznego zawierają poz. Van der Ziel (1970) i zbiorcza praca wydana przez Guptę (1977). Wstępne omówienie zjawiska szumu śrutowego prezentuje Helstrom (1990). Bardziej szczegółowe potraktowanie tematu zawiera publikacja Yue, Lugananiego i Rice’a (1978). Szum termiczny najpierw badany był eksperymentalnie przez J. B. Johnsona w 1928 r., w związku z czym czasami nazywany bywa „szumem Johnsona”. Eksperymenty Johnsona zostały teoretycznie potwierdzone przez Nyquista (1928). Bezszumność odbiornika może zostać również pomierzona za pomocą tak zwanego współczynnika szumów. Zależność pomiędzy współczynnikiem szumów i zastępczą temperaturą szumów wy prowadzono w dodatku 6 na końcu tej książki Rozkład Rayleigha nazywany jest tak dla uczczenia zasług angielskiego fizyka o nazwisku J. W. Strutt i tytule lord Rayleigh. Rozkład Rice’a zawdzięcza swą nazwę dzięki uhonorowaniu Stephena O. Rice’a za jego oryginalny wkład zrelacjonowany w dwu publikacjach, jakie ukazały się w 1944 i 1945 roku. Statystyczna charakterystyka systemów telekomunikacyjnych zaprezentowana w tej książce ograni czona jest do pierwszych dwu momentów, czyli średniej i funkcji autokorelacji (lub równoważnie funkcji autokorelacji) stosownego procesu losowego. Jednakże, gdy proces losowy przesyłany jest przez system nieliniowy, ważna część informacji zawarta jest w momentach wyższego rzędu odpowiedniego procesu wyjściowego. Parametry używane dla scharakteryzowania wyższego rzędu momentów w dziedzinie czasu nazywane są kumulantami (lub półniezmiennikamiy, ich wielowymiarowe transfor maty Fouriera noszą nazwę poliwidm czyli widm n-wymiarowych. Dyskusję wyższego rzędu kumulantów i poliwidm wraz z ich estymacją napotkać można w publikacjach Brillingera (1965) i Nikiasa i Raghuveera (1987).
299
4.16. PODSUMOWANIE
Rys. Z4.1
ZADANIA Zadanie 4.1 a) Pokaż, że funkcja charakterystyczna gaussowskiej zmiennej losowej oznaczonej przez X , mającej średnią px i wariancję o \ jest równa: >*(») = exp
u2 a \
b) Stosując wyniki z części a) wykaż, że n-ty moment centralny tej gaussowskiej zmiennej losowej jest równy: 1 x 3 x 5...(n —\)ox E l ( X - n x)«] 0
dla n parzystych dla n nieparzystych
Zadanie 4.2 Zmienna losowa X o rozkładzie Gaussa, zerowej średniej i wariancji o \ transformowana jest przez odcinkowo liniowy prostownik o charakterystyce wejścia-wyjścia danej przez relację (por. rys. Z4.1): X ^0 X<0 Funkcja gęstości prawdopodobieństwa nowej zmiennej losowej Y opisana jest wzorem:
a) Podaj fizyczne przyczyny powodujące taką matematyczną postać wyniku. b) Wyznacz wartości stałej k przez którą ważona jest funkcja <5(y).
Zadanie 43 Zmienna losowa X o rozkładzie gaussowskim, zerowej średniej i wariancji a \ transformowana jest przez układ o kwadratowej charakterystyce zdefiniowanej w postaci (por. rys. Z4.2) Y= X 2 Wykaż, że funkcja gęstości prawdopodobieństwa nowej zmiennej losowej Y zdefiniowana jest przez rozkład chi o dwu stopniach swobody:
300
4. PROCESY LOSOWE
Rys. Z4.2
i — 7= — exp ( - y r \ friy) = \ s f i n y v x V 2a*J 0, i
y<0
Wskazówka: znajdź prawdopodobieństwo P( Y < y) w dwu przedziałach y < 0 i y > 0.
Zadanie 4.4 Rozważ proces losowy X (i) o postaci: X (£) = sin(27c/t) w którym częstotliwość / jest zmienną losową równomiernie rozłożoną w przedziale (0, W). Pokaż, że X(t) jest niestacjonarny. Wskazówka: zbadaj funkcje próby procesu losowego X(r) dla częstotliwości / = WjA, Wjl i W.
Zadanie 4.5 Rozważ proces sinusoidalny: X(t) = Acos(2nfct) gdzie częstotliwość f c — stała, a amplituda A — równomiernie rozłożona: f
a
1, 0,
(a ) =
w pozostałych przypadkach
określ czy proces ten jest, czy nie jest stacjonarny w ścisłym sensie.
Zadanie 4.6 Proces losowy X (r) jest zdefiniowany jako: AT(r) = Acos(2nfct) gdzie A — zmienna losowa o rozkładzie Gaussa, zerowej średniej i wariancji o\. Ten proces losowy przyłożony jest na wejście idealnego integratora, wytwarzając wyjście: X
y(0 = J X(i)dx o a) Określ funkcję gęstości prawdopodobieństwa wyjścia y(t) w określonym czasie tk. b) Określ czy y(t) jest stacjonarny. c) Określ czy Y{t) jest ergodyczny.
301
4.16. PODSUMOWANIE
Zadanie 4.7 Niech X i Y będą statystycznie niezależnymi zmiennymi losowymi o rozkładzie Gaussa, każda o zerowej średniej i jednostkowej wariancji Zdefiniuj proces gaussowski Z(t) = X cos(2nf) + Ysin(2n:t) a) Wyznacz łączną funkcję gęstości prawdopodobieństwa zmiennych losowych Z (tx) i Z(f2) otrzymaną przez obserwację Z(t) dla czasów odpowiednio tt i t2. b) Czy proces Z(t) jest stacjonarny? Dlaczego?
Zadanie 4.8 Udowodnij następujące dwie właściwości funkcji autokorelacji Rx(t) procesu losowego 2f(t): a) Jeśli 2f(t) zawiera składową stałoprądową równą A, wtedy K*(t) będzie zawierać składową stałą równą A 1. b) Jeśli X (t) zawiera składową sinusoidalną, wtedy R x(t) będzie również zawierać składową sinusoidalną o tej samej częstotliwości.
Zadanie 4.9 Fala prostokątna x(t) z rys. Z4.3 o stałej amplitudzie A, okresie T0 i opóźnieniu td, reprezentuje funkcję próby procesu losowego X (t). Opóźnienie jest losowe i opisane przez funkcję gęstości prawdopodobieństwa: * T0 O d < w pozostałych przypadkach a) Określ funkcję gęstości prawdopodobieństwa zmiennej losowej X(tk) otrzymanej przez obserwację procesu losowego AT(t) w chwilach tk. b) Wyznacz średnią i funkcję autokorelacji od AT(t) za pomocą uśredniania po zbiorze. c) Określ średnią i funkcję autokorelacji od X (t) za pomocą uśredniania po czasie. d) Ustal czy X(t) jest stacjonarny w szerszym sensie. W jakim sensie jest on ergodyczny?
Zadanie 4.10 Fala binarna składa się z losowego ciągu symboli 1 i 0, podobnego do opisanego w przykładzie 8, z jedną różnicą: symbol 1 jest teraz reprezentowany przez impuls o amplitudzie A woltów
Rys. Z43
302
4. PROCESY LOSOWE
Rys. Z4.4 a symbol 0 jest reprezentowany przez zero woltów. Wszystkie inne parametry są takie same jak poprzednio. Wykaż, że dla tej nowej losowej fali binarnej X (t): a) Funkcja autokorelacji równa się:
b) Gęstość widmowa mocy jest równa:
Sx(f) = 44- W + i- 4I .in c * ( m Jaki procent mocy zawarty jest w składowej stałej fali binarnej?
Zadanie 4.11 Proces losowy Y(t) składa się ze składowej stałej równej ^ 3 /2 woltów, składowej okresowej g(t) i składowej losowej X(t). Funkcja autokorelacji Y(t) pokazana jest na rys. Z4.4. a) Jaka jest średnia moc składowej okresowej g{t)l b) Jaka jest średnia moc składowej losowej X(t)?
Zadanie 4.12 Rozważmy parę procesów losowych X{t) i Y(t) stacjonarnych w szerszym sensie. Pokaż, że funkcje korelacji wzajemnej RXY(x) i Ryr(r) tych procesów mają następujące właściwości: a) R-xy(t ) = — b) l « „ W I « |[ R , ( 0 ) + Rr (0)] gdzie: R*(t) i Ry(t) — funkcje autokorelacji odpowiednio dla X{t) i Y(t).
Zadanie 4.13 Rozważ dwa Filtry liniowe połączone kaskadowo, jak na rys. Z4.5. Niech X (f) będzie procesem stacjonarnym w szerszym sensie o funkcji autokorelacji Rx{t). Na wyjściu pierwszego filtru pojawia się proces losowy V(t) a na wyjściu drugiego filtru pojawia się proces Y(t). a) Znajdź funkcję autokorelacji dla Y(r). b) Znajdź funkcję korelacji wzajemnej RKy(r) dla F(t) i Y(t).
303
4.16. PODSUMOWANIE
/i,U)
XU)
U(t)
A U) 2
Y
Ul
Rys. Z4.5
Rys. Z4.6
Zadanie 4.14 Proces losowy X(t) stacjonarny w szerszym sensie przyłożony jest na wejście liniowego stacjonarnego filtru o odpowiedzi impulsowej h(t), powodując na wyjściu proces 7(r). a) Pokaż, że funkcja korelacji wzajemnej R rx(r) między wyjściem Y(t) i wejściem X (t) równa jest splotowi odpowiedzi impulsowej h(x) i funkcji autokorelacji i?*(r) z wejścia, zgodnie z relacją: 00
R yxW = J —00 Pokaż, że druga funkcja korelacji wzajemnej R xy(t) jest równa: oo R xy(*) = J h {-u )R x{x-u)du —00 b) Znajdź widmo wzajemne gęstości mocy SYX(f) i SXY(f). c) Zakładając, że proces X(t) jest szumem białym o zerowej średniej i widmowej gęstości mocy N J 2 , pokaż, że: ^rx(T) — 2 Skomentuj praktycznie znaczenie tego wyniku.
Zadanie 4.15 Na rysunku Z4.6 przedstawiono widmową gęstość mocy procesu losowego X (t). a) Wyznacz i naszkicuj funkcję autokorelacji R*(t) procesu AT(t). b) Jaka jest stałoprądowa składowa mocy zawarta w X(t)l c) Jaka jest zmiennoprądowa moc w X (r)? d) Jakie częstotliwości próbkowania dostarczą nieskorelowanych próbek X(t)2 Czy te próbki są statystycznie niezależne?
304
4. PROCESY LOSOWE
Rys. Z4.7 Zadanie 4.16 Para procesów szumowych n^t) i n2(t) powiązana jest relacją n2(t) = n1(t)cos(2ji/cf + 0) —n1(f)sin(27i/cr + 0) gdzie: f c — stała, a 6 — wartość zmiennej losowej 0 o funkcji gęstości prawdopodobieństwa zdefiniowanej wzorem: C— /.( « > = < 2n (0 ,
0 < 6 < 2% w innych przypadkach
Proces szumowy ni (r)jest stacjonarny a jego widmowa gęstość mocy pokazana jest na rys. Z4.7. Znajdź i wykreśl odpowiednią widmową gęstość mocy dla n2(t). Zadanie 4.17 Losowy sygnał telegraficzny X (t) opisany jest przez funkcję autokorelacji; Rx {x) = exp(—2d|t |) gdzie v — stała, podany jest na dolnoprzepustowy filtr RC z rys. Z4.8. Wyznacz widmową gęstość mocy i funkcję autokorelacji procesu losowego na wyjściu filtru. Zadanie 4.18 Wyjście generatora dane jest wzorem: X(f) = Acos(2nft—0 ) gdzie: A — stała, a / i 0 — niezależne zmienne losowe. Funkcja gęstości prawdopodobieństwa dla 0 zdefiniowana jest wzorem: 271 0,
,
0 ^ 9 < 2n w innych przypadkach
R
AA/V W ejście
o
Wyjście Rys. ZA&
305
4.16. PODSUMOWANIE Y
Rys. Z4.9 Znajdź widmową gęstość mocy dla X{t) za pomocą funkcji gęstości prawdopodobień stwa dla częstotliwości f Co stanie się z tą widmową gęstością mocy, gdy częstotliwość / przyjmie stałą wartość?
Zadanie 4.19 Stacjonarny proces gaussowski X(t) ma zerową średnią i widmową gęstość mocy Sx(f). Wyznacz funkcję gęstości prawdopodobieństwa zmiennej losowej otrzymanej przez obserwację procesu X (t) w pewnej chwili tk.
Zadanie 4.20 Proces gaussowski X (f) o zerowej średniej i wariancji a \ przesyłany jest przez prostownik dwupołówkowy opisany zależnością między wejściem a wyjściem z rys. Z4.9. Pokaż, że funkcja gęstości prawdopodobieństwa zmiennej losowej Yjf*), otrzymana przez obser wację procesu losowego Y(f) na wyjściu prostownika w chwili tk, zapisuje się w następujący sposób:
/roi, M = { v ? i exp( “ A ) l 0,
y< 0
Zadanie 4.21 Niech AT(f) będzie stacjonarnym procesem gaussowskim o zerowej średniej i funkcji auto korelacji R x(x). Proces ten przyłożono na wejście układu o charakterystyce kwadratowej danej przez relację wejścia-wyjścia (por. rys. Z4.2) Y(t) = X 2(t) gdzie Y(t) — wyjście. a) Stosując wynik z zadania 4.3 pokaż, że średnia z Y(f) wynosi Rx(0). b) Pokaż, że funkcja autokowariancji z Y(t) jest równa 2Rx(x).
Zadanie 4.22 Stacjonarny proces gaussowski X (t) o średniej nx i wiariancji a \ przesyłany jest przez dwa filtry liniowe o odpowiedziach impulsowych hx(t) i h2(t), w wyniku czego uzyskiwane są procesy 7(t) i Z (t\ jak pokazano na rys. Z4.10. a) Wyznacz łączną funkcję gęstości prawdopodobieństwa zmiennych losowych Y(r,) i Z(r2). b) Jakie warunki są konieczne i dostateczne do tego, aby Y(fi) i Z (ł2) były statystycznie niezależne? 20 Systemy telekomunikacyjne cz. i
306
4. PROCESY LOSOWE
Yii) ZU I
Rys. Z4.10
Rys. Z4.11
Zadanie 4.23 Stacjonarny proces gaussowski AT(r) o zerowej średniej i widmowej gęstości mocy Sx {f) przyłożony jest do liniowego filtru o odpowiedzi impulsowej /i(t) pokazanej na rys. Z4.ll. W chwili T na wyjściu filtru pobrano próbkę Y procesu losowego. a) Wyznacz średnią i wariancję z Y. b) Jaka jest fukcja gęstości prawdopodobieństwa z Y?
Zadanie 4.24 Rozważ proces gaussowski dla szumu białego o zerowej wartości średniej i widmowej gęstości mocy N J 2, który przyłożono na wejście górnoprzepustowego filtru RL z rys. Z4.12. a) Znajdź funkcję autokorelacji i widmową gęstość mocy procesu losowego na wyjściu filtru. b) Jaka jest średnia i wariancja na tym wyjściu?
Zadanie 4.25 Biały szum w(f) o widmowej gęstości mocy N J 2 przyłożony jest na wejście dolnoprzepustowego filtru Butterwortha rzędu n, którego odpowiedź amplitudowa zdefiniowana jest wzorem: 1 \H (f)\ =
D+t/zro
) 2 " ] 1 ' 2
R ■V/v— ? Wejście
Wyjście
o
Rys. Z4.I2
307
4.16. PODSUMOWANIE
Szum biały
Filtr pasmowoprzepustowy Hi(f)
Y
Filtr dolnoprzepustowy
Wyjście
H?(f)
cos (2jr/fr|
Rys. Z4.13 a) Wyznacz zastępcze pasmo szumów dla tego filtru dolnoprzepustowego. b) Jaka jest graniczna wartość zastępczego pasma szumów, gdy n dąży do nieskończoności?
Zadanie 4.26 Proces w postaci szumu śrutowego A"(t) zdefiniowany w równ. (4.140) jest stacjonarny. Dlaczego?
Zadanie 4.27 Biały szum gaussowski o zerowej średniej i widmowej gęstości mocy N J 2 przyłożony jest do układu filtrującego pokazanego na rys. Z4.13. Szum na wyjściu filtru dolnoprzepustowego oznaczono symbolem n(t). a) Znajdź widmową gęstość mocy i funkcję autokorelacji dla n(t). b) Znajdź średnią i wariancję dla n(t). c) Jaka jest częstotliwość, z którą n(t) może być próbkowany w ten sposób, aby otrzymane próbki były w zasadzie nieskorelowane?
Zadanie 4.28 Niech X(t) będzie procesem stacjonarnym o zerowej średniej, funkcji autokorelacji Rx(r) i widmowej gęstości mocy Sx (f). Znaleźć filtr liniowy o odpowiedzi impulsowej h(t) takiej, że po przyłożeniu na wejście szumu białego o widmowej gęstości mocy N J 2, wyjście filtru równe będzie X(t). a) Wyznacz warunek, jaki musi spełniać odpowiedź impulsowa /i(r), aby sprostać posta wionym wymaganiom. b) Jaki jest odpowiadający temu warunek nałożony na transmitancję H (f) filtru? c) Na podstawie kryterium Paleya-Wienera (patrz punkt 2.9) znajdź wymagania odnośnie Sx(f) zapewniające przyczynowość filtru.
Zadanie 4.29 Rozważ wąskopasmowy szum n(t) z transformatą Hilberta oznaczoną przez n(t). 20*
308
4. PROCESY LOSOWE
a) Pokaż, że funkcje korelacji wzajemnej n(r) i h(t) dane są relacjami:
oraz r n n
(x) ~
^ jv (t )
gdzie RN(z) — transformata Hilberta funkcji autokorelacji RN(t) szumu n(£). Wskazówka: Zastosuj wzór:
b) Pokaż, że RNf,{0) = 0.
Zadanie 430 Wąskopasmowy szum n(t) ma zerową średnią i funkcję autokorelacji RN{t). Jego widmowa gęstość mocy SN{f) wycentrowana jest dookoła ± fc. Tworzące kwadraturę składowe n,(t) i nQ(£) szumu »(£) zdefiniowane są przez sumy ważone: n,(t) = n(£)cos(27c/c£) + n(£)sin(2u/cr) oraz nQ(t) = h(i)cos(2nfct)—n(t)sin(2nfct) Stosując wynik z części a) zadania 4.29 pokaż, że n7(t) i nQ(t) mają funkcje korelacji RNj (x) = r nq{x) = « N(t)cos(27t/ct) + RN(T)sin(27t/cT) oraz RN}nq(x) = - r nqNj (x) = RN(r)sm(2nfcT ) - k N(x)cos{2nfcz)
Zadanie 431 Widmowa gęstość mocy wąskopasmowego szumu n(r) jest taka, jak na rys. Z4.14. Częstot liwość nośna jest równa 5 Hz. a) Znajdź widmowe gęstości mocy synfazowej i kwadraturowej składowej z n(f). b) Znajdź ich widma wzajemne gęstości mocy.
Rys. Z4.14
309
4.16. PODSUMOWANIE
Rys. Z4.15
Zadanie 432 Rozważ szum gaussowski n(t) o zerowej wartości średniej i widmowej gęstości mocy SN(f) pokazanej na rys. Z4.15. a) Znajdź funkcję gęstości prawdopodobieństwa dla obwiedni n(t). b) Jaka jest średnia i wariancja tej obwiedni? Rozważ problem propagacji sygnałów przez tak zwany kanał telekomunikacyjny z zanikami czyli kanał losowy.
Zadanie 433 Rozważ problem propagacji sygnałów w tak zwanych losowych kanałach telekomunikacyjnych lub inaczej w kanałach telekomunikacyjnych z zanikiem sygnałów. Przykładem takiego kanału może być jonosfera, która zapewnia odbicie z powrotem w kierunku Ziemi sygnałów krótkofalowych (dużej częstotliwości), umożliwiając w ten sposób transmisje radiowe, o dużym zasięgu. Innym przykładem takiego kanału będzie radiokomunikacja podwodna. Prosty model propagacji w takim kanale przedstawiono na rys. Z4.16, na którym za kropkowany obszar oznacza ośrodek o losowej charakterystyce rozpraszania w tym sensie, że pojedyncza wiązka fal padających na ten ośrodek dociera do odbiornika w postaci
Rys. Z4.16
310
4. PROCESY LOSOWE
znacznej liczby wiązek rozproszonych. Sygnał transmitowany równy jest Aexp(j2nfct). Zrób założenie, że wszystkie rozproszone promienie propagują z tą samą prędkością średnią. Jednakże każdy promień rozproszony różni się w fazie i amplitudzie od wiązki padającej, w wyniku czego k-ty rozproszony promień daje się opisać w postaci Akexp(j2nfct +)©*), gdzie amplituda Ak i faza 0 k powoli i losowo zmieniają się w czasie. W takich okolicznościach przyjmij, że 0 k stanowi zbiór niezależnych od siebie zmiennych losowych o rozkładzie równomiernym. a) Jeśli sygnał odbierany ma postać: x(t) = r(t)exp\j2nfct + \j/(t)'] to pokaż, że zmienna losowa R, otrzymana przez obserwację obwiedni odbieranego sygnału w czasie t ma rozkład Rayleigha i że zmienna losowa \J/, otrzymana przez obserwację fazy w ustalonym czasie, ma rozkład równomierny. b) Założywszy, że kanał zawiera bezpośrednią drogę transmisji sygnału*> tak, że sygnał odbierany zawiera składową sinusoidalną o częstotliwości f c pokaż, że w tym przypadku obwiednia odbieranego sygnału ma rozkład Rice’a.
*y Poza ośrodkiem rozpraszającym (przyp. tłum.).
Rozdział 5
Szum w układach modulacji z falą ciągłą 5.1. Wprowadzenie W rozdziale 3, studiowaliśmy z pozycji całkowicie deterministycznych teorię i techniki modulacji z falą ciągłą (CW) (tzn. modulacji amplitudy (AM) i modulacji częstotliwości (FM)). Następnie w rozdziale 4 wyposażyliśmy się w narzędzia matematyczne potrzebne do statystycznej charakteryzacji losowych sygnałów i szumów. Obecnie jesteśmy już gotowi do podjęcia studiów nad systemami modulacji CW zwracając naszą uwagę w stronę oceny wpływu szumów na ich funkcjonowanie, dzięki czemu możemy rozwinąć głębsze zrozumienie telekomunikacji analogowej. Aby podjąć analizę szumów w systemach modulacji CW, musimy wykonać kilka rzeczy. Pierwszą i najistotniejszą rzeczą jest mieć model odbiornika. Przy formułowaniu takiego modelu, stosuje się zazwyczaj przedstawienie szumu odbiornika (szum kanału) jako addytywnego, białego i gaussowskiego. Te upraszczające założenia umożliwiają nam wniknięcie w podstawowe mechanizmy oddziaływania szumów na pracę odbiornika. Co więcej, stanowią one porównawczy układ odniesienia przy ocenie charakterystyk szumowych różnych układów modulacji i demodulacji CW. Materiał niniejszego rozdziału ułożono w sposób następujący. W punkcie 5.2 opisujemy model odbiornika i definiujemy pewne parametry ilościowe charakteryzujące jego właściwości szumowe. Następne trzy punkty dotyczą szumów w odbiornikach AM, mianowicie dwuwstęgowych ze stłumioną falą nośną, jednowstęgowych i standardowych odbiorników z modulacją amplitudy. Następnie dyskutowany jest szum odbiorników FM, których analiza jest zadaniem już nieco trudniejszym. Rozdział kończy się analizą porównawczą właściwości szumowych systemów AM i FM.
5.2. Model odbiornika Idee związane z modelowaniem są fundamentalne przy analizie wszystkich systemów fizycznych, włączając w to systemy telekomunikacyjne. Poprzez modelowanie polepszamy zrozumienie możliwości i ograniczeń systemu. Przy formułowaniu modeli dla studiowania szumów w odbiornikach CW powinniśmy mieć w pamięci następujące uwagi:
312
5.
SZUM W UKŁADACH MODULACJI Z FALĄ CIĄGŁĄ
• Model dostarcza adekwatnego opisu szumu odbiornika, będącego przedmiotem powszech nego zainteresowania. • Model bierze pod uwagę wewnętrzną filtrację i charakterystyki systemu związane z modula cją. • Model taki jest dostatecznie prosty, aby dać możliwość analizy statystycznej systemu. W tej konkretnej sytuacji, proponuje się użycie modelu odbiornika z rys. 5.1, pokazanego w swej najprostszej postaci. Na rysunku tym, s(t) oznacza nadchodzący sygnał zmodulowany, a w(t) przedstawia wejściowy szum odbiornika. Sygnał odbierany jest zatem złożony z sumy s(r) i w(t); jest to sygnał, który odbiornik ma przatwarzać. Filtr pasmowoprzepustowy modelu z rys. 5.1 reprezentuje wspólne filtrowanie przez wzmacniacze rezonansowe użyte w odbiorniku w celu wzmocnienia sygnału przed jego demodulacją. Pasmo tego filtru środkowoprzepustowego jest tak dobrane, aby przesyłać sygnał modulowany s(f) bez zniekształceń. Co do demodulatora przestawionego na rys. 5.1, jego układ wynika naturalnie z rodzaju zastosowanej modulacji. Podczas przeprowadzania analizy szumowej systemu telekomunikacyjnego, do zwyczajowej praktyki należy założenie o szumie w(f), że jest addytywny, biały i gaussowski. Można więc oznaczyć przez N0/2 gęstość widmową mocy szumu w(t), zdefiniowaną dla dodatnich i ujemnych częstotliwości; wobec czego N 0 stanowi średnią moc szumu na wejściu odbiornika przypadającą najednostkę pasma. Zakładamy również, że filtr pasmowoprzepustowy w odbiorniku z rys. 5.1 jest idealny i ma pasmo równe pasmu transmisji BT sygnału modulowanego s(f) i częstotliwość środkową równą częstotliwości nośnej f c. To ostatnie założenie usprawiedliwione jest dla dwuwstęgowej modulacji (DSB-SC) ze stłumioną nośną, dla modulacji amplitudy (AM) i dla modulacji częstotliwości (FM); modulacja jednowstęgowa (SSB) i modulacja ze szczątkową wstęgą boczną (VSB) wymagają odrębnego potraktowania. Przyjmując, że częstotliwość środkowa filtru pasmowoprzepustowego jest identyczna jak częstotliwość nośna f c możemy modelować widmową gęstość mocy SN( f ) szumu n(t), która wynika w efekcie transmisji szumu białego w(t) przez filtr pokazany na rys. 5.2. W typowym przypadku częstotliwość f c jest duża w porównaniu do pasma przenoszenia BT. Możemy dlatego traktowaćfiltrowany szum n(t) jako szum wąskopasmowy reprezentowany przez postać kanoniczną: n(t) = «i(f)cos(27t f ct)—Ug(r)sin(2ji f ct)
(5.1)
gdzie nĄt) — synfazowa składowa szumów i nQ(r) — kwadraturowa składowa szumów, a obydwie składowe mierzone są w relacji do fali nośnej Ą.cos(27t/cr). Odfiltrowany sygnał x(t) przed demodulacją zdefiniowany jest jako: x(t) = s(t) + n{t)
(5.2)
Postać sygnału s(t) zależy od typu zastosowanej modulacji. W każdym wypadku średnia moc szumów na wejściu demodulatora równa jest całkowitemu polu pod krzywą widmowej gęstości mocy SN(f). Na podstawie rys. 5.2 łatwo stwierdzić, że średnia moc szumu równa się N 0BT. Jeśli postać s(f) jest znana, to jesteśmy w stanie wyznaczyć średnią moc sygnału na wejściu
5.2. MODEL ODBIORNIKA
313
Rys. 5.2. Wyidealizowana charakterystyka szumu filtracji pasmowoprzepustowej demodulatora. Jeśli modulowany sygnał s(t) i przefiltrowany szum n(t) sumują się na wejściu demodulatora zgodnie z równaniem (5.2), wtedy możemy przystąpić do zdefiniowania wejściowego stosunku sygnału do szumu, (SNR)/5jako stosunku uśrednionej mocy zmodulowanego sygnału s(t) do średniej mocy filtrowanego szumu n(t). Jednakże bardziej użyteczną miarą właściwości szumowych będzie wyjściowy stosunek sygnału do szumu (SNR)g, zdefiniowany jako stosunek średniej mocy zdemodulowanego sygnału informacyjnego do średniej mocy szumów zmierzonych na wyjściu odbiornika. Wyjściowy stosunek sygnału do szumu dostarcza intuicyjnej miary opisującej wierność z jaką proces demodulacji w odbiorniku odtwarza sygnał informacyjny na podstawie sygnału modulowane go w obecności szumu addytywnego. Aby kryterium takie było dobrze zdefiniowane musi zachodzić addytywność pomiędzy sygnałem odtwarzanej wiadomości a zakłócającym przebie giem szumowym na wyjściu demodulatora. Warunek taki jest spełniony w idealny sposób w przypadku odbiornika z detekcją koherentną. Z drugiej strony, jeśli odbiornik wyposażony jest w detektor obwiedni jak przy standardowej modulacji AM, względnie dyskryminator częstotliwości jak przy modulacji FM, wtedy konieczne jest założenie, że poziom filtrowanego szumu n(f) jest na tyle niski, że usprawiedliwia zastosowanie stosunku sygnału do szumu na wyjściu jako miary właściwości szumowych odbiornika. Wyjściowy stosunek sygnału do szumu zależy między innymi od typu modulacji zastosowanej w nadajniku jak również od typu demodulacji zastosowanej w odbiorniku. Cenna informacja zawarta jest w porównaniu wyjściowego stosunku sygnału do szumu dla różnych modulacji - demodulacji. Jednakże aby takie porównanie miało znaczącą wartość, musi być czynione na podstawie wspólnej bazy w dalej opisany sposób: • Modulowany sygnał s(t) przesyłany przez każdy z systemów musi charakteryzować się tą samą średnią mocą. • Szum na wejściu odbiornika w(f) powinien mieć ustaloną moc średnią mierzoną w paśmie informacyjnym W. Stosownie do tego, jako układ odniesienia możemy zdefiniować stosunek sygnału do szumu w ka nale (SNR)C, czyli stosunek średniej mocy sygnału modulowanego do średniej mocy szumu w paśmie informacyjnym, mierzonych na wejściu odbiornika. Stosunek taki może być uważany za stosunek sygnału do szumu, który mógłby wynikać przy transmisji sygnału informacyjnego m{t) w wyniku niemodulowanego przesyłu bezpośredniego w paśmie podstawowym, zgodnie z modelem z rys. 5.3. Założono przy tym, że po pierwsze moc sygnału informacyjnego na wejściu filtru dolnoprzepustowego wyregulowana jest na ten sam poziom, co moc średnia sygnału modulowanego i po drugie, że filtr dolnoprzepustowy przepuszcza sygnał informacyjny i tłumi szum spoza pasma.
314
5.
SZUM W UKŁADACH MODULACJI Z FALĄ CIĄGŁĄ
Sygnał informacyjny o mocy równej mocy faii zmodulowanej
Wyjście
Rys. 5.3. Schemat transmisji w paśmie podstawowym dla sygnału informacyjnego o założonym paśmie W, zastosowany w celu obliczenia stosunku sygnału do szumu w kanale
Celem porównania różnych systemów modulacji (CW) z falą ciągłą dokonuje się normalizacji funkcjonalnej charakterystyki odbiornika przez podzielenie stosunku sygnału do szumu na wyjściu przez stosunek sygnału do szumu w kanale. W ten sposób powstaje definicja współczynnika jakości odbiornika znanego jako współczynnik poprawy stosunku sygnał-szum, w następującej postaci: (SNR)0 współczynnik poprawy stosunku sygnał-szum = (SNR)C Oczywiście, im większa wartość tego współczynnika tym lepsze są właściwości szumowe odbiornika. Może być on równy jedności, mniejszy od jedności lub większy od jedności w zależności od typu zastosowanej modulacji W następnych czterech punktach zastosujemy opisaną już koncepcję w celu prze prowadzenia analizy (1) odbiorników DSB-SC stosujących detekcję koherentną (2) odbiorników SSB o detekcji koherentnej (3) odbiorników AM posługujących się detekcją obwiedni (4) odbiorników FM wyposażonych w dyskryminację częstotliwości; rozpatrzone zostaną również inne rozwiązania stosowane dla dużych poziomów szumu. Odbiorniki takie należą do typowych przykładów systemów modulacji CW, mających różne właściwości szumowe.
5.3. Szumy odbiorników DSB-SC Analiza szumowa odbiornika DSB-SC z detekcją koherentną należy do najprostszych spośród uprzednio wymienionych przypadków. Na rysunku 5.4 pokazano model odbiornika DSB-SC z detektorem koherentnym. Zastosowanie takie wymaga pomnożenia filtrowanego sygnału x(r) przez lokalnie generowaną falę sinusoidalną cos(2^ f ct) i następnie dolnoprzepustowej filtracji iloczynu. W celu uproszczenia analizy przyjmiemy, że amplituda lokalnie generowanej fali sinusoidalnej równa jest jedności. Aby jednak taki schemat demodulacji funkcjonował popraw nie, konieczne jest zsynchronizowanie lokalnego generatora co do fazy i częstotliwości z oscylatorem generującym falę nośną w nadajniku. Zakładamy, że udało się osiągnąć taką synchronizację. Składowa DSB-SC filtrowanego sygnału x(t) wyraża się wzorem: s(t) = CAccos(2nfct)m(t)
(5.4)
gdzie Arcos(2rc f ct) — sinusoidalna fala nośna, a m(t) sygnał informacyjny. W wyrażeniu na s(f) z równania (5.4) występuje czynnik skalujący C, który ma na celu zapewnić, aby składowa sygnałowa s(f) była mierzona w tych samych jednostkach, co addytywna składowa szumowa n(f). Zakłada się, że m(t) jest funkcją próby procesu stacjonarnego o zerowej średniej, dla którego widmowa gęstość mocy SM(f) ograniczona jest przez maksymalną częstotliwość W; oznacza to, że Wjest pasmem informacyjnym. Całkowita moc P równa jest całkowitemu polu pod krzywą widmowej gęstości mocy, co można pokazać jako:
315
5.3. SZUMY ODBIORNIKÓW DSB-SC
ylt)
W
J SU JW -W
Fala nośna jest statystycznie niezależna względem sygnału informacyjnego. Aby podkreślić tę niezależność, nośna powinna dysponować przypadkową fazą, która jest równomiernie rozłożona w zakresie 2 n radianów. W równaniu, które definiuje s(f) ten przypadkowy kąt fazowy został pominięty dla wygody opisu. Stosując wynik z przykładu 12 w rozdz. 4 dotyczący modulowanego procesu losowego możemy wyrazić moc średnią składowej s(r) sygnału modulowanego DSB-SC jako C2A c 2P/2. Przy gęstości widmowej szumu N J2 średnia moc szumu w paśmie informacyjnym W wyniesie WN0. Stosunek sygnału do szumu w kanale systemu DSB-SC wyniesie zatem: C2A 2cP 2WN q gdzie stała C2 zabezpiecza bezwymiarowość całego wyrażenia. Następnym naszym życzeniem będzie wyznaczenie stosunku sygnału do szumu na wyjściu systemu. Stosując wąskopasmowe przedstawienie filtrowanego szumu n(t) możemy wyrazić całkowity sygnał na wejściu detektora koherentnego w postaci: x(f) = s(/) + n(t) = CAcoos{2n / cr)m(t)-|-n/(r)cos(27rf ct)—nQ(t)sm(2Tifcf)
(5.7)
gdzie tij(t) i nQ(t)— synfazowa i kwadraturowa składowa n{t) względem nośnej. Sygnał na wyjściu modulatora iloczynowego wynosi zatem: o{t) = x{t)cos{2n f ct) = — CAcm{t)+ y «/(t) + + - [CAcm(t) + «/(t)]cos(4 n fct ) ~ AcnQ{t)sm{4n f ct) Dolnoprzepustowy filtr w detektorze koherentnym usuwa z u(t) składowe o dużej częstotliwości dając na wyjściu odbiornika sygnał w postaci: y(*) = -^C A em{t) +-«/(«) Równanie (5.8) prowadzi do następujących wniosków: 1. Sygnał informacyjny m(t) i składowa synfazowa szumów n^t) filtrowanego szumu n(r) pojawiają się na wyjściu w addytywny sposób.
316
5. SZUM W UKŁADACH MODULACJI Z FALĄ CIĄGŁĄ
2. Składowa kwadraturowa nQ(t) szumu n(t) jest całkowicie tłumiona przez detektor kohe rentny. Obydwa te wyniki pozostają niezeleżne od stosunku sygnału do szumu na wejściu. Tak więc detekcja koherentna odróżnia się na tle innych technik demodulacji ważną właściwością: wyjściowa składowa informacyjna nie podlega zniekształceniom, a składowa szumowa zawsze pojawia się addytywnie względem sygnału informacyjnego, niezależnie od wejściowego stosunku sygnału do szumu. Składowa sygnału niosąca informację równa jest na wyjściu odbiornika CAcm(t)/2. Dlatego moc średnia tej składowej może być wyrażona jako C2A 2P/4, przy czym P jest mocą średnią sygnału informacyjnego m(r), a C jest wcześniej wzmiankowanym czynnikiem skalującym zależnym od systemu. W przypadku modulacji DSB-SC filtr pasmowoprzepustowy z rys. 5.4 ma pasmo BT równe 2 W, aby pomieścić górną i dolną wstęgę sygnału modulowanego s(t). Wynika stąd, że średnia moc filtrowanego szumu n(r) równa się 2 WN0. Z właściwości 5 szumu wąskopasmowego opisanej w punkcie 4.14 wiemy, że średnia moc (dolnopasmowego) szumu synfazowego nj{t) jest taka sama jak moc (pasmowoprzepustowego) szumu filtrowanego n(f). Ponieważ na podstawie równ. (5.8) składowa szumów na wyjściu odbiornika wynosi nf{t)/2, więc wynika stąd, że średnia moc szumu na wyjściu odbiornika wynosi: (-)
2WN0 = ~ WNq
Wyjściowy stosunek sygnału do szumu w odbiorniku z detekcją koherentną wynosi zatem: C2A2P/4 (SNR)0 = W NJ 2
C2A2P 2WN0
Porównując równania (5.6) i (5.9) otrzymujemy współczynnik poprawy stosunku sygnał-szum (SNR), (SNR),
(5.10) DSB-SC
Zanotujmy, że czynnik C2 jest wspólny zarówno dla stosunku sygnału do szumu na wyjściu odbiornika jak i dla kanału, przez co następuje jego redukcja przy obliczaniu współczynnika poprawy. Zanotujmy też, że dla wyjścia z detektora koherentnego w odbiorniku z rys. 5.4 pracującego w systemie modulacji DSB-SC przesunięte wstęgi sygnałowe sumują się koherentnie, podczas gdy przesunięte wstęgi szumu sumują się niekoherentnie. Oznacza to, że stosunek sygnału do szumu na wyjściu odbiornika dwukrotnie przewyższa stosunek sygnału do szumu na wejściu detektora koherentnego.
5.4. Szumy odbiorników SSB Rozważmy teraz przypadek odbiornika z detekcją koherentną, w którym na wejście nadchodzi fala modulowana (SSB) z pojedynczą wstęgą boczną. Załóżmy, że przesyłana jest jedynie dolna wstęga, a więc możemy wyrazić falę modulowaną w postaci: s(0 = ~ CAc
(5.11)
317
5.4. SZUMY ODBIORNIKÓW SSB
gdzie m(t) —transformata Hilberta sygnału informacyjnego m(r). Podobnie jak poprzednio, aby zapewnić zgodność jednostek fizycznych dla składowej szumowej n(t) i składowej sygnału s(t) wprowadza się zależny od systemu czynnik skalujący C. Możemy poczynić następujące spostrzeżenia odnośnie synfazowych i kwadraturowych składowych s(f) w równ. (5.11): 1. Składowe m(t) i m(t) są względem siebie ortogonalne. Jeśli zatem założymy, że sygnał informacyjny ma średnią równą zeru, co jest rozsądnym założeniem, to wyniknie nam z tego brak korelacji między m(t) i m(t); stąd zaś wynika addytywność widmowych gęstości mocy. 2. Transformata Hilberta m(t) otrzymywana jest po przejściu sygnału m(t) przz filtr liniowy o transmitancji —jsgn(/). Kwadrat transmitancji równa się jedności dla wszystkich f Widzimy zatem, że m(t) i m(t) mają ten sam poziom widmowej gęstości mocy. Stosując procedurę podobną jak w punkcie 5.3 znajdujemy zatem, że składowe synfazowa i kwadraturowa sygnału modulowanego s(r) wnoszą jednakową moc C2A2P/S, przy czym P jest średnią mocą sygnału informacyjnego m(f). Średnia moc s(t) wynosi więc C2A2P/4. Równa się ona połowie mocy uzyskiwanej w odbiorniku DSB-CS, co jest intuicyjnie słuszne. Średnia moc szumu w paśmie informacyjnym W wynosi WV0, podobnie jak w odbiorniku DSB-CS. Tak więc stosunek sygnału do szumu w kanale odbiornika koherentnego z modulacją SSB równy jest: C2A 2P (SNRjc^sg — 4 WN0
(5.12)
W systemie SSB pasmo transmisji BT wynosi W, zgodnie z ilustracją z rys. 5.5a, przy czym częstotliwość środkowa widmowej gęstości mocy SN{f) wąskopasmowego szumu n(t) ma dewiację równą Wjl względem częstotliwości nośnej Możemy zatem wyrazić n(t) jako: (5.13)
n(t) = nf(r)cos
Pod sumarycznym wpływem sygnału modulowanego s(f) i szumu n(t) wyjście detektora koherentnego przyjmuje postać: y(t) = - C / l fm(t)-l-yM/ (0cos(7tW/f) + —nQ(t)sin(jrlTrt) 1
^
(5.14)
aL
Składowa kwadraturowa m(t) modulowanego sygnału informacyjnego s(t) została, jak należało by oczekiwać, wyeliminowana z wyjścia detektora, jednak składowa kwadraturowa szumu wąskopasmowego n(t) pojawia się teraz na wyjściu odbiornika w odróżnieniu od przypadku odbiornika DSB-SC. Składowa informacyjna na wyjściu odbiornika równa się CAcm(t)/4, co pozwala wyrazić średnią moc odtwarzanego synału informacyjnego jako C2A 2cPj 16. Składowa szumowa na wyjściu odbiornika wynosi [^(OcosfaWt) -f-nQ(t)sin(jrlPt)]/2. Aby wyznaczyć średnią moc szumu na wyjściu musimy rozważyć co następuje: 1. Widmowa gęstość mocy zarówno dla n,(t), jak i dla nQ(t) jest taka, jak przedstawiono na rys. 5.5b. 2 Fala sinusoidalna c o s ( ti Wt) jest niezależna zarówno od n,(t),jak i od nQ(t). Tak więc widmowa gęstość mocy nj(t) = n/ (t)cos(ttVH) otrzymywana jest przez przesunięcie SNl(f ) o Wjl w lewo, następnie o Wjl w prawo, zsumowanie przesuniętych widm i podzielenie wyniku przez 4, zgodnie z przykładem 12 z rozdz. 4. Widmowa gęstość mocy ^ (t) = nQ(t)sin(rc Wit) otrzymywana jest w podobny sposób. Otrzymane tą metodą widmowe gęstości mocy n\ (t) i ng(f) pokazano w postaci szkicu na rys. 5.5c.
318
c
SZUM W UKŁADACH MODULACJI Z FALĄ CIĄGŁĄ
/C :
li
5.
(/)
^0
A
-w o w
f
Rys. 5.5. Analiza szumowa systemu modulacji SSB stosującego detekcję koherentną: a) widmowa gęstość mocy szumu wąskopasmowego n(t) na wejściu detektora koherentnego, b) widmowa gęstość mocy synfazowej i kwadraturowej składowej n(t) w odniesieniu do f-W/2, c) widmowa gęstość mocy składowych nr (t) = n,(t)cos(iiWT) i nQ.(t) = ne(t)sin(n WT) Z rysunku 5.5c widzimy, że średnia moc składowej szumu ni(t) i «g(r) wynosi WNJ2. Stąd na podstawie równ. (5.14) wyjściowa średnia moc szumu wynosi WNJA. W ten sposób stwierdzamy, że wyjściowy stosunek sygnału do szumu w systemie o modulacji SSB w nadajniku i koherentnej detekcji w odbiorniku dany jest przez: C2A 2cP (SNR)ossb — 4 WN0
(5.15)
5.5.
319
SZUMY ODBIORNIKÓW AM
Tak więc na podstawie równań (5.12) i (5.15) współczynnik poprawy stosunku sygnał-szum takiego systemu wynosi: (SNR)0 (SNR)C SSB
1
(5.16)
ponownie widzimy, jak upraszcza się czynnik C2. Porównując równ. (5.10) i (5.16) stwierdzamy, że przy takiej samej średniej mocy nadawanego sygnału ( lub mocy zawartej w zmodulowanym sygnale informacyjnym) i przy takiej samej średniej mocy szumu w paśmie informacyjnym, odbiornik SSB będzie miał identyczny wyjściowy stosunek sygnału do szumu jak odbiornik DSB-SC, o ile w obydwu odbiornikach będzie stosowana detekcja koherentna dla odtworzenia sygnału informacyjnego. Co więcej, w obydwu przypadkach właściwości szumowe odbiornika są identyczne, jak przy bezpośrednim przesłaniu sygnału informacyjnego w obecności szumu o takim samym poziomie. Jedynym efektem procesu modulacji jest przeniesienie sygnału informacyjnego do innego pasma częstotliwości w celu ułatwienia transmisji przez kanał pasmowoprzepustowy.
5.5. Szumy odbiorników AM Przeprowdzimy teraz w następnej kolejności analizę szumową systemu modulacji amplitudy (AM) wykorzystującego detektor obwiedni w odbiorniku, zgodnie z modelem przedstawionym na rys. 5.6. Przy pełnym sygnale AM zarówno wstęgi boczne jak i fala nośna przesyłane są zgodnie z relacją: s(t) = A J f + kam(tj]cos(2n f ct)
(5.17)
gdzie A ccos(2 tcf ct) — fala nośna, m(t) — sygnał informacyjny, a ka— stała określająca głębokość modulacji. W wyrażeniu na składową s(t) sygnału modulowanego amplitudowo z równ. (5.17) nie ma potrzeby użycia czynnika skalującego, ponieważ można sensownie założyć, że amplituda nośnej Ac wyraża się w tych samych jednostkach co addytywna składowa szumowa. Podobnie jak w przypadku odbiorników DSB-SC przeprowadzimy analizę szumową odbiornika AM najpierw przez wyznaczenie stosunku sygnału do szumu w kanale, następnie zaś stosunku sygnału do szumu na wyjściu. Moc średnia składowej nośnej w sygnale AM wynosi A2/2. Średnia moc składowej niosącej informację Ackam(t)cos(2itfct) równa jest A 2ckjP/2, przy czym P jest średnią mocą sygnału informacyjnego m(t). Średnia moc pełnego sygnału AM s(t) równa jest przeto A2C{\ + k2aP)!2. Podobnie jak w systemie DSB-SC, średnia moc szumu w paśmie informacyjnym równa się WN0. Stosunek sygnału do szumu w kanale AM wynosi więc: A 2c{l+ k2aP) (SNR)CiAM= 2 WNo
(5.18)
Filtr pasmowo przepustowy
Sygnał AM
s(t) —
w(t)
Szum
Rys. 5.6. Model szumiącego odbiornika AM
*<0
Detektor obwiedni
Sygnał wyjściowy
y(t)
320
5.
SZUM W UKŁADACH MODULACJI Z FALĄ CIĄGŁĄ
a
b
Rys. 5.7. a) Wykres wskazowy fali AM z szumem wąskopasmowym w przypadku dużego stosunku fali nośnej do szumu, b) wykres wskazowy fali AM z szumem wąskopasmowym dla małego stosunku fali nośnej do szumu
Aby określić wyjściowy stosunek sygnału do szumu najpierw przedstawimy odfilt rowany szum n(t) w przeliczeniu na jego składowe synfazową i kwadraturową. Możemy więc zdefiniować sygnał filtrowany x(t) przyłożony do detektora obwiedni w odbiorniku modelu jak na rys. 5.6 w następujący sposób: x(t) = s(0+n(t) = [Ac+ Ackam(t) + n7(t)]cos(27r .^f) —«c(t)sin(2n f ct)
(5.19)
Warto także przedstawić składowe sygnału x(r) za pomocą wskazów jak na rys. 5.7a. Na podstawie tego wykresu wskazowego wyjście odbiornika bez trudu wyznacza się jako: y(t) = obwiednia x(f) = {[Ac+ Ackl/n(t) + nI(t)']2+n^(t)}m
(5.20)
Sygnał y(r) definiuje wyjście idealnego detektora obwiedni. Faza x(r) nie ma dła nas żadnego znaczenia, gdyż idealny detektor obwiedni jest całkowicie nieczuły na zmiany fazy sygnału x(f). Wyrażenie definiujące y(t) jest nieco skomplikowane i w celu otrzymania przejrzystych wyników powinno ulec uproszczeniu. W szczególności chcielibyśmy aproksymować wyjście y(t) przez sumę składowej informacyjnej i składowej szumowej. Ogólnie jednak biorąc jest to trudne do osiągnięcia. Kiedy jednak średnia moc fali nośnej jest duża w porównaniu ze średnią mocą szumów, czyli kiedy odbiornik pracuje zadowalająco, wtedy człon sygnałowy Ac[\ + kjn(t)~\ będzie duży w porównaniu do członów szumowych n,(t) i nQ(t) przynajmniej prawie przez cały czas. Wtedy możemy przybliżyć wyjście y(r) jako (por. zadanie 5.8): y(t)~ Ac+ Ackam(t)+ ni(t)
(5.21)
Obecność członu stałoprądowego Ac w sygnale y(t) z równania (5.21) na wyjściu detektora obwiedni spowodowana jest przez demodulację nadawanej fali nośnej. Człon ten możemy pominąć, gdyż nie wykazuje on żadnych związków z sygnałem informacyjnym m(r). W dowolnym przypadku składowa stała może być usunięta przez kondensator blokujący. Tak więc jeśli zaniedbamy człon stałoprądowy A( w równaniu (5.21), to pozostała część z dokładnością do czynników skalujących tworzy przebieg wyjściowy podobny do wyjścia odbiornika DSB-SC z detekcją koherentną. W konsekwencji wyjściowy stosunek sygnału do szumu dła odbiornika AM wyposażonego w detektor obwiedni wynosi w przybliżerniu: A \k\? (SNR)0iAM« 2 WN0
(5.22)
5.5. SZU MY ODBIORNIKÓW AM
321
Równanie (5.22) obowiązuje jednak tylko przy spełnieniu następujących warunków: 1. Średnia moc szumów jest mała w porównaniu do średniej mocy fali nośnej na wejściu detektora obwiedni. 2. Czułość amplitudowa ka wyregulowana jest na głębokość modulacji mniejszą lub równą 100 procent. Na podstawie równań (5.18) i (5.22) otrzymujemy następujący współczynnik poprawy stosunku sygnał-szum dla modulacji amplitudowej: (SNR)0 k2aP (SNR)C AM^ \+ k 2aP
(5.23)
W porównaniu zatem do odpowiedniego współczynnika dla odbiornika DSB-SC, który dla detekcji koherentnej równy jest jedności, odpowiedni współczynnik poprawy stosunku syg nał-szum odbiornika AM z detekcją obwiedni stanowi wielkość mniejszą od jedności. Innymi słowy właściwości szumowe odbiornika AM są zawsze gorsze, niż dla odbiornika DSB-SC. Powodowane jest to stratami mocy nadajnika, wynikającymi z przesyłania nośnej jako skła dowej fali AM.
Przykład 1 Modulacja tonem pojedynczym Rozważmy konkretny przypadek fali modulowanej przez pojedynczą falę sinusoidalną o częstot liwości f m i amplitudzie Am zapisaną wzorem: m(t) = Amcos(2nfmt) Odpowiednia fala AM dana jest wzorem: s(f) = Ae[ 1 +/icos(27i/nt)]cos(27r/cr) gdzie g — kaAm — współczynnik głębokości modulacji Średnia moc fali modulującej m(t) w obciążeniu stanowiącym opór o wartości 1 om wynosi:
Na podstawie równania (5.23) otrzymujemy: (SNR)0 (SNR)C A M
(5.24) l+ — k2aA i
Gdy g = 1, co odpowiada 100 procent głębokości modulacji, dostaje się współczynnik poprawy stosunku sygnał-szum równy 1/3. Oznacza to, że przy równości innych czynników, system AM stosujący detekcję obwiedni w celu uzyskania tej samej jakości charakterystyk szumowych, musi przesyłać trzy razy większą moc średnią niż system z tłumioną falą nośną i detekcją koherentną.
Efekt progow y Opisane funkcjonowanie detektora obwiedni zmienia się zupełnie, jeśli stosunek nośnej do szumu jest mały w stosunku do jedności, a człon szumowy dominuje. W takim przypadku bardziej przydatne jest przedstawienie wąskopasmowego szumu n(t) w zależności od obwiedni r(f) i fazy ii/(t), jak pokazano dalej: 21 Systemy telekomunikacyjne cz. 1
322
5.
SZUM W UKŁADACH MODULACJI Z FALĄ CIĄGŁĄ
n(t) = r(t)cos[(27i f ct + tf/(tj]
(5.25)
Odpowiedni wykres wskazowy sygnału wejściowego detektora x(f) = s(t) + n(f) został przed stawiony na rys. 5.7b gdzie jako sygnał odniesienia wybrano szum, ponieważ stanowi on tutaj składową dominującą. Oprócz wskazu szumów narysowano wskaż reprezentujący sygnał Ą.[l -t-fc^r)] tworzący ze wskazem szumów kąt ij/(t) równy fazie n(t). Na rysunku 5.7b założono, że przynajmniej przez większą część czasu amplituda nośnej Ac jest mała w porów naniu z obwiednią szumów r(r), co czyni stosunek nośnej do szumu bardzo małym. Wtedy możliwe jest pominięcie kwadraturowej składowej sygnału względem szumu i wyznaczenie na podstawie rys. 5.7b przybliżonej wartości sygnału na wyjściu detektora obwiedni: y(f) ^ Kr) + Ą cosO (t)] + AJcam{t)cos[ij/(t)']
(5.26)
Relacja ta wskazuje na brak składowej na wyjściu detektora, która byłaby ściśle proporcjonalna do sygnału informacyjnego m(r) w przypadku, gdy stosunek nośnej do szumu jest mały. Ostatni człon wyrażenia definiującego y(t) zawiera sygnał informacyjny m(f) pomnożony przez szum w postaci cos[^(r)]. Na podstawie punktu 4.14 możemy przypomnieć, że faza ip{t) wąskopas mowego szumu n(r) jest równomiernie rozłożona w przedziale 2n radianów. Wynika stąd całkowita utrata informacji w tym sensie, że wyjście detektora zupełnie nie zawiera sygnału informacyjnego m(t). Taka utrata informacji w detektorze obwiedni pracującym przy małym stosunku nośna-szum nazywana jest efektem progowym1*. Przez próg rozumie się wartość stosunku nośna-szum, poniżej którego właściwości szumowe detektora pogarszają się znacznie szybciej niż proporcjonalnie do spadku stosunku nośna-szum. Ważnym jest podkreślenia, że każdy nieliniowy detektor (w tym detektor obwiedni) przejawia efekt progowy. Z drugiej jednak strony efekt taki nie występuje w przypadku detektora koherentnego. Szczegółowa analiza efektu progowego w detektorach obwiedni jest skomplikowana i z pewnością wykracza poza poziom przyjęty w tej książce. Możemy jednak poczynić pewien wgląd w efekt progowy czyniąc następujące oszacowanie. Niech R oznacza zmienną losową otrzymaną przez obserwatora procesu obwiedni na podstawie funkcji próby r(t) przy pewnym ustalonym czasie. Intuicyjnie oczekujemy, że detektor obwiedni będzie pracował wewnątrz obszaru progowego, jeśli prawdopodobieństwo przekroczenia przez zmienną losową Ac amplitudy fali nośnej będzie np. równe 0,5. Z drugiej strony, jeśli to samo prawdopodobieństwo wyniesie 0,01, to detektor obwiedni spełni oczekiwania normalnej pracy bez utraty informacji i bez efektu progowego. Ocenę stosunków fali nośnej do szumu odpowiadających takim proawdopodobieństwom ilustruje następujący przykład. Przykład 2 Obwiednia r(t) wąskopasmowego szumu n(t) ma rozkład Rayleigha, opisany w punkcie 4.14; a zatem:
aw^
“ p( - 4 )
gdzie o% — wariancja szumu n(r). W systemie AM wariancja o* równa jest 2 WN0. Stąd prawdopodobieństwo, że obwiednia R szumu wąskopasmowego n(t) jest duża w porównaniu do amplitudy nośnej definiuje się wzorem: QO X r2 exp dr = P{R>AĄ= J/* (r)d r= f 4 WN0 ac 2 W V 0 (5.27) At = exp 4 WN o
323
5.6. SZUMY ODBIORNIKÓW FM
Zdefiniujmy stosunek nośna-szum jako: średnia moc nośnej P= średnia moc szumu w paśmie modulowanego sygnału informacyjnego
(5.28)
Ponieważ pasmo sygnału AM równa się 2 W, więc średnia moc szumu w tym paśmie równa się 2 WN0. Średnia moc nośnej równa się A2J 2. Stosunek nośna-szum wynosi więc: P=
(5-29)
4 WNo
Przy użyciu tej definicji możemy przepisać równanie (5.27) w skróconej formie P(R>Ac) = exp(-p) Rozwiązując P{R
(5.30)
= 0,5 względem p mamy:
p = ln2 = 0,69 Podobnie dla P {R ^A C) = 0,01 dostaje się: p = ln 100 = 4,6 Tak więc przy stosunku nośna-szum 10 log10 0,69 = —1,6 dB, detektor obwiedni jest znacznie przesunięty w obszar pracy podprogowej, podczas gdy dla stosunku nośna-szum 10 log10 4,6 = 6,6 dB oczekujemy, że detektor będzie pracował w odpowiedni sposób. Zazwyczaj dla osiągnięcia dostatecznej wierności odtwarzania potrzebujemy stosunku sygnału do szumu znacznie większego od 6,6 dB, stąd też efekty progowe rzadko tylko stanowią czynnik limitujący pracę odbiorników AM z detekcją obwiedni.
5.6. Szumy odbiorników FM Na koniec zwrócimy uwagę w stronę analizy szumów w systemach z modulacją częstotliwości (FM), dla których wprowadzamy model odbiornika pokazany na rys. 5.8. Podobnie jak poprzednio szum w(f) przyjmujemy w postaci białego szumu gaussowskiego o zerowej średniej i gęstości widmowej N J 2. Odbierany sygnał FM s(r) ma częstotliwość nośną f c i pasmo przesyłania BT, stąd tylko znikoma część mocy leży poza pasmem częstotliwości f c-I- BT/2 dla dodatnich częstotliwości. Podobnie jak w przypadku AM, filtr pasmowoprzepustowy ma częstotliwość środ kową^ i pasmo BT, które pozwala przesłać sygnał FM w zasadzie bez zniekształceń. Zazwyczaj Filtr pasmowoSygnał FM
*10
+ Szum
Rys. 5.8. Model szumiącego odbiornika FM 21*
Dolnoprzepustowy filtr pasma
324
5. SZUM W UKŁADACH MODULACJI Z FALĄ CIĄGŁĄ
Bt jest małe w porównaniu do częstotliwości środkowej tak, iż można posłużyć się wąskopasmową reprezentacją sygnału n(t), będącego odfiltrowaną wersją szumów odbiornika w(t), przeliczoną na składowe synfazowe i kwadraturowe. W systemie FM informacja przesyłana jest za pośrednictwem zmian częstotliwości chwilowej sinusoidalnej fali nośnej, której amplituda pozostaje wielkością stałą. Wynika stąd, że jakiekolwiek zmiany amplitudy nośnej na wejściu odbiornika wynikać mogą jedynie z szumów lub zakłóceń. Aby usunąć takie przypadkowe zmiany amplitudy stosuje się ogranicznik amplitudy, dołączony do wyjścia filtru pasmowoprzepustowego modelu odbiornika z rys. 5.8, który obcinając falę modulowaną z wyjścia filtru czyni ją symetryczną względem osi zera amplitudy. Integralną część ogranicznika stanowi następny filtr pasmowy, który zaokrągla falę prostokątną powstałą po obcięciu, tłumiąc tym samym harmoniczne częstotliwości nośnej. Tak więc wyjście filtru ponownie przybiera postać sinusoidy, której amplituda praktycznie nie zależy od amplitudy fali nośnej na wejściu odbiornika. Dyskryminator w modelu odbiornika z rys. 5.8 składa się z dwu części: 1. Członu różniczkującego o liniowym zboczu i czysto urojonej transmitancji liniowo zmiennej z częstotliwością. Wytwarza on falę modulowaną hybrydowo, której zarówno amplituda jak i częstotliwość zmieniają się w takt sygnału informacyjnego. 2 Detektora obwiedni, który daje na wyjściu przebieg o zmiennej amplitudzie, odtwarzając w ten sposób sygnał informacyjny. Człon ze zboczem liniowym i detektor obwiedni zazwyczaj zaprojektowane są jako integralne części pojedynczego układu fizycznego. Filtr podetekcyjny, oznaczony jako „dolnoprzepustowy filtr pasma podstawowego” ma pasmo dostateczne do przesyłania najwyższych składowych częstotliwości sygnału informacyj nego. Filtr ten usuwa pozapasmowe składowe szumu z wyjścia dyskryminatora i zapewnia w ten sposób minimalny poziom szumu na wyjściu Filtrowany szum n(t) na wyjściu filtru środkowoprzepustowego z rys. 5.8 definiowany jest przez rozwinięcie na składową synfazową i kwadraturową w postaci: n(t) = nj(t)cos(27t/ct)—nQ(f)sin(2n: f ct) Równoważna definicja polega na wyrażeniu n{t) z pomocą obwiedni i fazy za pomocą wzoru: n(t) = r(t)cos [2nfct + if/ (t)]
(5.31)
przy czym obwiednia wynosi: r(t) = ln2d t) + » m m
(5.32)
faza natomiast wyraża się zależnością: W ) = a r c .g [ ^ ! ]
(5.33)
Obwiednia r(f) (zobacz punkt 4.14) ma rozkład Rayleigha, natomiast faza t//(r)jest równomiernie rozłożona w przedziale 2rc. Nadchodzący sygnał FM zdefiniowany jest wzorem: s(t) = Ą.cos j^2jr/cr+2nfc/
(5.34)
gdzie Ac— amplituda fali nośnej,f c— częstotliwość nośna, kf — czułość częstotliwościowa, a m(t) — sygnał informacyjny. Zauważmy też, że jak w przypadku standardowej modulacji AM, przy modulacji FM nie ma potrzeby wprowadzania czynników skalujących do definicji sygnału
325
5.6. SZUMY ODBIORNIKÓW FM
modulowanego s(f), ponieważ można przyjąć, że amplituda Ac ma te same jednostki co addytywna składowa szumowa n(f). Aby kontynuować, napiszemy: (p(t) = 2itkf fm(t)dt o
(5.35)
Możemy zatem wyrazić s(ż) w prosty sposób: s(r) = Accos[2jt/et + 0 (r)]
(5.36)
Zaszumiony sygnał na wejściu filtru pasmowoprzepustowego wyniesie x(t) = s(f) + n(f) = Accos[2nfct+
(5.37)
Pouczająco będzie przedstawić x(f) w postaci wykresu wskazowego z rys. 5.9. Na wykresie tym umieszczono człon sygnałowy w roli sygnału odniesienia. Faza 9(t) wypadkowego wskazu reprezentującego x(t) może być wyznaczona bezpośrednio z rys. 5.9 w postaci: 0(t) = m + arctg {
j
(5.38)
Obwiednia x(f) nie jest dla nas istotna, gdyż jakiekolwiek zmiany obwiedni na wyjściu pasmowoprzepustowym obcinane są przez ogranicznik amplitudy. Chcielibyśmy teraz zająć się wyznaczeniem błędu spowodowanego przez obecność filtrowanego szumu n(f) i objawiającego się odchyłką częstotliwości chwilowej fali nośnej. Zakładając idealny dyskryminator mamy wyjście proporcjonalne do 0'(f)/27t przy czym ^(t) jest pochodną 0(f) względem czasu. Biorąc pod uwagę złożoność wyrażenia definiującego 0(f) musimy wszakże poczynić pewne upraszczające przybliżenia, aby nasza analiza mogła dostarczyć pożytecznych wyników. Założymy, że stosunek nośnej do szumu mierzony na wejściu dyskryminatora jest duży w stosunku do jedności. Niech R oznacza zmienną losową otrzymaną przez obserwację (w pewnym ustalonym czasie) procesu obwiedni z funkcją próby r(f) wynikłą z szumu n(t). Teraz przynajmniej przez większą część czasu zmienna losowa R jest mała w porównaniu do amplitudy nośnej Ac i przez to wyrażenie na fazę 0(f) upraszcza się znacznie, a mianowicie: D(l) = # ) + ^ i i n [ # ) - # n lub inaczej, za pomocą wyrażenia
(5.39)
danego równaniem (5.35y.
* r(t) 0(f) ~ 2itkf fm(t)dt-l—— sin [if/(t)—0 (f)] o
(5.40)
Wyjście dyskryminatora wyniesie zatem: u(f) = - -
^ kf m(t)+nd(t)
(5.41)
gdzie człon szumowy nd(t) zdefiniowany jest jako: 1 "a(0 = 2nA, dł
(r(t)s in [> (t)-0 (f)]}
(5.42)
Widzimy więc, że jeśli zapewniono duży stosunek nośnej do szumu, to wyjście dyskryminatora u(f) składa się z oryginalnego sygnału informacyjnego lub fali modulującej m(f) pomnożonego
326
5.
SZUM W UKŁADACH MODULACJI Z FALĄ CIĄGŁĄ
Rys. 5.9. Wykres wskazowy fali FM z szumem wąskopasmowym w przypadku dużego stosunku fali nośnej do szumu
przez stały czynnik kf i dodanego do składowej szumowej nd(t). Moglibyśmy teraz zastosować poprzednio definiowany stosunek sygnału do szumu na wyjściu w celu oceny jakości odbiornika FM. Zanim to jednak wykonamy, postaramy się uprościć wyrażenie definiujące nd(t). Jak wynika z wykresu wskazowego, pokazanego na rys. 5.9, efekt zmienności fazy ip(t) szumu wysokopasmowego pojawia się w odniesieniu do składowej sygnału $(r). Wiemy też, że faza \j/{t) jest równomiernie rozłożona w zakresie 2n. Warto więc pokusić się o założenie, że również różnica f( t) —(f>(t) będzie równomiernie rozłożona w zakresie 2 k radianów. Jeśli takie założenie by się sprawdziło, wtedy szum na wyjściu dyskryminatora byłby niezależny od sygnału modulującego, zależny zaś jedynie od nośnej i szumu wąskopasmowego. Rozważania teoretyczne przekonują, że założenie powyższe usprawiedliwione jest pod warunkiem zapewnienia dużego stosunku nośnej do szumu2). Wtedy równanie (5.42) może być uproszczone do postaci: * ^ -{ r(t)s m [^ )]}
(5.43)
W takim przypadku jednak, na podstawie równań definiujących r(t) i t//(r) stwierdzamy, że składowa kwadraturowa nQ(t) odfiltrowanego szumu n(t) wynosi: nQ(t) = r(*)sin [
(5.44)
Możemy więc przepisać równanie (5.43) w postaci: 1 dnQ(t) 2nAc dt
(5.45)
Oznacza to, że szum addytywny nd{t) pojawiający się na wyjściu dyskryminatora określony jest efektywnie przez amplitudę nośnej Ac i składową kwadraturową nQ(t) wąskopasmowego szumu n(t). Wyjściowy stosunek sygnału do szumu zdefiniowany jest jako stosunek średniej mocy sygnału do średniej mocy szumu na wyjściu. Składowa informacyjna na wyjściu dyskryminatora, a zatem i wyjście filtru dolnoprzepustowego wynosi kf m(t) zgodnie z równaniem (5.41). Stąd wynika, że średnia moc sygnału na wyjściu równa się kjP, gdzie P jest śerdnią mocą sygnału informacyjnego. Dla wyznaczenia średniej mocy szumu na wyjściu zanotujmy, że szum nd(f) na wyjściu dyskryminatora jest proporcjonalny do pochodnej czasowej składowej kwadraturowej szumu nQ{t). Ponieważ zróżniczkowanie funkcji względem czasu odpowiada pomnożeniu jej transfor maty Fouriera przez }2 n f więc logicznie wynika z tego możliwość otrzymania procesu szumowego nd(t) w wyniku przepuszczania nQ(t) przez filtr liniowy o transmitancji równej:
5.6.
327
SZUMY ODBIORNIKÓW FM
Oznacza to, ża gęstość widmowa mocy SNJ f ) szumu nd(t) pozostaje w następującej relacji do gęstości widmowej mocy SN<2{f) kwadraturowej składowej nQ(t): w
- z ę W
(5-46)
Jeśli filtr pasmowoprzepustowy w modelu odbiornika z rys. 5.8 ma idealną charakterys tykę częstotliwościową opisaną pasmem BT i środkową częstotliwością f0 to podobny ksztah charakterystyki gęstości widmowej mocy będzie mieć wąskopasmowy szum n(t). To z kolei oznacza, że kwadraturowa składowa nQ(t) wąskopasmowego szumu n(r) będzie mieć idealną charakterystykę dolnoprzepustową przedstawioną na rys. 5.10a. Odpowiadająca temu gęstość widmowa mocy szumu nd(t) pokazana jest na rys. 5.1Ob; a więc:
(5.47) w pozostałych przypadkach W modelu odbiornika z rys. 5.8 wyjście dyskryminatora dołączone jest do filtru dolnoprzepustowego o paśmie równym pasmu informacyjnemu W. Dla szerokopasmowej modulacji FM zazwyczaj okazuje się, że W jest mniejsze od BT/2, przy czym BTjest pasmem transmisji sygnału FM. Oznacza to, że składowe szumu nd(t) pozostające poza pasmem zostaną wyeliminowane. Stąd gęstość mocy widmowej SNo( f) szumu n jt) pojawiającego się na wyjściu odbiornika zdefiniowana jest jako: \f\* W
(5.48)
w pozostałych przypadkach co pokazano na rys. 5.10c. Średnia moc szumu na wyjściu wyznaczona jest przez scałkowanie gęstości widmowej mocy SNo{f) od —Wdo W. Otrzymujemy w ten sposób wynik: N w 2N W 3 Średnia moc szumu na wyjściu = —- J f 2d f = — — Aę _ W jA C
(5.49)
Zanotujmy, że średnia moc szumu na wyjściu jest odwrotnie proporcjonalna do średniej mocy fali nośnej A2/2. Konsekwencją tego jest fakt, że w systemach FM wzrost mocy fali nośnej prowadzi do zjawiska obniżenia szumów. Poprzednio wyznaczyliśmy średnią moc sygnału na wyjściu jako k}P. Teraz pod warunkiem, że stosunek nośnej do szumu jest znaczny, możemy podzielić średnią moc sygnału na wyjściu przez średnią moc szumu na wyjściu z równania (5.49), aby otrzymać stosunek sygnału do szumu: l A 2ck}P (SNR)o.™ =
(5.50)
Średnia moc w modulowanym sygnale s(f) wynosi A2/2, podczas gdy średnia moc szumu w paśmie informacyjnym równa jest WN0. Tak więc stosunek sygnału do szumu w kanale wy niesie: (SNR)C>FM—
2 WN0
(5.51)
328
5.
SZUM W UKŁADACH MODULACJI Z FALĄ CIĄGŁĄ
V *0
o
Bj
2
Itr
2
f
Rys. 5.10 Analiza szumowa odbiornika FM: a) widmowa gęstość mocy składowej kwadraturowej nQ{t) wąskopasmowego szumu n(r), b) widmowa gęstość mocy szumu «<,(*) na wyjściu dyskryminatora, c) widmowa gęstość mocy szumu na(t) na wyjściu odbiornika Dzieląc stosunek sygnału do szumu na wyjściu przez stosunek sygnału do szumu w kanale otrzymujemy następujący współczynnik poprawy stosunku sygnał-szum dla modulacji częstot liwości: (SNR)0 (SNR)C F M
3 k}P W2
(5.52)
W punkcie 3.10 stwierdziliśmy, że dewiacja częstotliwości A /jest proporcjonalna do czułości częstotliwościowej kf modulatora. Z definicji wynika również, że współczynnik dewiacji D równy jest dewiacji częstotliwości A/ podzielonej przez pasmo informacyjne W Innymi słowy, współczynnik dewiacji D jest proporcjonalny do stosunku kf Pl,2jW. Następnie z równania (5.52) wynika, że współczynnik poprawy stosunku sygnał-szum szerokopas mowego systemu FM jest kwadratową funkcją współczynnika dewiacji. Z kolei zaś pasmo transmisji BT szerokopasmowej FM w przybliżeniu jest proporcjonalne do współczynnika dewiacji D. Możemy zatem stwierdzić, że jeśli stosunek nośnej do szumu jest znaczny, to wzrost pasma transmisji BT powoduje odpowiednio kwadratowy przyrost stosunku sygnału do szumu na wyjściu i kwadratowy przyrost współczynnika poprawy stosunku sygnał-szum systemu FM. Można
329
5.6. SZUMY ODBIORNIKÓW FM
więc odnotować ważny wniosek, wynikający z tego stwierdzenia, że w przeciwieństwie do modulacji amplitudy, modulacja częstotliwości stanowi efektywny mechanizm dla wymiany powiększonego pasma transmisji na polepszenie właściwości szumowych systemu. Przykład 3
Modulacja tonem pojedynczym
Rozważmy przypadek sygnału modulującego w postaci sinusoidalnej fali o częstotliwości f m i przyjmijmy, że wartość szczytowa dewiacji wynosi A f. Zmodulowany sygnał FM zdefiniowany jest więc jako: s(t) = ^ ccosj^2TtX 2nf c
t sin(2n /mr) L
Możemy zatem napisać: ‘ A/ 2 n k f j m{t)dt =
Jm
0
sm(2n/„t)
Różniczkując stronami względem czasu i wyznaczając m(r) mamy: m(f) =
A/
cos(2 n fmt)
Wynika stąd, że średnia moc nadawanego sygnału informacyjnego m(t) wydzielona na oporze o wartości 1 om dołączonym do wyjścia równa jest: p
=M . 2B
Podstawiając ten wynik do wzoru (5.50) podającego stosunek sygnału do szumu na wyjściu dostaje się: 3Ag(A/)2 (SNR)0jFM = 4 N 0W 3
3 AlP2 4 N0W
gdzie fi = A//tVstanowi wskaźnik modulacji. Biorąc równanie (5.52) dla oceny odpowiadającego tym warunkom współczynnika poprawy stosunku sygnał-szum dostaje się: (SNR)0 (SNR),
2 FM
3 . = —fi2 2P
(5.53)
Ważne jest aby podkreślić, że wskaźnik modulacji fi = Af/W określony jest przez pasmo W filtru dołączonego do wyjścia detektora, nie ma natomiast w zasadzie związku z częstotliwością modulującą f m choć sam filtr projektowany jest tak, aby przeniósł całe widmo danego sygnału informacyjnego. Jeśli określimy pasmo systemu jako W, to sinusoidalny sygnał informacyjny 0 częstotliwości f m będzie cechować się tym samym wyjściowym stosunkiem sygnału do szumu niezależnie od położenia częstotliwości f m w paśmie pomiędzy 0 a W. Szczególne zainteresowanie budzi porównanie właściwości szumowych systemów AM 1 FM. Można ocenić je w poglądowy sposób przez porównanie współczynników poprawy stosunku sygnał-szum obu systemów w przypadku sinusoidalnego sygnału modulującego. Przy głębokości modulacji równej 100 procent w systemie AM z modulacją tonem pojedynczym, na podstawie przykładu 1 mamy: (SNR)0
1
330
5. SZUM W UKŁADACH MODULACJI Z FALĄ CIĄGŁĄ
Porównując ten wynik z podobnym, otrzymanym w równaniu (5.53) dla współczynnika poprawy stosunku sygnał-szum w systemie FM widzimy, że polepszenie właściwości szumowych modulacji częstotliwości w porównaniu do modulacji amplitudy może mieć miejsce wtedy, gdy:
Możemy zatem określić mniej więcej fi = 0,5 jako granicę przejścia od wąskopasmowej FM do szerokopasmowej FM. Stwierdzenie to, oparte na rozważaniach szumowych stanowi dodatkowe potwierdzenie podobnych wniosków poczynionych w punkcie 3.10 przy rozważaniu pasma fal FM.
Efekt chw ytania Inherentną właściwością systemów FM jest minimalizacja wpływu sygnałów niepożądanych (np. szumu, zgodnie z wcześniej przeprowadzoną dyskusją), odnosząca się także do zakłóceń wytwarzanych przez inny sygnał zmodulowany częstotliwościowo, którego składowe widma leżą w pobliżu częstotliwości nośnej pożądanej fali FM. Jednakże tłumienie zakłóceń w odbiorniku FM zachodzi poprawnie jedynie w przypadku, gdy interferencja jest słabsza niż pożądany sygnał wejściowy FM. Gdy interferencja zaczyna być silniejszą z dwu składowych, odbiornik synchronizuje się względem silniejszego sygnału i w ten sposób wytłumia pożądane wejście FM. Gdy oba sygnały są mniej więcej jednakowej mocy, odbiornik synchronizuje się kolejno raz z jednym, a raz z drugim sygnałem. Zjawisko to znane jest jako efekt chwytania i stanowi dalszą charakterystyczną cechę modulacji częstotliwości.
Efekt progowy FM Sformułowanie relacji (5.50) definiującej stosunek sygnału do szumu w odbiorniku FM ważne jest jedynie w przypadku stosunku nośnej do szumu znacznie większego od jedności, a otrzymywane go z pomiaru wielkości na wejściu dyskryminatora. Eksperymentalnie można stwierdzić, że w miarę gdy szum na wejściu odbiornika przyrasta pogarszając stosunek nośnej do szumu, to w pewnej chwili następuje załamanie się pracy odbiornika FM. Pierwsze objawy tego zjawiska to pojedyncze trzaski słyszane na wyjściu odbiornika, przy dalszym zaś pogarszaniu stosunku nośnej do szumu, pojedyncze trzaski nagle zlewają się w jeden świszczący dźwięk. W pobliżu punktu załamania równanie (5.50) przestaje obowiązywać, gdyż daje wyższe w stosunku do rzeczywistych wartości stosunku sygnału do szumu na wyjściu. Zjawisko to znane jest jako efekt progowyZ) FM. Próg zatem zdefiniowany jest jako minimalna wartość stosunku nośnej do szumu, przy której efekt pracy FM nie jest jeszcze znacząco pogorszony w porównaniu z wartościami przewidywanymi przez wzory obowiązujące dla stosunku sygnał-szum dla szumu o małym poziomie mocy. Rozpocznijmy jakościowy opis efektu progowego FM od przypadku, gdy sygnał jest nieobecny, w związku z czym nośna nie jest zmodulowana. Wtedy łączny sygnał na wejściu dyskryminatora daje się zapisać w postaci: x{t) = [Ac+ n, (£)] cos (2nfct) —n^ft) sin (27t/cf)
(5.54)
gdzie nj(t) i ne(r) oznaczają odpowiednio synfazową i kwadraturową składową wąskopasmowego szumu n(f), w stosunku do fali nośnej. Relacje fazowe pomiędzy poszczególnymi składowymi x(t) z równania (5.54) ujmuje wykres wskazowy z rys. 5.11. Przypadkowe zmiany amplitudy i fazy
331
5.6. SZUMY ODBIORNIKÓW FM
Rys, 5.11 Wykres wskazowy dla reprezentacji równania (5.54)
składowych n,(t) i nQ(t) powodują ruch w czasie punktu P, (czyli końca wskazu opisującego x(f)) dookoła punktu P2 (czyli końca wskazu reprezentującego nośną). Dla dużych stosunków fali nośnej do szumu składowe nt(t) i nQ(t) są znacznie mniejsze od amplitudy fali nośnej przez co wędrujący punkt Pj z rys. 5.11 znajduje się przez większość czasu w okolicy punktu P2. W ten sposób kąt 9(t) osiąga w przybliżeniu wartość nQ(t)/Ac z dokładnością do wielokrotności 2n. Z drugiej strony, gdy stosunek nośnej do szumu jest niski, wędrujący punkt P xod czasu do czasu zakreśla trajektorię w pobliżu początku układu, przez co kąt 6(t) zwiększa się lub zmniejsza o 2n. Na rysunku 5.12 pokazano z grubsza, jak zmiany 0(f) zaznaczone na rys. 5.12a wytwarzają impulsopodobne składowe w dziedzinie O'(f) = d6/dt. Wyjście dyskryminatora v(t) równe jest przy tym &(t)j2%. Wymienione składowe impulsowe mają różne wysokości zależne od tego, jakie będzie zbliżenie wędrującego punktu Pl względem początku układu 0, jednakże pole wszystkich tych impulsów równa się w przybliżeniu ± 2 n radianów, co ilustruje rys. 5.12b. Gdy sygnał pokazany na rys. 5.12b przejdzie przez podetekcyjny filtr dolnoprzepustowy, to na wyjściu odbiornika pojawią się odpowiednio poszerzone impulsopodobne składowe, które słychać jako trzaski odbiornika. Trzaski powstają tylko wtedy, gdy faza 0(f) zmienia się o + 2n radianów. Na podstawie wykresu wskazowego z rys. 5.11 możemy odtworzyć warunki niezbędne przy powstawaniu trzasków. Kliknięcie odbiornika następuje w dodatnią stronę, gdy obwiednia r(f) i faza iJ/(t) wąskopasmowego szumu n(f) spełniają następujące warunki: r(t) > Ac
iHO < 71 < 0 dt Warunki takie oznaczają zmianę fazy 0(f) o 2%w elementarnym czasie dt, w którym faza szumu wąskopasmowego wzrasta o elementarną wartość d^(f). Podobnie, kliknięcie odbiornika następuje w ujemną stronę przy spełnieniu warunków: r(t) > Ac \f/(t) > —k > tj/(t)+di//(t)
Warunki te oznaczają, że faza 0(f) zmienia się o —2n radianów w elementarnym czasie dt. Stosunek nośna-szum zdefiniowany jest zatem w postaci: A 2c 2B tN 0
(5.55)
Gdy p wzrasta, zwiększa się również średnia liczba kliknięć na jednostkę czasu. Jeśli liczba ta staje się znacząco duża mówimy o wystąpieniu efektu progowego. Stosunek sygnału do szumu na wyjściu oblicza się jak następuje: 1. Za sygnał wyjściowy uważa się wyjście odbiornika pomierzone w warunkach nieobecności szumu. Średnia moc sygnału na wyjściu obliczana jest przy założeniu modulacji sinusoidalnej
332
5.
SZUM W UKŁADACH MODULACJI Z FALĄ CIĄGŁĄ
Rys. 5.12. Ilustracja impulsopodobnych składowych w O'(t) = d#(t)/dt wytworzonych przez skoki fazy kąta 0(t) o 2tt; a) i b) są wykresami odpowiednio 6(t) i 9'(t) wytwarzającej dewiację częstotliwości A/ równą BT/2, tak aby fala nośna doznawała zmian w pełnym zakresie wejściowego pasma częstotliwości. 2. Średnia moc szumu na wyjściu obliczana jest w warunkach nieobecności sygnału; oznacza to brak modulacji fali nośnej i jednocześnie brak ograniczeń nałożonych na wartość stosunku p nośnej do szumu. Na tej podstawie, teoria4*pozwala na wyznaczenie krzywej I z rys. 5.13 reprezentującej wykres wyjściowego stosunku sygnału do szumu w funkcji stosunku nośnej do szumu w przypadku, gdy stosunek BT/2W równy jest 5. Krzywa ta ujawnia, że stosunek sygnału do szumu odbiega znacz nie od funkcji liniowej w przypadku, gdy stosunek p nośnej do szumu obniża się do poziomu mniejszego od 10 dB. Krzywa II z rys. 5.13 pokazuje wpływ modulacji na stosunek sygnału do szumu na wyjściu przy jednoczesnej obecności szumu i sygnału modulującego (który z założenia jest sinusoidalny). Średnia moc sygnału na wyjściu właściwa dla krzywej II może być efektywnie uznana za identyczną jak dla krzywej I. Średnia moc szumu na wyjściu jest jednakże silnie zależna od obecności sygnału modulującego, co powoduje zauważalną różnicę w przebiegu krzywej I i II. W szczególności gdy p zmniejsza się od nieskończoności, to wyjściowy stosunek sygnału do szumu odbiega od liniowego charakteru względem p o ile p wynosi około 11 dB. Efektywna liczba kliknięć w ciągu sekundy zwiększa się, gdy w obecności sygnału następuje modulacja nośnej. Eksperymentalnie stwierdza się, że pojedyncze kliknięcia słyszalne są na wyjściu odbiornika przy stosunku nośnej do szumu równym około 13 dB, co wypada jedynie nieco powyżej poziomu przewidywanego przez teorię. Wypada też zanotować, że zwiększenie liczby kliknięć na sekundę przy obecności modulacji powoduje nieco ostrzejszy spadek wyjściowego stosunku sygnału do szumu pod samym poziomem progowym.
5.6. SZUMY ODBIORNIKÓW FM
333
Rys. 5.13. Zależność wyjściowego stosunku sygnału do szumu od stosunku nośnej do szumu na wejściu. W przypadku krzywej I, średnia moc szumu na wyjściu obliczona jest przy założeniu braku modulacji fali nośnej. W przypadku krzywej II średnia wyjściowa moc szumu obliczona jest dla nośnej zmodulowanej przez sygnał w formie sinusoidy. Obydwie krzywe I i II otrzymano na podstawie wyliczeń teoretycznych
Z przeprowadzonej dyskusji wynika, że w praktycznych przypadkach można uniknąć zjawisk progowych w odbiornikach FM, jeśli stosunek nośnej do szumu p jest równy lub większy od 20 co odpowiada 13 dB. Na podstawie równania (5.55) znajdujemy więc, że utrata sygnału informacyjnego na wyjściu dyskryminatora jest zaniedbywana jeśli:
334
5.
SZUM W UKŁADACH MODULACJI Z FALĄ CIĄGŁĄ
Ac 2BtN 0 lub jeśli średnia moc przesyłana /łc2/2 spełnia warunek: A — > 20B tN 0
(5.56)
mmł
Przy wykorzystaniu tego wzoru postępujemy w następujący sposób: 1. Dla zadanego wskaźnika modulacji /? i pasma informacyjnego W wyznaczymy za pomocą reguły Carsona lub za pośrednictwem krzywej uniwersalnej z rys. 3.36 pasmo BT przesyłania fali FM. 2 Dla zadanej średniej mocy szumu N 0 przypadającej na jednostkę pasma, stosujemy równanie (5.56) aby określić minimalną wartość średniej przesyłanej mocy A*/!, która niezbędna jest dla uzyskania pracy ponadprogowej.
Redukcja progu FM Dla niektórych zastosowań modulacji częstotliwości, w tym dla komunikacji satelitarnej, jesteśmy zainteresowani obniżeniem progu szumowego odbiornika FM tak, aby odbiornik spełniał wymogi pracy przy minimalnym poziomie mocy sygnału. Obniżenie progu może być uzyskane przez zastosowanie w odbiorniku FM demodulatora z ujemnym sprzężeniem zwrotnym5) (zwyczajowo określanego mianem demodulatora FMFB) lub przez zastosowanie demodulatora z pętląfazową. Idea takiej grupy układów zwanych demodulatorami z rozszerzonym progiem przedstawiona została na rys. 5.14. Rozszerzenie progu przedstawione na tym rysunku, mierzone jest w porównaniu ze standardowym dyskryminatorem częstotliwości (bez sprzężenia zwrotnego).
Rys. 5.14. Poszerzenie progu FM
335
5.6. SZUMY ODBIORNIKÓW FM
Fala FM
Mieszacz
Filtr pasmowo przepustowy
Ogranicznik i dyskryminator
Filtr dolnoprzepustowy pasma podstawowego
Sygnał wyjściowy
Generator sterowany napięciem
Rys. 5.15. Demodulator FMFB
Schemat blokowy demodulatora FMFB6) zamieszczono na rys. 5.15. Widzimy, że lokalny oscylator konwencjonalnej wersji odbiornika FM zastąpiony został przez generator sterowany napięciem (VCO), którego chwilowa częstotliwość regulowana jest przez sygnał demodulowany. W celu zrozumienia zasady funkcjonowania tego odbiornika wyobraźmy sobie przez chwilę, że odłączyliśmy VCO od obwodu przez otwarcie pętli sprzężenia. Załóżmy, że na wejście odbiornika przyłożono szerokopasmowy sygnał FM, podczas gdy do drugiego wejścia mieszacza dochodzi sygnał z VCO sterowanego tym samym sygnałem, lecz o nieco mniejszym indeksie modulacji Wyjście mieszacza stanowi różnicowa składowa częstotliwości ponieważ składowa sumacyjna usuwana jest przez filtr pasmowy. Można podejrzewać, że dewiacja na wyjściu mieszacza będzie niewielka, gdyż wynika ona z różnicy dwu dewiacji obu fal FM dochodzących do mieszacza, których wartości chwilowo choć duże, są prawie jednakowe. W związku z tym oba współczynniki modulacji odejmą się do siebie i wypadkowa fala FM na wyjściu mieszacza będzie miała współczynnik modulacji o znacznie mniejszej wartości. Taka fala FM o zmniejszonym indeksie modulacji może zostać przesłana przez filtr pasmowy o szerokości pasma stanowiącej zaledwie ułamek tej, którą stosuje się w szerokopasmowych systemach FM, a potem jest zmodulowana. Staje się teraz jasne, że drugi szerokopasmowy sygnał FM podłączony do mieszacza może być otrzymany przez sprzężenia zwrotne wyjścia dyskryminatora częstotliwości z wejściem generatora VCO. Pokażemy teraz, że jeśli stosunek nośnej do szumu jest odpowiednio duży, to stosunek sygnału do szumu w odbiorniku FMFB jest taki sam jak w konwencjonalnym odbiorniku FM o takim samym sygnale na wejściu i takiej samej mocy szumów. Przyjmijmy chwilowo, że nie ma żadnego sprzężenia zwrotnego w demodulatorze. Gdy na wejściu ogranicznika-dyskryminatora występuje łącznie niemodulowana fala nośna /łccos(2ji/ct) i wąskopasmowy szum n(t); n(t) = n,(r)cos(2Tc/ct) - nQ(t)sm(2nfjt) faza całego sygnału x(t) na wejściu ogranicmika-dyskryminatora wynosi w przybliżeniu nQ(t)/Ac o ile stosunek nośnej do szumu jest znaczny. Obiednia x(t) nie ma dla nas specjalnego znaczenia, skoro ogranicznik usuwa wszystkie wahania obwiedni. Tak więc cały sygnał na wejściu dyskryminatora częstotliwości składa się z fali o małym indeksie modulacji fazy spowodowanym przez składową nQ(t) szumu będącą w kwadraturze fazy względem nośnej. Po przyłożeniu sprzężenia zwrotnego, VCO generuje sygnał zmodulowany częstotliwościowe, który zmniejsza indeks modulacji fazy, a w związku z tym i kwadraturową składową nQ(t) szumów na wyjściu filtru pasmowoprzepustowego. Widzimy więc, że dopóki stosunek nośnej do szumu jest odpowiednio duży, odbiornik FMFB nie jest czuły na synfazową składową nf(t), podczas gdy demodulowałby on kwadraturową składową n^t) dokładnie w taki sam sposób, w jaki byłby
336
5.
SZUM W UKŁADACH MODULACJI Z FALĄ CIĄGŁĄ
demodulowany użyteczny sygnał zmodulowany. Ponieważ sygnał i szum kwadraturowy redukowane są w podobnym stopniu przez przyłożenia sprzężenia zwrotnego, więc stosunek sygnału do szumu w paśmie podstawowym nie zależy od sprzężenia zwrotnego. Dla dużych stosunków nośnej do szumu stosunek sygnału do szumu w paśmie podstawowym odbiornika FMFB jest więc taki sam jak dla konwencjonalnego odbiornika FM. Przyczyna, dzięki której odbiornik FMFB jest w stanie poszerzyć próg polega na tym, że w odróżnieniu od konwencjonalnego odbiornika FM, wykorzystuje on ważną informację daną a priori. Chodzi mianowicie o to, że choć częstotliwość nośna odbieranej fali FM ma zazwyczaj dużą dewiację częstotliwości, to zmiany tej dewiacji odbywają się z prędkością określoną przez pasmo podstawowe. Demodulator FMFB jest w zasadzie filtrem śledzącym, jedynie dla wolnozmiennych składowych szerokopasmowego sygnału FM i w związku z tym jego odpowiedź zawiera jedynie wąskie pasmo szumu skupione dookoła chwilowej częstotliwości nośnej. Pasmo szumu, na które reaguje odbiornik FMFB, równe jest dokładnie pasmu szumu śledzonemu przez VCO. W końcowym wyniku oznacza to zdolność odbiornika FMFB do realizacji poszerzenia progu o około 5-7 dB, co stanowi ważne ulepszenie przy projektowaniu systemów FM o minimalnej mocy. Podobnie do demodulatora FMFB, pętla fazowa (opisana w rozdziale 3) stanowi także filtr typu śledzącego i w związku z tym reaguje na pasmo szumów dokładnie równe pasmu szumów śledzonemu przez VCO. Potwierdza się w praktyce, że demodulatory z pętlą fazową7) zapewniają zdolność „rozszerzania” progu za pomocą stosownie prostych obwodów. Niestety wielkość „rozszerzenia” progu nie jest przewidywalna przez żadną z istniejących teorii i zależy od parametrów sygnału. Wyniki osiągane w typowych zastosowaniach nie są tak dobre jak dla demodulatorów FMFB i zawierają się, z grubsza biorąc, w zakresie kilku (rzędu 2 do 3) decybeli.
5.7.
Preemfaza i deemfaza FM
W punkcie 5.6 stwierdziliśmy, że widmo gęstości mocy szumu na wyjściu odbiornika FM wykazuje kwadratową zależność względem częstotliwości pracy; fakt ten ilustruje rys. 5.16a. Widmo gęstości mocy typowego źródła informacji pokazano na rys. 5.16b; sygnały audio i wideo zazwyczaj wykazują podobny kształt widma W szczególności stwierdzamy, że widmo gęstości mocy sygnału informacyjnego typowo cechuje się zboczem opadającym dla większych częstot-
Rys. 5.16
W
~r~
a) Widmowa gęstość mocy szumu na wyjściu odbiornika FM, b) widmowa gęstość mocy typowego sygnału informacyjnego
5.7.
337
PREEMFAZA I DEEMFAZA FM
Sygnał informacyjny i szum
m it)
u>(f) Rys. 5.17. Zastosowanie preemfazy i deemfazy w systemie FM
liwości. Z drugiej strony, widmo gęstości mocy szumu wyjściowego rośnie wraz ze wzrostem częstotliwości. W sumie więc w okolicy/ = ± W ta gęstość widmowa jest względnie nieduża. podczas gdy poziom szumu na wyjściu jest względnie wysoki. W tej sytuacji jasne jest, że sygnał informacyjny nie jest w stanie wykorzystać w efektywny sposób przydzielonego mu pasma. Wydawałoby się logicznym, że najprostszym sposobem poprawienia charakterystyki szumowej byłoby ograniczenie pasma w filtrze dolnoprzepustowym za detektorem, aby stłumić znaczną część mocy szumu przy jedynie niewielkiej stracie mocy sygnału informacyjnego. Podejście takie zazwyczaj jednak jest nie do przyjęcia, ponieważ zniekształcenie informacji spowodowane ograniczeniem pasma filtru, aczkolwiek nieduże, może okazać się trudne do zaakceptowania. Tak jest np. w przypadku muzyki, gdyż możemy stwierdzić, że choć tony o wysokich częstotliwościach niosą jedynie mały ułamek całkowitej mocy sygnału muzycznego, to wnoszą bardzo wiele jeśli chodzi o estetyczne walory słuchowe utworu. Bardziej satysfakcjonujące podejście do efektywnego wykorzystania przydzielonego pasma częstotliwości opiera się na zastosowaniu preemfazy w nadajniku i deemfazy w odbiorniku, zgodnie ze schematem z rys. 5.17. W metodzie tej stosuje się sztuczne uwypuklenie składowych o wysokich częstotliwościach sygnału informacyjnego, przed modulacją w nadajniku, a więc zanim szumy dotrą do odbiornika W efekcie widmowa gęstość mocy składowych sygnału informacyjnego o niskich i wysokich częstotliwościach zostaje tak wyrównana, aby sygnał zapełniał całe przydzielone pasmo częstotliwości. Następnie na wyjściu dyskryminatora w odbiorniku przeprowadzana jest operacja odwrotna, zwana deemfazą i polegająca na takim stłumieniu składowych o wysokich częstotliwościach, aby odtworzyć oryginalny rozkład mocy sygnału informacyjnego. W trakcie tego procesu, wyższe składowe częstotliwości szumów na wyjściu dyskryminatora ulegają stłumieniu, efektywnie zwiększając stosunek sygnału do szumu na wyjściu układu. Komercjalne systemy transmisji i odbioru radiowego szeroko bazują na opisanych procesach preemfazy i deemfazy. Aby wyjście odbiornika odtwarzało zniekształconą wersję oryginalnego sygnału informacyjnego, musi zachodzić idealna odwrotność transmitancji pomiędzy filtrem preemfazy w nadajniku i filtrem deemfazy w odbiorniku. Jeśli więc H J J ) będzie oznaczać transmitancję filtru preemfazy, wtedy transmitancja H J J ) filtru deemafazy musi w idealny (przy zaniedbaniu opóźnienia transmisji) sposób spełniać warunek:
H-‘^ = T“ r7 7v pev /
<5-57)
Taki wybór transmitancji uniezależnia średnią moc sygnału na wyjściu odbiornika od procesu preemfazy i deemfazy. Poprzednio dokonana analiza szumów w systemach FM o wysokim stosunku nośnej do szumu dostarcza następującego wyniku odnośnie widmowej gęstości szumu nft) na wyjściu dyskryminatora: 22 Systemy telekomunikacyjne cz. 1
338
5. SZUM W UKŁADACH MODULACJI Z FALĄ CIĄGŁĄ
(5.58) w pozostałych przypadkach Po przesłaniu przez filtr deemfazy, na jego wyjściu, zmodyfikowana widmowa gęstość mocy szumu dana jest zależnością \HAe(J)\2SNJJ). Biorąc pod uwagę, że zwykle pasmo W filtru dolnoprzepustowego za detektorem jest mniejsze od BTj2, znajdujemy zmodyfikowaną średnią moc szumu na wyjściu odbiornika w następujący sposób: w Średnia moc szumu na wyjściu z deem fazą =
1
-w
f 2\ H j n \ 2
(5.59)
Ponieważ średnia moc na wyjściu odbiornika ma zapewnioną idealną niezależność od procedur preemfazy i deemafazy, więc wynika stąd następujące polepszenie stosunku sygnału do szumu będące wynikiem użycia preemfazy w nadajniku i deemfazy w odbiorniku: j
średnia moc szumu na wyjściu bez preemfazy i deemafazy średnia moc szumu na wyjściu z preemfazą i deemafazą
(5 60)
Średnia moc szumu na wyjściu bez preemfazy i deemfazy wynosi, jak wcześniej pokazano, (2N0W3/3Ac). Tak więc po uproszczeniu się wspólnych członów współczynnik usprawnienia / wyrazi się jako: 2W 3
l =
(5.61)
3 f -w Należy podkreślić, że współczynnik ten wyprowadzono przy założeniu wysokiego stosunku fali nośnej do szumu na wejściu dyskryminatora w odbiorniku.
Przykład 4 Prosty, popularnie stosowany filtr preemfazy uwypuklający wyższe częstotliwości zdefiniowany jest przez transmitancję opisaną wzorem: tfp e (/)= l + Ta transmitancja jest ściśle realizowana za pomocą układu wzmacniającego z filtrem RC przedstawionego na rys. 5.18a, o ile R « r, oraz 2nfCr « 1 wewnątrz interesującego nas pasma. Wzmacniacz z rys. 5,18a ma na celu usunąć tłumienie wprowadzone przez człon RC dla niskich częstotliwości. Parametr częstotliwościowy / 0 równa się 1/(2itO). Komplementarny filtr deemfazy w odbiorniku określony jest przez transmitancję: 1
która może być zrealizowana za pomocą prostego układu RC z rys. 5.18b. Polepszenie wyjściowego stosunku sygnału do szumu w odbiorniku FM wynikłe z zastosowania filtru preemfazy i deemfazy z rys. 5.18b wyniesie:
339
5.8. PODSUMOWANIE I DYSKUSJA
Sygnał wejściowy
2W 3 w f 2d f
/ = 3
J
Sygnał ~j~ wyjściowy wyj:
( W
o ) :
3[(W7/0)-arctg(W7/0)]
Rys. 5.18 a) Filtr preemfazy b) filtr deemfazy
(5.62)
- v i +(f/fQy
W radiofonii FM mamy typową wartość f 0 = 2,1 kHz i możemy racjonalnie założyć pasmo W = 15 kHz. Taki zestaw wartości zapewnia / = 22, co oznacza polepszenie o 13 dB wyjściowego stosunku sygnału do szumu w odbiorniku. W przypadku braku preemfazy i deemfazy poziom sygnału wynosi około 40-50 dB względem poziomu szumu na wyjściu. Wynika stąd zatem, że użycie prostych filtrów preemfazy i deemfazy pokazanych na rys. 5.18 może dać istotne polepszenie charakterystyki szumowej odbiornika. Użycie opisanego prostego liniowego filtru preemfazy i deemfazy stanowi przykład, jak można wykorzystać różnice charakterystyk sygnału i szumu do uzyskania polepszenia właściwości szumowych systemu FM. Takie proste sposoby filtracji spotyka się również w technice zapisu dźwięku na taśmie magnetycznej. W szczególności pozytywne wyniki uzyskano w układach nagrywania na taśmę magnetyczną korzystających z nieliniowej preemfazy i deemfazy. Techniki takie8) (znane jako Dolby-A, Dolby-B i systemy DBX) stosują kombinację filtracji i kompresji zakresu dynamiki celem zmniejszenia wpływu szumów, zwłaszcza przy niskim poziomie sygnału.
5 .8 .
P odsum ow anie i dyskusja
Podamy teraz ogólne wnioski z analizy szumowej systemów modulaqi CW i zaprezentujemy po równanie podstawowych cech poszczególnych technik modulacji. Porównań dokonamy przy za łożeniu, że modulacja wynika z przyłożenia fali sinusoidalnej. Aby osiągnąć znaczące wyniki po równań, musimy założyć istnienie identycznych stosunków sygnału do szumu w kanałach kolej nych porównywanych systemów. Wymagania dotyczące pasma transmisji powinny być dołą czane jako informacja na temat rozpatrywanych systemów podczas przeprowadzania porównań. Znormalizowane pasmo transmisji stosowane w takich okolicznościach zdefiniowane jest wzorem:
340
5.
SZUM W UKŁADACH MODULACJI Z FALĄ CIĄGŁĄ
Rys. 5.19. Porównanie charakterystyk szumowych dla różnych systemów modulacji o fali ciągłej (CW); Krzywa I: pełna AM, /u = 1. Krzywa II: DSB-SC, SSB. Krzywa III: FM, p = 2. Krzywa IV: FM, fi = 5. (Krzywe III i IV wykazują polepszenie 13 dB przy zastosowaniu preemfazy i deemfazy)
gdzie: BT — pasmo transmisji modulowanego sygnału, a W pasmo informacyjne. Czynimy następujące spotrzeżenia: 1. W pełnym systemie AM stosującym detekcję obwiedni wyjściowy stosunek sygnału do szumu przy założeniu modulacji sinusoidalnej dany jest [por. równanie (5.24)] wzorem: (SNR)0 = Zależność tę określono przy założeniu n = 1jako krzywą I na rys. 5.19. Na początku krzywej występuje efekt progowy AM. Znormalizowane pasmo transmisji B„ równa się 2, ponieważ w pełnym systemie AM przesyłane są obydwie wstęgi boczne.
5.8. PODSUMOWANIE I DYSKUSJA
341
2. Stosunek sygnału do szumu na wyjściu w przypadku detekcji koherentnej w systemie DSB-SC lub SSB dany jest przez równania (5.19) i (5.16): (SNR)0 = (SNR)C Zależność tę przedstawia krzywa II z rys. 5.19. Widzimy więc, że charakterystyka szumowa systemów DSB-SC lub SSB z detekcją koherentną przewyższa o 4,8 dB pełny system AM z detekcją obwiedni. Należy zanotować, że ani system DSB-SC ani SSB nie ujawnia efektów progowych. Pod względem wymagań co do pasma transmisji, mamy Bn = 2 dla DSB-SC i Bn = 1 dla SSB. Tak więc wśród rodzin systemów AM, modulacja SSB stanowi optimum pod względem charakterystyk szumowych i oszczędności pasma. 3. W przypadku systemu FM wyjściowy stosunek sygnału do szumu przy założeniu modulacji sinusoidalnej dany jest wzorem (5.53): (SNR)0 = | / i 2(SNR)c gdzie P — indeks modulacji. Relacja ta pokazana jest dla fi = 2 i (i = 5 jako odpowiednio krzywa III i krzywa IV na rys. 5.19. Każda z krzywych uwzględnia 13-dB polepszenie, uzyskane przez zastosowanie preemfazy w nadajniku i deemfazy w odbiorniku, zgodnie z opisem z punktu 5.7. Uniwersalna krzywa z rys. 3.36 pozwala na określenie wymagań stawianych pasmu transmisji, które są następujące Bn = 8 B„ = 1 6
dla P = 2 dla P = 2
Widzimy więc, że w porównaniu do systemu SSB, stanowiącego optymalną formę modulacji liniowej, w systemie szerokopasmowej FM o znormalizowanym paśmie Bn = 8 możemy uzyskać polepszenie jakościowego stosunku sygnału do szumu równe 20,8 dB, podczas gdy dla pasma B„ = 16 polepszenie to wyniesie 28,8 dB. Wartości te znakomicie ilustrują polepszenie charakterystyk szumowych osiągalne przy zastosowaniu szerokopasmowej FM. Jednakże cena, jaką musimy zapłacić za takie ulepszenie, ujawnia się w postaci poszerzonego pasma. Oczywiście zakłada się przy tym, że system FM pracuje powyżej progu, aby polepszenie szumów było realizowalne. W podsumowaniu całej dyskusji wynika wiele znacząca konkluzja, że w przeciwieńst wie do modulacji amplitudy, modulacja częstotliwości zapewnia zdolność polepszania charak terystyk szumowych kosztem poszerzenia pasma transmisji. Ograniczenie to przebiega zgodnie z prawem kwadratowym opisującym maksimum tego, na co nas stać w modulacji CW (czyli w telekomunikacji analogowej). W następnym rozdziale opiszemy modulację impulsową z kodowaniem, która stanowi podstawę transmisji analogowych sygnałów informacyjnych w cyfrowych systemach telekomunikacyjnych, zapewniając istotny postęp w tej dziedzinie.
PRZYPISY I LITERATURA 1) Dokładna analiza efektu progowego w odbiornikach AM podał Middleton (1960, str. 563 —574). Jakościowa dyskusja tego efektu znajduje się u Downinga (1964, str. 71). 2) Uzasadnienie krytycznego założenia leżącego u podstaw uproszczenia równania (5.43) znajduje się u Rice’a (1963). 3) Dokładną analizę efektu progowego w odbiornikach FM zawierają prace Rice’a (1963) i Schwartza, Bennetta i Steina (1966, str. 129-f- 163).
342
5.
SZUM W UKŁADACH MODULACJI Z FALĄ CIĄGŁĄ
4) Rysunek 5.13 pochodzi z książki Rice’a (1963). Poprawność krzywej teoretycznej II na tym rysunku została potwierdzona eksperymentalnie; zobacz Schwartz, Bennett i Stein (1966, str. 153). Pewne wcześniejsze prace eksperymentalne dotyczące zjawiska progowego w systemach FM opisał Crosby (1937). 5) Pomysł użycia sprzężenia zwrotnego w demodulatorze FM jako pierwszy podał Chaffee (1939), na długo przed nadejściem epoki telekomunikacji satelitarnej. 6) Opis demodulatora FMFB zamieszczony w punkcie 5.6 opiera się na publikacji Enloe (1962); zobacz też Roberts (1977, str. 166-181). 7) Dla pełnej dyskusji efektów progowych w pętlach fazowych zobacz Gardner (1979, str. 178-196) i Roberts (1977, str. 200 - 202). 8) Dokładny opis systemów Dolby cytowany w końcowej części punktu 5.7 można obejrzeć u Stremlera (1990, str. 732-734).
ZADANIA Zadanie 5.1 Funkcja próby x(t) = /4ccos(2n/cr)-fw(r) przyłożona jest na wejście dolnoprzepustowego filtru RC z rys. Z5.1. Amplituda Aci częstotliwość f csą stałymi, a w(f)jest białym szumem gaussowskim o zerowej średniej i widmowej gęstości mocy N J 2. Znajdź wyrażenie na stosunek sygnału do szumu na wyjściu, uważając składową sinusoidalną x(t) za sygnał użyteczny.
Zadanie 5.2 Załóżmy następnie, że funkcję próby x(t) z zadania 5.1 przyłożono na wejście filtru RLC z rys. Z5.2., który dostrojono do częstotliwości f c składowej sinusoidalnej. Załóżmy, że dobroć Q filtru jest duża w stosunku do jedności. Znajdź wyrażenie na wyjściowy stosunek sygnału do szumu traktując składową sinusoidalną x(t) jako sygnał użyteczny.
R o------- V vV v
C
Sygnał
wejściowy
Sygnał
wyjściowy Rys. Z5.1
o
L
C
Rys. Z5.2
343
5.8. PODSUMOWANIE I DYSKUSJA
Rys. Z5.3
Zadanie 5.3 Sygnał modulowany DSB-SC przesyłany jest przez zaszumiony kanał, w którym widmowa gęstość mocy szumu odpowiada wykresowi z rys. Z5.3. Pasmo informacyjne równe jest 4 kHz, a częstotliwość nośna 200 kHz. Zakładając, że średnia moc fali modulowanej ma wartość 10 W określ wyjściowy stosunek sygnału do szumu odbiornika.
Zadanie 5.4 Wyznacz wartość funkcji autokorelacji i funkcji korelacji wzajemnej dla synfazowych i kwadraturowych składowych szumu wąskopasmowego na wejściu detektora koherentnego dla: a) systemu DSB-SC, b) systemu SSB posługującego się dolną wstęgą i c) systemu SSB stosują cego górną wstęgę.
Zadanie 5.5 W odbiorniku z detekcją koherentną fala sinusoidalna wytwarzana przez generator lokalny obarczona jest błędem fazy 9(t) względem fali nośnej cos(2nfct). Zakładając, że 6(t) jest funkcją próby o zerowej średniej, jest procesem gaussowskim z wariancją oj, i że przez przeważającą część czasu maksymalna wartość 6(t) jest mała w porównaniu z jednością, znajdź błąd średniokwadratowy na wyjściu odbiornika dla: a) modulacji DSB-SC i b) modulacji SSB. Błąd średniokwadratowy zdefiniowany jest jako wartość oczekiwana z pierwiastka z różnicy pomiędzy wyjściem z odbiornika a składową sygnału informacyjnego na wyjściu odbiornika.
Zadanie 5.6 Niech sygnał informacyjny m(t) będzie przesyłany za pomocą modulacji z pojedynczą wstęgą boczną. Gęstość widmowa mocy m(r) równa jest: If \ ś W w pozostałych przypadkach gdzie a i W — stałe. Biały szum gaussowski o zerowej średniej i gęstości widmowej mocy N J 2 dodawany jest do fali zmodulowanej SSB na wejściu odbiornika. Znajdź wyrażenie na sto sunek sygnału do szumu na wyjściu odbiornika.
Zadanie 5.7 Średnia moc szumu na jednostkę pasma mierzona na wejściu odbiornika AM wynosi 10" 3 wata na herc. Fala modulująca jest sinusoidalna, moc nośnej to 80 kilowatów, moc wstęg bocznych równa jest 10 kilowatów na wstęgę. Pasmo informacyjne równe jest 4 kHz. Zakładając, że
344
5.
SZUM W UKŁADACH MODULACJI Z FALĄ CIĄGŁĄ
w odbiorniku zastosowano detektor obwiedni, wyznacz wyjściowy stosunek sygnału do szumu. O ile decybeli system ten jest gorszy od systemu modulacji DSB-SC?
Zadanie 5.8 Rozważ wyjście detektora obwiedni opisanego równaniem (5.20), które dla aktualnych potrzeb przepisujemy poniżej: >'( 0 =
{ I A C+ A J c j n i t ) +
n , (t)]2 + 4
W } 1/2
a) Przyjmij, że prawdopodobieństwo zdarzenia: |nQ(f)| > eAc\l + kam(t)\ jest równe lub mniejsze od óu natomiast e « 1. Jakie jest prawdopodobieństwo, że wpływ składowej kwadraturowej będzie nQ(t) pomijalny? b) Przypuśćmy, że kadostrojono względem sygnału m(t) w taki sposób, że prawdopodobieństwo zdarzenia: Ac\\ +kam{t)] + nI{t) < 0 równe jest ó2. Jakie jest prawdopodobieństwo, że przybliżenie:
będzie spełnione? c) Skomentuj znaczenie wyniku z części b) w przypadku, gdy ó, i Ó2 są małe w porównaniu z jednością.
Niemodulowana nośna o amplitudzie Ac i częstotliwościf c i pasmowo ograniczony szum biały są sumowane, a następnie przesyłane przez idealny detektor obwiedni. Zrób założenie, że gęstość widmowa mocy ma wartość N J2 i pasmo ma wartość 2W i środek przy częstotliwości nośnej f c. Wyznacz stosunek sygnału do szumu na wyjściu w przypadku, gdy stosunek nośnej do szumu jest wysoki.
Zadanie 5.10 W odbiorniku AM działającym przy sygnale zmodulowanym sinusoidalnie z głębokością modulacji 80 procent stosunek sygnału do szumu na wyjściu wynosi 30 dB. a) Jaki stosunek nośnej do szumu odpowiada tym warunkom? b) O ile decybeli możemy zmniejszyć stosunek nośnej do szumu tąk, aby system pracował tuż ponad progiem?
Zadanie 5.11 Oceń stosunek sygnału do szumu na wyjściu systemu ze stłumioną wstęgą boczną, w którym odbiornik stosuje detekcję koherentną. Szum dodawany na wejściu detektora jest wąskopas mowy.
Zadanie 5.12 Rozważ system modulacji fazy (PM), w którym fala zmodulowana dana jest wzorem s(t) = Accos[2ir/cf + /cpm(f)]
5.8. PODSUMOWANIE I DYSKUSJA
345
gdzie: kp — stała, a m(t) — sygnał informacyjny. Szum addytywny n(t) na wejściu detektora fazy jest równy: n(f) = nj{t)cos(2nfct) - nQ(t)s\n(2nfct) Zakładając, że stosunek nośnej do szumu na wejściu detektora jest duży w porównaniu z jednością wyznacz: a) wyjściowy stosunek sygnału do szumu i b) współczynnik poprawy stosunku sygnał-szum systemu. Porównaj swój wynik z przypadkiem systemu FM o modulacji sinusoidalnej.
Zadanie 5.13 W systemie FDM stosuje się modulacje jednowstęgową dla 12 niezależnych kanałów fonicznych i następnie przesyła wynikający z tego sygnał całkowity za pomocą modulacji częstotliwości. Każdy sygnał mowy ma moc średnią P i zajmuje pasmo częstotliwości 0,3-3,4 kHz; system przydziela sygnałowi pasmo 4 kHz. Dla każdego z sygnałów mowy przesyłana jest jedynie dolna wstęga. Fale podnośnych zastosowane w pierwszym stopniu modulacji zdefiniowane są wzorem: ą(t) = Akcos(2nkf0t),
0 ^ k ^ 11
Sygnał odbierany składa się z przesyłanych sygnałów FM puls biały szum gaussowski o zerowej średniej i widmowej gęstości mocy N J2~ a) Naszkicuj widmową gęstość mocy sygnału wytworzonego na wyjściu dyskryminatora, uwzględniając zarówno sygnał jak i składową szumową. b) Znajdź zależności, jakie powinny spełniać amplitudy podnośnych Ak, aby zmodulowane przebiegi sygnałów mowy miały jednakowe stosunki sygnału do szumu.
Zadanie 5.14 W dyskusji dotyczącej progu FM przedstawionej w punkcie 5.6, podaliśmy warunki dla zaistnienia dodatnich i ujemnych „kliknięć” na wyjściu odbiornika, wyrażając je za pomocą obwiedni r(t) i fazy ij/(t) wąskopasmowego szumu n(f). Spróbuj sformułować ponownie te warunki w zależności od składowych synfazowej n,(t) i kwadraturowej nQ(t) szumu n(t).
Zadanie 5.15 Stosując filtr preemfazy pokazany na rys. 5.18a i biorąc sygnał mowy jako falę modulującą mamy do czynienia z sytuacją, w której nadajnik FM wytwarza sygnał w istocie swej zmodulowany częstotliwościowo dla dolnych częstotliwości akustycznych i zmodulowany fazowo dla górnych częstotliwości akustycznych. Wyjaśnij przyczyny tego zjawiska.
Zadanie 5.16 Przypuśćmy, że transmitancje filtrów preemfazy i deemfazy w systemie FM przeskalowano w następujący sposób:
oraz H Jf) =
t( i+ i/Z fo)
Czynnik skalujący k należy dobrać w taki sposób, aby średnia moc uwydatnionego przez preemfazę sygnału informacyjnego pozostała na tym samym poziomie, co dla oryginalnego sygnału informacyjnego m(t).
346
5.
SZUM W UKŁADACH MODULACJI Z FALĄ CIĄGŁĄ
a) Znajdź wartość k, która spełnia podane wymaganie w przypadku, gdy widmowa gęstość mocy m(fjrjest równa: W gdzie indziej b) Jaka wartość współczynnika polepszenia stosunku sygnał-szum / odpowiadać będzie zastosowaniu takiej pary filtrów preemfazy i deemfazy? Porównaj ten stosunek z otrzy manym w przykładzie 4. Współczynnik polepszenia stosunku sygnał-szum / zdefiniowany jest równaniem (5.60). Zadanie 5.17 System modulacji fazy (PM) stosuje się parę filtrów preemfazy i deemfazy, które zdefiniowane są wzorami:
Jo
//pi n = i + ~ oraz
Pokaż, że poprawa wyjściowego stosunku sygnału do szumu spowodowana zastosowaniem tej pary filtrów jest równa: j
Wo arctg( Wjfo)
gdzie W — pasmo informacyjne. Oblicz polepszenie stosunku sygnał-szum w przypadku, gdy W= 15 kHz i f 0 — 2,1 kHz, a potem porównaj swój wynik z odpowiadającą mu wartością w systemie FM.
Rozdział 6
Modulacja impulsowa 6.1. Wstęp W modulacji ciągłej (CW), której poświęciliśmy rozdziały 3 i 5, pewien parametr sinusoidalnej fali nośnej był zmieniany w sposób ciągły w takt sygnału informacyjnego. Zupełnie inaczej jest w modulacji impulsowej, którą zajmiemy się w tym rozdziale. W modulacji impulsowej1\ pewien parametr ciągu impulsów zmienia się w takt sygnału informacyjnego. Rozróżniamy dwa rodzaje modulacji impulsowej: analogową modulację impulsową oraz cyfrową modulację impulsową. W analogowej modulacji impulsowej, jako fala nośna służy okresowy ciąg impulsów, a pewien parametr każdego impulsu (np. amplituda, szerokość lub położenie) zmieniany jest w sposób ciągły, zgodnie z odpowiednią wartością próbki sygnału informacyjnego. Zatem, przy analogowej modulacji impulsowej, informacja przesyłana jest w zasadzie w formie analogowej, lecz transmisja zachodzi jedynie w dyskretnych chwilach czasowych. Natomiast przy analogowej modulacji impulsowej, sygnał informacyjny reprezentowany jest w formie dyskretnej zarówno w czasie, jak i amplitudzie, co pozwala na jego transmisję w postaci dyskretnej, jako ciągu zakodowanych impulsów. Ta forma transmisji sygnału nie zawiera składowej ciągłej. Zastosowanie impulsów kodowanych do transmisji analogowych sygnałów infor macyjnych stanowi istotę telekomunikacji cyfrowej. Obecny rozdział można zatem potraktować jako łącznik pomiędzy telekomunikacją analogową i cyfrową w naszym procesie studiowania zasad działania systemów telekomunikacyjnych. Zaczniemy ten rozdział od przedstawienia procesu próbkowania, stanowiącego podstawę wszystkich systemów modulacji impulsowej. Następnie przedstawimy modulację amplitudy impulsów, stanowiącą najprostszą postać analogowej modulacji impulsowej. Następ nie opiszemy zwielokrotnianie z podziałem czasowym, często używaną metodę wspólnego użytkowania jednego kanału do przesyłania wielu sygnałów informacyjnych, będące naturalnym uogólnieniem modulacji amplitudy impulsów. Naszą dyskusję dotyczącą analogowej modulacji impulsowej zakończymy rozpatrzeniem modulacji położenia impulsów, będącej inną ważną metodą modulacji impulsowej. Pozostałe punkty tego rozdziału są poświęcone dyskusji różnych typów cyfrowej modulacji impulsowej, ich praktycznych zalet, ograniczeń i modyfikacji.
348
6.2.
6. MODULACJA IMPULSOWA
Proces próbkowania
Większość materiału dotyczącego reprezentacji sygnałów i systemów, przedstawionego do tychczas w tej książce, zostało poświęcone sygnałom i systemom ciągłym zarówno w czasie jak i w częstotliwości. W różnych punktach rozdziału 2 rozpatrywana była jednak reprezentacja sygnałów okresowych. W szczególności, jak wynika z równania (2.88), transformata Fouriera sygnału okresowego o okresie T0 stanowi nieskończony ciąg delta funkcji, przy częstotliwościach będących całkowitymi wielokrotnościami częstotliwości podstawowej f 0 = \/Tg. Na podstawie tego faktu możemy stwierdzić, iż okresowość sygnału w dziedzinie czasu powoduje efekt próbkowania widma tego sygnału w dziedzinie częstotliwości. Możemy pójść o krok dalej, korzystając z właściwości dualności transformaty Fouriera, a mianowicie zauważyć, iż pró bkowanie sygnału w dziedzinie czasu powoduje okresowość widma tego sygnału w dziedzinie częstotliwości. To ostatnie zjawisko stanie się przedmiotem rozważań w dalszej części obecnego punktu. Proces próbkowania jest zazwyczaj opisywany w dziedzinie czasu. W takiej postaci stanowi on podstawę cyfrowego przetwarzania sygnałów i telekomunikacji cyfrowej. Za pomocą procesu próbkowania, sygnał analogowy przekształcany jest na odpowiadający mu ciąg próbek, zazwyczaj rozmieszczonych równomiernie w czasie. Aby proces ten miał znaczenie praktyczne, trzeba oczywiście dobrać właściwą częstość próbkowania tak, aby ciąg próbek jednoznacznie określał oryginalny sygnał analogowy. Stanowi to podstawę twierdzenia o próbkowaniu, którego wyprowadzeniem się teraz zajmiemy. Weźmy pod uwagę dowolny sygnał g(t) o skończonej energii, określony na całej osi czasu. Wycinek tego sygnału g(t) pokazano na rys. 6.la. Załóżmy, iż próbkujemy sygnał g(t) pobierając jego wartości równomiernie, co T%sekund. W rezultacie otrzymujemy nieskończony ciąg próbek odległych względem siebie o Ts sekund, oznaczany jako {g(nT)}, gdzie n przybiera wszystkie możliwe wartości całkowite. Wielkość Ts nazywamy okresem próbkowania, a jej odwrotność f s = l/Ts częstotliwością próbkowania. Taka idealna forma próbkowania nazywana jest próbkowaniem chwilowym. Niech gs (t) oznacza sygnał otrzymywany przez indywidualne mnożenie przez współ czynniki wagi, będące wyrazami ciągu liczb \g(nTs), elementów okresowego ciągu impulsów Diraca, powtarzających się z okresem opisany zależnością (zobacz rys. 6.Ib):
m =
Z
9(nTJŚ(t-nTJ
(6.1)
n = - cc
Sygnał g6(t) nazywany jest impulsowym sygnałem spróbkowanym. Czynnik Sit —nT) reprezentuje impuls Diraca wzięty w chwili czasu t = nTs. Na podstawie definicji funkcji delta przedstawionej w rozdziale 2 wiemy, iż taka wyidealizowana funkcja ma pole równe jedności. Można więc rozpatrywać mnożnik g{nTs) w równaniu (6.1) jako „wagę” przypisaną funkcji delta ó(t~nTJ. Funkcję delta mnożoną przez ten współczynnik wagi można zatem dokładnie aproksymować za pomocą impulsu prostokątnego o czasie trwania At i amplitudzie g(nT)jAt; im mniejsze At, tym lepszą aproksymację uzyskamy. Impulsowy sygnał spróbkowany gs{t) ma podobną postać matematyczną, jak transformata Fouriera sygnału okresowego. Łatwo to stwierdzić porównując równanie (6.1) określające sygnał gó(t) z transformatą Fouriera sygnału okresowego wyrażoną równaniem (2.88). Sugeruje to, iż możliwe jest wyznaczenie transformaty Fouriera impulsowego sygnału spróbkowanego g6(t) na podstawie zasady dualności transformaty Fouriera względem pary transfor mat określonej równaniem (2.88). Postępując w ten sposób i wykorzystując fakt, iż funkcja delta jest parzystą funkcją czasu, otrzymujemy poszukiwaną transformatę o postaci:
6.2. PROCES PRÓBKOWANIA
349
Rys. 6.1. Proces próbkowania: a) sygnał analogowy, b) wersja tego sygnału otrzymana w wyniku próbkowania chwilowego (idealnego)
I
G (/-m Q
(6.2)
m = —oo
gdzie: G{jj — transformata Fouriera oryginalnego sygnału g(t), a f s — częstotliwość prób kowania. Równanie (6.2) stanowi, iż proces równomiernego próbkowania analogowego sygnału o skończonej energii powoduje powstawanie widma okresowego o okresie równym częstotliwości próbkowania. Inne ważne wyrażenie opisujące transformatę Fouriera impulsowego sygnału spróbkowanego gs(t) można otrzymać licząc transformatę Fouriera obu stron równania (6.1) i biorąc pod uwagę, iż transformata Fouriera funkcji delta 6{t —nT) wynosi exp(—}2nfTf. Niech GJJj oznacza transformatę Fouriera funkcji gs{t). Możemy napisać: Cs(/> =
i
g(nT Jex p (-j2 n /rj
(6.3)
n — — oo
Podana relacja nosi nazwę transformaty Fouriera z czasem dyskretnym2). Można ją interpretować jako rozwinięcie w zespolony szereg Fouriera okresowej funkcji częstotliwości Gs(Jj, przy czym ciąg próbek {ginTf} określa współczynniki tego rozwinięcia. Wyprowadzone relacje pozostają słuszne dla dowolnego analogowego sygnału git) o skończonej energii i nieskończonym czasie trwania. Załóżmy teraz, iż sygnał 3 (f) jest sygnałem o ograniczonym paśmie, nie zawierającym składowych o częstotliwości wyższej niż W Hz. Innymi
350
6. MODULACJA IMPULSOWA
b
Gh [f\
2* 0(0)
Rys. 6.2. a) Widmo sygnału g(t) o ograniczonym paśmie, b) widmo spróbkowanej wersji sygnału g(t) przy okresie próbkowania Ts = 1/2 W
słowy, transformata Fouriera G{f) sygnału g{t) ma taką własność, iż G(/) wynosi zero dla |/| ^ W, jak na rys. 6.2a; kształt widma pokazany na tym rysunku służy jedynie celom ilustracyjnym. Przyjmijmy także, iż wybrano okres próbkowania 7^ = 1/2 W. W takim przypadku, odpowiednie widmo Gs{f) spróbkowanego sygnału gs(t) ma postać z rys. 6.2b. Podstawiając wartość Ts = 1/2 W do równania (6.3) otrzymujemy:
Jak wynika z równania (6.2), transformatę Fouriera sygnału gs(t) można też zapisać w postaci: G X 0 = /,G (/)+ /s
Q0 I
(6.5)
G i j - m/j
m = —(JD+m^O
Stąd, przy spełnieniu następujących dwu warunków: 1. Gif) = 0 dla |/| 2* W 2. f s = 2W z równania (6.5) otrzymujemy wzór: Gif) = — Gm
( 6.6)
~W
Podstawiając równanie (6.4) do (6.6) możemy także napisać: 1 00 n
W y
-W < f<
w
(6.7)
351
6.2. PROCES PRÓBKOWANIA
Dlatego, jeśli wartości próbek g{n/2W) sygnału g(t) są określone dla wszystkich czasów, to transformata Fouriera G(t) tego sygnału jest jednoznacznie określona przez swą transformatę Fouriera z czasem dyskretnym z równania (6.7). Ponieważ jednak sygnał g{t) jest jednoznacznie związany z funkcją G(t) poprzez odwrotną transformatę Fouriera można stwierdzić, iż sygnał g(t) jest też jednoznacznie określony poprzez zbiór swych próbek g(n/2W) dla —oo < n < oo. Innymi słowy, w ciągu próbek {g(n/2W)) zawarta jest cała informacja o sygnale g(t). Zajmiemy się teraz problemem odtwarzania sygnału jgr(t) na podstawie ciągu próbek {g{nj2W)}. Podstawiając równanie (6.7) do wzoru na odwrotną transformatę Fouriera okreś lającą sygnał g{t) w zależności od G(f), otrzymujemy wzór 00 w g(t)= f Gif)exp(j2nft)d f =
1
00 ( n \ ( \nnf\ X 0 \ J ^ J exp(^---— Jexp(j2^ ) d /
Zmieniając kolejność sumowania i całkowania uzyskujemy stąd zależność: 00 n n \ 1 W 9(t) = X 9 2 W 2 W j exp j2ięrf t - 2 W W n = —co S
d/
( 6. 8)
Całka z ostatniego równania daje się łatwo obliczyć i uzyskujemy końcowy wzór 00
n \ sin(27tWf —wt) g(t) = 9 2 W) (2nWt —rm) n = —co 00 n = I V 2 W sinc(2Wt —n), —oo < r < oo n = —oo
X
(6.9)
Równanie (6.9) stanowi wzór interpolacyjny, umożliwiający odtworzenie oryginalnego sygnału git) na podstawie ciągu jego próbek [g(n/2W)}, przy czym funkcja sinc(2Wt) pełni rolę funkcji interpolacyjnej. Każda próbka jest mnożona przez odpowiednio opóźnioną wersję funkcji interpolacyjnej, a wszystkie tak otrzymane składniki zostają zsumowane ze sobą, dając poszukiwany sygnał g(t). Możemy zatem sformułować twierdzenie o próbkowaniu dla sygnałów o ograniczonym paśmie i o skończonej energii. Składa się ono z dwu równoważnych części: 1. Sygnał o ograniczonym paśmie i skończonej energii, nie zawierający składowych widma, o częstotliwości przekraczającej W Hz, jest jednoznacznie opisany za pomocą próbek wziętych w punktach odległych o jednakowy przedział czasu, równy 1/2 W sekund. 2, Sygnał o ograniczonym paśmie i skończonej energii, nie zawierający składowych widma o częstotliwości przekraczającej W Hz, może zostać dokładnie odtworzony na podstawie znajomości jego próbek wziętych w punktach odległych o jednakowy przedział czasu, równy 1/2W sekund. Częstotliwość próbkowania równa 2 W próbek na sekundę, niezbędna dla sygnału o paśmie ograniczonym do zakresu W herców, nosi nazwę częstotliwości Nyquista; jej odwrotność 1/2 W (mierzona w sekundach) jest nazywana przedziałem Nyquista. Podane wyprowadzenie twierdzenia o próbkowaniu oparte jest na założeniu, iż sygnał g(t) ma ograniczone pasmo. W praktyce jednak żaden sygnał informacyjny nie jest dokładnie sygnałem o ograniczonym paśmie co powoduje, iż gęstość próbkowania staje się zbyt mała. W rezultacie, proces próbkowania prowadzi do zjawiska zwanego aliasingiem częstotliwościowym (czyli nakładaniem się widm — przyp. tłum). Zjawisko aliasingu polega na tym, iż składowe widma sygnału o wysokich częstotliwościach zachodzą na składowe niskoczęstotliwościowe, jak pokazano na rys. 6.3. Wypadkowe widmo, zobrazowane krzywą ciągłą na rys. 6.3b, odpowiada
352
6.
MODULACJA IMPULSOWA
(■5
/
\
/ / /
1/ -2/,
/
V /\
f
\
\ / V /\ / \
\ / V /\ / \
O
\ / V /\ / \ fi
\
\ 2/j
\
\
\
\
f
Rys. 6.3. a) Widmo sygnału, b) widmo spróbkowanej wersji tego sygnału przy zbyt małej częstotliwości próbkowania, gdy występuje zjawisko aliasingu
zbyt małej częstotliwości próbkowania sygnału o widmie z rys. 6.3a. Do zwalczania zjawiska aliasingu stosuje się w praktyce dwa następujące środki zaradcze: 1. Przed próbkowaniem stosuje się filtr antyaliasingowy służący do tłumienia tych składowych widma sygnału o wielkich częstotliwościach, które nie są niezbędne do przesyłania informacji niesionej przez sygnał. 2. Odfiltrowany sygnał jest próbkowany z częstotliwością nieco większą od częstotliwości Nyquista. Zastosowanie częstotliwości próbkowania nieco większej od częstotliwości Nyquista ma dodatkowo tę zaletę, iż ułatwia zaprojektowanie filtru odtwarzającego stosowanego do odzyskiwania sygnału oryginalnego na podstawie jego wersji spróbkowanej. Rozważmy dla przykładu sygnał informacyjny poddany filtracji antyaliasingowej (za pomocą filtru dolnoprzepustowego), o widmie pokazanym na rys. 6.4a. Odpowiednie widmo tego sygnału po spróbkowaniu podano na rys. 6.4b, przy czym częstotliwość próbkowania jest nieco większa od częstotliwości Nyquista. Zgodnie z rys. 6.4b, można stwierdzić, iż przy projektowaniu filtru odtwarzającego należy spełnić następujące wymagania (zobacz rys. 6.4c): • Filtr odtwarzający jest filtrem dolnoprzepustowym o paśmie przepustowym rozciągającym się od —W do W, określonym poprzez pasmo filtru antyaliasingowego. • Filtr ma pasmo przejściowe rozciągające się (dla dodatnich częstotliwości) od W do f 5—W, gdzie f s jest częstotliwością próbkowania. Fakt, iż filtr odtwarzający ma dobrze określone pasmo przejściowe oznacza, iż jest on fizycznie realizowalny.
6.3.
Modulacja amplitudy impulsów
Obecnie, gdy rozumiemy już istotę procesu próbkowania, nadszedł czas, aby formalnie zdefiniować modulację amplitudy impulsów, będącą najprostszą, a zarazem podstawową metodą modulacji impulsowej. W modulacji amplitudy impulsów (PAM), amplitudy impulsów po wtarzających się ze stałą częstotliwością są zmieniane proporcjonalnie do odpowiednich sprób-
353
6.3. MODULACJA AMPLITUDY IMPULSÓW
b
G & (J)
1^ L-W
/
/
/
/
/
/
\
\
\
\
\
\ / J ______ U ___ -/, ~u'
/
/
/
/
/
\
\
\
\
\
\
/
/
/
/
/
\
\
\
\
\
\ / \ ______ U ___ — ______ 1______ ________ o w ft-w /, L +w
c
Rys. 6.4. a) Widmo sygnału informacyjnego poddanego filtracji antyaliasingowej, b) widmo spróbkowanej wersji tego sygnału przy założeniu, że częstotliwość próbkowania jest większa od częstotliwości Nyquista, c) charakterystyka amplitudowa filtru odtwarzającego
kowanych wartości analogowego sygnału informacyjnego; impulsy te mogą być prostokątne lub też mieć inny odpowiedni kształt. Tak zdefiniowana modulacja amplitudy impulsów przypomina nieco próbkowanie naturalne, przy którym sygnał informacyjny jest mnożony przez okresowy ciąg impulsów prostokątnych. W przypadku próbkowania naturalnego, każdy tak zmodulowa ny impuls ma wierzchołek o wysokości zmieniającej się wraz z sygnałem informacyjnym, podczas gdy przy modulacji PAM impulsy pozostają prostokątne. Próbkowaniem naturalnym zajmiemy się szerzej w zadaniu 6.1. Przebieg czasowy sygnału PAM został zilustrowany na rys. 6.5. Linią przerywaną zaznaczono na tym rysunku sygnał informacyjny m(r), a ciąg impulsów prostokątnych zmodulowanych amplitudowo, zaznaczony linią ciągłą, reprezentuje odpowiedni sygnał PAM s(r). Generacja sygnału PAM przebiega w dwu etapach: 1. Próbkowanie chwilowe sygnału informacyjnego m(t) z okresem Ts sekund, przy czym częstotliwość próbkowania f = 1/Ts wybiera się zgodnie z twierdzeniem o próbkowaniu. 2. Wydłużenie czasu trwania każdej próbki do pewnej stałej wartości T. W technice układów cyfrowych te dwie operacje noszą łącznie nazwę „próbkowania z zapamięty waniem”. Jednym z ważnych powodów celowego wydłużenia czasu trwania sygnału każdej próbki jest uniknięcie nadmiernej szerokości pasma kanału transmisyjnego, gdyż szerokość ta jest 23 Systemy telekomunikacyjne cz. 1
354
6.
MODULACJA IMPULSOWA
Rys. 6.5 Próbki o płaskich wierzchołkach
proporcjonalna do czasu trwania impulsu. Ten czas trwania T nie może być jednak dowolny, jak na to wskazuje rozumowanie przedstawione dalej. Niech s(t) oznacza ciąg impulsów prostokątnych, generowany w sposób zilustrowany na rys. 6.5. Otrzymany sygnał PAM jest o postaci: oo ( 6. 10) s(f)= X ™(nTjh(t - nTs) n= —oc gdzie: Ts~ okres próbkowania, a minT) — wartość próbki sygnału m(t), pobranej w chwili t = nT^ Funkcja h(t) oznacza tu standardowy impuls prostokątny o jednostkowej amplitudzie i czasie trwania T, zdefiniowany następująco (rys. 6.6a): 0
t= T
( 6. 11)
gdzie indziej Spróbkowana chwilowo wersja sygnału m(t) jest zdefiniowana wzorem:
6 12)
ms(t) = X m{nT)ó(t—nT)
( .
n — - oo
gdzie d(t —nT) — przesunięta w czasie funkcja delta. Dokonując operacji splotu funkcji ms(t) z impulsem h(t) otrzymamy zależność: Q0 ms(t)*h(t)= J ms(t)h(t—x)dt = f X m{nTJ6(T-nT}h(tr x)óx = —00 —oo n = —co (6.13) OC 00 = X m(nTJ J S(x-nT ^h(t-T )ćx n = —oo —oc OC
00
Stosując wzór określający przesunięcie delta funkcji otrzymujemy: ms(t)*h(t)=
00 X m(nT)h(t —nT)
(6.14)
rt — - oo
Z równań (6.10) i (6.14) wynika, iż sygnał PAM s(t) jest matematycznie równoważny splotowi sygnału ms(t), będącego chwilowo spróbkowaną wersją sygnału informacyjnego m(t) z impulsem h(t), a mianowicie:
6.3. MODULACJA AMPLITUDY IMPULSÓW
s(r) = ms(t) * h(t)
355
(6.15)
Biorąc transformatę Fouriera obu stron równania (6.15) i wykorzystując właściwość, iż splotowi dwu funkcji czasu odpowiada iloczyn ich transformat Fouriera, otrzymujemy równość: S(f) = M s(t)H{f)
(6.16)
gdzie S(f) = F [s (£)], M ^ f) = F[m5(t)] oraz H(f) = F[/i(r)]. Z równania (6.2) wynika, iż transformata Fouriera M ^f) jest związana z transformatą Fouriera M (f) oryginalnego sygnału informacyjnego m{t) w sposób następujący: MAT! = f, I
(6.17) —oo
gdzie f s = l/Ts — częstotliwość próbkowania. Podstawiając zatem równanie (6.17) do (6.16) otrzymamy: 23*
356
6. MODULACJA IMPULSOWA
S (f)= L I M ( f- k fs)H{f) fc= ~ O C'
(6.18)
Dany jest sygnał PAM s(t), którego transformata Fouriera S(f) jest określona równaniem (6.18). Jak odtworzyć na tej podstawie oryginalny sygnał informacyjny m(t)? Jako pierwszy krok na tej drodze, możemy przepuścić sygnał s(t) przez filtr dolnoprzepustowy, którego charakterystyka amplitudowa ma postać, jak na rys. 6.4c; przyjęto tu, iż pasmo zajmowane przez sygnał informacyjny jest ograniczone i wynosi W, a częstotliwość próbkowania wynosi f s i jest większa od częstotliwości Nyquista 2W. Z równania (6.18) wynika ponadto, iż widmo sygnału na wyjściu filtru wynosi M (f)H (f). Sygnał ten jest taki, jak gdyby oryginalny sygnał informacyjny m(t) przepuszczony został przez jeszcze jeden filtr dolnoprzepustowy o charakterystyce amplitudowo-fazowej H{f). Na podstawie równania (6.11), transformatora Fouriera impulsu prostokątnego /i(t) jest określona zależnością: H (f) = T sinc(/T)exp( —;'7t/T)
(6.19)
przedstawioną na rys. 6.6b. Jak stąd wynika, poprzez zastosowanie prostokątnych próbek przy generacji sygnału PAM wprowadzone zostały zniekształcenia amplitudowe oraz opóźnienie 7/2. Efekt ten jest jednak niewielki w porównaniu ze zmianami przesyłanego sygnału w funkcji częstotliwości, spowodowanymi skończonym rozmiarem apertury wybierającej w telewizji. Zgodnie z tym faktem, zniekształcenia spowodowane zastosowaniem modulacji amplitudy impulsów do przesyłania analogowego sygnału informacyjnego nazywane są efektem aperturowym. Zniekształcenia te mogą zostać skorygowane, jeśli do układu dodamy układ wyrów nujący, połączony kaskadowo z dolnoprzepustowym filtrem odtwarzającym, jak w układzie pokazanym na rys. 6.7. Układ wyrównujący ma za zadanie zmniejszyć tłumienie filtru odtwarzającego w paśmie przepustowym wraz ze wzrostem częstotliwości tak, aby skompen sować efekt aperturowy. Charakterystyka amplitudowa idealnego układu wyrównującego ma postać: f =1 nf IH[jj\ sinc(/T) sin(ji/T) Wymagana korekta jest w praktyce niewielka, przy współczynniku bowiem wypełnienia TJTS < 0,1 odpowiednie zniekształcenia amplitudowe nie przekraczają 0,5%, co pozwala w zasadzie na pracę nawet bez układu wyrównującego. Transmisja sygnału PAM nakłada raczej surowe wymagania na charakterystyki amplitudowe i fazowe kanału, a to z uwagi na względnie krótki czas trwania przesyłanych impulsów. Ponadto, właściwości szumowe systemów PAM nie są nigdy lepsze, niż w przypadku transmisji sygnału w paśmie podstawowym. Zgodnie z tym, przy transmisji na duże odległości, systemy PAM używane są jedynie w charakterze metody przetwarzania informacji przy zwielokrotnianiu z podziałem czasowym, po czym przechodzi się do innej postaci modulacji impulsowej. Zasady zwielokrotniania z podziałem czasowym zostaną przedstawione w następ nym punkcie tego rozdziału
Sygnał PAM
s(t)
Sygnał informacyjny
m( t )
Rys. 6.7. Odtwarzanie sygnału m(t) na podstawie sygnału s(t)
6.4. ZWIELOKROTNIANIE Z PODZIAŁEM CZASOWYM
6.4.
357
Z w ielo kro tn ian ie z podziałem czasow ym
Twierdzenie o próbkowaniu stanowi podstawę dla przesyłania informacji zawartej w sygnale informacyjnym m(t) o skończonym paśmie w postaci ciągu jego próbek pobieranych rów nomiernie z częstotliwością nieco zwykle większą od częstotliwości Nyquista. Istotną cechą procesu próbkowania jest oszczędność czasu. Transmisja ciągu próbek sygnału informacyjnego zajmuje bowiem kanał telekomunikacyjny w czasie stanowiącym jedynie drobny ułamek każdego okresu próbkowania, a wolny przedział czasowy pomiędzy sąsiednimi próbkami może być wykorzystany przez inne, niezależne źródła informacji na zasadzie pracy z podziałem czasowym. Prowadzi to do powstania systemu ze zwielokrotnianiem z podziałem czasowym (TDM), zapewniającego łączne użytkowanie wspólnego kanału telekomunikacyjnego przez dużą liczbę niezależnych źródeł informacji bez ryzyka wzajemnych interferencji poszczególnych sygnałów. Koncepcja systemu TDM została przedstawiona na rys. 6.8. Każdy sygnał in formacyjny zostaje na wstępie poddany prealiasingowej filtracji dolnoprzepustowej celem usunięcia częstotliwości, które nie są niezbędne dla adekwatnej reprezentacji transmitowanego sygnału. Wyjścia filtrów dolnoprzepustowych są dołączone do przełącznika, zrealizowanego zwykle jako elektroniczny układ przełączający. Przełącznik ten spełnia dwie funkcje: (1) pobiera wąską próbkę każdego spośród N sygnałów informacyjnych, z częstotliwością f s nieco większą od 2 W, gdzie W jest częstotliwością graniczną filtru prealiasingowego, oraz (2) rozmieszcza sekwencyjnie pobrane N próbek wewnątrz każdego przedziału próbkowania 7^. Ta druga funkcja stanowi podstawę procesu zwielokrotniania z podziałem czasowym. Po przejściu przez układ przełączający, zwielokrotniony sygnał podawany jest na wejście modulatora impulsowego, którego zadaniem jest przekształcanie zwielokrotnionego sygnału do postaci dogodnej do jego transmisji przez wspólny kanał. Proces zwielokrotniania z podziałem czasowym powoduje oczywiście N-krotne rozszerzenie pasma zajmowanego przez sygnał, gdyż system musi „wcisnąć” N próbek pobranych z N niezależnych źródeł informacji w przedział czasowy równy jednemu okresowi próbkowania. Po stronie odbiorczej systemu, odebrany sygnał jest podawany na wejście demodulatora impulsowego, dokonującego operacji odwrotnej w stosunku do tej, jaka zachodzi w modulatorze impulsowym. Wąskie próbki otrzymywane na wyjściu demodulatora impulsowego są kierowane na odpowiednie dolnoprzepustowe filtry odtwarzające za pomocą przełącznika, który działa synchronicznie w stosunku do przełącznika znajdującego się w nadajniku. Synchronizacja ta jest niezbędna dla prawidłowego działania całego systemu. Sposób, w jaki się tej synchronizacji dokonuje, zależy oczywiście od metody modulacji impulsowej używanej w systemie do przesyłania zwielokrotnionego ciągu próbek. System TDM jest bardzo wrażliwy na zjawisko dyspersji zachodzące we wspólnym kanale, tzn. na zmiany amplitudy w funkcji częstotliwości, czy też brak proporcjonalności fazy w stosunku do częstotliwości. Dokładna korekcja zarówno charakterystyki amplitudowej jak i fazowej kanału jest więc niezbędna dla zapewnienia zadowalającego działania całego systemu. Problem ten zostanie szczegółowo przedyskutowany w rozdziale 7. W pierwszym przybliżeniu można jednak stwierdzić, iż system TDM jest odporny na nieliniowe zniekształcenia w kanale, będące źródłem przesłuchów, gdyż poszczególne sygnały informacyjne nie są jednocześnie przesyłane przez kanał.
Filtry prealiasingowe dolnoWejścia informacyjne przepustowe
Rys. 6.8. Schemat blokowy systemu TDM
Filtry odtwarzające Wyjścia dolnoprzepustowe informacyjne
6.5. MODULACJA POŁOŻENIA IMPULSÓW
6.5.
359
Modulacja położenia impulsów
W każdym systemie modulacji impulsowej można posłużyć się metodą powiększenia szerokości pasma zajmowanego przez ciąg impulsów, w celu polepszenia właściwości szumowych systemu. Można tego dokonać poprzez reprezentację spróbkowanych wartości sygnału in formacyjnego za pomocą innego niż amplituda parametru impulsu. W modulacji czasu trwania impulsów (PDM), próbki sygnału informacyjnego powodują zmiany czasów trwania poszczególnych impulsów fali nośnej. Ta postać modulacji występuje także pod nazwą modulacji szerokości impulsu lub modulacji długości impulsu. Sygnał modulujący może zmieniać moment przedniego, tylnego albo obu zboczy impulsu. Na rysunku 6.9c moment występowania tylnego zbocza impulsu zmieniany jest w takt sygnału informacyjnego, w tym przypadku sinusoidalnego (rys. 6.9a). Okresowa prostokątna fala nośna ma postać jak na rys. 6.9b. W modulacji PDM, występowanie impulsów o długim czasie trwania powoduje wzrost mocy sygnału, nie związany z przekazywaniem większej ilości informacji. Jeśli pozbędziemy się tej bezużytecznej mocy fali PDM tak, aby zachować jedynie informację o czasach przejść, a
d
Czas Rys. 6.9. Ilustracja różnych postaci modulacji położenia impulsów dla przypadku sinusoidalnej fali modulującej: a) fala modulująca, b) impulsowy sygnał nośny, c) fala PDM, d) fala PPM
360
6. MODULACJA IMPULSOWA
otrzymamy bardziej sprawny typ modulacji, znany pod nazwą modulacji położenia impulsów (PPM). W modulacji PPM, położenie impulsu, mierzone w stosunku do jego położenia przy braku modulacji, zmieniane jest w takt sygnału informacyjnego, jak pokazano na rys. 6.9d, dotyczącym przypadku modulacji falą sinusoidalną. Niech Ts oznacza okres próbkowania. Gdy próbka m{nTJ sygnahi informacyjnego m(t) moduluje położenie n-tego impulsu, otrzymujemy sygnał PPM o postaci: s{t)=
X n=
-
9 {t-n T s-
k pm(nTJ)
(6.20)
od
gdzie: kp — czułość modulatora PPM, a g(t) — stosowany impuls standardowy. Impulsy tworzące sygnał PPM s(f) muszą być oczywiście rozłączne; czego warunkiem koniecznym jest spełnienie zależności:
9(0 = 0,
(6.21)
z której wynika następujący warunek:
*>(*> L » < —
(6-22)
lm wartość kp\m(t) |max bliższa jest połowy okresu próbkowania 7j, tym węższy musi być impuls standardowy g(t), aby poszczególne impulsy sygnału PPM s(t) nie oddziaływały na siebie i tym szersze będzie pasmo zajmowane przez ten sygnał. Przy spełnieniu warunku (6.21) i przy braku interferencji między sąsiednimi impulsami sygnału PPM s(fX spróbkowany sygnał m{nTf może być dokładnie odtworzony w procesie demodulacji. Co więcej, z twierdzenia o próbkowaniu wynika, że jeśli tylko sygnał informacyjny m(t) ma ograniczone pasmo, to oryginalny sygnał m(t) może być także odtworzony bez zniekształceń na podstawie sygnału PPM s(r).
Generacja fal PPM Sygnał PPM opisany równaniem (6.20) można wygenerować używając układu o schemacie blokowym jak na rys. 6.10. Sygnał informacyjny m(t) jest najpierw przekształcany do postaci sygnału PAM za pomocą prostego układu próbkująco-pamiętającego, wytwarzającego sygnał schodkowy u(t). Zauważmy tu, iż czas twania impulsu T tego układu próbku jąco-pamiętającego jest równy okresowi próbkowania Tr Przebieg sygnału u(r) został przed stawiony na rys. 6.1 lb dla przypadku sinusoidalnego sygnału informacyjnego m(t) z rys. 6.11a. Sygnał u(f) jest następnie dodawany do sygnału piłokształtnego z rys. 6.1 lc, a uzyskany sygnał sumacyjny u(t) pokazano na rys. 6.1 ld. Sygnał t?(t) jest podawany na wejście detektora
Sygnał iformacyjny — >
m(t)
Układ próbkującopamiętający
I Generator impulsowy
u(t)
Sumator
v(t)
Detektor progowy
H O
Filtr kształtujący impulsy
Sygnał PPł
s(t)
1
Generator piłowy Rys. 6.10. Schemat blokowy generatora PPM
6.5. MODULACJA POŁOŻENIA IMPULSÓW
361
f
r
i(t) ____ n
J
i o
n
n
u u
n
f
Rys. 6.11 Generacja sygnału PPM: a) sygnał informacyjny, b) aproksymacja schodkowa sygnału informacyjnego, c) sygnał piłoksztahny, d) sygnał sumacyjny będący sumą sygnałów b) i c), e) ciąg „impulsów” użytych do generacji sygnału PPM
progowego, wytwarzającego bardzo wąski impuls (aproksymujący impuls Diraca) za każdym razem, gdy sygnał v(t) malejąc przechodzi przez zero. Otrzymywany tym sposobem ciąg impulsów i(t) pokazany jest z kolei na rys. 6.Ile. Wyjściowy sygnał PPM s(i) wytwarzany jest w ten sposób, iż ciąg impulsów i(t) podawany jest na wejście filtru o odpowiedzi impulsowej zdefiniowanej przez impuls standardowy g(t).
362
6. MODULACJA IMPULSOWA Wyjście
0
Poziom progowy
Wejście Rys_ fc |J
Charakterystyka wejście-wyjścic elementu progowego
Detekcja fal PPM Weźmy pod uwagę falę PPM s(t) z próbkowaniem równomiernym, zdefiniowaną równaniami (6.20), (6.21) i załóżmy, iż sygnał informacyjny (modulujący) m(f) ma ograniczone pasmo. Działanie jednego z typów odbiornika PPM obejmuje następujące kolejne funkcje: • Przekształcanie odbieranej fali PPM na falę PDM z tym samym rodzajem modulacji. • Całkowanie fali PDM z użyciem układu o skończonym czasie całkowania, co jest równoważne obliczaniu pola każdego impulsu fali PDM. • Próbkowanie sygnału wyjściowego integratora ze stałą częstotliwością, celem wytworzenia fali PAM, której amplitudy impulsów są proporcjonalne do próbek m(nTJ oryginalnej fali PPM s(f). • Demodulację fali PAM w celu odtworzenia sygnału informacyjnego m(f). Wszystkie podane operacje są liniowe. Ponadto, odbiornik PPM zawiera po stronie wejścia element nieliniowy zwany elementem progowym. Charakterystyka wejście-wyjście idealnego elementu progowego została przedstawiona na rys. 6.12, gdzie poziom odcięcia został normalnie ustalony na około połowę szczytowej amplitudy impulsu odbieranej fali PPM. Rola elementu progowego polega na zachowaniu pozycji zboczy odbieranych impulsów (zmienianych przez szumy) i usuwanie wszystkiego innego. Element ten wytwarza prawie „prostokątne” impulsy o stromych przednich i tylnych zboczach, występujących w tych samych momentach czasu, co odpowiednie zbocza impulsów odbieranych. Działa on w przybliżeniu jako „element usuwający szum” w tym sensie, iż końcowy poziom szumów na wyjściu odbiornika zostaje znacznie zredukowany poprzez usunięcie całego szumu zawartego w odbieranej fali PPM, za wyjątkiem szumu występującego w pobliżu przednich i tylnych zboczy impulsów. Sygnał wyjściowy elementu progowego zostaje zróżniczkowany, a następnie wypros towany jednopołówkowo, przez co uzyskuje się bardzo krótki impuls (aproksymujący impuls Diraca) za każdym razem, gdy amplituda kolejnego impulsu odbieranej fali PPM przekracza zadany poziom odcięcia. Na rysunku 6.13a pokazano n-ty impuls fali PPM, a na rys. 6.13b krótki impuls otrzymywany w sposób już opisany, gdy impuls PPM przekracza zadany poziom. Na rysunku 6.13c pokazano ten sam impuls odpowiednio opóźniony, a rys. 6.13d impuls PDM uzyskiwany na wyjściu opisywanego detektora. Po przekształceniu odbieranej (zaszumionej) fali PPM na falę PDM o takiej samej modulacji, dalszą funkcją odbiornika jest odtworzenie oryginalnego sygnału pasma pod stawowego m(t), czym się dalej zajmiemy.
Szumy przy modulacji położenia impulsów W systemie PPM, przesyłana informacja zawarta jest we względnych położeniach modulowa nych impulsów. Obecność szumu addytywnego zakłóca prawidłowe funkcjonowanie systemu poprzez wprowadzanie przypadkowych zmian czasów pojawiania się poszczególnych impulsów.
363
6.5. MODULACJA POŁOŻENIA IMPULSÓW
— -------------------------------- i------------------------
/( n - j1) T\t,
fi
Impuls PDM
1
Rys. 6.13. Detekcja niezaszumioncgo sygnału PPM Aby uzyskać odporność szumową systemu, należy zapewnić tak mały czas narastania impulsów, aby przedział czasu, w którym szum może wprowadzić zakłócenie był bardzo krótki. Szum addytywny nie wpływał by bowiem na położenie impulsów wówczas, gdyby były one idealnie prostokątne, gdyż obecność szumu wprowadza tylko zakłócenia „pionowe”. Odbieranie idealnie prostokątnych impulsów wymaga jednak nieskończenie szerokiego pasma kanału, co jest oczywiście niemożliwe. Przy ograniczonej w praktyce szerokości kanału transmisyjnego, odbierane impulsy mają zawsze skończony czas narastania i działanie odbiornika PPM jest zakłócane przez szumy. Podobnie jak w systemie z modulacją fali ciągłej, właściwości szumowe systemu PPM opisuje się za pomocą stosunku sygnał-szum na wyjściu układu. Analogicznie, polepszenie właściwości szumowych uzyskiwane w systemie PPM w stosunku do przesyłania sygnału informacyjnego w paśmie podstawowym, można oceniać za pomocą wskaźnika jakości zdefiniowanego jako iloraz stosunku sygnał-szum na wyjściu układu PPM i stosunku sygnał-szum w kanale. Objaśnimy to na przykładzie systemu PPM z zastosowaniem ciągu impulsów kosinusoidalnych ze składową stałą i modulacji sinusoidalnej.
364
6. MODULACJA IMPULSOWA
A
7
—■■ ■I
Rys. 6.14. Analiza szumowa systemu PPM: a) niemodulowany ciąg impulsów, b) ilustracja wpływu szumów na czas detekcji impulsu
Przykład 1 Stosunek sygnał-szum w systemie PPM z modulacją sinusoidalną Weźmy pod uwagę system PPM, w którym impulsowa fala nośna ma w przypadku braku modulacji postać jak na rys. 6.14a. Standardowy impuls tej fali nośnej ma kształt cosinusoidalny ze składową stałą, dogodny do celów naszej analizy. Impuls ten, o środku dla t = 0 i oznaczany jako g(t) jest określony zależnością: A g(t) = — [1 +cos(7tBr t)], —T ^ t ^ T (6.23) gdzie B t = l/T. Czas pojawiania się takiego impulsu można określić przykładając go na wejście idealnego elementu progowego o charakterystyce wejście-wyjście, pokazanej na rys. 6.12, a następnie obserwując jego sygnał wyjściowy. Zakładamy, iż poziom odcięcia został ustalony na połowę amplitudy impulsu, a mianowicie A/2, jak na rys. 6.14a. Gdy amplituda przychodzącego impulsu nie przekracza tego poziomu, sygnał wyjściowy jest równy zeru, a dla impulsów o amplitudzie większej od poziomu odcięcia jest stały. Transformata Fouriera impulsu g(t) wynosi: U)
Asm(2itf/BT) 2 n f ( l - 4 f 2/B2T)
Ma ona, jak pokazano na rys. 6.15, pierwsze zera przy / = ± B T i jest mała na zewnątrz tego przedziału. Można więc przyjąć, iż pasmo potrzebne do przesyłania takiego impulsu wynosi BT. Oznaczmy maksymalną międzyszczytową wartość odchylenia pozycji impulsu jako Tr Wówczas, w odpowiedzi na sinusoidalny sygnał modulujący, międzyszczytową wartość sygnału
365
6.5. MODULACJA POŁOŻENIA IMPULSÓW
Rys. 6.15 Widmo amplitudy impulsu cosinusoidalnego z dodatnią składową stałą
wyjściowego odbiornika, równa dwóm amplitudom będzie wynosiła KT# gdzie K jest stałą zależną od konstrukcji odbiornika. Wartość skuteczna tego sygnału wyniesie natomiast K T J ly J l, a odpowiadająca jej średnia moc sygnału wyjściowego odbiornika (na oporze obciążenia równym 1 fi) będzie równa; / KTS Y
l
T
j
T
)
K 2 T2 ~
*
W obecności szumu addytywnego zarówno amplituda jak i położenie impulsu zostanie zakłócone. Przypadkowe zmiany amplitudy impulsu zostają wyeliminowane przez zastosowanie elementu progowego. Pozostają natomiast przypadkowe zmiany pozycji impulsu spowodowane szumem i te uczestniczą w szumach występujących na wyjściu odbiornika. Będziemy dalej zakładać, iż moc szumów na wyjściu odbiornika jest mała w porównaniu z mocą szczytową impulsu. Wówczas, jeśli w pewnej chwili amplituda szumu wynosi czas wykrycia impulsu zostanie zmieniony o małą wartość t, jak na rys. 6.14b. W pierwszym przybliżeniu, nachylenie impulsu g(t) w chwili t = —7/2 wynosi UJx. Biorąc pod uwagę równanie (6.23) możemy więc napisać: Un dgr(f) t nBT A T = " d r lt= -Ti2= ~ 2 ~ Rozwiązując to równanie względem t otrzymujemy wzór 2Un %b t a
(6.24)
Błąd t położenia impulsu g(t) wytworzy średnią moc szumów na wyjściu odbiornika równą K 2 E[t 2], gdzie E — operator statycznej wartości oczekiwanej. Zakładając, iż szum na wejściu odbiornika ma widmową gęstość mocy równą NJ2, otrzymujemy średniokwadratową wartość amplitudy U„ w paśmie BT równą: E lU n = B TNa
(6.25)
Po uwzględnieniu równań (6.24) oraz (6.25) otrzymujemy następujący wynik: 4K 2N 0 Średnia moc szumów na wyjściu = K 2 E [t2] = n2 B t A 2 Wyjściowy stosunek sygnał-szum przy modulacji sinusoidalnej jest więc równy:
(6.26)
366
6. MODULACJA IMPULSOWA
K 2 TH8 (SN R)0 = 4K 2 N Jn2 BT A 2
n2B T T l A 2 ~ 32N0
(6.27)
Średnia moc P przesyłana w systemie PPM nie zależy od rodzaju sygnału modulujące go. Możemy więc określić P uśredniając moc pojedynczego impulsu fali PPM za okres próbkowania T# otrzymując zależność: l V 3A 2 P = — J g2(t)dt = 4 T5B t -T,t2
(32) (6.28)
Moc średnia szumów w paśmie informacyjnym Wjest równa WN0. Stosunek sygnał-szum kanału wynosi zatem: 3A2/4 Ts B t (SNR)C = WN0
3A2 4 TsB t WN0
(6.29)
Polepszenie stosunku sygnał-szum w systemie PPM z impulsem cosinusoidalgym wynosi: (SNR)0 (SNR)C
(6.30)
Przyjmując, iż sygnał informacyjny jest próbkowany z częstotliwością Nyquista, otrzymujemy Ts — 1/2 W. Odpowiednia wartość wskaźnika jakości obliczona ze wzoru (6.30) wyniesie (n2l\92)(BTIW)2 i będzie większa od jedności, jeśli BT > 4,41 W Stwierdzamy także, iż szumowy wskaźnik jakości systemu PPM jest proporcjonalny do kwadratu znormalizowanej szerokości pasma transmisji Br/W. W analizie szumowej przeprowadzonej dla systemu PPM założyliśmy, iż średnia moc szumu addytywnego na wejściu odbiornika jest mała w porównaniu do szczytowej mocy impulsu. W szczególności przyjęto, że są dwa przejścia przez poziom odcięcia dla każdego impulsu, jedno dla przedniego, a drugie dla tylnego zbocza tego impulsu. Szum gaussowski będzie miał przypadkowe wyskoki wywołujące dodatkowe przejścia przez poziom odcięcia, mylnie inter pretowane przez układ jako impulsy sygnału użytecznego. Podana analiza pomija więc te fałszywe impulsy, wywoływane przez wysokie wartości chwilowe szumu. Fałszywe impulsy mają oczywiście skończone, choć niewielkie prawdopodobieństwa pojawienia się gdy szum jest gaussowski niezależnie od tego, jak małe jest odchylenie standardowe w porównaniu z amplitudą impulsu sygnału użytecznego. Przy zwiększaniu pasma transmisji do nieskończoności, towarzy szący temu wzrost średniej mocy szumów spowoduje na tyle częste pojawianie się fałszywych impulsów, iż następuje całkowita utrata sygnału informacyjnego na wyjściu odbiornika. W praktyce więc w systemach PPM występuje niekorzystny efekt progowy.
6.6.
Relacja szerokość pasma — poziom szumu ►
Pod względem właściwości szumowych, system PPM stanowi optymalny rodzaj analogowej modulacji impulsowej. Analiza szumowa systemu PPM przeprowadzona na podanym przy kładzie pokazuje, iż zarówno systemy modulacji położenia impulsów (PPM), jak i systemy modulacji częstotliwości (FM) wykazują podobne właściwości szumowe, a mianowicie: 1. Oba systemy mają szumowy wskaźnik jakości proporcjonalny do kwadratu pasma trans misyjnego, znormalizowanego w stosunku do szerokości pasma zajmowanego przez sygnał. 2 Oba systemy wykazują efekt progowy, występujący przy zmniejszaniu stosunku sygnał-szum.
6.7. PROCES KWANTOWANIA
367
Praktyczną konsekwencją właściwości 1, jeśli chodzi o polepszenie właściwości szumowych systemu kosztem zwiększenia szerokości pasma transmisji, tak w przypadku modulacji fali ciągłej (CW) jak i analogowych systemów modulacji impulsowej, jest to iż należy postępować zgodnie z zależnością kwadratową (6.30). Pytanie, jakie tu nasuwa brzmi: Czy można uzyskać zależność korzystniejszą od kwadratowej? Odpowiedzią na nie jest wyraźne tak, a cyfrowa modulacja impulsowa jest właściwym sposobem na jej uzyskanie. Zastosowanie takiej metody oznacza radykalne odejście od modulacji CW. W szczególności, w podstawowej metodzie cyfrowej modulacji impulsowej, jaką jest modulacja impidsowo-kodowa (PCM)3), sygnał informacyjny jest reprezentowany w postaci dyskretnej zarówno w czasie, jak i amplitudzie. Ta forma reprezentacji sygnału pozwala na transmisję sygnału informacyjnego w postaci ciągu zakodowanych impulsów binarnych. Mając taki ciąg, wpływ szumów odbiornika na końcowy sygnał wyjściowy systemu można sprowadzić do pomijalnego poziomu, czyniąc po prostu średnią moc przesyłanej binarnej fali PCM dostatecznie dużą w porównaniu ze średnią mocą szumów. Dwa podstawowe procesy składające się na generację binarnej fali PCM, to próbkowanie i kwantowanie. Proces próbkowania prowadzi do reprezentacji sygnału informacyj nego w czasie dyskretnym; dla jego właściwego wykorzystania należy kierować się twierdzeniem o próbkowaniu, opisanym w punkcie 6.2. Proces kwantowania natomiast polega na uzyskaniu dyskretnej reprezentacji wartości sygnału informacyjnego. Kwantowanie jest nowym procesem, który zostanie opisany szczegółowo w następnym punkcie tego rozdziału. Łączne zastosowanie próbkowania i kwantowania pozwala na przesyłanie sygnału informacyjnego w postaci zakodowanej. Umożliwia to z kolei uzyskanie zależności wykładniczej szumowego wskaźnika jakości systemu od szerokości pasma przesyłanego sygnału. Zostanie to wykazane w następnym punkcie.
6.7.
Proces kwantowania4*
Sygnał analogowy, taki jak sygnał mowy, ma ciągłe widmo amplitudowe i dlatego jego próbki mają amplitudy przyjmujące dowolne wartości rzeczywiste. Innymi słowy, w każdym skończonym zakresie amplitud sygnału może wystąpić nieskończenie wiele poziomów amplitudy tego sygnału. Nie jest jednak konieczne przesyłanie dokładnych wartości amplitud próbek. Ludzkie zmysły bowiem (ucho lub oko), będące ostatecznym odbiornikiem każdej informacji, rozróżniają jedynie skończone różnice natężenia sygnału. Oznacza to, iż oryginalny sygnał analogowy może zostać z powodzeniem zaaproksymowany innym sygnałem o dyskretnym zbiorze amplitud, wybranym z dostępnego zbioru na podstawie zasady minimalnego błędu. Istnienie skończonego zbioru dyskretnych poziomów amplitudy jest podstawowym warunkiem realizowalności modulacji impulsowo-kodowej. Jest przy tym oczywiste, że jeśli te dyskretne poziomy amplitudy będą dostatecznie bliskie, sygnał aproksymujący będzie praktycznie nie do odróżnienia od oryginalnego sygnału analogowego. Kwantowanie amplitudowe jest zdefiniowane jako proces transformacji amplitudy próbki m(nTj sygnału informacyjnego m(t) w chwili t = nTs na amplitudę dyskretną i/(n7^) należącą do skończonego zbioru możliwych amplitud. W tej książce będziemy stale zakładać, iż proces kwantowania jest bezinercyjny oraz chwilowy, co oznacza, iż efekt transformacji w chwili t = nTs nie zależy od wcześniejszych ani późniejszych próbek sygnału informacyjnego. Ta prosta forma kwantowania, choć nieoptymalna, jest jednak często stosowana w praktyce. Gdy mamy do czynienia z kwantyzatorem bezinercyjnym, możemy uprościć notację, opuszczając zależność od czasu. Zamiast oznaczenia m(nT) będziemy więc dalej pisać po prostu
368
6.
MODULACJA IMPULSOWA
a . 7,
Próbka analogowa m
Próbka dyskretna
u
mh- 1
mk vh mk* 1
m*♦2
Rys. 6.16. Opis kwantyzatora bezinercyjnego
m, jak pokazano na schemacie blokowym kwantyzatora z rys. 6.16a. Następnie, jak na rys. 6.16b, amplitudę sygnału m zaopatrzymy w indeks k, jeśli leży ona w zadanym przedziale: T :{mk < m ^ mk+1},
k = 1,2,..., L(6.31)
gdzie L — liczba wszystkich poziomów amplitudy danego kwantyzatora. Amplitudy mh k = 1,2,..., L są nazywane poziomami decyzyjnymi lub progami decyzyjnymi. Na wyjściu kwantyzatora, indeks k przetwarzany jest na amplitudę vk reprezentującą wszystkie amplitudy leżące w przedziale T; amplitudy vk, k = 1,2,..., L noszą nazwę poziomów reprezentacji lub poziomów rekonstrukcji, a odstęp między dwoma sąsiednimi poziomami reprezentacji nazywany jest przedziałem kwantowania. Sygnał wyjściowy kwantyzatora v równy jest zatem vk, jeśli próbka sygnału wejściowego m należy do przedziału Yk. Odwzorowanie (zobacz rys. 6.16a): v = g{m)
(6.32)
opisuje charakterystykę kwantyzatora, która jest z definicji funkcją schodkową. Rozróżniamy kwantyzatory z kwantowaniem równomiernym i z kwantowaniem nie równomiernym. W kwantyzatorze z kwantowaniem równomiernym, poziomy reprezentacji są równoodległe; w innym przypadku mamy do czynienia z kwantowaniem nierównomiernym. W tym punkcie zajmiemy się jedynie przypadkiem kwantyzatora z kwantowaniem równo miernym; kwantyzatorami z kwantowaniem nierównomiernym zajmiemy się w następnym punkcie tego rozdziału. Charakterystyka kwantyzatora może być typu „z zaokrąglaniem” lub „z obcinaniem”. Na rysunku 6.17a pokazano charakterystykę wejście-wyjście kwantyzatora z kwantowaniem równomiernym i z zaokrąglaniem, którego cechą jest to, iż początek jego charakterystyki leży na środku poziomego odcinka funkcji schodkowej. Na rysunku 6.17b pokazano odpowiednio charakterystykę wejście-wyjście kwantyzatora z kwantowaniem równomiernym i z obcinaniem, gdzie początek charakterystyki leży na środku pionowego a
Poziom wyjściowy 4
Poziom
j_Poziom 4 wejściowy
Rys. 6.17. Dwa typy kwantowania: a) z zaokrągleniem, b) z obcinaniem
Poziom wejściowy
6.7. PROCES KWANTOWANIA
369
Rys. 6.18. Ilustracja procesu kwantowania. (Na podstawie pracy Bennett’a. 1948, za pozwoleniem AT&T)
odcinka funkcji schodkowej. Zauważmy, iż obie charakterystyki kwantyzatorów z kwan towaniem równomiernym są symetryczne względem początku układu współrzędnych.
Szum kw antow ania Zastosowanie kwantowania wprowadza błąd, który można zdefiniować jako różnicę między sygnałem wejściowym m, a sygnałem wyjściowym v. Błąd ten zwany jest szumem kwantowania. Na rysunku 6.18 zilustrowano typowy przebieg szumu kwantowania w funkcji czasu, w przypadku kwantowania równomiernego z zaokrąglaniem. Niech sygnał wejściowy m kwantyzatora będzie spróbkowaną wartością zmiennej losowej M o wartości średniej zero. (Gdy sygnał wejściowy ma wartość średnią różną od zera, można ją zawsze odjąć od sygnału wejściowego kwantyzatora, a następnie znów dodać do jego sygnału wyjściowego.) Kwantyzator g( ) odwzorowuje wejściową zmienną losową M reprezen tującą ciągły zbiór amplitud, na dyskretną zmienną losową V; ich odpowiednie wartości spróbkowane m oraz v są związane równaniem (6.32). Oznaczamy przez Q zmienną losową reprezentującą błąd kwantowania wartości spróbkowanej q. Możemy napisać: q = m —v
(6.33)
oraz odpowiednio: Q = M -V
(6.34)
Gdy sygnał wejściowy M ma zerową wartość średnią, a kwantyzator ma symetryczną charakterystykę, jak na rys. 6.17, jego sygnał wyjściowy Va stąd i błąd kwantowania Q ma też zerową wartość średnią. Tak więc celem statystycznej oceny jakości kwantyzatora za pomocą stosunku sygnał-szum na jego wyjściu, wystarczy określić jedynie wartość średniokwadratową błędu kwantowania Q. Weźmy zatem pod uwagę sygnał wejściowy m o ciągłej amplitudzie zmieniającej się w przedziale (—m ^ , m ^ . Przyjmując kwantowanie równomierne z zaokrąglaniem, jak na rys. 6.17b, znajdujemy następującą wartość rozdzielczości kwantyzatora: 24 Systemy telekomunikacyjne cz. 1
370
6.
MODULACJA IMPULSOWA
(6.35) gdzie L — całkowita liczba poziomów reprezentacji. W przypadku kwantowania równomier nego, błąd kwantowania Q przyjmuje spróbkowane wartości z przedziału —A/2 ^ q < A/2. Jeśli rozdzielczość A jest dostatecznie mała (tzn. liczba poziomów reprezentacji L jest dostatecznie wielka), rozsądne jest przyjąć, iż błąd kwantowania Q jest zmienną losową o rozkładzie równomiernym, a wpływ szumu kwantowania na wejściu kwantyzatora jest taki, jak w wypadku szumu termicznego. Możemy wówczas wyrazić funkcję gęstości prawdopodobieństwa błędu kwantowania Q w następującej postaci: 1 —, 0,
- A/2 < < / A/2 gdzie indziej
(6.36)
Aby ta zależność była jednak spełniona, trzeba zapewnić, aby przychodzący sygnał nie spowodował przepełnenia kwantyzatora. Z warunku, iż średnia wartość błędu kwantowania wynosi zero, jego wariancja
(6.37)
Podstawiając równanie (6.36) do (6.37) otrzymujemy: a Q =
1 Al2 A2 ~ r I dg = A - A\2 1Z
(6.38)
Zazwyczaj, liczba k ze zbioru L, opisująca k-ty poziom reprezentacji kwantyzatora, jest przesyłana do odbiornika w postaci binarnej. Niech R oznacza liczbę bitów na próbkę w binarnym zapisie kodu tej liczby. Możemy wówczas napisać: L = 2R
(6.39)
lub w równoważnej postaci: R = log2 L
(6.40)
Podstawiając teraz równanie (6.39) do (6.35) otrzymujemy wzór określający rozdzielczość kwantyzatora w postaci: (6.41) Z równań (6.38) i (6.41) uzyskujemy zależność: 2
-2R max
(6.42)
Niech P oznacza średnią moc sygnału informacyjnego m(t). Stosunek sygnał-szum na wyjściu kwantyzatora z kwantowaniem równomiernym wyraża się wzorem: (SNR)a =
(6.43)
371
6.7. PROCES KWANTOWANIA
Równanie (6.43) pokazuje, iż stosunek sygnał-szum na wyjściu kwantyzatora wzrasta wykładniczo ze wzrostem liczby bitów na próbkę, R. Biorąc pod uwagę, że wraz ze wzrostem liczby bitów R, wzrasta proporcjonalnie szerokość pasma kanału transmisyjnego Br można stwierdzić, iż binarna reprezentacja sygnału informacyjnego (w postaci modulacji impulsowo-kodowej) jest metodą znacznie lepszą zarówno od modulacji częstotliwości (FM) jak i modulacji położenia impulsów (PPM), jeśli chodzi o korzyści uzyskiwane przy zwiększaniu szerokości pasma kanału dla poprawienia właściwości szumowych systemu. Stwierdzenie to opiera się jednak na założeniu, iż w systemach FM i PPM czynnikiem krytycznym jest szum odbiornika, podczas gdy w systemie modulacji z kodowaniem binarnym krytyczną rolę pełni szum kwantowania. Ten ostatni temat będzie omówiony dokładniej w punkcie 6.9.
Przykład 2 Sinusoidalny sygnał modulujący Rozpatrzmy teraz szczególny przypadek sinusoidalnego sygnału modulującego o amplitudzie A", z wykorzystaniem całego zakresu przetwarzania kwantyzatora. Moc średnia sygnału (wydzielana na oporze obciążenia 1 Q) wynosi:
Całkowity zakres przetwarzania kwantyzatora wynosi 2Am, gdyż wartość chwilowa sygnału modulującego zmienia się w granicach od —Am do Am. Możemy więc przyjąć mmax = Am i wówczas z równania (6.42) uzyskujemy moc średnią (wariancję) szumu kwantowania w po staci: -2R
Stosunek sygnał-szum na wyjściu kwantyzatora z kwantowaniem równomiernym jest wówczas równy: A l! 2 (SNR)0 = A l2 ~ 2R/3
(6.44)
Wyrażając stosunek sygnał-szum w decybelach otrzymujemy zależność 101og10(SNR)o = 1,8 + 6jR
(6.45)
Wartości tego stosunku dla różnych wartości L oraz R podano w tablicy 6.1. Dane te pozwalają łatwo ocenić liczbę bitów na próbkę, wymaganą do otrzymania pożądanego stosunku sygnał-szum na wyjściu układu. Tablica 6.1. STOSUNEK SYGNAŁU DO SZUMU KWANTOWANIA PRZY RÓŻNEJ LICZBIE POZIOMÓW REPREZENTACJI
24*
Liczba poziomów reprezentacji, L
Liczba bitów/próbkę, R
Stosunek sygnału do szumu (dB)
32 64 128 256
5 6 7 8
31,8 37,8 43,8 49,8
372
6. MODULACJA IMPULSOWA
6.8.
Modulacja impulsowo-kodowa
Po zapoznaniu się z procesami próbkowania i kodowania, możemy przystąpić do opisu modulacji impulsowo-kodowej która, jak uprzednio wspomniano, jest najbardziej podstawową formą cyfrowej modulacji impulsowej. W modulacji impulsowo-kodowej (PCM), sygnał informacyj nyjest reprezentowany w postaci ciągu zakodowanych impulsów, co uzyskuje się przez przetworzenie sygnału do postaci dyskretnej zarówno w czasie jak i w amplitudzie. Podstawowymi operacjami, jakie dokonywane są w nadajniku systemu PCM są: próbkowanie, kwantowanie oraz kodowanie, jak pokazano na rys. 6.19a; filtr dolnoprzepustowy, poprzedzający układ próbkujący, ma na celu zapobiec zjawisku aliasingu sygnału informacyjnego. Operacje kwantowania i kodowania dokonywane są zwykle w tym samym układzie, zwanym przetwornikiem analogowo-cyfrowym (A/C). Podstawowymi operacjami, jakie zachodzą w odbiorniku są natomiast: regeneracja sygnałów zniekształconych, dekodowanie oraz rekonstrukcja ciągu skwantowanych impulsów, jak pokazano na rys. 6.19c. W razie potrzeby, regeneracja może być także dokonywana w punktach pośrednich drogi transmisji sygnału, jak to przedstawiono na rys. 6.19b. W przypad ku zwielokrotniania z podziałem czasowym, aby cały system działał poprawnie, konieczna staje się synchronizacja odbiornika z nadajnikiem. Dalej zostaną opisane poszczególne układy tworzące system PCM.
Próbkowanie Odbierany sygnał informacyjny jest próbkowany z£ pomocą ciągu wąskich impulsów prostokąt nych tak, aby uzyskać w przybliżeniu próbkowanie chwilowe. Aby zapewnić bezbłędne odtwarzania sygnału informacyjnego przez odbiornik, zgodnie z twierdzeniem o próbkowaniu.
Sygnał PCM
Zniekształcony sygnał PCM
Repeter regeneracyjny
N.
c
Wejście kanału Rys. 6.19. Podstawowe elementy systemu PCM
Nu
Repeter regeneracyjny
Zregenerowany sygnał PCM
6.8. MODULACJA IMPULSOWO-KODOWA
373
częstotliwość próbkowania powinna być większa od podwojonej najwyższej częstotliwości W widma sygnału informacyjnego. W praktyce zawsze stosuje się antyaliasingowy filtr dolnoprzepustowy przed układem próbkującym, aby zawczasu pozbyć się częstotliwości wyższych od W Układ próbkujący powoduje więc zredukowanie analogowego sygnału informacyjnego (o skończonym czasie trwania) do skończonej liczby jego wartości dyskretnych w ciągu każdej sekundy.
Kwantowanie Spróbkowana wersja sygnału informacyjnego zostaje następnie skwantowana, dając nową reprezentację tego sygnału, tym razem dyskretną zarówno w czasie jak w amplitudzie. Proces kwantowania może być równomierny, jak opisano w punkcie 6.7. Jednak przy pewnych zastosowaniach wygodne jest użycie zmiennej odległości pomiędzy poszczególnymi poziomami reprezentacji. Dla przykładu, zakres napięć dla sygnału mowy, biorąc od wartości szczytowej dla głośnej rozmowy, do jego najmniejszych wartości przy cichej rozmowie, wynosi około 1000 do 1. Za pomocą kwantyzatora z kwantowaniem nierównomiernym, mającego tak dobraną charakterys tykę, aby jego zdolność rozdzielcza wzrastała w miarę oddalania się od początku współrzędnych, można uwzględnić stosunkowo rzadko zdarzające się duże wartości amplitud sygnału, dodając jeden duży schodek końcowy do tej charakterystyki. Innymi słowy, małe wartości sygnału, wymagające dokładnego odtwarzania, są faworyzowane na koszt dużych. Tym sposobem uzyskuje się prawie stałą dokładność procentową w przeważającej części zakresu amplitud sygnału wejściowego. W efekcie całkowita liczba poziomów kwantowania jest mniejsza, niż w przypadku kwantowania równomiernego. Użycie kwantowania nierównomiernego jest równoważne przepuszczeniu sygnału informacyjnego przez kompresor, a następnie poddanie sygnału z wyjścia kompresora kwan towaniu równomiernemu. Szczególnym rodzajem kompresji stosowanym w praktyce jest kompresja o tzw. prawie p5), określonym następującym wzorem: log(l+^|m |) log(l H-ju)
(6.46)
gdzie: m oraz u — odpowiednio znormalizowane napięcie wejściowe i wyjściowe, a p — stała dodatnia. Na rysunku 6.20a podano wykres zależności (6.46) dla różnych wartości p. Kwantowanie równomierne występuje gdy p — 0. Przy zadanej wartości p, odwrotność nachylenia charakterystyki kompresji, definiująca przedziały kwantowania, jest równa pochod nej |m| względem |y|, tzn.: d|m| d|u|
log(l + p)
(1 + mM )
(6.47)
Jak stąd wynika, prawo p nie jest ani liniowe, ani logarytmiczne, lecz można je uważać za w przybliżeniu liniowe dla małych poziomów sygnału wejściowego, gdy p\m « 1 oraz prawie logarytmiczne dla dużych poziomów sygnału wejściowego, gdy z kolei p\m\ » 1. Innym często używanym w praktyce prawem kompresji jest tak zwane prawo A, zdefiniowane wzorem: A \m \
1 + log4' ’ l+łogUlml) 1+logA
0 ^ |m| < — A (6.48) ■j « M « 1
374
E co
O §>
6.
MODULACJA IMPULSOWA
n4
0)4
N in
0,4 0,6 Znormalizowany sygnał wejściowy ml
0,4 0,6 Znormalizowany sygnał wejściowy |m|
Rys. 6.20. Prawo kompresji: a) prawo p, b) prawo A
zilustrowanym na wykresie z rys. 6.20b. Przyjmowane w praktyce wartości parametru A (odpowiadającemu stałej p w poprzedniej zależności) są bliskie 100. Przypadek A = 1 odpowiada kwantowaniu równomiernemu. Odwrotność nachylenia charakterystyki kompresji, jest równa pochodnej |m| względem |p|; tzn.: 1 + log/1 d[mj d|u|
(6.49)
(l+logA)|m|,
Przedziały kwantowania leżące powyżej środkowego odcinka liniowego, mające dominujący wpływ przy małych sygnałach, są zmniejszane o czynnik /4|(1 + logA). Oznacza to w praktyce tłumienie równe około 25 dB, w porównaniu z kwantowaniem równomiernym. Aby prawidłowo odtworzyć względne poziomy amplitud poszczególnych próbek sygnału, w odbiorniku należy zastosować układ o charakterystyce komplementarnej w stosunku do charakterystyki kompresora. Układ tego typu nazywa się ekspanderem. W idealnym przypadku obie charakterystyki powinny być dokładnie odwrotne względem siebie tak, aby pomijając wpływ kwantowania, sygnał wyjściowy ekspandera był dokładnie taki sam, jak sygnał na wejściu kompresora. Połączenie układu kompresora i ekspandera nazywane jest kompanderem. W stosowanych obecnie systemach PCM, układ kompandera nie wytwarza dokładnej repliki nieliniowej krzywej kompresji, pokazanej na rys. 6.20. Zapewnia on raczej odcinkami liniową aproksymację porządanej krzywej. Używając dostatecznie dużej liczby odcinków liniowych, aproksymacja taka jest bardzo bliska krzywej dokładnej, co zostanie zilustrowane w przykładzie 3 na końcu tego punktu.
Po poddaniu go procesom próbkowania i kwantowania, postać analogowego sygnału informacyjnego (w paśmie podstawowym) zostaje ograniczona do dyskretnego zbioru wartości, lecz postać ta nie jest najlepiej przystosowana do transmisji za pośrednictwem linii przesyłowej czy też drogą radiową. Aby skorzystać z zalet próbkowania i kwantowania, celem
6.8:
375
MODULACJA IM PU LSOWO-KODOWA
Tablica 6.2. BINARNY SYSTEM LICZENIA DLA R = 4 Liczba porządkowa poziomów reprezentacji 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Numer poziomu wyrażony jako suma potęg liczby 2 2° 21 21 + 2° 22 21 + 2° 22 + 21 22 + 2l + 2° 23 23 23 23 23 23 23 23
+ 2° + 21 + 21 + 2° + + + +
22 22 + 2° 22 + 2' 22 + 21 + 2°
Liczba binarna 0000 0001 0010 0011 0100 0101 0110 0111 1000 1001 1010 1011 1100 1101 1110 1111
uczynienia przesyłanego sygnału bardziej odpornym na szumy, interferencje i inne szkodliwe wpływy związane z kanałem, trzeba posłużyć się procesem kodowania powodującym zamianę dyskretnego zbioru wartości próbek na inną, dogodniejszą formę sygnału. Dowolny sposób reprezentacji każdego dyskretnego zbioru wartości, rozumiany jako szczególne uporząd kowanie zdarzeń dyskretnych jest zwany kodem. Każde takie dyskretne zdarzenie należące do kodu jest zwane elementem kodu lub symbolem. Dla przykładu, obecność lub brak impulsu jest symbolem. Szczególne uporządkowanie symboli, używane w kodzie do reprezentacji pojedyn czej wartości zbioru dyskretnego jest nazywane słowem kodowym lub znakiem. W kodzie binarnym, każdy symbol może przybierać jedną z dwu różnych wartości lub cech, takich jak obecność lub brak impulsu. Te dwa symbole kodu binarnego są zwyczajowo oznaczane przez 0 i 1. W kodzie trójkowym, każdy symbol może przybierać jedną z trzech różnych wartości lub cech, i podobnie jest dla innych kodów. Jednak największą korzyść, jeśli chodzi o wpływ szumów kanału transmisyjnego uzyskuje się używając kodu binarnego, gdyż symbol binarny najlepiej znosi stosunkowo wysoki poziom szumów i jest łatwy do zregenerowania. Załóżmy, iż każde słowo w kodzie binarnym składa się z R bitów, bit jest akronimem angielskiego słowa binary digit*\ zatem R oznacza liczbę bitów na próbkę. Za pomocą takiego kodu możemy więc zapisać 2R różnych liczb. Przykładowo, próbka skwantowana do jednego spośród 256 poziomów, może zostać zapisana w postaci 8-bitowego słowa kodu. Istnieje wiele sposobów uzyskiwania wzajemnie jednoznacznej odpowiedniości pomiędzy poziomami reprezentacji, a słowami kodu. Jedną z dogodnych metod jest wyrażenie liczby porządkowej danego poziomu reprezentacji w postaci liczby binarnej. W binarnym systemie liczenia, miejsce każdej cyfry binarnej związane jest z pewną potęgą liczby 2, jak pokazano w tablicy 6.2, dla przypadku czterech bitów na próbkę (tzn. R = 4). Istnieje kilka kodów liniowych przydatnych do reprezentacji symboli binarnych 1 i 0 za pomocą sygnałów elektrycznych, a mianowicie: 1. Kod unipolarny, w którym symbol 1jest reprezentowany przez impuls o stałej amplitudzie i zadanym czasie trwania, a symbol 0 przez brak impulsu, jak na rys. 6.2la. Cyfra binarna (przyp. tłum.).
376
6. MODULACJA IMPULSOWA
Dane binarne O
i
i
O
i
O
O
i
0
d
1— ____ m _____ i LUT
o
f
Bit odniesienia
Czas
Rys. 6.21 Sposoby reprezentacji danych binarnych: a) unipolarny, b) bez powrotu do zera (NRZ), c) z powrotem do zera (RZ), d) bipolarny z powrotem do zera (BRZ), e) bifazowy — Manchester, 0 kodowanie różnicowe
2. Kod bez powrotu do zera (NRZ), w którym symbole 1 i 0 są reprezentowane odpowiednio przez dodatnie i ujemne impulsy o takiej samej amplitudzie, jak na rys. 6.2 lb. 3. Kod z powrotem do zera (RZ), w którym symbol 1 jest reprezentowany przez dodatni impuls prostokątny o szerokości połówkowej, a symbol 0 przez brak impulsu, jak na rys. 6.21c. 4. Kod bipolary z powrotem do zera (BRZ), w którym używa się trzech poziomów amplitudy, jak na rys. 6.21d. Dodatnie i ujemne impulsy o jednakowej amplitudzie są mianowicie na zmianę używane do reprezentacji symbolu 1, a brak impulsu zawsze dla symbolu 0. Użyteczna właściwość kodu BRZ polega na tym, iż widmo mocy transmitowanego sygnału nie ma składowej stałej i niewielką zawartość składowych m.cz. w przypadku, gdy symbole 1 i 0 pojawiają się z jednakowym prawdopodobieństwem. 5. Kod bifazowy (kod Manchester), przedstawiony na rys. 6.21e. Jest to metoda kodowania, przy której symbol 1 jest reprezentowany przez parę impulsów: dodatni i ujemny, przy czym oba te impulsy mają taką samą amplitudę i połówkowy czas trwania. Przy symbolu
377
6.8. MODULACJA IMPULSOWO-KODOWA
O, polaryzacje obu tych impulsów są przeciwne. Kod Manchester nie zawiera składowej stałej, lecz stosunkowo znaczące widmo m.cz, niezależnie od statystyki sygnału. W pew nych zastosowaniach jest to właściwość istotna. 6. Kodowanie różnicowe, przy którym informacja jest zakodowana poprzez przejścia sygnału, jak zilustrowano na rys. 6.21f. W przypadku binarnego sygnału PCM pokazane go na tym rysunku, przejście reprezentuje symbol 0, a brak przejścia symbol 1. Jest oczywiste, iż sygnał zakodowany różnicowo może zostać odwrócony bez zmiany jego znaczenia. Oryginalna informacja binarna odtwarzana jest przez porównywanie polaryza cji sąsiednich symboli celem ustalenia, czy przejście ma miejsce, czy też nie. Przebiegi pokazane na rys. 6.21a do 6.21f, ilustrują kodowanie binarnego strumienia danych 01101001. Zauważmy, iż nie zostało przy tym zastosowane kształtowanie impulsów. Zagadnienie kształtowania impulsów i jego korzystny wpływ na szerokość pasma sygnałów PCM zostanie przedstawione w rozdziale 7.
Regeneracja Najważniejszą cechą systemów PCM jest możliwość oddziaływania na poziom wpływu zniekształceń i szumów powstających przy transmisji sygnałów PCM przez kanał. Polega ona na odtwarzaniu prawidłowego sygnału PCM za pomocą łańcucha repeterów regenera cyjnych rozmieszczonych w dostatecznie małych odstępach wzdłuż kanału transmisyjnego. Repeter regeneracyjny, o schemacie blokowym jak na rys. 6.22, spełnia trzy podstawowe funkcje: wyrównywanie, synchronizacja i podejmowanie decyzji. Układ wyrównujący kształtuje odbierane impulsy tak, aby skompensować wpływ zniekształceń amplitudowych i fazowych spowodowanych kształtem charakterystyki kanału. Układy synchronizujące wytwarzają okresowy ciąg impulsów, otrzymywany za pomocą impulsów odbieranych, służący do próbkowania wyrównywanych impulsów w takich chwilach czasu, w których stosunek sygnał-szum jest maksymalny. Każda taka próbka jest porównywana z określoną uprzednio wartością progową w układzie decyzyjnym. W czasie przeznaczonym na transmisję każdego bitu jest podejmowana decyzja, czy odebrany symbol jest jedynką czy zerem zależnie od tego, czy przekroczony został poziom progowy, czy też nie. Po przekroczeniu poziomu progowego, „czysty” nowy impuls reprezentujący symbol 1 zostaje wysłany do następnego repetera. W przypadku przeciwnym, wysłany zostaje inny „czysty” nowy impuls, reprezentujący tym razem symbol 0. Tym sposobem unika się akumulacji zniekształceń i szumów wzdłuż kanału transmisyjnego pod warunkiem jednak, iż zakłócenia nie są na tyle duże, aby spowodować błędne zadziałanie procesu decyzyjnego w systemie. W idealnym przypadku, pomijając opóźnienie, regenerowany sygnał jest dokładnie taki sam, jak oryginalny sygnał na wejściu
Zniekształcona fala PCM
Wzmacniacz _a___________ W Układ r----------------decyzyjny wyrównujący
Rys. 6.22. Schemat blokowy repetera regeneracyjnego
Zregenerowana fala PCM
378
6. MODULACJA IMPULSOWA
kanału transmisyjnego. W praktyce jednak regenerowany sygnał różni się nieco od oryginalnego, a to z dwu istotnych powodów: 1. Nieunikniona obecność szumów i interferencji kanału powoduje sporadyczne błędy w działaniu układu decyzyjnego repetera, wprowadzając błędne bity do regenerowanego sygnału. 2. Gdy odstęp czasowy pomiędzy odbieranymi impulsami doznaje odchyleń od wartości nominalnej, pojawia się jitter*] pozycji regenerowanego impulsu, co powoduje zniekształ cenia odbieranego sygnału.
Dekodowanie Pierwszą operacją dokonywaną w odbiorniku jest regeneracja (tzn. odtworzenie pierwotnego kształtu i oczyszczenie z szumów) odbieranych impulsów. Zregenerowane impulsy zostają następnie pogrupowane w słowa kodowe i zdekodowane (tzn. poddane przekształceniu odwrotnemu) celem uzyskania skwantowanego sygnału PAM. Proces dekodowania sprowa dza się do generacji impulsu o amplitudzie będącej liniową sumą wszystkich impulsów danego słowa kodowego, którego każdy impuls brany jest z wagą zależną od jego pozycji w słowie (2°, 21, 22, 23,..., 2R~l), przy czym R jest liczbą bitów na próbkę.
Filtracja Końcową operacją zachodzącą w odbiorniku jest odzyskiwanie sygnału informacyjnego, polegające na przepuszczaniu sygnału wyjściowego dekodera przez filtr dolnoprzepustowy o częstotliwości granicznej równej szerokości pasma sygnału W. Przy założeniu, iż droga transmisji sygnału nie wprowadza błędów, sygnał odzyskiwany przez odbiornik nie zawiera szumów, za wyjątkiem początkowych zniekształceń wprowadzanych przez sam proces kwantowania.
Zw ielokrotnianie W systemach, gdzie stosuje się proces PCM, używa się też z reguły zwielokrotniania poszczególnych źródeł informacji w systemie z podziałem czasowym, przy którym każde źródło zachowuje swoją indywidualność przy przechodzeniu odpowiadającego mu sygnału od nadajnika do odbiornika. Indywidualność ta jest następstwem łatwości, z jaką poszczegól ne źródła informacji można dołączać lub odłączać do/od systemu zwielokrotniającego z podziałem czasowym. Wraz ze wzrostem liczby niezależnych źródeł informacji maleje przedział czasowy, jaki można przeznaczyć dla pojedynczego sygnału, gdyż sygnały wszystkich źródeł muszą zmieścić się w przedziale równym odwrotności częstotliwości próbkowania systemu. To z kolei oznacza, że dopuszczalna długość słowa kodowego reprezentującego pojedynczą próbkę ulega zmniejszeniu. Z drugiej jednak strony, impulsy stają się tym trudniejsze do wygenerowania i przesyłania, im krótszy jest czas ich trwania. Co więcej, gdy impulsy stają się zbyt krótkie, wszelkie nieidealności środków transmisji zaczynają zakłócać prawidłową pracę całego systemu. W praktyce staje się więc konieczne ograniczenie liczby niezależnych kanałów w poszczególnych grupach systemów zwielokrot niania z podziałem czasowym.
*] Znany w polskiej literaturze także pod nazwą drżenie fazy (przyp. tłum.).
6.8. MODULACJA IMPULSOWO-KODOWA
379
Synchronizacja Aby system PCM ze zwielokrotnianiem z podziałem czasowym funkcjonował poprawnie, wszystkie operacje zachodzące w odbiorniku, z uwzględnieniem czasu potrzebnego na transmisję i regenerację sygnałów, powinny być zgodne w czasie z tymi jakie zachodzą w nadajniku. Sprowadza się to ogólnie biorąc do wymagania, aby lokalny zegar odbiornika był zsynchronizowany z zegarem znajdującym się w nadajniku, przy czym zegar odbiornika powinien być opóźniony o wartość czasu potrzebnego na przesyłanie sygnałów informacyj nych od nadajnika do odbiornika. Jednym z możliwych sposobów synchronizacji zegarów nadajnika i odbiornika jest zapamiętywanie elementu kodu lub impulsu nadawanego na końcu ramki (będącego słowem kodowym uzyskiwanym kolejno z każdego niezależnego źródła informacji) a następnie przesyłanie tego impulsu jedynie co drugą ramkę. W tym przypadku odbiornik zawiera układ poszukujący takiej kombinacji jedynek i zer, w której występują one na przemian z częstością równą połowie częstotliwości ramki, zapewniając tym samym synchronizację między nadajnikiem a odbiornikiem. Gdy droga transmisji zostaje przerwana, jest bardzo mało prawdopodobne, aby zegary nadajnika i odbiornika pokazywały w długim okresie ten sam czas. Z uwagi na to, trzeba przyjąć w procesie synchronizacji odpowiednią procedurę detekcji impulsów syn chronizujących. Procedura ta sprowadza się do sprawdzania elementów kodu jednego po drugim, aż pojawi się impuls synchronizujący. Gdy zostanie wykryte, iż dany element kodu jest dostatecznie długi, aby można było stwierdzić brak impulsu synchronizującego, zegar odbiornika zostaje cofnięty o jeden element kodu, a następnie dokonuje się sprawdzenia kolejnego elementu kodu. Ten proces przeszukiwania jest powtarzany do momentu wykrycia kolejnego impulsu synchronizującego. Czas wymagany do uzyskania synchronizacji jest oczywiście zależny od tego, kiedy nastąpi przywrócenie prawidłowej transmisji sygnału. Przykład 3
System Tl
W tym przykładzie opiszemy podstawowe parametry pewnego systemu PCM, znanego pod nazwą systemu telefonii nośnej 77 6), zapewniającego przesyłanie 24 kanałów telefonicznych, przeznaczonego początkowo dla pracy na krótkie odległości w miejskim ruchu telefonicz nym. System T l został po raz pierwszy wprowadzony w Stanach Zjednoczonych przez firmę Bell System już we wczesnych latach sześćdziesiątych. Wraz z jego pojawieniem się została zainicjowana tendencja do wdrażania systemów telekomunikacji cyfrowej. System Tl został następnie po odpowiednim zaadaptowaniu wprowadzony w całych Stanach Zjednoczonych, Kanadzie i Japonii. Stanowi on podstawę dla całej hierarchii systemów wyższego rzędu ze zwielokrotnianiem kanałów, stosowanych obecnie zarówno do transmisji na duże odległości, jak i telekomunikacji w warunkach gęsto zaludnionych skupisk miejskich. Sygnał mowy (męskiej lub kobiecej) jest w zasadzie ograniczony do zakresu częstotliwości od 300 do 3100 Hz co oznacza, iż składowe widma leżące poza tym pasmem nie wpływają w praktyce na zrozumiałość odbieranego głosu. Układy telefoniczne przy stosowane do tego zakresu częstotliwości działają w sposób całkowicie zadowalający. Sygnał mowy przed próbkowaniem poddaje się zatem z reguły filtracji dolnoprzepustowej, przy częstotliwości granicznej około 3,1 kHz. Skoro więc W= 3,1 kHz, nominalna wartość częstotliwości Nyquista wynosi 6,2 kHz. Odfiltrowany sygnał mowy próbkuje się zwykle z nieco wyższą częstotliwością, a mianowicie 8 kHz, co stanowi standardową częstotliwość próbkowania w systemach telefonicznych. Jako kompander w systemie Tl stosowany jest układ o charakterystyce odcinkami liniowej (składającej się z 15 odcinków liniowych), zapewniający w przybliżeniu logarytmicz-
380
6. MODULACJA IMPULSOWA
Tablica 6.3. 15-SEGMENTOWA CHARAKTERYSTYKA KOMPANDERA (g = 255) Liczba segmentów liniowych
Długość przedziału
Rzuty końcowych punktów segmentów na oś poziomą
0
2
±31
la, lb
4
±95
2a, 2b
8
±223
3a, 3b
16
±479
4a, 4b
32
±991
5a, 5b
64
±2015
6a, 6b
128
±4063
7a, 7b
256
±8159
ne prawo pi o równaniu (6.46), przy czym stała pi = 255. Aproksymacja dokonywana jest w taki sposób, iż końcowe punkty poszczególnych odcinków leżą na krzywej kompresji z równania (6.46), a ich rzuty na oś pionową są rozmieszczone równomiernie. W tablicy 6.3 pokazano rzuty punktów końcowych tych odcinków na oś poziomą i rozmiary schodków poszczególnych odcinków. Tablica została znormalizowana w stosunku do liczby 8159, tzn. wszystkie wartości są reprezentowane przez liczby całkowite. Odcinek 0 aproksymacji jest odcinkiem współliniowym, przechodzącym przez początek układu współrzędnych; zawiera on łącznie 30 równomiernie rozmieszczonych poziomów decyzyjnych. Odcinki liniowe 1a, 2a,..., la leżą ponad osią poziomą, podczas gdy odcinki 16,26,..., Ib pod osią poziomą; każdy z tych 14 odcinków zawiera 16 równomiernie rozmieszczonych poziomów decyzyjnych. Dla odcinka współliniowego 0, poziomy decyzyjne na wejściu kwantyzatora wynoszą ± 1, ±3,..., ±31, a odpowiednie poziomy reprezentacji na wyjściu kwantyzatora są równe 0, ±1,..., ±15. Dla odcinków współliniowych la i lb, poziomy decyzyjne na wejściu kwan tyzatora wynoszą ±31, ±35,..., ±95, a odpowiednie poziomy reprezentacji na wyjściu kwantyzatora są równe ± 16, ± 17,..., ±31 itd., dla wszystkich dalszych odcinków liniowych. W systemie mamy łącznie 31 +(14 x 16) = 255 poziomów reprezentacji związanych z opisaną postacią 15-odcinkowej charakterystyki kompandera. Aby uwzględnić tę liczbę poziomów reprezentacji, w każdym z 24 kanałów telefonicznych używany jest kod binarny o słowie 8-bitowym. Pierwszy bit pokazuje, czy wejściowa próbka sygnału jest dodatnia, czy ujemna; bit ten przyjmuje wartość 1 dla dodatniego i 0 dla ujemnego znaku próbki. Kolejne trzy bity słowa kodu służą do identyfikacji segmentu, do którego zalicza się dana próbka pod względem amplitudy, a cztery ostatnie bity są przeznaczone do identyfikacji konkretnego poziomu reprezentacji wewnątrz danego odcinka. Przy częstotliwości próbkowania 8 kHz, każda ramka zwielokrotnionego sygnału zajmuje czas 125 ps. Składa się ona mianowicie z 24 słów 8-bitowych, plus pojedynczy bit dodawany na końcu ramki i służący do synchronizacji. Każda ramka składa się więc z (24 x 8) +1 = 193 bitów. Każdy bit trwa 0,647 ps, a wynikająca stąd szybkość transmisji wynosi 1,544 megabitów na sekundę (Mb/s). Poza sygnałem akustycznym, system telefoniczny musi przesyłać specjalne sygnały sterujące. Ta informacja sygnalizacyjna potrzebna jest do przesyłania impulsów numerowych oraz telefonicznych sygnałów początku i końca rozmowy. W systemie Tl odbywa się to
6.9. SZUMY SYSTEMÓW PCM
381
w sposób następujący: po każdej co szóstej ramce, najmniej znaczący (tzn. ósmy) bit każdego kanału telefonicznego jest usuwany, a na jego miejsce dodawany jest bit sygnalizacyjny, co daje średnio 7-^- bita na każdy wejściowy sygnał telefoniczny. Ciąg bitów sygnalizacyjnych jest więc przesyłany z szybkością równą częstotliwości próbkowania podzielonej przez 6, tzn., 1,333 kilobitów na sekundę (kb/s).
6.9. Szumy systemów PCM Dwa główne źródła szumów wpływają na prace systemów PCM: 1. Szum kanału, pojawiający się w dowolnym miejscu pomiędzy wyjściem nadajnika, a wejściem odbiornika. Szum kanału występuje zawsze, od chwili załączenia systemu. 2. Szum kwantowania, wprowadzany przez nadajnik i przenoszony aż do wyjścia odbiornika. Odmiennie, niż szum kanału, szum kwantowania jest zależny od sygnału w tym sensie, iż znika on z chwilą odłączenia sygnału informacyjnego. Oba wymienione źródła szumów występują jednocześnie z chwilą, gdy system PCM zaczyna działać. Tradycyjne ujęcie polega jednak na oddzielnym traktowaniu obu tych źródeł szumów tak, iż można prześledzić ich wpływ na właściwości systemu. Główny skutek wywołany przez szum kanału polega na wprowadzaniu błędnych bitów do odbieranego sygnału, W przypadku binarnego systemu PCM, obecność błędnych bitów oznacza, iż symbol 1 zostaje mylnie uznany za symbol 0 i vice versa. Jest rzeczą jasną, że im częściej pojawiają się błędne bity, tym bardziej sygnał wyjściowy odbiornika różni się od oryginalnego sygnału informacyjnego. Wierność przesyłania informacji w systemie PCM w obecności szumów kanału może być mierzona w kategoriach średniego prawdopodobieńst wa błędu symbolu, które jest definiowane jako średnie prawdopodobieństwo tego, iż zrekonstruowany symbol na wyjściu odbiornika różni się od symbolu wysłanego przez nadajnik. Średnie prawdopodobieństwo błędu symbolu, zwane też stopą błędu, zakłada, iż wszystkie bity odebranej fali binarnej mają jednakową ważność. Gdy jednak jest bardziej istotne zrekonstruowanie analogowego przebiegu oryginalnego sygnału informacyjnego, może zaistnieć potrzeba nadania różnych wag błędom poszczególnych symboli. Przy kładowo, błąd najbardziej znaczącego bitu słowa kodowego (reprezentującego skwantowaną próbkę sygnału informacyjnego) jest bardziej szkodliwy, niż błąd najmniej znaczącego bitu tego samego słowa. Aby zoptymalizować działanie systemu w obecności szumu kanału, należy zminimalizować średnie prawdopodobieństwo błędu symbolu. W tym celu modeluje się zazwyczaj szum kanału pojawiający się na wejściu odbiornika, jako addytywny, biały i gaussowski. Wpływ szumu kanału można uczynić praktycznie pomijalnym, zapewniając odpowiednią wartość stosunku energii sygnału do gęstości widmowej szumu, przez odpowiedni dobór odległości pomiędzy repeterami systemu PCM. W tej sytuacji działanie systemu PCM jest ograniczone głównie przez szum kwantowania. Z dyskusji dotyczącej szumu kwantowania przedstawionej w punktach 6.7 i 6.8 wynika, iż szum kwantowania pozostaje w zasadzie pod kontrolą projektanta systemu. Można go uczynić pomijalnie małym, wprowadzając odpowiednią liczbę poziomów reprezentacji kwantyzatora oraz odpowiedni wybór kompandera, dopasowanego do nada wanego sygnału informacyjnego. Zastosowanie PCM pozwala więc na zbudowanie systemu telekomunikacyjnego odpornego na szum kanału w sposób nieosiągalny dla jakiegokolwiek systemu modulacji z falą ciągłą lub innego analogowego systemu modulacji impulsowej.
382
6.
MODULACJA IMPULSOWA
Tablica 6.4. WPŁYW STOSUNKU Eb/ N 0 NA PRAWDOPODOBIEŃSTWO BŁĘDU EJN0
Prawdopodobieństwo błędu Pe
Dla szybkości bitowej !05 b/s jest to jeden błąd co każde
4,3 dB 8,4 10,6 12,0 13,0 14,0
10"2 10”* 1 0 '6 10"a ,0-1° 10 12
10“ 3 sekundy 10"1 sekundy 10 sekund 20 minut 1 dzień 3 miesiące
Próg błędu Teoria pozwalająca na wyliczenie błędów w systemach PCM zostanie przez nas rozpatrzona w następnym rozdziale. Tutaj powiemy tylko, iż średnie prawdopodobieństwo błędu na jeden symbol w odbiorniku PCM z kodowaniem binarnym, powodowanego istnieniem białego addytywnego szumu gaussowskiego zależy tylko od czynnika Eb/N 0, stosunku energii nadawanego sygnału przypadającej na jeden bit Eh, do widmowej gęstości mocy szumów N 0. Zauważmy, iż stosunek Eb/N 0, jest liczbą bezwymiarową mimo, iż wielkości Eb i N 0 mają różną interpretację fizyczną. W tablicy 6.4 przedstawiliśmy dane ukazujące wpływ tego stosunku dla przypadku binarnego systemu PCM z kodowaniem NRZ. Dane z ostatniej kolumny tej tablicy podano dla szybkości bitowej 105 b/s. Z danych zamieszczonych w tablicy 6.4 jasno wynika, że istnieje tu określony próg błędu (dla około 11 dB). Gdy Eb/N 0, leży poniżej tego progu, liczba błędów w odbiorniku znacząco wzrasta, podczas gdy powyżej progu wpływ szumu kanałowego jest praktycznie do pominięcia. Innymi słowy, przy założeniu, iż stosunek Eb/N 0 przewyższa próg błędu, szum kanałowy nie ma praktycznie wpływu na jakość odbioru, co jest właśnie celem wprowadzenia systemu PCM. Gdy jednak Eb/N 0 spadnie poniżej progu błędu, następuje ostry wzrost liczby błędów w odbiorze. Ze względu na to, iż błędy układu decyzyjnego powodują powstawanie nieprawidłowych słów kodowych stwierdzamy, iż przy dużej częstości występowania błędów, zrekonstruowany na wyjściu odbiornika sygnał mało przypomina oryginalny sygnał informacyjny. Porównując wartość progu błędu wynoszącego 11 dB dla systemu PCM z kodo waniem NRZ, z wartością 60-70 dB wymaganą przy transmisji sygnału mowy w systemie z modulacją amplitudy widzimy, iż PCM wymaga znacznie mniejszych energii sygnału mimo, iż średnia moc szumu w systemie PCM ulega R-krotnemu zwiększeniu na skutek R-krotnego zwiększenia pasma, przy czym R jest liczbą bitów przypadających na jedno słowo kodowe (tzn. bitów na próbkę). W większości systemów transmisyjnych, wpływy szumów i zakłóceń wprowadza nych przez poszczególne odcinki kanału sumują się. Przy zadanej jakości całkowitej danej transmisji, im dalsza jest fizyczna odległość pomiędzy nadajnikiem i odbiornikiem, tym ostrzejsze stają się wymagania odnośnie pojedynczego łącza w systemie. Jednak w przypadku systemu PCM, ze względu na możliwość dowolnie częstego regenerowania sygnału, wpływ zniekształceń amplitudowych i fazowych oraz zniekształceń nieliniowych jednego łącza (jeśli tylko nie są zbyt znaczne) nie ma praktycznie wpływu na zregenerowany sygnał stanowiący wejściowy sygnał następnego łącza. Widzieliśmy także, iż wpływ szumu kanałowego można uczynić praktycznie pomijalnym, gdy stosunek E J N 0 przypada powyżej progu. Zatem
6.10. WŁAŚCIWOŚCI. OGRANICZENIA I MODYFIKACJE SYSTEMU PCM
383
w praktyce, wymagania dotyczące transmisji w łączu PCM nie zależą prawie od długości kanału komunikacyjnego. Inną ważną cechą systemu PCM jest jego odporność na interferencje spowodowane obcymi impulsami lub przesłuchami. Łączny wpływ szumu kanałowego i interferencji powoduje wzrost poziomu progowego, niezbędnego do prawidłowej pracy systemu PCM. Gdy jednak zapewni się odpowiedni margines progu błędu przy projektowaniu systemu, będzie on zdolny do pracy nawet w obecności względnie wysokiego poziomu interferencji. Innymi słowy, system PCM jest systemem odpornym.
6.10. Właściwości, ograniczenia i modyfikacje systemu PCM System modulacji impulsowo-kodowej (PCM) powstał historycznie biorąc jako najbardziej korzystny system modulacji do transmisji analogowych sygnałów informacyjnych, takich jak sygnał mowy i sygnał telewizyjny. Zalety systemu PCM wynikają wszystkie z samej zasady zastosowania zakodowanych impulsów dla reprezentacji sygnałów analogowych, co wyróżnia go od wszystkich innych typów modulacji analogowej. Ważne zalety systemu PCM są następujące: 1. Odporność na szumy kanałowe i interferencje. 2. Efektywna regeneracja zakodowanych sygnałów wzdłuż drogi transmisji. 3. Efektywna, zgodna z prawem wykładniczym, możliwość wymiany zwiększonego pasma kanału na lepszy stosunek sygnał-szum. 4. Jednolity format dla transmisji różnych rodzajów sygnałów z pasma podstawowego; stąd możliwość jego integracji z innymi rodzajami danych cyfrowych, w ramach wspólnych sieci teleinformatycznych. 5. Względna łatwość dołączania lub odłączania poszczególnych źródeł informacji do systemu ze zwielokrotnianiem z podziałem czasowym. 6. Bezpieczna telekomunikacja z użyciem specjalnych systemów modulacyjnych lub szyf rujących. Zalety te osiąga się jednak kosztem zwiększenia złożoności systemu i szerokości przesyłanego pasma. Oba te problemy zostaną teraz kolejno omówione. Mimo, iż system PCM obejmuje wiele złożonych operacji, wszystkie one mogą być obecnie realizowane w sposób ekonomiczny przy zastosowaniu dostępnych na rynku standardowych i/lub produkowanych na zamówienie układów scalonych bardzo wielkiej skali integracji (VLSI). Innymi słowy, jesteśmy w posiadaniu odpowiednich technologii wy twarzania elementów niezbędnych do realizacji systemów PCM. Co więcej, wraz z ciągłym rozwojem technologii układów VLSI, można spodziewać się stałego wzrostu liczby zastosowań systemu PCM do transmisji sygnałów analogowych. Tam jednak, gdzie prostota układowa jest najważniejszą zaletą, można stosować modulację delta, jako alternatywę modulacji impulsowo-kodowej. Przy modulacji delta, sygnał pasmowy jest świadomie „nadpróbkowany”, celem uproszczenia procesu kwan towania, niezbędnego przy tworzeniu kodowanego sygnału; modulacji delta poświęcony zostanie punkt 6.11. Przechodząc do problemu szerokości pasma możemy stwierdzić, iż wymagania dotyczące szerokości pasma w systemie PCM mogły stanowić przedmiot troski jedynie w przeszłości. Obecnie natomiast, nie jest to już problemem, a to z dwu różnych powodów. Po pierwsze, wzrasta dostępność szerokopasmowych kanałów telekomunikacyj-
384
6. MODULACJA IMPULSOWA
nych co oznacza, iż szerokość pasma nie jest już rozumianym w tradycyjnym sensie ograniczeniem systemowym. Liberalizacja tego ograniczenia stała się możliwa dzięki satelitom telekomunikacyjnym oraz stałemu wzrostowi udziału linii światłowodowych w sieciach telekomunikacyjnych; omówieniu kanałów telekomunikacyjnych tego rodzaju poświęcony został ostatni rozdział tej książki. Drugim powodem jest zastosowanie wyrafinowanych metod kompresji danych, dzięki czemu stało się możliwe usunięcie redundancji związanej nierozłącznie z sygnałem PCM, i zredukowanie tym samym szybkości bitowej przesyłanego sygnału, bez poważniej szego zmniejszenia jakości systemu. W efekcie, bardziej złożone przetwarzanie (powodujące wzrost kosztów realizacji systemu) pozwala na zmniejszenie szybkości systemu, co z kolei obniża niezbędną szerokość pasma. Podstawowym powodem, motywującym zmniejszanie przepływności bitowej jest zapewnienie bezpiecznej telekomunikacji za pośrednictwem kanałów radiowych, mających z natury małą pojemność. Zagadnienie kodowania mowy przy niskich przepływnościach bitowych zostanie rozpatrzone w punkcie 6.13, pod kątem przetwarzania sygnałów. Do sprawy kompresji danych w szerszym aspekcie teorii informacji powrócimy w rozdziale 10.
6.11. Modulacja delta W systemie modulacji delta1) (DM), przychodzący sygnał informacyjny zostaje poddany nadpróbkowaniu (tzn. próbkowaniu z częstotliwością dużo większą od częstotliwości Nyquista), aby celowo zwiększyć korelację pomiędzy sąsiednimi próbkami sygnału. Ma to na celu umożliwienie prostego sposobu kwantowania przy tworzeniu zakodowanego sygnału. W swej podstawowej postaci, DM stanowi aproksymację schodkową nadpróbkowanej wersji sygnału informacyjnego, jak pokazano na rys. 6.23a. Różnica między sygnałem wejściowym i jego aproksymacją zostaje skwantowana przy dwóch tylko poziomach, a mianowicie + A, odpowiednio dla różnic dodatnich i ujemnych. Tym sposobem, gdy aproksymacja znajdzie się poniżej wartości sygnału w kolejnym okresie próbkowania, zostaje ona zwiększona o wartość A. Gdy natomiast znajdzie się ona powyżej
b Ciąg binarny na wyjściu o o i o i i i modulatora Rys. 6.23. Ilustracja modulacji delta
i
i
o
u
o o
o o o
o
385
6.11. MODULACJA DELTA
wartości sygnału w danym okresie próbkowania, zostaje ona zmniejszona o wartość A. Jeśli tylko sygnał nie zmienia się zbyt szybko w czasie jednego okresu próbkowania, aproksymacja schodkowa pozostaje w granicach ± A względem sygnału wejściowego. Oznaczając sygnał wejściowy przez m(t), a jego schodkową aproksymację przez mq(t), podstawowa zasada modulacji delta może zostać sformalizowana za pomocą następującego zbioru relacji, zapisanych w czasie dyskretnym: e(nTs) = m(n Ts) —mą{nTs —Ts)
(6.50)
eq{nTs) = Asgn[e(«7;)]
(6.51)
mq(nTs) = mq(nTs- Ts) + eqW
(6-52)
gdzie Ts — okres próbkowania; e{nTs) — błąd sygnału, będący różnicą pomiędzy obecną war tością próbki m(n7^.) sygnału wejściowego i ostatnią jej aproksymacją, tzn. m(nTs) — —mq(nTs—Ts); natomiast eq(nTs) — skwantowana wersja e(nTs). Wyjściowy sygnał kwantyzatora, eq(nTs) zostaje następnie zakodowany, dając w wyniku pożądany sygnał DM. Na rysunku 6.23a pokazano sposób, w jaki aproksymacja schodkowa mq(t) nadąża za zmianami sygnału wejściowego m(t) w sposób opisany równaniami (6.50) do (6.52), a na rys. 6.23b odpowiedni ciąg binarny na wyjściu modulatora delta. Jest oczywiste, iż w systemie modulacji delta, szybkość przesyłania informacji jest równa częstotliwości próbkowania f s = 1/T, Podstawową zaletą modulacji delta jest jej prostota. Zmodulowany sygnał można bowiem wygenerować na podstawie spróbkowanej wersji przychodzącego sygnału infor macyjnego w układzie modulatora składającego się z komparatora, kwantyzatora i akumulato ra, połączonych ze sobą w sposób pokazany na rys. 6.24a. Szczegółowy schemat modulatora wynika bezpośrednio z równań (6.50) do (6.52). Komparator oblicza różnice dwu sygnałów wejściowych. Kwantyzator stanowi układ „twardego” ogranicznika o charakterystyce będącej przeskalowaną wersją funkcji signum. Sygnał wyjściowy kwantyzatora jest podawany na wejście akumulatora, dającego następujący sygnał: m,(nT,) = A £ sgn Ce(rT,)] = £ e /iT j i= 1
(6.53)
i—1
będący wynikiem rozwiązania równań (6.51) i (6.52) względem mq(nTs). Tym sposobem, w momencie próbkowania nTs, akumulator dodaje (lub odejmuje) do wartości aproksymacji wartość A, w zależności od znaku sygnału błędu e(nTs). Jeśli sygnał wejściowy m(nTs) jest większy od ostatniej wartości aproksymacji, mq{nTs), mamy do czynienia z dodatnim przyrostem + A. Jeśli natomiast sygnał wejściowy jest mniejszy, do aproksymacji dodany zostaje przyrost ujemny —A. Tym sposobem, akumulator nadąża za wartościami próbek sygnału wejściowego z dokładnością do jednego kroku (o amplitudzie + A lub —A) na cykl próbkowania. W odbiorniku pokazanym na rys. 6.24b, aproksymacja schodkowa mq(t) zostaje zrekonstruowana w ten sposób, iż ciąg dodatnich lub ujemnych impulsów wy twarzanych na wyjściu dekodera, przechodzi przez akumulator podobnie jak w nadajniku. Leżący poza pasmem szum kwantowania, obecny w sygnale schodkowym wielkiej częstot liwości mq(t), zostaje odfiltrowany za pomocą filtru dolnoprzepustowego, jak na rys. 6.24b, którego pasmo jest równe pasmu zajmowanemu przez oryginalny sygnał informacyjny. Modulacja delta podlega dwu rodzajom błędów kwantowania, których przy czynami są: (1) zniekształcenia związane z przepełnieniem zbocza oraz (2) szum śrutowy. Na początku zajmiemy się przepełnieniem, a następnie szumem śrutowym. 25 Systemy telekomunikacyjne cz. l
386
6. MODULACJA IMPULSOWA
Spróbkowane wejście
Fala DM
m (nT3)
J
L Akumulator
r
1 Wyjście
Wejście
J
L Akumulator Rys. 6.24. System DM: a) nadajnik, b) odbiornik
Zauważmy, iż równanie (6.52) jest cyfrowym odpowiednikiem całkowania w tym sensie, iż reprezentuje akumulację dodatnich i ujemnych przyrostów amplitudy A. Podobnie, oznaczając błąd kwantowania przez q(nTs), otrzymujemy równość: mq(nTs) = minTJ + q{nTj
(6.54)
Biorąc pod uwagę równanie (6.50) otrzymujemy stąd sygnał wejściowy kwantyzatora: e(nTs) = m{nTs)-m (n T s- T s)-q (n T s~ T s)
(6.55)
Pomijając błąd kwantowania q(nTs —Tj, pozostałe składniki sygnału wejściowego kwan tyzatora stanowią pierwszą różnicę wsteczną sygnału wejściowego, który można uważać za cyfrowe przybliżenie pochodnej sygnału wejściowego lub inaczej mówiąc, za odwrotność w stosunku do procesu całkowania cyfrowego. Jeśli wziąć pod uwagę maksymalne nachylenie oryginalnego przebiegu wejściowego m(f), warunkiem na to aby ciąg próbek {mq(nT’)} narastał tak szybko jak wejściowy ciąg próbek {m(nTs)} tam, gdzie nachylenie sygnału m(r) osiąga maksimum, jest nierówność: dm(r) A — > max dr
(6.56)
Gdy warunek ten nie jest spełniony, wartość przyrostu A staje się zbyt mała, aby przybliżenie schodkowe mq(t) nadążało za stromym odcinkiem przebiegu wejściowego m(r) i w rezultacie
387
6.11. MODULACJA DELTA Zniekształcenie przeciążenia zbocza
Szum śrutowy
V
'/////z
m{t\
Aproksymacja schodkowa
mq(t)
Rys. 6.25 Ilustracja błędu kwantowania w modulacji delta
mq(t) opóźnia się względem m(t), jak na rys. 6.25. Stan taki nazywany jest przeciążeniem zbocza, a wynikający stąd błąd kwantowania nosi nazwę zniekształcenia {szumu) przeciążenia zbocza. Ponieważ maksymalne nachylenie aproksymacji schodkowej mq(t) jest ustalone poprzez wybór wielkości schodka A, rosnące i malejące odcinki przebiegu schodkowego mq{t) przylegają do linii prostych. Z tego powodu, modulator delta o stałej wysokości schodka jest często nazywany liniowym modulatorem delta. W odróżnieniu od zniekształcenia związanego z przeciążeniem zbocza, szum śrutowy pojawia się, gdy schodek A jest zbyt wysoki w stosunku do lokalnego nachylenia charakterystyki przebiegu wejściowego m(r), co powoduje, iż przebieg schodkowy mq(t) oscyluje wokół stosunkowo płaskiego odcinka tego przebiegu wejściowego; zjawisko to jest też pokazane na rys. 6.25. Szum śrutowy jest analogiczny do szumu kwantowania w systemie PCM. Widzimy więc, że istnieje potrzeba zapewnienia dużego rozmiaru schodka dla obszaru szybkich zmian sygnału oraz małego rozmiaru schodka dla obszarów, w których sygnał zmienia się wolno. Jak stąd wynika, wybór optymalnego rozmiaru schodka, minimalizującego wartość średniokwadratową szumu kwantowania w liniowym modulato rze delta będzie rezultatem kompromisu pomiędzy zniekształceniami przepełnienia zbocza, a szumem śrutowym. Aby sprostać tym wymaganiom, należy uczynić modulator delta „adaptacyjnym” w takim sensie, że rozmiar schodka będzie się zmieniał zgodnie ze zmianami sygnału wejściowego8).
M odulacja delta-sigm a Jak uprzednio wspomniano, sygnał wejściowy kwantyzatora, przy konwencjonalnej modula cji delta, może być rozpatrywany jako aproksymacja pochodnej przychodzącego sygnału informacyjnego. Właściwość ta stanowi wadę modulacji delta polegającą na tym, iż zakłócenia transmisji, takie jak szum, powodują akumulacyjny błąd demodulowanego sygnału. Wadę tę można pokonać za pomocą całkowania sygnału informacyjnego przed modulacją delta. Zastosowanie takiego całkowania ma jeszcze następujące zalety: • Składowe niskoczęstotliwościowe sygnału wejściowego podlegają preemfazie. • Korelacja pomiędzy sąsiednimi próbkami sygnału wejściowego modulatora delta zostaje zwiększona, co daje w efekcie polepszenie ogólnych parametrów systemu, poprzez zmniejszenie wariancji sygnału błędu na wejściu kwantyzatora. • Budowa odbiornika zostaje uproszczona. Modulacja delta z całkowaniem na wejściu jest nazywana modulacją delta-sigma9) (D-LAf). Bardziej precyzyjnie powinno się ją nazywać modulacją sigma-delta, gdyż całkowanie jest dokonywane właściwie przed modulacją delta. Mimo to, poprzednio podany termin jest szeroko stosowany w literaturze. 25*
388
6. MODULACJA IMPULSOWA
Na rysunku 6.26a pokazano schemat blokowy systemu modulacji delta-sigma. Na tym schemacie, sygnał informacyjny m(t) ma formę analogową co oznacza, iż modulator impulsowy składa się tutaj z twardego ogranicznika, za którym znajduje się układ mnożący. Na drugie wejście tego ostatniego podawany jest sygnał z zewnętrznego generatora impulsowego (zegara), dając w efekcie sygnał kodowany jednym bitem. Zastosowanie całkowania na wejściu nadajnika wymaga oczywiście deemfazy, a mianowicie różnicz kowania w odbiorniku. Potrzeba tego różniczkowania zostaje jednak wyeliminowana z powodu jego redukcji z całkowaniem zachodzącym w konwencjonalnym odbiorniku DM. Odbiornik systemu z modulacją delta-sigma jest po prostu filtrem dolnoprzepustowym, jak pokazano na rys. 6.26a. Co więcej, całkowanie jest jak wiadomo operacją liniową. Można więc uprościć budowę nadajnika zastępując dwa integratory 1 oraz 2 układu z rys. 6.26a jednym integratorem umieszczonym po komparatorze, jak na rys. 6.26b. Ta ostatnia wersja systemu modulacyjnego delta-sigma jest nie tylko prostsza, niż układ z rys. 6.26a, lecz pozwala na interesującą interpretację modulacji delta-sigma jako „wygładzonej” wersji 1-bitowej modulacji impulsowo-kodowej: Termin gładkość odnosi się do faktu, iż całkowanie na wyjściu komparatora ma miejsce przed kwantowaniem, a termin 1-bitowy oznacza jedynie, iż kwantyzator jest w istocie twardym ogranicznikiem o dwu tylko poziomach reprezentacji.
6.12. Różnicowa modulacja impulsowo-kodowa Gdy sygnał mowy lub sygnał wideo jest próbkowany z częstotliwością nieco wyższą od częstotliwości Nyquista, otrzymywany sygnał spróbkowany wykazuje silną korelację pomiędzy sąsiednimi próbkami. Ta silna korelacja oznacza, iż w średnim sensie sygnał nie zmienia się zbyt szybko w czasie pomiędzy sąsiednimi próbkami co oznacza z kolei, że różnice pomiędzy nimi mają mniejszą wariancję, niż sam sygnał. Gdy te silnie skorelowane próbki zostaną zakodowane w standardowym systemie PCM, otrzymany stąd zakodowany sygnał zawiera redundancję informacyjną. Oznacza to że symbole, które nie są absolutnie konieczne do przesłania danej informacji, generowane są w wyniku samego procesu kodowania. Poprzez usunięcie redundancji powstałej w wyniku kodowania otrzymuje się sygnał bardziej efektywnie zakodowany. Jeśli znamy dostatecznie dużą część sygnału nadmiarowego, możemy wydedukować resztę lub przynajmniej dokonać najbardziej prawdopodobnej estymacji. W szczególno ści, jeśli znane jest przeszłe zachowanie się sygnału do pewnego momentu czasu, można dokonać dedukcji odnośnie przyszłych wartości tego sygnału; proces taki nazywa się powszechnie predykcją. Załóżmy, iż sygnał m(t) z pasma podstawowego jest próbkowany z częstotliwością/s = 1/TS, w wyniku czego powstaje ciąg skorelowanych próbek odległych od siebie o 7^ sekund; ciąg ten oznaczymy przez {m{nTs)}. Fakt, iż możliwe jest dokonanie predykcji przyszłych wartości sygnału m(t), stanowi motywację do zrealizowania procesu kwantowania różnicowego w układzie o schemacie blokowym z rys. 6.27a. W układzie tym sygnał wejściowy kwantyzatora jest opisany równaniem: e(nTs) = m(nTJ)-m (nTł)
(6.57)
i stanowi różnicę między nieskwantowanym sygnałem spróbkowanym m(nTs) a jego predykcją, oznaczoną przez m(nTs). Jest ona wytwarzana z użyciem układu zwanego filtrem predykcyjnym, którego sygnałem wejściowym jest skwantowana wersja spróbkowanego
a
Sygnał informacyjny
m( t )
Nadajnik
Sygnał informacyjny
m( t )
Nadajnik
Rys. 6.26. Dwie równoważne wersje systemu modulacyjnego delta-sigma
Filtr dolno- — przepustowy
Estymata sygnału informacyjnego
Odbiornik
Filtr dolno- — przepustowy
Odbiornik
Estymata sygnału informacyjnego
390
6. MODULACJA IMPULSOWA □
Spróbkowane wejście
m (nTs)
Fala DPCM
b
Wyjście
Rys. 6.27. System DPCM: a) nadajnik, b) odbiornik
sygnału wejściowego tn(nTs). Sygnał różnicowy e(rtTJ jest nazywany błędem predykcji, gdyż określa on wartość, o którą filtrowi predykcyjnemu nie udaje się dokładnie przewidzieć wartości sygnału wejściowego. Prostym, a jednak efektywnym podejściem do realizacji filtru predykcyjnego jest zastosowanie filtru zawierającego linię opóźniającą z odczepami, której podstawowe opóźnienie jest równe okresowi próbkowania. Schemat blokowy tego filtru pokazano na rys. 6.28, gdzie predykcja m(/iTs) jest zmodelowana w postaci kombinacji liniowej p przeszłych wartości próbek skwantowanego sygnału wejściowego, gdzie p — rząd predykcji. Kodując sygnał wyjściowy kwantyzatora jak na rys. 6.27a, otrzymujemy odmianę modulacji PCM, znaną pod nazwą różnicowej modulacji impulsowo-kodowejl0) (DPCM). Ten właśnie zakodowany sygnał używany jest do transmisji. Sygnał wyjściowy kwantyzatora ma postać: eq{nTs) = e(nTJ + q{nTj)
(6.58)
gdzie q{nTj — błąd kwantowania. Zgodnie z rys. 6.27a, sygnał wyjściowy kwantyzatora eq{nTs) dodawany jest do predykowanego sygnału m(nTs), a sygnał wejściowy filtru predykcyjnego jest o postaci: ™q{nTj = m{nTs) + eq(nTs)
(6.59)
6.12. RÓŻNICOWA MODULACJA IMPULSOWO-KODOWA
391
Rys. 6.28. Filtr z linią opóźniającą jako filtr predykcyjny
Podstawiając równanie (6.58) do (6.59) otrzymujemy: mq{nTJ = m{nTs) + e(nTs) + q(nTs)
(6.60)
Na podstawie równania (6.57) stwierdzamy, iż suma składników m(nTs) + e{nTJ jest równa sygnałowi wejściowemu m(nTs). Można więc przepisać równanie (6.60) w postaci: mą{nTs) = mfaTJ + q{nTs)
(6.61)
reprezentującej skwantowaną wersję sygnału wejściowego nt(nTs). Oznacza to, iż niezależnie od właściwości filtru predykcyjnego, skwantowany sygnał na wejściu filtru predykcyjnego różni się od oryginalnego sygnału wejściowego m(nTs) jedynie o błąd kwantowania qinT^. A zatem, jeśli predykcja jest prawidłowa, wariancja błędu predykcji e(nTs)jest mniejsza od wariancji sygnału m(nTs) tak, iż kwantyzator o danej liczbie poziomów może być tak dostrojony, aby jego błąd kwantowania miał mniejszą wariancję, niż ta jaką można uzyskać w przypadku, gdy sygnał wejściowy m(nTs) jest kwantowany bezpośrednio, jak w standar dowym systemie PCM. Odbiornik służący do rekonstruowania skwantowanej wersji sygnału wejściowego został przedstawiony na rys. 6.27b. Stanowi on dekoder odtwarzający skwantowany sygnał błędu. Skwantowana wersja oryginalnego sygnału wejściowego zostaje odtworzona na podstawie sygnału wyjściowego dekodera, z użyciem tego samego filtru predykcyjnego, jaki użyty został w nadajniku z rys. 6.27a. Przy braku szumu w kanale, zakodowany sygnał na wejściu odbiornika jest taki sam jak zakodowany sygnał na wyjściu nadajnika. W rezultacie, odpowiadający mu sygnał wyjściowy odbiornika jest równy mq(nTs) i różni się od oryginalnego sygnału wejściowego m{nTs) jedynie o błąd kwantowania ą{nTx) będący wynikiem kwantowania błędu predykcji e(nTs). Jak widać na podstawie przeprowadzonej analizy, przy braku szumów, filtry predykcyjne nadajnika i odbiornika pracują na tym samym ciągu próbek mq(nTs). Mając to na uwadze, do kwantyzatora nadajnika dodana została pętla sprzężenia zwrotnego, pokazana na rys. 6.27a. Różnicowa modulacja impulsowo-kodowa obejmuje modulację delta jako przypa dek szczególny. Porównując mianowicie system DPCM z rys. 6.27 z systemem DM pokazanym na rys. 6.24 zauważamy, iż są one w zasadzie podobne, lecz są między nimi dwie istotne różnice: zastosowanie jednobitowego (dwupoziomowego) kwantyzatora przy modu lacji delta, oraz zastąpienie filtru predykcyjnego przez pojedynczy element opóźniający (tzn. zerowy rząd predykcji). Mówiąc prosto, system DM jest 1-bitową wersją systemu DPCM.
392
6. MODULACJA IMPULSOWA
Odmiennie, niż w standardowym systemie PCM, zarówno DPCM jak DM mają nadajniki, w których zastosowano sprzężenie zwrotne. Oba systemy: DPCM oraz DM, podlegają zniekształceniom przepełnienia zbocza, gdy sygnał wejściowy zmienia się zbyt szybko, aby filtr predykcyjny mógł za nim nadążać. Podobnie jak PCM, systemy DPCM podlegają także szumowi kwantowania.
Zysk przetw arzania Stosunek sygnał-szum na wyjściu systemu DPCM pokazanego na rys. 6.27 jest z definicji równy: (SNK)„ = Ą -
(6.62)
gdzie oh — wariancja oryginalnego sygnału wejściowego m(nTs) przy założeniu, iż jego wartość średnia wynosi zero, a Oq — wariancja błędu kwantowania q{nTs). Równanie (6.62) może zostać przedstawione, jako iloczyn dwu czynników, w sposób następujący: (S N R \ = ®
= Gp(SNR)Q
(6.63)
gdzie o \ — wariancja błędu predykcji. Czynnik (SNR)Q jest stosunkiem sygnału do szumu kwantowania, zdefiniowanym następującym wzorem: (SNR)a =
Ą
(6.64)
Oq
Drugi czynnik, Gp jest zyskiem przetwarzania uzyskiwanym w układzie kwantowania różnicowego, zdefiniowanym następująco: oh Gp = —
(6.65)
Wielkość Gp, jeśli jest większa od jedności, stanowi zysk stosunku sygnał-szum otrzymywany w układzie kwantowania różnicowego z rys. 6.27. Dla danego sygnału informacyjnego z pasma podstawowego, wariancja oh jest ustalona, tak iż Gp zostaje zmaksymalizowany poprzez uzyskane minimum wariancji o \ błędu predykcji e(nTs). Zgodnie z tym, naszym celem powinno być takie zaprojektowanie filtru predykcyjnego, aby tę wariancję zmi nimalizować. W przypadku sygnałów mowy okazuje się, iż optymalna przewaga systemu DPCM nad standardowym systemem PCM, pod względem stosunku sygnału do szumu kwan towania, wynosi w granicach około 4-11 dB. Większe polepszenie zachodzi po przejściu od braku predykcji do predykcji pierwszego rzędu, przy czym pewien dodatkowy zysk można osiągnąć poprzez zwiększenie rzędu filtru predykcyjnego do około 4 lub 5. Ponieważ, jak wynika z równania (6.45), 6-decybelowy szum kwantowania odpowiada wartości 1 bitu na próbkę, przewaga systemu DPCM może być także wyrażana w kategorii szybkości transmisji. Przy stałym stosunku sygnału do szumu kwantowania oraz założonej częstotliwo ści próbkowania 8 kHz, zastosowanie modulacji DPCM pozwala na zwiększenie szybkości transmisji o około 8-16 kb/s (tzn. 1-2 bitów na próbkę) w stosunku do standardowej modulacji PCM.
6.13. KODOWANIE MOWY PRZY MAŁEJ SZYBKOŚCI BITOWEJ
393
6 .1 3 . K o d o w a n ie m o w y przy m ałej szybkości b ito w e j Zastosowanie modulacji PCM przy standardowej szybkości transmisji (szybkości bitowej) 64 kb/s wymaga szerokiego pasma kanału. W pewnych zastosowaniach, takich jak bezpieczna transmisja za pomocą kanałów radiowych, mających z reguły małą przepus towość, szerokość pasma kanału stanowi czysty zysk. Przy zastosowaniach tego rodzaju występuje istotna potrzeba kodowania mowy przy małej szybkości bitowej, przy zachowaniu akceptowalnej wierności lub jakości odtwarzania11). Aby uzyskać kodowanie mowy przy małej szybkości bitowej, koder sygnałowy o zadanej konfiguracji powienien zostać zoptymalizowany zarówno za pomocą wykorzys tania właściwości statystycznych sygnału mowy, jak i właściwości słuchu ludzkiego. Filozofia projektowania tego typu układów ma na względzie dwa cele: 1. Usunięcie redundacji sygnału mowy tak dalece, jak to jest możliwe. 2. Przeznaczenie możliwej do uzyskania liczby bitów dla kodowania pozostałej zawartości sygnału mowy, nie zawierającego redundacji, w sposób efektywny z punktu widzenia percepcji mowy. Przy zmniejszaniu szybkości binarnej od 64 kb/s (używanej w standardowej modulacji PCM) do 32 kb/s oraz do 16 kb/s, układy stosowane do usuwania redundacji oraz przydzielania bitów stają się coraz bardziej skomplikowane. Jako reguła, w zakresie od 64 do 8 kb/s, nakłady obliczeniowe (mierzone liczbą operacji mnożenia i dodawania) wymagane do kodowania mowy wzrastają o jeden rząd wielkości przy zmniejszaniu szybkości bitowej 0 połowę, przy niezmiennej w przybliżeniu jakości mowy. W tej sytuacji, opiszemy krótko dwa układy stosowane dla kodowania mowy, jeden na szybkość 32 kb/s, a drugi na 16 kb/s.
A daptacyjna różnicow a m odulacja im pulsow o-kodow a Zmniejszenie liczby bitów przypadających na jedną próbkę od 8 (jak w standardowym systemie PCM) dp 4 wymaga jednoczesnego zastosowania kwantowania adaptacyjnego 1predykcji adaptacyjnej. W tym kontekście, termin „adaptacyjny” oznacza dostosowanie się do zmian poziomu amplitudy i widma wejściowego sygnału mowy. Zmiany jakości przetwarzania występujące przy zmianach osób mówiących oraz jakości mowy, czynią koniecznym łączne zastosowanie adaptacyjnego kwantowania i predykcji adaptacyjnej, aby mimo tych zmian jakość transmisji była lepsza. System kodowania cyfrowego, w którym stosuje się zarówno kwantowanie adaptacyjne jak i predykcję adaptacyjną nosi nazwę adaptacyjnej różnicowej modulacji impulsowo-kodowej (ADPCM). Kwantowanie adaptacyjne dokonywane jest w kwantyzatorze pracującym ze zmiennym w czasie przedziałem kwantowania A(nTj, gdzie Ts — okres próbkowania. Zakłada się, iż w każdym momencie czasu, określonym przez indeks n, kwantyzator adaptacyjny ma stałą charakterystykę amplitudową. Przedział kwantowania A(n jTs) zmienia się w taki sposób, aby wariancja o)* była dopasowana do sygnału wejściowego m(nTs). Zachodzi mianowicie równość: A(nTs) = & u {nTa)
(6.66)
gdzie (f> — stała, a óM{nTs) — estymata odchylenia standardowego oM(nTs) (będąca pierwiastkiem kwadratowym z wariancji
394
6. MODULACJA IMPULSOWA
Realizacja procesu opisanego równaniem (6.66) może być dokonywana na dwa sposoby: 1. Kwantowanie adaptacyjne z estymacją progresywną (AQF), przy którym nieskwantowane próbki sygnału wejściowego stosowane są do znajdowania estymat progresywnych odchyleń standardowych 2. Kwantowanie adaptacyjne z estymacją wsteczną (AQB), przy którym próbki sygnału z wyjścia kwantyzatora stosowane są do znajdowania estymat wstecznych odchyleń standardowych Układ AQF wymaga zastosowania bufora w celu zapamiętywania nieskwantowanych próbek wejściowego sygnału mowy, potrzebnych w okresie uczenia. Wymagana jest także bezpośrednia transmisja informacji o poziomie sygnału (typowo około 5-6 bitów na próbkę) do zdalnego dekodera, obciążając system dodatkową informacją uboczną, którą trzeba przesyłać do odbiornika. Co więcej, opóźnienie przetwarzania (wynoszące dla mowy około 16 ms) zachodzące przy operacji kodowania, czyni system AQF nie przydatnym w niektórych zastosowaniach. Problemy transmisji informacji o poziomie sygnału, konieczność stosowania bufora, a także opóźnienie związane nieodłącznie z sy stemem AQF, są wszystkie do uniknięcia przy zastosowaniu systemu AQB. W tym ostatnim układzie stosuje się poprzednie dane z wyjścia kwantyzatora celem uzyskania informacji niezbędnej do obliczania przedziału kwantowania A(nTJ. W praktyce pre ferowany jest więc system AQB. Na rysunku 6.29 pokazano schemat blokowy kwantyzatora adaptacyjnego z es tymacją wsteczną. Jest to układ z nieliniowym sprzężeniem zwrotnym; nie jest więc sprawą oczywistą czy jest on stabilny. Przy założeniu jednak, iż sygnał wejściowy kwantyzatora m(nTs)jest ograniczony, ograniczone są także: estymata wsteczna óM(nTs) i odpowiadający jej przedział A{nTs); w tych warunkach system jest stabilny. Stosowanie predykacji adaptacyjnej w systemie ADPCM jest uzasadnione ze względu na to, iż sygnał mowy jest z zasady sygnałem niestacjonarnym. Powoduje to, iż funkcja autokorelacji oraz widmowa gęstość mocy tego sygnału są zmiennymi w czasie funkcjami swych argumentów. Układy predykcyjne dla sygnałów tego typu muszą być więc niestacjonarne, czyli inaczej mówiąc adaptacyjne. Podobnie, jak w przypadku kwantowania adaptacyjnego, istnieją dwa sposoby realizacji systemowej procesu predykcji adaptacyjnej: 1. Predykcja adaptacyjna z estymacją progresywną (APF), w której nieskwantowane próbki sygnału wejściowego służą dla określania estymat współczynników predyktora. 2. Predykcja adaptacyjna z estymacją wsteczną (APB), w której próbki sygnału z wyj ścia kwantyzatora i błąd predykcji, służą do określania estymat współczynników predyktora. Realizacja w systemie APF ma jednak te same wady (informacja uboczna, bufor i opóźnienie), co omawiany wcześniej system AQF. Wad tych nie ma system APB w układzie pokazanym na
Wejście
Koder
m (nTs)
Estymator poziomu -^r
i / Dekoder
Estymator i / poziomu
Rys. 6.29. Kwantowanie adaptacyjne z estymacją wsteczną (AQB)
Wyjście
6.13. KODOWANIE MOWY PRZY MAŁEJ SZYBKOŚCI BITOWEJ
395
Do kanału
Rys. 6.30. Predykcja adaptacyjna z estymacją wsteczną (APB)
rys. 6.30, w którym blok układu logicznego predykcji adaptacyjnej służy do obliczania aktualnych wartości współczynników predyktora. W układzie tym, optymalne współczyn niki predyktora są estymowane na podstawie skwantowanych i transmitowanych danych; mogą być więc uaktualniane tak często, jak trzeba, nawet z próbki na próbkę. Zgodnie z tym, system APB jest preferowaną metodą predykcji, w porównaniu z systemem ADPCM. Metoda przetwarzania sygnałów znana jako algorytm najmniejszych średnich kwadratów (LMS) zastosowana w układzie predyktora, wraz z kwantyzatorem predykcyjnym, pozwalają na skonstruowanie zarówno kodera jak i dekodera pracującego w sposób synchroniczny. Jego zalety przy szybkości 32 kb/s są na tyle duże, iż system ADPCM stanowi obecnie zaakceptowany na skalę międzynarodową standard przy kodowaniu sygnałów mowy tak, jak standard PCM przy szybkości 64 kb/s. Opis algorytmu LMS będzie przedstawiony w rozdziale 7.
A daptacyjne kodow anie subpasm ow e Systemy PCM i ADPCM są koderami pracującymi w dziedzinie czasu w tym sensie, iż sygnał mowy jest w nich przetwarzany w dziedzinie czasu jako sygnał obejmujący pojedyncze, całe pasmo. Opiszemy teraz koder pracujący w dziedzinie częstotliwości, w którym sygnał mowy jest dzielony na pewną liczbę subpasm, z których każde jest kodowane oddzielnie. Koder tego typu jest zdolny przetwarzać do postaci cyfrowej sygnał mowy z szybkością 16 kb/s przy jakości porównywalnej do tej, z jaką przetwarza system PCM o szybkości 64 kb/s. Do uzyskania takiej jakości wykorzystuje się prawie okresowy charakter mowy dźwięcznej oraz cechę mechanizmu słyszenia znaną jako maskowanie szumów. Zgłoski dźwięczne generowane są za pomocą prawie okresowego dźwięku wydawanego przez struny głosowe, podczas gdy głoski bezdźwięczne są generowane za pomocą dźwięku przypadkowego wytwarzanego przy turbulentnym przepływie powietrza. Bardziej szczegółowy opis powstawania obu rodzajów głosek z uwzględnieniem różnic między nimi, został podany w dodatku 1. Okresowość głosek dźwięcznych przejawia się w tym, iż ludzie mówią z charak terystyczną częstotliwością dźwięku. Okresowość pozwala na predykcję tej częstotliwości, przez co osiąga się dalsze zmniejszenie poziomu błędu predykcji wymagającego kwan-
396
6.
MODULACJA IMPULSOWA
towania, w porównaniu z różnicową modulacją impulsowo-kodową, w której nie występuje predykcja wysokości dźwięku. Liczba bitów na próbkę, jaką trzeba przesyłać, zostaje przez to znacznie zredukowana bez poważniejszej utraty jakości sygnału mowy. Liczba bitów na próbkę może zostać jeszcze bardziej zmniejszona przy wykorzys taniu charakterystycznego dla procesu percepcji zjawiska maskowania szumów. Ucho ludzkie nie odbiera szumów w danym paśmie częstotliwości, jeśli tylko ich poziom jest co najmniej o 15 dB niższy od poziomu sygnału zajmującego to samo pasmo częstotliwości. Oznacza to, iż względnie duży błąd kodowania (odpowiednik szumu) można tolerować w pobliżu firman tów, co pozwala odpowiednio zredukować szybkość kodowania. Częstotliwości formantowe (lub po prostu formanty) są to częstotliwości rezonansowe toru głosowego. Formanty zależą od kształtu i wymiarów tego toru. W przypadku adaptacyjnego kodowania subpasmowego (ASBC), kształtowanie widma szumów dokonywane jest za pomocą adaptacyjnego przyporządkowania bitów. Liczba bitów użytych do kodowania każdego subpasma zmienia się w sposób dynamiczny i dzielona jest odpowiednio z innymi subpasmami tak, iż dokładność kodowania zapewniana jest każdo razowo tam, gdzie wymaga tego charakterystyka sygnału mowy w dziedzinie częstotliwości. Subpasma niosące małą lub zerową energię mogą być przy tym nawet wcale nie kodowane. Schemat blokowy układu adaptacyjnego kodowania subpasmowego został przed stawiony na rys. 6.31. Pasmo mowy zostało tu podzielone na pewną liczbę przylegających do siebie pasm częstotliwości za pomocą banku (zestawu) filtrów środkowoprzepustowych (zwykle w liczbie czterech do ośmiu). Sygnał wyjściowy każdego z filtrów zostaje następnie przesunięty w częstotliwości za pomocą procesu modulacyjnego równoważnego modulacji jednowstęgowej tak, aby stał się sygnałem dolnopasmowym. Otrzymany sygnał zostaje poddany próbkowaniu (lub powtórnemu próbkowaniu) z częstotliwością nieco wyższą od częstotliwości Nyquista (tzn. równej podwójnej szerokości danego subpasma), a następnie zakodowany cyfrowo z użyciem systemu ADPCM o ustalonym (zwykle pierwszym) rzędzie predykcji. Specjalna strategia kodowania została przyjęta dla każdego subpasma, w zależno ści od kryterium percepcji przyjętego dla danego pasma. Informacja dotycząca przydzielenia bitów jest przesyłana do odbiornika, co pozwala na indywidualne dekodowanie poszczegól nych subpasm i ich powtórne zmodulowanie dla uzyskania pierwotnego rozmieszczenia tych subpasm na skali częstotliwości. Ostatnią operacją jest sumowanie celem uzyskania sygnału wyjściowego, będącego bliskim odpowiednikiem oryginalnego sygnału mowy. Złożoność adaptacyjnego kodera subpasmowego o szybkości 16 kb/s jest około 100 razy większa, niż kodera PCM o szybkości 64 kb/s, zapewniającego taką samą jakość odtwarzania. W wyniku wielkiej liczby operacji arytmetycznych dokonywanych przez adaptacyjny koder subpasmowy, wprowadza on opóźnienie 25 ms; nie spotykane w koderach systemu PCM. Opóźnienie to nie ma znaczenia przy zastosowaniach obejmujących zapamiętywanie sygnałów mowy takich, jak np. „telefoniczna sekretarka”.
6.14.
P o d s u m o w a n ie i dyskusja
W tym rozdziale przedstawiliśmy dwa podstawowe, dopełniające się zarazem procesy: • Próbkowanie, zachodzące w dziedzinie czasu; proces próbkowania stanowi łącznik pomiędzy przebiegiem analogowym i jego reprezentacją w czasie dyskretnym. • Kwantowanie, zachodzące w dziedzinie amplitud; proces kwantowania stanowi łącznik pomiędzy przebiegiem analogowym i jego reprezentacją w dziedzinie amplitud dyskret nych.
397
6.14. PODSUMOWANIE I DYSKUSJA Q
Kodery ADPCM
Dekodery ADPCM Rys. 631. Adaptacyjny system z kodowaniem subpasmowym: a) nadajnik, b) odbiornik
Proces próbkowania opiera się na twierdzeniu o próbkowaniu które stanowi, że sygnał o ściśle ograniczonym paśmie, nie mający składowych częstotliwościowych wyższych od W Hz, jest reprezentowany w sposób jednoznaczny przez ciąg próbek wziętych w równomiernych odstępach czasu, z częstością równą lub większą od częstotliwości Nyquista równej 2W próbek na sekundę. W procesie kwantowania wykorzystuje się fakt, iż człowiek jako ostateczny odbiorca, jest w stanie rozróżnić za pomocą swoich zmysłów jedynie skończone różnice poziomów amplitudy. Proces próbkowania stanowi podstawę działania wszystkich systemów modulacji impulsowej, do których należą: analogowa i cyfrowa modulacja impulsowa. Różnica między nimi polega na tym, iż w systemach analogowej modulacji impulsowej zachowany zostaje analogowy charakter amplitudy sygnału informacyjnego, podczas gdy w systemach analogowej modulacji impulsowej stosuje się także kwantowanie, celem uzyskania reprezen tacji sygnału informacyjnego będącej sygnałem dyskretnym zarówno w czasie jak i am plitudzie. Analogowa modulacja impulsowa powstaje w wyniku zmian jednego z parametrów przesyłanych impulsów, takiego jak amplituda, czas trwania lub położenie. Mówimy
398
6. MODULACJA IMPULSOWA
wówczas odpowiednio o modulacji amplitudy impulsów (PAM), modulacji czasu trwania impulsów (PDM) i modulacji położenia impulsów (PPM). Przy zwielokrotnianiu z po działem czasowym (TDM) pewnej liczby kanałów, przetwarzanie sygnału zaczyna się zwykle od modulacji PAM. Jeśli bowiem zastosować w tym przypadku system PDM lub PPM, trzeba zabezpieczyć się przed tym, aby przy pełnej głębokości modulacji impuls danego sygnału informacyjnego nie znalazł się w przedziale czasowym należącym do innego sygnału informacyjnego. Ograniczenie to powoduje złe wykorzystanie przestrzeni czasowej w sys temach telefonicznych charakteryzujących się wysokimi współczynnikami szczytu, co przemawia za stosowaniem w telefonii systemów PD M 12) lub PPM. Ponadto, mimo iż system PPM jest bardziej wydajny niż system PDM, są one oba dalekie od ideału, jeśli chodzi o możliwości uzyskania polepszonych właściwości szumowych za cenę powiększania szerokości pasma transmisji. W systemach cyfrowej modulacji impulsowej, analogowe sygnały informacyjne przesyłane są w postaci ciągu zakodowanych impulsów, uzyskiwanych dzięki łącznemu stosowaniu próbkowania i kwantowania. Modulacja impulsowo-kodowa jest ważnym rodzajem cyfrowej modulacji impulsowej, obdarzonym unikalnymi zaletami, które uczyniły z niej preferowaną formę modulacji przy transmitowaniu takich sygnałów analogowych, jak sygnał mowy i sygnał telewizyjny. Do zalet modulacji impulsowo-kodowej należy odporność na szumy i interferencje, efektywna regeneracja zakodowanych impulsów wzdłuż drogi transmisji oraz jednakowy format przy różnych rodzajach sygnałów z pasma podstawowego. Modulacja delta i różnicowa modulacja impulsowo-kodowa to dwie użyteczne odmiany cyfrowej modulacji impulsowej. Podstawową zaletą systemu modulacji delta jest jego prostota układowa. W przeciwieństwie do niej, różnicowa modulacja impulso wo-kodowa wymaga zwiększenia komplikacji systemu, za cenę polepszenia jego jakości. Polepszenie jakości osiągane jest poprzez zastosowanie predykcji w celu usunięcia symboli nadmiarowych z przychodzącego strumienia danych. Dalsze polepszenie jakości systemu różnicowej modulacji impulsowo-kodowej jest możliwe dzięki zastosowaniu adaptacyjności celem uwzględnienia statystycznych zmian danych wejściowych. Tym sposobem wymagana w systemie modulacji impulsowo-kodowej szerokość pasma zostaje znacznie zredukowana bez poważniejszego pogorszenia jakości systemu. Warto w tym miejscu spojrzeć krytycznie na różne systemy modulacji impulsowej opisane w tym rozdziale. Termin „modulacja impulsowa” jest właściwie mylący, gdyż wszystkie jej rodzaje, tak analogowe jak i cyfrowe, są ściśle biorąc metodami kodowania źródłowego. Mówimy tak z tego prostego powodu, iż sygnał informacyjny nie przestaje być, po wszystkich procesach związanych z modulacją impulsową, sygnałem pasma podstawowego. Ta właściwość sygnału zmodulowanego impulsowo wyraża się w tym, iż niezależnie od konkretnego opisu, może on być przesyłany poprzez kanał o paśmie podstawowym o dostatecznej szerokości. Materiał przedstawiony w następnym rozdziale został poświęcony transmisji w paśmie podstawowym danych, reprezentowanych jako ciągi impulsów. Jest też istotne aby rozumieć, iż procesy modulacji impulsowej są stratne w tym sensie, iż pewna informacja zostaje stracona w rezultacie dokonywanego w tych systemach przetwarzania. Dla przykładu, przy modulacji amplitudy impulsów, stosuje się zwykle filtrację prealiasingową (dolnoprzepustową) poprzedzającą proces próbkowania; powoduje to utratę informacji, gdyż składowe wielkiej częstotliwości uważane za nieistotne, są usuwane z sygnału przez filtr. Stratna natura modulacji impulsowej jest najbardziej widoczna w przypadku modulacji impulsowo-kodowej charakteryzującej się generowaniem szumu
6.14. PODSUMOWANIE I DYSKUSJA
399
kwantowania (tzn. zakłóceniami); nadawany ciąg zakodowanych impulsów nie zapewnia nieskończonej precyzji wymaganej dla dokładnej reprezentacji próbek analogowych. Mimo to, utrata informacji w procesie modulacji impulsowej pozostaje pod kontrolą projektanta systemu co oznacza, iż może ją uczynić na tyle małą, aby nie była dostrzegana przez końcowego użytkownika systemu. Materiał tego rozdziału poświęconego modulacji impulsowej został przedstawiony z perspektywy przetwarzania sygnałów. Powrócimy do modulacji impulsowo-kodowej i jej odmiany zwanej różnicową modulacją impulsowo-kodową w rozdziale 10, poświęconym z kolei tym aspektom systemów telekomunikacyjnych, które związane są z teorią informacji. Uzyskamy przez to głębszy wgląd w działanie tych systemów z punktu widzenia technik kodowania źródłowego.
PRZYPISY I LITERATURA 1) Klasyczną książką na tem at modulacji impulsowej jest praca Blacka (1953). Bardziej szczegółowo zajmuje się tym problemem Rowe (1965). 2) Poprzez próbkow anie transform aty Fouriera z czasem dyskretnym (punkt 6.2) w dziedzinie częstotliwości, otrzymujemy dyskretną transform atę Fouriera (D FT) om ów ioną w rozdziale 2. 3) M odulacja im pulsowo-kodowa została wynaleziona przez Recvesa w 1937 r. Historyczne ujęcie tego wynalazku, zobacz artykuł Reevesa(1975). W książce Jay an tai Nolla (1984) przedstawiono w sposób najbardziej wyczerpujący modulację im pulsowo-kodową, różnicową modulację im pulsow o-kodo wą, modulację delta oraz ich odmiany. K siążka wydana przez Jayanta (1976) zawiera zbiór ważnych prac na tem at kw antow ania i kodow ania przebiegów. 4) Zagadnienie szumu kw antow ania w systemach PCM zostało szczegółowo rozpatrzone w artykule Bennetta (1948) oraz w książce Rowe’a (1965, ss. 311-^321). 5) Praw o p stosowane w kompresji sygnału zostało opisane przez Sm itha (1957). Jest ono stosowane obecnie w Stanach Zjednoczonych, K anadzie i Japonii. W Europie stosowane jest przy kompresji sygnału prawo A; to prawo kompresji zostało opisane w pracy Catterm ole (1969, ss. 133-h 140); omówieniu obu tych rozkładów poświęcony jest także artykuł K aneko (1970). 6) Opis oryginalnej wersji systemu T l PCM podano w artykule Fultza i Penicka (1965). Opis po dany w przykładzie 3 jest oparty na zaktualizowanej wersji tego systemu; zobacz Henning i Pan (1972). 7) Oryginalnym i pracam i na tem at modulacji delta są: Schouten, DeJager, Greelkes (1952) oraz DeJager (1952). Artykułem przeglądowym na tem at modulacji delta jest praca Schindlera (1970). 8) Adaptacyjnej modulacji delta poświęcona jest praca Abate (1967); zobacz także artykuł Jayanta i Nolla (1984). 9) M odulację delta-sigm a opisano w książce Jayanta i Nolla (1984, ss. 399,400); zobacz także artykuł Inose, Yasuda i M urakam i (1962). 10) Różnicową m odulację im pulsowo-kodową wynalazł Cutler; wynalazek opisano w patencie wyda nym w 1952 r. Właściwości szumowe systemów PCM i D PC M zostały porów nane w pracy Jayanta (1974); zobacz także książkę Rabinera i Schafera (1978, Rozdział 5). 11) Kodow anie mowy przy małych szybkościach bitowych om ówiono w artykule Jayanta (1986); zobacz także pracę Jay an ta i Nolla (1984, ss. 188 -r 210,290-^ 311), oraz Flanagana i in. (1979). Znaczna część m ateriału przedstaw ionego w punkcie 6.13 została napisana na podstawie tych prac. 12) M odulacja czasu trw ania (szerokości) impulsu znalazła użyteczne zastosowanie w sterowaniu komputerowym, gdzie jest używana do przesyłania informacji cyfrowej z kom putera do sterowanych urządzeń. W tym zastosowaniu, szerokość impulsu przyjmuje jedną ze skończonego zbioru możliwych wartości, przez co działanie kontrolera upodabnia się do działania przekaźnika. Jeśli chodzi o szczegóły, zobacz pracę V anlandingham a (1985, ss. 176-^ 178).
400
6. MODULACJA IMPULSOWA
ZADANIA Zadanie 6.1 Przy próbkowaniu naturalnym, analogowy sygnał g(t) jest mnożony przez okresowy ciąg impulsów prostokątnych c(f). Mając daną częstotliwość powtarzania fali prostokątnej f s oraz czas trwania każdego z impulsów prostokątnych T(przy warunku f sT » 1), należy: a) Wyznaczyć widmo sygnału s(f) otrzymywanego w wyniku próbkowania naturalnego; można założyć, iż czas t = 0 odpowiada środkowi impulsu prostokątnego sygnału c(f). b) Pokazać, iż oryginalny sygnał m(f) może zostać dokładnie zrekonstruowany na podstawie jego wersji spróbkowanej w sposób naturalny, jeśli spełnione jest twierdzenie o prób kowaniu.
Zadanie 6.2 Określić częstotliwość Nyquista i przedział Nyquista dla następujących sygnałów: a) y(t) = sine (2001) b) sr(f) = sinc2(200r) c) 0(f) = sinc(200f) + sinc2(200f)
Zadanie 63 a) Wykreślić widmo fali PAM powstającej pod wpływem sygnału modulującego: m(t) = ^ mcos(27t/mf) zakładając częstotliwość modulującą/m= 0,25 Hz, okres próbkowania 7^ = 1 s oraz czas trwania impulsu T = 0,45 s. b) Używając idealnego filtru odtwarzającego, wykreślić widmo sygnału na wyjściu tego filtru. Porównać uzyskany wynik z tym, jaki się uzyska przy braku efektu aperturowego.
Zadanie 6.4 4
W tym zadaniu oszacujemy korekcję wymaganą do uwzględnienia efektu aperturowego w systemie PAM. Częstotliwość pracy wynosi/ = f j 2, co odpowiada najwyższej składowej częstotliwościowej sygnału informacyjnego przy częstotliwości próbkowania równej częstot liwości Nyquista. Naszkicować zależność l/sinc(0,577Ts) w funkcji T/Ts i na tej podstawie określić korektę wymaganą gdy T/Ts = 0,1.
Zadanie 6.5 Weźmy pod uwagę falę PAM transmitowaną przez kanał z białym szumem gaussowskim i minimalnej szerokości pasma B T = 1/2TS, gdzie T, jest okresem próbkowania. Szum ma zerową wartość średnią, a widmową gęstość mocy N J 2. W sygnale PAM użyto standardowej funkcji impulsowej 0(r) mającej transformatę Fouriera o postaci: l/l < Br 10, l/l > BT Rozpatrując sinusoidalną falę modulującą, przy głębokości modulacji 100%, pokazać, iż PAM oraz przesyłanie oryginalnego sygnału w paśmie podstawowym dają jednakowe współczynniki sygnał-szum przy takich samych średnich mocach przesyłanego sygnału.
401
6.14. PODSUMOWANIE 1 DYSKUSJA
Zadanie 6.6 Dwadzieścia cztery sygnały akustyczne zostały równomiernie spróbkowane, a następnie zwielokrotnione w systemie z podziałem czasowym. W operacji próbkowania użyto próbek prostokątnych o czasie trwania równym 1 ps. Operacja zwielokrotniania wymaga za stosowania synchronizacji, dla której dodaje się jeden dodatkowy impuls o takim samym czasie trwania 1 ps. Górna częstotliwość każdego kanału akustycznego wynosi 3,4 kHz. a) Przyjmując częstotliwość próbkowania 8 kHz, wyliczyć odległość pomiędzy kolejnymi impulsami zwielokrotnionego sygnału. b) Powtórzyć te obliczenia zakładając próbkowanie z częstotliwością Nyquista.
Zadanie 6.7 Dwanaście różnych sygnałów informacyjnych, każdy o paśmie 10 kHz, mają zostać zwielokrotnione i przesłane. Wyznaczyć minimalną szerokość pasma, wymaganą przy każdej z metod, jeśli zwielokrotnianie/modulacja jest typu: a) FDM, SSB. b) TDM, PAM. Zadanie 6.8 W pewnym systemie telemetrycznym PAM zastosowano zwielokrotnianie czterech sygnałów wejściowych: Sj(r), i = 1, 2, 3,4. Dwa z tych sygnałów: (t) i s2(t) mają pasma o szerokości po 80 Hz, a dwa pozostałe sygnały: s3(f) i s4(t) pasma o szerokości po 1 kHz. Sygnały s3(t) i s4(f) są próbkowane z częstotliwością 2400 próbek na sekundę. Ta częstotliwość próbkowania zostaje podzielona przez 2R (tzn. całkowitą potęgę dwu), aby uzyskać częstotliwość próbkowania sygnałów sx(t) i s2(t). a) Znaleźć maksymalną wartość R. b) Biorąc wartość R znalezioną w punkcie (a), zaprojektować system zwielokrotniający, w którym najpierw zachodzi zwielokrotnianie sygnałów s^r) i s2(r), a uzyskany tym sposobem nowy sygnał s5{t) zostaje następnie zwielokrotniony wraz z sygnałami s3(t) i s4(r).
Zadanie 6.9 Niezmodulowany ciąg impulsów pewnego systemu PPM jest pokazany na rys. Z6.1. Poziom odcięcia odbiornika ustalono na Aj 2. a) Przyjmując modulację falą sinusoidalną o głębokości 100% i szum na wejściu odbiornika o zerowej wartości średniej i widmowej gęstości mocy N J 2, określić stosunek sygnał-szum na wyjściu odbiornika oraz polepszenie stosunku sygnał-szum dla tego systemu. Założyć wysoki szczytowy stosunek impulsu sygnału do szumu. b) Dla przypadku, gdy sygnał informacyjny jest próbkowany z częstotliwością Nyquista, znaleźć szerokość pasma transmisji, przy której polepszenie stosunku sygnał-szum dla tego systemu jest większe od jedności.
Rys. Z6.1
402
6. MODULACJA IMPULSOWA
Zadanie 6.10 Na rysunku Z6.2 pokazano niemodulowany ciąg impulsów PDM. Impuls PDM składa się z impulsu prostokątnego o czasie trwania D oraz dwu dodatkowych segmentów, przedniego i tylnego, identycznych jak odpowiednie połówki impulsu PPM z rys. 6.14. Układ obcinający w odbiorniku jest ustawiony na poziom połowy szczytowej amplitudy impulsu, przez co usuwany jest cały szum, za wyjątkiem niepewności odnośnie czasu wykrywania początku i końca impulsu z o niewielkiej wartości bliskiej wyliczonej dla przypadku systemu PPM z przykładu 1. Przyjąć, iż jedno ze zboczy impulsu zmodulowanego w szerokości jest ustalone za pomocą pozbawionego szumów sygnału odniesienia. a) Wyznaczyć wyjściowy stosunek sygnał-szum tego systemu PDM. b) Wyznaczyć stosunek sygnał-szum kanału. c) Porównać szumowy wskaźnik jakości tego systemu PDM ze wskaźnikiem odpowiedniego systemu PPM.
Zadanie 6.11 a) Sygnał sinusoidalny o amplitudzie 3,25 V jest podawany na wejście kwantyzatora z zaokrąglaniem, którego sygnał wyjściowy może przyjmować wartości 0, ± 1, ± 2, ± 3 V. Narysować przebieg napięcia wyjściowego kwantyzatora dla jednego kompletnego okresu napięcia wejściowego. b) Powtórzyć wykres dla przypadku, gdy kwantyzator jest z obcinaniem, a jego sygnał wyjściowy może przyjmować wartości ±0,5, ±1,5, ±2,5, ±3,5 V.
Zadanie 6.12 Dane są następujące ciągi zer i jedynek: a) Naprzemienny ciąg jedynek i zer. b) Długi ciąg samych jedynek, po którym następuje długi ciąg samych zer. c) Długi ciąg samych jedynek, po którym następuje pojedyncze zero, a następnie znowu długi ciąg samych jedynek. Naszkicować przebieg każdego z tych ciągów za pomocą następujących metod reprezentacji symboli 1 i 0: a) Kod unipolarny. b) Kod bipolarny z powrotem do zera (BRZ).
Zadanie 6.13 To zadanie ma na celu pokazać, iż widmowa gęstość mocy fali PCM zależy od formatu użytego do reprezentacji zer i jedynek. Przyjmując, iż jedynki i zera występują z jednakowym
403
6.14. PODSUMOWANIE I DYSKUSJA
J__!_
-1
*
i
t
i U■
1 1 .
Rys. Z63 prawdopodobieństwem, a symbole w przyległych oknach czasowych są statystycznie niezależne, wyznaczyć i narysować wykres widmowej gęstości mocy fali PCM dla każdego z formatów: a) Kod unipolarny. b) Kod bifazowy Manchester.
Zadanie 6.14 Sygnał o postaci: m(t) = 6sin(2jif)F jest przesyłany za pomocą 4-bitowego binarnego systemu PCM. Kwantyzator jest z zaokrąg laniem, o przedziale kwantowania 1 V. Wykreślić otrzymywaną falę PCM dla jednego pełnego okresu sygnału wejściowego. Założyć częstość próbkowania cztery próbki na sekundę, dla próbek branych przy: t — ± 1/ 8, ±3/8, ±5/8,..., sekundy.
Zadanie 6.15 Na rysunku Z6.3 pokazano sygnał PCM, w którym do reprezentacji binarnych symboli 1 i 0 użyto napięć odpowiednio -I-1 V oraz —1 V. Zastosowane tu słowo kodowe składa się z trzech bitów. Wyznaczyć spróbkowaną wersję sygnału analogowego, na podstawie którego otrzymano ten sygnał PCM.
Zadanie 6.16 Weźmy pod uwagę kwantyzator z kwantowaniem równomiernym, opisany relacją wejście-wyjście jak na rys. 6.17a. Przyjmijmy, iż na wejście tego kwantyzatora podawany jest sygnał przypadkowy o rozkładzie gaussowskim o zerowej wartości średniej i wariancji jednostkowej. a) Jakie jest prawdopodobieństwo, iż amplituda sygnału wejściowego przyjmuje wartości na zewnątrz przedziału od —4 do +4? b) Wykorzystując wyniki punktu (a) pokazać, iż stosunek sygnał-szum na wyjściu kwan tyzatora jest dany zależnością: (SNR)0 = 6R —7,2 dB gdzie R — liczba bitów na próbkę. Można przyjąć, iż sygnał wejściowy kwantyzatora przyjmuje wartości z przedziału od —4 do +4. Porównać wyniki punktu (b) z wynikami z przykładu 2.
Zadanie 6.17 W pewnym systemie PCM zastosowano kwantyzator, po którym następuje 7-bitowy koder binarny. Prędkość bitowa tego systemu wynosi 50 • 106 b/s. a) Jakie jest maksymalne pasmo sygnału informacyjnego, przy którym ten system działa zadowalająco? 26*
404
6. MODULACJA IMPULSOWA
b) Określić stosunek sygnału do szumu kwantowania na wyjściu systemu, przy sinusoidalnej fali modulującej o częstotliwości 1 MHz na wejściu układu, dającej głębokość modulacji 100% .
Zadanie 6.18 Wykazać, iż w przypadku kwantyzatora z kwantowaniem nierównomiernym, wartość średniokwadratowa błędu kwantowania wynosi ( l/12)XiAf p4-, gdzie Af — szerokość i-tego przedziału kwantowania, a p,- — prawdopodobieństwo tego, iż amplituda sygnału wej ściowego leży wewnątrz i-tego przedziału. Przyjąć, iż szerokość przedziału A; jest mała w porównaniu z odchyleniem sygnału wejściowego.
Zadanie 6.19 Dany jest łańcuch (n—1) repeterów regenerujących, przy łącznej liczbie n decyzji sekwencyj nych podejmowanych odnośnie binarnej fali PCM, włączając w to decyzję końcową podejmowaną przez odbiornik. Przyjąć, iż każdy symbol binarny przesyłany w systemie ma niezależne prawdopodobieństwo odwrócenia przez którykolwiek z repeterów. Niech pn reprezentuje prawdopodobieństwo tego, iż dany symbol binarny został błędnie odtworzony w wyniku przesłania go przez cały system. a) Wykazać, iż zachodzi równość:
b) Ile wynosi wartość p„, gdy p1 jest małe, a n niezbyt duże?
Zadanie 6.20 Weźmy pod uwagę falę sinusoidalną o częstotliwości f m i amplitudzie Am, przychodzącą na wejście modulatora delta o szerokości kroku A. Pokazać, iż zniekształcenie przepełnienia zbocza zajdzie w przypadku, gdy: A A - > ---- 7— m 2n fmTs gdzie Ts — okres próbkowania. Jaka jest maksymalna moc, jaką można przesłać bez zniekształceń przepełnienia zbocza?
Zadanie 6.21 Dla systemu DPCM przedstawionego na rys. Z6.4 pokazać, iż przy braku szumów w kanale, filtry predykcyjne nadajnika i odbiornika pracują przy nieco różnych sygnałach wejściowych.
Zadanie 6.22 Weźmy pod uwagę predykcję pierwszego rzędu opisaną zależnością: = w m ( n T - T s)
gdzie: m(nTJ — próbka sygnału stacjonarnego o zerowej wartości średniej, Ts — okres próbkowania, a w — stała, a) Pokazać, iż błąd predykcji:
6.14. PODSUMOWANIE I DYSKUSJA
405
Kwantyzator
Rys. Z6.4 e{nTs) = m(nTs)—m{nTs) ma wariancję równą: 1+ w 2-
2 wK m(T J
gdzie: oh — wariancja sygnału wejściowego, a RM(TS) — funkcja autokorelacji dla odchylenia 7^. b) Pokazać, iż wariancja błędu predykcji osiąga minimum dla: *
oraz, że odpowiadająca temu wartość o \ wynosi:
c) Podać warunek na to, aby o \ było mniejsze od oh-
Rozdział 7
Transmisja w paśmie podstawowym 7.1. Wstęp W poprzednim rozdziale opisaliśmy techniki związane z przemianą analogowych syg nałów niosących informację w sygnały cyfrowe. Bywają jednak i inne okoliczności, w których w praktyce spotykamy się z wytwarzaniem danych cyfrowych; dane te mogą na przykład reprezentować wyjście jakiegoś źródła informacji o dyskretnej wewnętrznej naturze (np. wyjście z komputera). W tym rozdziale będziemy studiować transmisje danych cyfrowych (jakiegokolwiek pochodzenia) w kanale z pasmem podstawowyml). Transmisję sygnałów modulowanych w kanale pasmowoprzepustowym obejmuje materiał następnego rozdziału. Informacja cyfrowa zajmuje szerokie widmo, a istotna jego część leży w zakresie niskich częstotliwości. Transmisja danych cyfrowych w paśmie podstawowym wymaga zatem, aby pasmo dolnoprzepustowe zastosowane w kanale było dostatecznie duże, aby pomieścić istotne składowe widmowe strumienia danych. W typowym przypadku jednak mamy do czynienia z kanałem dyspersyjnym w tym sensie, że jego charakterystyka częstotliwościowa odbiega znacznie od przypadku idealnego filtru dolnoprzepustowego. W wyniku transmisji danych przez taki kanał każdy przesłany impuls jest nieco zmodyfiko wany przez wpływ sąsiednich impulsów, co powoduje, że występuje zjawisko analogiczne do zwykłej interferencji, nazywane interferencją międzysymbolową (ang. intersymbol interference (ISI)). Interferencja międzysymbolową stanowi główną przyczynę błędnego odbioru bitów rekonstruowanego przez odbiornik strumienia danych. W celu zapewnienia korelacji tych błędów, zmuszeni jesteśmy do rozciągnięcia kontroli nad kształtem impulsów na cały system. Z tej też przyczyny większość materiału niniejszego rozdziału poświęcono w takiej czy innej formie metodom kształtowania impulsów. Jeszcze jednym źródłem błędów transmisji danych przez kanał podstawowy jest wszechobecny szum odbiornika (szum kanału). Oczywiście szum i ISI powstają w systemie jednocześnie. Jednakże aby zrozumieć, w jaki sposób mają one wpływ na charakterystyki funkcjonalne systemu, proponujemy rozważenie ich oddzielnie. Rozpoczniemy zatem rozdział od opisu fundamentalnych wyników teorii telekomunikacji, dotyczących detekcji sygnałów impulsowych o znanym kształcie, w obecności addytywnego szumu białego.
7.2.
407
FILTR DOPASOWANY DO SYGNAŁU
Urządzeniem, które najlepiej zdaje egzamin przy detekcji takich impulsów, jest liniowy filtr stacjonarny znany jako filtr dopasowany do sygnału21, który nazwę swą wywodzi od dopasowania odpowiedzi impulsowej do sygnału impulsowego.
7.2. Filtr dopasowany do sygnału Podstawowy problem, jaki często wynika przy studiowaniu systemów telekomunikacyjnych polega na detekcji impulsu przesyłanego przez kanał zakłócany addytywnym szumem, przychodzącym na wejście odbiornika. Dla celów dyskusji przedstawionej w niniejszym punkcie założymy, że właśnie szum jest podstawowym źródłem ograniczeń systemowych. Rozważmy zatem model odbiornika przedstawiony na rys. 7.1, zawierający liniowy filtr stacjonarny o odpowiedzi impulsowej h(t). Wejście filtru x(r) składa się z sygnału impulsowego g(t) odkształconego przez addytywny szum w(r), a mianowicie: *(O = 0(O + w(f)
(7.1)
w którym T określa arbitralnie wybrany przedział obserwacji. Impulsowy sygnał g(t) może przedstawiać sobą symbol 0 lub 1 w cyfrowym systemie telekomunikacyjnym. w(t) jest funkcją próbki szumu białego o zerowej średniej i gęstości widmowej mocy N 0f 2. Zakłada się przy tym, że odbiornik ma wiedzę odnośnie przebiegu impulsu sygnałowego >(t) może być wyrażone w postaci: y(t) = g0(t) + n(t)
(7-2)
a składniki g0(t) i n(t) są wytwarzane odpowiednio na podstawie składowych sygnału i szumu sygnału wejściowego x(t). Proste sformułowanie wymagania, aby składowa sygnałowa g0(t) była znacznie większa od składowej szumowej n(f), sprowadza się do warunku, aby moc chwilowa sygnału g0{t), mierzona dla czasu f = Tbyła możliwie duża w porównaniu ze średnią mocą szumu wyjściowego n(t). Oznacza to zapewnienie maksimum szczytowego impulsowego stosunku sygnału do szumu zdefiniowanego wzorem: Ig.COl2 £ [ " 2W]
Liniowy filtr stacjonarny o odpowiedzi impulsowej h(t)
Sygnał
g(t)
Szum biały Wit)
tu)
->o Próbka w chwili t= T
ym
Rys. 7.1 Odbiornik liniowy
408
7.
TRANSMISJA W PAŚMIE PODSTAWOWYM
gdzie: \g0(T)\2 — moc chwilowa sygnału wyjściowego, E — operator statystycznej wartości oczekiwanej, natomiast £ [n 2(f)] — miara średniej wyjściowej mocy szumu. Wymagane jest takie określenie odpowiedzi impulsowej h(t) filtru, by wyjściowy stosunek sygnału do szumu z równania (7.3) osiągnął maksimum. Niech G (/) oznacza transformatę Fouriera znanego sygnału g(t) a H( f ) transmitancję filtru. Wtedy transformata Fouriera wyjściowego sygnału £/a(f) jest równa ), podczas gdy sygnał g0{t) może być otrzymany na podstawie odwrotnej transfor maty Fouriera: ga(t) = J H (t)G( /) exp(j2n/f)d /
(7.4)
Stąd przy próbkowaniu wyjścia filtru w czasie t = T, przy nieobecności szumu w odbiorniku, mamy: 00 2 \g0m 2 = I H (/)G (/)exp(j2T r/7)d/ -
00
Rozważmy następnie wynik działania samego tylko szumu na wyjściu filtru. Widmowa gęstość mocy SN{ f ) szumu wyjściowego n(t) równa jest gęstości widmowej mocy szumu wejściowego w(t) pomnożonej przez kwadrat modułu transmitancji H( f ) (por. punkt 4.10). Ponieważ w(f) jest białym szumem o stałej gęstości widmowej N 0/ 2, więc wynika stąd, że: S„
(7.6)
Średnia moc szumu n(f) na wyjściu filtru wynosi więc: E [n2(I)]=
I—00S „ ( / ) d / = ^^2- -f00|H (/)|2d /
Tak więc, podstawiając równania (7.5) i (7.7) do równania (7.3) możemy przepisać wyrażenie na szczytowy impulsowy stosunek sygnału do szumu w postaci: 2
H (/)G (/)e x p (j2 n /T )d / (7.8) J \H (f)\2d f —oc Zadaniem naszym będzie znalezienie, przy zadanej G(/), szczególnej postaci transmitancji filtru H { f\ która uczyni rj maksymalnym. W celu znalezienia rozwiązania tak postawionego problemu optymalizacji, zastosujemy względem licznika równania (7.8) wynik znany w matematyce jako nierówność Schwarza. Wyprowadzenie nierówności Schwarza podano w dodatku 5, w którym wykazano, że jeśli mamy dwie zespolone funkcje 0 1(x) i (f>2(x) zmiennej rzeczywistej x, spełniające warunki: 00
I l
j |4>2(x)|2dx < oo —co
7.2.
FILTR DOPASOWANY DO SYGNAŁU
409
to możemy napisać: 00 f
00
-
00
(7.10)
gdzie k — dowolna stała, gwiazdka zaś oznacza wielkość zespoloną sprzężoną. Powracając do rozpoczętego zadania widzimy, że odwołując się do nierówności Schwarza (7.9) i podstawiając
« J |H ( /) |2d / J |G (/)|2d / (7.11) —00 —00 Stosując ten wynik do równania (7.8) możemy przedefiniować szczytowy impulsowy stosunek sygnału do szumu w postaci: H( f ) GW) exp( j 2nf T) df f —ao
«-JT |G(/)!2d/ M0 -00
(7.12)
Prawa strona tej zależności nie zależy od transmitancji H( f ) Filtru, lecz jedynie od energii sygnału i gęstości widmowej mocy szumu. W konsekwencji szczytowy impulsowy stosunek sygnału do szumu rj będzie mieć maksimum, gdy H( f ) wybrane będzie tak, aby spełnić warunek równości, a więc:
? IG(/)l2d/
JV0 -00
(7.13)
Odpowiednio H( f ) przyjmuje wartość optymalną oznaczoną przez Hopt(f). Aby znaleźć tę wartość stosujemy równanie (7.10), które przybiera teraz postać: tfopt(/) = kG*(/)exp(—j27t/T)
(7.14)
gdzie G*(f) — funkcja zespolona sprzężona względem transformaty Fouriera sygnału wejściowego g{t), natomiast k — czynnik skalujący o odpowiednim wymiarze. Na podstawie podanej zależności stwierdzamy, że z wyjątkiem czynnika /cexp( —j2n f T ) transmitancja Filtru optymalnego jest taka sama jak zespolone sprzężone widmo sygnału wejściowego. Równanie (7.14) określa Filtr optymalny w dziedzinie częstotliwości. Aby scharak teryzować ten Filtr w dziedzinie czasu, bierzemy odwrotną transformatę Fouriera Hopt( f ) z równania (7.14) i otrzymujemy odpowiedź impulsową Filtru optymalnego w postaci: hm (t) = k J G * ( f ) e x p l - , 2 K f ( T - t W - 00
(7.15)
Ponieważ dla rzeczywistego sygnału g{t) mamy G*(f) = G(—/) , więc możemy przepisać równanie (7.15) jako: fcop,W = M
C ( - f )e x p [ —j2 rc/(r—t ) ] d / = M T - i )
(7.16)
— CO
Równanie (7.16) pokazuje, że z dokładnością do czynnika skalującego k, odpowiedź impulsowa Filtru optymalnego jest odwróconą w czasie i opóźnioną wersją sygnału wejścio-
410
7.
TRANSMISJA W PAŚMIE PODSTAWOWYM
wego g(t); a więc jest ona „dopasowana” do sygnału wejściowego. Tak zdefiniowany liniowy filtr stacjonarny nazywany jest filtrem dopasowanym do sygnału. Zanotujmy, że jedyne założenie jakie poczyniliśmy przy wprowadzeniu opisu filtru dopasowanego, a dotyczące szumu wejściowego w(t) było takie, że jest on stacjonarny i biały o zerowej średniej i gęstości widmowej mocy N 0/2.
W łaściw ości filtró w dopasow anych Zanotujmy, że filtr, który jest dopasowany do sygnału impulsowego g(t) o czasie trwania T, scharakteryzowany jest przez odpowiedź impulsową, która stanowi odwróconą w czasie i opóźnioną wersję wejścia g(t), co zapisujemy jako: fcopt(0 = k g (T -t) Innymi słowy, odpowiedź impulsowa hopl(t) jest zdefiniowana jednoznacznie, z wyjątkiem jednak opóźnienia T czynnika skalującego k, przez kształt impulsu sygnałowego g(t), do którego filtr jest dopasowany. W dziedzinie częstotliwości filtr dopasowany scharak teryzowany jest przez transmitancję, która z dokładnością do czynnika opóźnienia stanowi zespolone sprzężenie transformaty Fouriera sygnału wejściowego g(t), czyli: Hopt(0 = W ?* (/)ex p (-j2 n /T ) Najistotniejszy wynik obliczeń dotyczący działania systemów przetwarzania sygnałów za pomocą filtrów dopasowanych jest być może następujący: • Szczytowa impulsowa wartość stosunku sygnału do szumu dla filtrów dopasowanych zależy tylko od stosunku energii sygnału do gęstości widmowej mocy szumu białego na wejściu filtru. W celu zdefiniowania tej właściwości rozważmy filtr dopasowany do znanego sygnału g(t). W takiej sytuacji transformata Fouriera z wyjścia filtru dopasowanego g0{t) jest równa: G0( f ) - Hopt( /) G ( /) = kG *(/)G (/)exp(—j2rc/T) = = k |G (/)|2e x p (-j2 it/T ) Stosując równanie (7.17) we wzorze na odwrotną transformatę Fouriera znajdujemy, że wyjściem filtru dopasowanego dla czasu t = T jest: 9„(T) = * f G „ (/)e x p (j2 n /T )d /= k i G (/)l2d / —00 Za pomocą twierdzenia energetycznego Rayleigha wynik ten upraszcza się do: (7.18)
9o(T) = kE
gdzie E — energia sygnału impulsowego g(t). Następnie podstawiając równania (7.14) do (7.7) znajdujemy, że średnią wyjściową mocą szumu jest: E[n2(t)] = — ^
- ? |G (/)|2d / =
k2N 0E/2 (7.19)
—QO
gdzie ponownie uczyniliśmy użytek z twierdzenia energetycznego Rayleigha. Z tego powodu szczytowy impulsowy stosunek sygnału do szumu ma maksymalną wartość: {kE)2 2E {k*N0E/2) ~ N 0
(7.20)
7.2.
FILTR DOPASOWANY DO SYGNAŁU
411
Rys. 7.2. a) Impuls prostokątny, b) wyjście filtru dopasowanego, c) wyjście integratora
Na podstawie równania (7.20) widzimy, że zależność od kształtu przebiegu g(t) na wejściu została całkowicie zniwelowana przez filtr dopasowany. A zatem oceniając zdolność odbiornika z filtrem dopasowanym do zwalczania addytywnego gaussowskiego szumu białego stwierdzamy, że wszystkie sygnały o tej samej energii mają tę samą efektywość. Zanotujmy, że energię sygnału E podaje się w dżulach, a gęstość energii widmowej N J 2 wyraża się w watach na herc, tak więc stosunek 2E/N0jest bezwymiarowy; pomimo to każda z tych wielkości ma odmienne znaczenie fizyczne. Odnosimy się do E/ N0 jako stosunku widmowego gęstości energii sygnału do szumu.
Przykład 1 Filtr dopasowany do impulsu prostokątnego Rozważmy sygnał g{t) w postaci impulsu prostokątnego o amplitudzie A i czasie trwania T, pokazany na rys. 7.2a. W przykładzie tym odpowiedź impulsowa h(t) filtru dopasowanego ma dokładnie ten sam kształt, co i sygnał. Sygnał wyjściowy g0(t) wytworzony przez filtr dopasowany w odpowiedzi na sygnał wejściowy g(t) ma kształt trójkątny, pokazany na rys. 7.2b. Maksymalna wartość sygnału wyjściowego g0(t) równa jest kA2T, czyli równa jest energii sygnału wejściowego g(t) przeskalowanej przez czynnik k; ta maksymalna wartość przypada w chwili t = T zgodnie z rys. 7.2b.
412
7.
Impuls prostokątny
Układ całkujący
TRANSMISJA W PAŚMIE PODSTAWOWYM
Próbkowanie w chwili t= T
Rys. 7.3 Układ całkujący z próbkowaniem
W specjalnym przypadku, gdy impuls jest prostokątny, filtr dopasowany może zostać zrealizowany za pomocą układu znanego jako układ całkująco-próbkujący, którego schemat blokowy podano na rys. 7.3. Integrator oblicza pole impulsu prostokątnego, a powstający sygnał wyjściowy podlega następnie próbkowaniu w chwili t = T, przy czym T jest czasem trwania impulsu. Natychmiast po czasie t = T integrator powraca do warunków początkowych; stąd wynika też nazwa obwodu. Na rysunku 7.2c przedstawiono kształt przebiegu wyjściowego układu całkująco-próbkującego dla przypadku impulsu prostokątnego z rys. 7.2a. Widzimy, że dla 0 < f < Twyjście tego obwodu ma kształt przebiegu identyczny jak ten, który pojawia się na wyjściu filtru dopasowanego.
7.3. Stopa błędu związana z szumem W punkcie 6.9 przedstawiliśmy jakościową dyskusję wpływu szumu na działanie za kłóconego binarnego systemu PCM. Teraz, gdy mamy do dyspozycji filtr dopasowany jako optymalny detektor znanego impulsu, z addytywnym szumem białym, jesteśmy już przygotowani do wyprowadzenia wzoru podającego stopę błędu spowodowaną przez szum w takim systemie. W celu kontynuowania analizy, rozważmy system binarny PCM praujący w kodzie bez powrotu do zera (NRZ). W kodzie tym symbole 1 i 0 reprezentowane są przez dodatnie i ujemne impulsy prostokątne o równej amplitudzie i jednakowym czasie trwania. Model szumu zakłada addytywny gaussowski szum biały w(t), o zerowej średniej i o gęstości widmowej mocy N J 2; założenie o gaussowskim charakterze szumu będzie potrzebne w dalszych obliczeniach. W przedziale czasu 0 < t < Tb sygnał odbierany może być zatem zapisany w postaci: + A + w(t), - z l + w(f).
gdy wysłano symbol 1 gdy wysłano symbol 0
(7.21)
gdzie Tb— czas trwania bitu, natomiast A — amplituda transmitowanego impulsu. Zakłada się, że w odbiorniku jest informacja o czasach początku i końca każdego przesyłanego impulsu; innymi słowy, odbiornik z wyprzedzeniem wie, jaki jest kształt impulsu, nie ma jednak danych na temat polaryzacji impulsu. Przy zadanym zaszumionym sygnale x(t) od odbiornika wymaga się, aby w każdym przedziale sygnałowym podejmował decyzję, czy nadanym sygnałem było 1 czy 0. Struktura odbiornika stosowana do podejmowania tego procesu decyzyjnego przedstawiona jest na rys. 7.4. W jej skład wchodzą filtr dopasowany z dołączonym układem próbkującym, a następnie urządzenie decyzyjne. Filtr dopasowano do impulsów prostokąt nych o amplitudzie A i czasie trwania Tb, wykorzystując informację o synchronizacji bitów, dostępną dla odbiornika. Otrzymane w wyniku wyjście filtru dopasowanego próbkowane jest po zakończeniu każdego okresu sygnałowego. Obecność szumu w(f) powoduje dodanie przypadkowości do sygnału wyjściowego filtru dopasowanego. Niech y oznacza wartość próbki otrzymaną pod koniec każdego okresu syg nałowego. Wartość próbki y porównywana jest z nastawnym progiem X w urządzeniu
413
7.3. STOPA BŁĘDU ZWIĄZANA Z SZUMEM
1 jeśli
j >
Ojeśli
j
<
A. X
Rys. 7.4. Odbiornik dla odbioru transmisji w paśmie podstawowym fali binarnej PCM stosującej kodowanie NRZ
decyzyjnym. Jeśli próg został przekroczony, odbiornik podejmuje decyzję na korzyść symbo lu 1;jeśli nie, zapada decyzja odnośnie symbolu 0. Zaadoptowano przy tym konwencję, że gdy wartość próbki y dokładnie równa się wysokości progu A, to odbiornik po prostu zgaduje, który symbol został przesłany; podjęta decyzja jest taka sama, jak przy rzucie monety prawidłowej, w wyniku którego nie zostanie naruszone średnie prawdopodobieństwo błędu. Należy wziąć pod uwagę dwa możliwe rodzaje błędów: 1. Symbol 1 został wybrany, podczas gdy w rzeczywistości nadano 0; błąd ten nazywamy błędem pierwszego rodzaju. 2. Symbol 0 został wybrany, podczas gdy faktycznie wysłano 1; błąd ten nazywamy błędem drugiego rodzaju. W celu wyznaczenia średniego prawdopodobieństwa błędu, rozważmy te dwie sytuacje oddzielnie. Przypuśćmy, że wysłano symbol 0. Wtedy, zgodnie z równaniem (7.21) sygnał odbierany jest równy: (7.22)
x(t) = - A + w(0,
Wyjście z filtru dopasowanego, próbkowane w czasie t = Tb, wynosi odpowiednio (jeśli założyć w świetle przykładu 1, że kATbjest równe jedności w celu uproszczenia prezentacji):
t,
i
t„
y = j x(t)dt = —A + — J w(t)dt (7.23) Tb o o co reprezentuje wartość próbki zmiennej losowej Y. W związku z tym, że szum w(t) jest biały i gaussowski, możemy scharakteryzować zmienną losową Y w następujący sposób: • Zmienna losowa Y jest gaussowską zmienną losową o średniej wartości równej —A. • Wariancja zmiennej losowej Yjest równa: (r? = £ [ ( y + ^ ) 2] = w(f)w(u)dtdu j ‘J'k = f Elw{t)w{uj]dtdu = 1 b
(7.24)
0 0
gdzie i?w(f, u) jest funkcją autokorelacji szumu białego w(/). Ponieważ szum w(t) jest biały z gęstością widmową N 0/2, więc mamy: (7.25) gdzie <5(t—u) — przesunięta w czasie funkcja delta Diraca. Stąd, po podstawieniu rów nania (7.25) do (7.24) dostajemy:
414
7.
^ =
\ T>T>N
r\i
1 b OO 1
łlb
TRANSMISJA W PASMIE PODSTAWOWYM
(7.26)
Funkcja gęstości prawdopodobieństwa zmiennej losowej Y pod warunkiem, że wysłano symbol 0, jest równa: i
exp /Tb
(y + A ^ \ N 0/Tb )
(7.27)
Funkcję tę pokazano na wykresie z rys. 7.5a. Niech Pe0 oznacza warunkowe prawdopodobień stwo błędu pod warunkiem, że wysłano symbol zero. Prawdopodobieństwo to zdefiniowane jest przez zacieniowane pole pod krzywą / y(y|0) rozciągające się od progu A do nieskończoności; odpowiada ono zakresowi wartości założonych dla y o ile decyzja zapada na korzyść symbolu 1. Przy nieobecności szumu, wyjście filtru dopasowanego y próbkowane w czasie t = Tb jest równe —A. Gdy szum jest obecny, y przyjmuje od czasu do czasu wartość większą od A, i w tym przypadku powstaje błąd. Prawdopodobieństwo tego błędu, warunkowane względem okoliczności wysyłania symbolu 0, zdefiniowane jest wzorem: CO
= P(y>A|wysłano symbol 0) =
f / y(y|0)dy = (7.28)
Jeśli chcemy posunąć się dalej, będziemy potrzebowali przyporządkować od powiednią wartość dla progu A. Przyporządkowanie takie wymaga znajomości praw dopodobieństw a priori symboli binarnych 0 i 1, oznaczonych odpowiednio przez p0 i pv Oczywiste jest, że zawsze musi zachodzić: (7.29)
Po+Pi = 1
Rys. 75 Analiza wpływu szumu kanału na system PCM; a) funkcja gęstości prawdopodobieństwa zmiennej losowej Y na wyjściu filtru dopasowanego, gdy transmitowany jest symbol 0, b) funkcja gęstości prawdopodobieństwa, gdy transmitowany jest symbol 1
415
7.3. STOPA BŁĘDU ZWIĄZANA Z SZUMEM
W tym, co dalej nastąpi założymy, że symbole 0 i 1 pojawiają się z równym prawdopodo bieństwem, a więc w tym przypadku mamy: Po = Pi = 4-
(7-30)
Co więcej, gdy szum jest nieobecny, możemy zanotować przyjęcie przez wartość próbkowaną z wyjścia filtru dopasowanego wartości ~ A, gdy wysłano symbol 0 i wartości +A gdy wysłano symbol 1. Tak więc, w świetle równania (7.30) racjonalne będzie ustalić próg w połowie między tymi dwiema wartościami, czyli: A= 0
(7.31)
Odpowiednio do tego, równanie (7.28) na warunkowe prawdopodobieństwo błędu pierw szego rodzaju przyjmie postać: oo 1 ( (y+A)2\ (7.32) J exp V 0 N
J
T
b
)
Zdefiniujmy teraz nową zmienną: _
y +A
(7.33)
z~ która pomoże zmienić nam formułę równania (7.32) do: Peo =
7— V*
J
exp( —z2)dz
(7.34)
gdzie Eh — energia transmitowanego sygnału na jeden bit, zdefiniowana wzorem: Eb = A 2Tb
(7.35)
W tym punkcie staje się dla nas wygodne wprowadzić definicję tak zwanej komplementarnej funkcji błędu: O
co
erfc(u) = —-= | exp( —z2)dz Vn “
(7.36)
Zgodnie z dyskusją w dodatku 7, komplementarna funkcja błędu jest ściśle związana z rozkładem Gaussa. Można więc w końcu przekształcić prawdopodobieństwo warunkowe błędu PeQza pomocą komplementarnej funkcji błędu w następujący sposób:
Założymy następnie, że wysłano symbol 1. W takim przypadku gaussowska zmienna losowa Treprezentowana przez wartość próbki y z wyjścia filtru dopasowanego ma średnią +A i wariancję N 0/2Tb. Zauważmy też, że w porównaniu do sytuacji, gdy wysłano symbol 0, średnia zmiennej losowej Yulegała zmianie, jednak wariancja jest dokładnie taka sama jak poprzednio. Warunkowa funkcja Y gęstości prawdopodobieństwa w przypadku, jeżeli wysłano symbol 1, wynosi więc:
416
7.
TRANSMISJA W PAŚMIE PODSTAWOWYM
(y -y t)2\
1
■exP friy |1) = —r s /n N J T b
N JTb )
(7.38)
co wykreślono na rys. 7.5b. Niech Pel oznacza warunkowe prawdopodobieństwo błędu, jeżeli wysłano symbol 1. Prawdopodobieństwo to zdefiniowane jest przez zacieniowane pole pod krzyw ą/y(y| 1) rozciągające się od —co do progu ż, co odpowiada zakresowi wartości przyjętych dla y w przypadku decyzji korzystnej dla symbolu 0. Przy nieobecności szumu, wyjście filtru dopasowanego y próbkowane w czasie t = Tbjest równe 4- A. Gdy pojawia się szum, y sporadycznie przyjmuje wartość mniejszą od X, co stanowi przyczynę pojawienia się błędu. Prawdopodobieństwo tego błędu, warunkowe względem wysłania symbolu 1, zdefiniowane jest przez: Pe\ = P{y
(7.39)
Ustalając wartość progu tak jak uprzednio na X = 0 i podstawiając: y -Ą
= _z
łatwo znajdujemy, że Pel = Pe0. Wynik ten jest oczywiście konsekwencją ustalenia progu pośrodku zakresu —A, + A , co już uprzednio było usprawiedliwione wobec założenia równego prawdopodobieństwa symboli Oi l . Kanał, w którym warunkowe prawdopodo bieństwa Pel i Pe0 są równe nazywany jest binarnie symetrycznym. Dla wyznaczenia średniego prawdopodobieństwa wystąpienia błędu symbolu w odbiorniku zanotujmy, że obydwa możliwe wcześniej rozważone rodzaje błędów są nawzajem wykluczającymi się przypadkami pracy odbiornika, w tym sensie, że jeśli w określonej chwili próbkowania wybierze się symbol 1, wtedy pojawienie się symbolu 0 jest wykluczone i vice versa. Co więcej, Pe0 i Pel są prawdopodobieństwami warunkowymi, z których Pe0 zakłada, że wysłano symbol 0 i Pel zakłada, że wysłano symbol 1. Z tego powodu średnie prawdopodobieństwo przekłamania symbolu Pe w odbiorniku dane jest przez: Pe = PoPeo + PiPei
(7-40)
gdzie p0 i px — prawdopodobieństwa a priori symbolów binarnych odpowiednio O i l . Ponieważ Pel = Pe0 i P0 =
| w zgodności z równaniem (7.30), więc otrzymujemy: Zł
(7.41) Udało się nam w ten sposób pokazać, że średnie prawdopodobieństwo błędu symbolu w binarnie kodowanym odbiorniku PCM zależy jedynie od E JN 0, czyli stosunku transmitowanej energii na bit sygnału do gęstości widmowej szumu.
417
7.4. INTERFERENCJA MIĘDZYSYMBOLOWA
Rys. 7.6 Praw dopodobieństw o błędu w odbiorniku PCM
Do wykreślenia na rys. 7.6 średniego prawdopodobieństwa błędu symbolu Pe w funkcji bezwymiarowego stosunku Eb/N 0 zastosowaliśmy wzór (7.41). Na podstawie rysunku stwierdzamy, że prawdopodobieństwo błędu Pe zmniejsza się bardzo szybko w miarę jak, wzrasta stosunek Eb/N 0, przez co nawet bardzo niewielki przyrost energii nadawanego sygnału może uczynić odbiór impulsów binarnych prawie wolnym od błędów, w analogii do dyskusji przeprowadzonej uprzednio w punkcie 6.9. Zauważmy jednak, że w warunkach praktycznych przyrost energii sygnału powinien być rozpatrywany w kontekś cie porównawczym względem rozpatrywanego poziomu energii; na przykład 3-dB przyrost E JN 0 jest znacznie łatwiejszy do spełnienia przy niewielkim poziomie Eb niż wtedy, gdy powiększymy ten parametr o rząd wielkości.
7 .4 .
In terferen cja m ię d zy s y m b o lo w a
W impulsowych systemach transmisyjnych działających w paśmie podstawowym, na stępną grupę zjawisk powodujących błędy bitów stanowi interferencja międzysymbolowa (ang. ISI — intersymbol interference), pojawiająca się wtedy, gdy mamy do czynienia z dyspersją w kanale. W pierwszym rzędzie jednak musimy sobie zadać kluczowe pytanie: jeśli zadany jest interesujący nas kształt impulsu, jak będziemy wykorzystywać tę infor mację przy transmisji danych w systemie M-wartościowym? Odpowiedź sprowadza się do zastosowania dyskretnej modulacji impulsowej, w której amplituda, czas trwania lub pozycja przesłanych impulsów są zmieniane w dyskretny sposób w zależności od konkretnego strumienia danych. Jednakże w przypadku transmisji danych cyfrowych w paśmie pod stawowym zastosowanie dyskretnej modulacji amplitudy impulsów (PAM) jest najbardziej efektywne z punktu widzenia wykorzystania mocy i pasma. Odpowiednio do tego, ograniczymy naszą uwagę do dyskretnych sytemów PAM. Rozpoczniemy przy tym, rozpatrując najpierw przypadek danych binarnych; w dalszej części rozdziału rozważymy bardziej ogólny przypadek danych M-wartościowych. Rozważmy zatem system transmisji binarnej PAM w ogólnej postaci przedstawionej na rys. 7.7. Nadchodzący ciąg binarny {bk} składa się z symboli 1 i 0, każdy o czasie 27 Systemy telekomunikacyjne cz. 1
gaussowski
impulsy
zegarowe
w ( t )
Nadajnik
Kanał
Rys. 7.7. System transmisji danych binarnych w paśmie podstawowym
Filtr odbiornika c (t)
Próbki w chwilach
Urządzenie decyzyjne
ti = i T b
Próg
Odbiornik
X
1 jeśli y (/, )> X 0 jeśli y (t, )< ^
7.4. INTERFERENCJA M1ĘDZYSYMB0L0WA
419
trwania Tb. Modulator amplitudy impulsów zamienia ten ciąg binarny na nowy ciąg krótkich impulsów (przybliżających impuls delta), których amplituda ak jest w postaci: jeśli symbol bk jest 1 jeśli symbol bk jest 0
(7.42)
Tak wytworzony ciąg krótkich impulsów przyłożony jest do filtru nadajnika o odpowiedzi impulsowej g(t), wytwarzającego sygnał wyjściowy o postaci: s(t) = Y .ak9(t~kTb) (7.43) k Sygnał s(t) jest następnie modyfikowany w wyniku transmisji przez kanał o od powiedzi impulsowej h(t). Dodatkowo w kanale następuje sumowanie sygnału wejściowego odbiornika i przypadkowego szumu. Zaszumiony sygnał x{t) jest następnie przesyłany przez filtr odbiornika o odpowiedzi impulsowej c(t). Sygnał wyjściowy filtru próbkowany jest synchronicznie względem nadajnika, przy czym chwile pobierania próbek określane są przez sygnały zegarowe lub sygnały synchronizacji, zazwyczaj odtwarzane na podstawie przebiegów z wyjścia filtru odbiornika. W końcu tak wytworzony ciąg próbek zostaje użyty przez urządzenie decyzyjne w celu odtworzenia sygnału oryginalnego. W szczególności amplituda każdej z próbek porównywana jest do progu. Jeżeli próg k został przekroczony, decyzja dokonywana jest na korzyść symbolu 1. Jeśli próg k nie został przekroczony, decyzja dokonywana jest na korzyść symbolu 0. Jeżeli amplituda próbki dokładnie równa się wartości progu, rzut monety prawidłowej określa, który z symboli został nadany (tzn. odbiornik odgaduje wynik). Wyjście filtru odbiornika zapisujemy jako: y(0 = y- z akP(t - k T b) + n(t) (7.44) Jk gdzie p — czynnik skalujący, natomiast impuls p(t) powinien być zdefiniowany. Argumen towi impulsu p(t—kTb) należy nadać dodatkowe opóźnienie t0, aby równanie (7.44) uwzględniało efekt opóźnienia transmisji sygnału przez system. Ze względu na uproszczenie zapisu, w równaniu (7.44) opóźnienie to zostało pominięte, co nie narusza ogólności tego równania. Skalowany impuls pp{t) otrzymywany jest przez podwójny splot, w skład którego wchodzą odpowiedź impulsowa g(t) filtru nadajnika, odpowiedź impulsowa h(t) kanału i odpowiedź impulsowa c(f) filtru odbiornika, co zapisuje się w postaci: HP(t) = g(t) * h{t) * c(f)
(7.45)
gdzie gwiazdka oznacza operacje splotu. Zakładamy, że impuls p(r) jest znormalizowany gdy przyjmiemy: p(0) = 1
(7.46)
co usprawiedliwia użycie czynnika p jako czynnika skalującego, który reprezentuje zmiany amplitud zdarzające się w trakcie transmisji poprzez system. Ponieważ splot w dziedzinie czasu transformuje się na iloczyn w dziedzinie częstotliwości możemy użyć transformaty Fouriera, aby zmienić równanie (7.45) do równoważnej postaci: pP(f) = G ( f ) H ( f ) C ( f )
(7.47)
gdzie: P(f), G(f), H ( f ) i C(f ) oznaczają odpowiednio transformaty Fouriera p(t), g{t), h(t) i c(t). 27*
420
7.
TRANSMISJA W PAŚMIE PODSTAWOWYM
Na koniec, człon «(t) w równaniu (7.44), reprezentuje szum wytworzony na wyjściu filtru odbiornika, spowodowany przez addytywny szum w(r) na wejściu odbiornika. Zazwyczaj moduluje się szum w(t) jako biały czum gaussowski o zerowej średniej. Sygnał wyjściowy y(f) filtru odbiornika jest próbkowany w chwilach t, = iTb, (przy czym i przyjmuje wartości całkowite), co można zapisać [w świetle równania (7.46)]: y ( f i)
=
P
Z k=
a kP
[(»-*) Tp] 4- n(t,) = pat + p £ k= -
~ OD
akp [(i - k) T&] + n(tj
(7.48)
00
k*i
W równaniu (7.48) pierwszy człon /«*,. reprezentuje wkład i-tego transmitowanego bitu. Drugi człon reprezentuje efekt szczątkowy wszystkich pozostałych bitów podczas dekodowania i-tego bitu; ten szczątkowy efekt związany z występowaniem impulsów poprzedzających i następujących po chwili próbkowania t, nazywany jest interferencją międzysymbolową (ISI). Ostatni człon n(tt) reprezentuje próbkę szumu dla czasu t,. Przy braku zarówno ISI jak i szumu, możemy na podstawie równania (7.48) napisać: y (fi) = Pai co wskazuje, że w takich idealnych warunkach i-ty przesyłany bit dekodowany jest poprawnie. Obecność ISI i szumu jest jednak nieunikniona, przez co błędy wprowadzane są do jednostki decyzyjnej na wyjściu odbiornika. Dlatego przy projektowaniu filtrów nadajnika i odbiornika minimalizuje się wpływ szumu i ISI, a przez to umożliwia dostarczenie danych cyfrowych do miejsca ich przeznaczenia z najmniejszą możliwą stopą błędu. W takich systemach jak na przykład w telefonii, gdzie stosunek sygnału do szumu jest duży, działanie systemu ograniczone jest w przeważającym stopniu raczej przez ISI, niż przez szum; innymi słowy możliwe jest pominięcie czynnika n(t,). W paru następnych punktach założymy, że podany warunek jest spełniony, czyli że możliwe jest skoncentrowanie uwagi na ISI i technikach jej kontrolowania. W szczególności będziemy poszukiwali takiego kształtu impulsu p{t), dla którego ISI może zostać kompletnie wyeliminowana.
7.5. Kryterium Nyquista dla niezniekształconej transmisji binarnej w paśmie podstawowym Transmitancja kanału i kształt przesyłanego impulsu są zazwyczaj znane, w związku z czym nasz problem do rozwiązania polega na wyznaczeniu transmitancji filtrów nadajnika i odbiornika tak, aby umożliwić zrekonstruowanie oryginalnego binarnego ciągu danych {bk}. Odbiornik dokonuje tego przez wybieranie a następnie dekodowanie odpowiednich ciągów współczynników {ak} z wyjścia y(t). Wybieranie to polega na próbkowaniu wyjścia y(t) w chwilach t = iTb. Dekodowanie wymaga, aby ważony składnik impulsowy akp(iTb—kTb) dla k = i był wolny od ISI spowodowanego przez zachodzenie na siebie „ogonów” wszystkich innych ważonych składników pochodzących od impulsów, dla których k ^ j. Wymaganie to z kolei prowadzi do konieczności kontroli całkowitego kształtu impulsu p(t), czyli do warunku: i=k i* k
(7.49)
7.5.
KRYTERIUM NYQUISTA DLA NIEZNIEKSZTAŁCONEJ TRANSMISJI
...
421
gdzie p(0) = 1 ze względu na uczynioną normalizację. Jeśli p(t) spełnia warunek z równania (7.49), to wyjście odbiornika y(tf) dane równaniem (7.48) upraszcza się (po zaniedbaniu członu szumowego) do: y(t;) = pa,
dal wszystkich i
co implikuje zerowy wpływ interferencji międzysymbolowej. Stąd warunek z równania (7.49) zapewnia idealny odbiór przy nieobecności szumu, Z punktu widzenia projektowania, warto przetransformować warunek (7.49) w dziedzinę częstotliwości. Rozważmy ciąg próbek (p(n7j,)}, przy czym n = 0, ±1, ±2, ... Z dyskusji przeprowadzonej w rozdziale 6 na temat procesu próbkowania przypominamy sobie, że próbkowanie w dziedzinie czasu wprowadza okresowość w dziedzinie częstotliwo ści. W szczególności możemy napisać: 00
P j(/) =
R It
P ( f - n R t)
(7.50)
k = - oo
gdzie: Rb = 1/7], — szybkość bitowa, mierzona w bitach na sekundę (b/s); Pd( f ) — transfor mata Fouriera nieskończonego ciągu okresowego o okresie Tb funkcji delta, których pola są ważone przez odpowiednie wartości próbek p{t). Oznacza to, że P6( f ) może być zapisana w postaci: />,(/) = f
I
0(»iT6) 3 ( t- m r k)]ex p (-j2 > t/i)d t
(7.51)
—oc m — — co
Niech liczba całkowita m = i —k. Wtedy i = k odpowiada m = 0 i ponadto i ^ k odpowiada m # 0. Stosownie do tego nadładając warunek z równania (7.49) na wartości próbek p(t) w całce z równania (7.51) dostajemy: P9( f ) = j p(0)<5(f)exp(-j2it/t)dr = p(0)
(7.52)
- co
przy czym posłużyliśmy się tutaj właściwością filtracji funkcji delta. Ponieważ w równaniu (7.46) mamy p(0) = 1, to z równań (7.50) i (7.52) wynika warunek sprowadzenia interferencji międzysymbolowej do zera X
P ( f —nRb) — T,
(7.53)
n = —oc
Możemy teraz sformułować kryterium Nyquistay) dla niezniekształconej transmisji w paśmie podstawowym przy nieobecności szumu: Funkcja częstotliwości P(f) eliminuje interferencję międzysymbolową dla próbek branych w odstępach czasu Tb pod warunkiem, że funkcja ta spełnia równanie (7.53). Zauważmy, że P( f ) odnosi się do systemu jako całości, włącznie z filtrem nadajnika, kanałem i filtrem odbiornika w zgodności z równa niem (7.47).
Idealny kanał Nyquista Najprostsza droga do spełnienia równania (7.53) prowadzi przez określenie funkcji częstot liwości P ( f ) jako funkcji prostokątnej, a mianowicie:
422
7.
TRANSMISJA W PAŚMIE PODSTAWOWYM
-W < f< W \f\>W
(7.54)
przy czym całkowite pasmo W systemu definiuje się jako: (7.55) Stosownie do rozwiązania opisanego równaniami (7.54) i (7.55), nie potrzebne są żadne częstotliwości przekraczające co do modułu połowę częstotliwości bitowej. Wynika stąd, że jedną z możliwości uzyskania kształtu sygnału, który zapewniałby zerową interferencję międzysymbolową, byłoby zdefiniowanie sygnału w postaci funkcji sine: sin (2 TtWt) 2 TCWt
sine (2 Wt)
(7.56)
Szybkość bitowa o wartości Rb = 2 IFjest nazywana szybkością Nyquista, podczas gdy W nazywane jest pasmem Nyquista. Odpowiednio nazwa idealny kanał Nyquista będzie opisywać impulsowy system transmisji w paśmie podstawowym opisany albo w dziedzinie częstotliwości przez równanie (7.54), albo w dziedzinie czasie przez równanie (7.56). Na rysunku 7.8a i 7.8b pokazano wykresy odpowiednio P ( /) i p(t). Na rysunku 7.8a pokazano dla dodatnich i ujemnych częstotliwości wykres znormalizowanej funkcji częstot liwości P(f). Na rysunku 7.8b dodano również okresy próbkowania i odpowiadające środkom okresów chwile próbkowania. Funkcja p(t) może być uważana za odpowiedź impulsową idealnego filtru dolnoprzepustowego o charakterystyce amplitudowej w paśmie przepustowym równej 1/2 W i paśmie W. Funkcja p(r) ma wartość maksymalną w początku układu i przechodzi przez wartości równe zeru przy całkowitych wielokrotnościach czasu trwania bitu Tb. Jest oczywiste, że jeśli odbierany kształt fali y(t) próbkowany jest w chwilach t = 0, ± T b, ± 2T b, ..., to wówczas impulsy zefiniowane jako pp(t —iTb) o dowolnych amplitudach p i indeksach i = 0, ±1, +2, ..., nie będą przejawiać wzajemnej interferencji. Warunek ten, dla przypadku ciągu bitów 1011010 zilustrowano na rys. 7.9. Pomimo tego, że idealny kanał Nyquista faktycznie zapewnia ekonomiczność pasma w tym sensie, że rozwiązuje problem zerowej interferencji międzysymbolowej przy minimalnym możliwym paśmie, to jednak pojawiają się dwie praktyczne przeszkody, które kwalifikują ten kanał jako trudny i niepożądany obiekt przy projektowaniu systemu: 1. Kanał taki wymaga charakterystyki amplitudowej P ( f ) płaskiej od —W do + W i zero wej poza tym zakresem. Charakterystyka taka nie jest realizowana fizycznie z powodu nieciągłości na krańcach pasma ± W. 2. Funkcja p{t) opada jak l/|t| dla dużych |t|, co oznacza małe nachylenie spadku. Również i ten fakt spowodowany jest nieciągłością P ( f ) dla ± W. Skutkiem tego praktycznie nie istnieje margines błędów w chwilach próbkowania w odbiorniku. Dla oceny wpływu omawianych błędów taktowania rozważmy próbkę z y{t) dla t = At, przy czym At jest błędem taktowania. W celu uproszczenia rozważań, możemy określić prawidłowy czas próbkowania t( jako równy zeru. Przy nieobecności szumów jest więc:
7.5.
KRYTERIUM NYQUISTA DLA NIEZNIEKSZTAŁCONEJ TRANSMISJI
w
v_______________
i
...
423
Rb 2
J
Momenty próbkowania
I I v— ______________ n
I
I
/
Przedziały bitowe
^
sin[2n W(At —kTb)~\
Rys. 7.8 a) Idealna charakterystyka amplitudowa, b) idealny kształt impulsu podstawowego
(7.57)
Ponieważ z definicji 2 WTj, = 1, możliwe staje się przepisanie równania (7.57) w postaci: ... y{At) =
. sine (2
, /tsin(2rtWAt) ^ ( - l ) kak r) + — £ tt * (2WAt —k) k^O
(7.58)
Pierwszy człon po prawej stronie równania (7.58) definiuje pożądany symbol, podczas gdy pozostałe składniki szeregu reprezentują interferencję międzysymbolową spowodowaną przez błędy taktowania At przy próbkowaniu wyjścia y(r). Niestety, omawiany szereg może okazać się rozbieżny co prowadzi do błędnych decyzji odbiornika.
424
7.
Ciąg binarny
i
o
i
i
TRANSMISJA W PAŚMIE PODSTAWOWYM o
i
0
Rys. 7S. Seria impulsów sine odpowiadająca ciągowi 1011010
W idmo cosinusoidaine Możliwe jest przezwyciężenie praktycznych trudności napotykanych w idealnym kanale Nyquista przez rozszerzenie pasma od minimalnej wartości W = RJ2 do wartości regulowa nej w przedziale od W i 2W Poszukamy takiej funkcji częstotliwości P (f) by spełniała warunek bardziej skomplikowany niż ten związany z idealnym kanałem Nyquista; za chowamy mianowicie trzy człony z równania (7.53) ograniczymy pasmo interesujących nas częstotliwości do [ —W, W], zgodnie z podaną zależnością: 1 P(f)+P(f-2W)+P(f+2W) = 2W'
-W śfś W
(7.59)
Możliwe jest wynalezienie kilku funkcji o ograniczonym paśmie, które spełniają równanie (7.59). Szczególną postacią funkcji P(f), która ma wiele pożądanych cech, jest widmo cosinusoidaine. Charakterystyka częstotliwości, o której mowa, składa się z płaskiej części i części opadającej opisanej funkcją sinusoidalną jak następuje:
o « l/l
2 W—2/j Jj*
f i < l/l < 2 W - f ,
(7.60)
l/l > 2 W - f x Parametr częstotliwościowy f x i pasmo W powiązane ze sobą w następujący sposób: (7.61)
7.5.
425
KRYTERIUM NYQUISTA DLA NIEZNIEKSZTAŁCON EJ TRANSMISJI
2
2
2
2
t
Rys. 7.10. Odpowiedzi przy różnych indeksach spadku zbocza: a) charakterystyka częstotliwościowa, b) odpowiedź czasowa
gdzie parametr a nazywany jest indeksem spadku; wskazuje on ile jest nadmiaru pasma w porównaniu do rozwiązania idealnego. Ściślej, pasmo transmisji BT określone jest zależnością 2W—f 1 = H^l+a). Charakterystyka częstotliwościowa P(f), znormalizowana przez pomnożenie przez 2 W, pokazana jest na wykresie z rys. 7.10a dla trzech wartości a, a mianowicie 0; 0,5; 1. Widzimy, że dla a = 0,5 lub 1 funkcja P(J) maleje stopniowo w porównaniu do idealnego kanału Nyquista (tzn. a = 0) i dlatego jest łatwiejsza do praktycznej realizacji. Funkcja P(f)
426
7.
TRANSMISJA W PAŚMIE PODSTAWOWYM
wykazuje również nieparzystą symetrię względem pasma Nyquista W, czyniąc w ten sposób możliwe spełnienie warunku z równania (7.59). Odpowiedź czasowa p(f) jest odwrotną transformatą Fouriera funkcji P{f). Stosując więc P{f) zdefiniowane w równaniu (7.60) otrzymujemy w wyniku (por. zadanie 7.9): cos(2naWt \ p(t) = (sinc(2 Wt)) l - 1 6 a 2W2t2)
(7.62)
co przedstawiono na wykresie z rys. 7.1 Ob dla a = 0; 0,5 i 1. Funkcja p(t) jest iloczynem dwu czynników: czynnika sinc(21M) charaktery zującego idealny kanał Nyquista i drugiego czynnika, który opada jak l/|f|2 dla dużych |f|. Pierwszy z tych czynników zapewnia przejścia p(t) przez zero w pożądanych chwilach próbkowania równych t = iT przy czym i jest liczbą całkowitą (dodatnią lub ujemną). Drugi z czynników zmniejsza rozciągnięte w czasie zbocza impulsów do poziomu znacznie poniżej poziomu otrzymywanego w idealnym kanale Nyquista i to w taki sposób, by transmisja fal binarnych za pomocą takich impulsów była względnie niezależna od błędów czasu próbkowania. Realnie biorąc, dla przypadku a = 1 mamy najmniejsze nachylenie zbocza, przy którym amplitudy oscylacji p{t) są najmniejsze. Tak więc stopień interferencji międzysymbolowej wynikającej z błędów taktowania zmniejsza się w miarę jak indeks spadku a rośnie od zera do jedności. Szczególny przypadek, gdy a = 1 (tzn./j = 0) znany jest pod nazwą charakterystyki o spadku zbocza z pełnym cosinusem, dla której charakterystyka częstotliwościowa z równania (7.60) upraszcza się do postaci: 0 < |/ | < 2 W l/l > 2 W Odpowiednio do tego, odpowiedź czasowa upraszcza się do postaci: sinc(4Wf) = 1—16iy2f2
(7.63)
(7.64)
Odpowiedź ta ma dwie interesujące właściwości: 1. Dla t = ± TJ2 = ±1/4 W mamy p(t) = 0,5; oznacza to, że szerokość impulsu mierzona w połowie wysokości jest dokładnie równa czasowi trwania bitu Tb. 2. Istnieją przejścia przez zero dla r = ±2T J2,, + 5T J2,..., które pojawiają się oprócz zwykłych przejść przez zero występujących dla czasów t = ± T b, ± 2Tb, ... Obydwie te właściwości są niezwykle użyteczne w przypadku wybierania sygnałów taktujących z sygnału odbieranego i używania ich następnie dla celów synchronizacji. Jednakże cena, jaką za to płacimy, polega na podwojeniu pasma kanału w porównaniu do idealnego kanału Nyquista opisanego dla przypadku a = 0.
Przykład 2 Wymagania pasmowe w systemie Tl W przykładzie 3 z rozdziału 6 opisaliśmy format sygnału w systemie nośnym T l, opartym na 8-bitowym słowie PCM i przeznaczony dla zwielokrotniania 24 niezależnych sygnałów mowy. Pokazaliśmy, że czas trwania bitu otrzymywanego w tym systemie sygnału zwielokrotnionego z podziałem czasowym (włączając w to bit ramki) wynosi: Tb = 0,647 ps
7.6.
KODOWANIE O POZIOMACH SKORELOWANYCH
427
Zakładając, że używamy idealnego kanału Nyquista, otrzymujemy minimalne pasmo transmisji B T systemu T l (dla a = 0): B t = W = —- = 772 kHz 2T„ Bardziej jednak realna wartość koniecznego pasma transmisji wynika z zastosowania charakterystyki o zboczu z pełnym cosinusem i a = 1. W takim przypadku dostajemy wynik: B t = W( 1 + ol) = 2W — — = 1,544 MHz Th Zainteresowanie nasze wzbudzić może porównanie wymagań pasmowych trans misji w systemie T l z wymaganiami odnośnie minimalnego pasma w równoważnym systemie ze zwielokrotnieniem z podziałem częstotliwościowym (FDM). Na podstawie rozdziału 3 przypominamy sobie, że ze wszystkich technik modulacji CW użycie modulacji jednowstęgowej (SSB) stawia najniższe z możliwych wymagań względem pasma. Przystosowując więc system FDM z modulacją SSB do transmisji 24 niezależnych źródeł mowy, przy założeniu pasma 4 kHz na każde źródło mowy, kanał musi zapewnić następujące pasmo transmisji: B t —24 x 4 = 96 kHz Jest to więcej niż o rząd wielkości mniej niż minimalne zapotrzebowanie na pasmo w sy stemie Tl.
7.6. Kodowanie o poziomach skorelowanych Dotychczas traktowaliśmy interferencję międzysymbolową jako zjawisko niepożądane, które powoduje pogorszenie funkcjonalnych charakterystyk systemu. Już sama nazwa interferencja zapowiada zjawisko szkodliwe. Mimo to, dodając w kontrolowany sposób interferencję międzysymbolową do sygnału przesyłanego, możliwe jest uzyskanie szybkości symbolowej równej 2 W symboli na sekundę, czyli szybkości Nyquista, w kanale o paśmie W herców. Układy tego rodzaju noszą nazwę układów kodowania z korelacją poziomów lub układów z odpowiedzią cząstkową4). Projektowanie takich układów oparte jest na na stępującej przesłance: ponieważ znana jest interferencja międzysymbolową wprowadzona do przesyłanego sygnału, więc jej wpływ może być interpretowany w odbiorniku jako wynik deterministyczny. W ten sposób kodowanie z poziomami skorelowanymi może być rozpatrywane jako jedna z praktycznych metod osiągnięcia maksymalnej teoretycznej szybkości 2W symboli na sekundę w paśmie W herców, jak postulował już Nyquist, proponując stosowanie realizowanych filtrów odpornych na zakłócenia.
Kodowanie duobinarne Podstawowe koncepcje kodowania z korelowaniem poziomów mogą zostać teraz zilust rowane na przykładzie kodowania duobinarnego, przy czym przedimek „duo” odnosi się do podwojenia przepustowości transmisji prostego systemu binarnego. Ta szczególna postać kodowania z korelacją poziomów jest również nazywana odpowiedzią częściową I rodzaju. Rozważmy wejściowy ciąg binarny {bk} składający się z nieskorelowanych symboli binarnych 1 i 0, każdy o czasie trwania Tb. Podobnie jak poprzednio, ciąg ten jest podawany
428
7.
TRANSMISJA W PAŚMIE PODSTAWOWYM
Dwupoziomowy ciąg wejściowy
Ciąg wyjściowy
{o«} -----» ~
Próbka w chwili f= kTb
{c*}
Filtr Rys. 7.11. Schemat kodowania duobinamego
na wejście modulatora amplitudy impulsów wytwarzającego dwupoziomowy ciąg krótkich impulsów (przybliżających impuls jednostkowy), których amplituda ak dana jest wzorem: +1 —1
jeśli symbol bk jest 1 jeśli symbol bk jest 0
(7.65)
Gdy ciąg taki przychodzi na wejście kodera duobinarnego, zostaje on przetworzony na trójpoziomowy sygnał wyjściowy, z poziomami —2, 0, +2. By zrealizować taką transformację, możemy zastosować układ pokazany na rys. 7.11. Dwupoziomowy ciąg {ak} zostaje najpierw przepuszczony przez prosty filtr z pojedynczym elementem opóźniającym i sumatorem. Dla każdego jednostkowego impulsu podanego na wejście filtru dostajemy dwa jednostkowe impulsy odległe w czasie o Tb sekund na wyjściu filtru. Możemy zatem wyrazić wyjście ck kodera duobinarnego jako sumę aktualnego impulsu wejściowego ak i jego poprzedniej wartości ak_ k, czyli = ak +
-1
(7.66)
Jednym ze skutków transformacji opisanej przez równanie (7.66) jest przemiana ciągu wejściowego {a*} z nieskorelowanych dwupoziomowych impulsów na ciąg {cfc} skorelowa nych impulsów trój poziomowych. Ta korelacja pomiędzy sąsiednimi impulsami, może być rozpatrywana jako interferencja międzysymbolowa sztucznie wprowadzana do nadawanego sygnału. Oczywiście tak wprowadzona interferencja międzysymbolowa jest pod kontrolą projektanta, co jest podstawą kodowania korelacyjnego. Idealny element opóźniający o czasie opóźnienia Tb sekund ma transmitancję exP (~ }2nfT b\ tak że transmitancja prostego filtru z linią opóźniającą z rys. 7.11 wynosi 1 +exp(—}2nfTb). Po kaskadowym połączeniu tego filtru z idealnym kanałem Nyquista dostaje się zatem całkowitą transmitancję w postaci:
= ^Nyquist(/) [exp(jn/7;) + exp (—j^/^b)] exp( —jnfTb) =
(7.67)
= 2/fNyquist(/)cos(7t/Tł,)exp(-j7r/Tt,) gdzie: indeks / w Hj(Jj — oznacza odnośną klasę odpowiedzi częściowych. Dla idealnego kanału Nyquista o paśmie W= 1/27], mamy (przy zaniedbaniu czynnika skalującego Tb) N y q u is t
l/l < 1/ 27; w innych przypadkach
(7.68)
7.6.
429
KODOWANIE O POZIOMACH SKORELOWANYCH
_L 2Tb
o
_L 27*
b
Rys. 7.12 Charakterystyka częstotliwościowa filtru z konwersją duobinamą; a) charakterystyka amplitudowa, b) charakterystyka fazowa
W ten sposób łączna charakterystyka częstotliwościowa układu kodowania duobinamego ma postać połówki funkcji cosinus, czyli: Hiif)
2cos(7t/Tłl)exp( —]nfTb), 0,
l/l < 1/2 Tb w innych przypadkach
(7.69)
gdzie charakterystyka amplitudowa i charakterystyka fazowa mają postać jak na rys. 7.12a i 7.12b. Zaletą takiej charakterystyki częstotliwościowej jest łatwość jej aproksymowania w praktyce, co spowodowane jest ciągłością tej charakterystyki na krańcach pasma. Na podstawie pierwszego wiersza równania (7.67) i definicji tf N).quis,(/) z równania (7.68) stwierdzamy, że odpowiedź impulsowa odpowiadająca transmitancji H ^ f) składa się z dwu impulsów sine Nyquista, przesuniętych w stosunku do siebie w czasie o Tb sekund zgodnie ze wzorem (z dokładnością do czynnika skalującego): sin ( t u / 7;) | sin[7t(r-Tfc)/TJ = sin(7U/rb) nt/Tb n(t —Tb)/Tb ~ nt/Th TbSin(nt/Tb) nt(Tb- t )
sin(7U/7;) n ( t - T b)/Tb
(7.70)
430
7.
TRANSMISJA W PAŚMIE PODSTAWOWYM
A,(r)
Rys. 7.13. Odpowiedź impulsowa dla filtru z kodowaniem duobinamym Odpowiedź impulsową wykreślono na rys. 7.13, z którego wynika, że ma ona tylko dwie rozróżnialne wartości w chwilach próbkowania. Przedstawiona tu postać h^t) stanowi poniekąd wytłumaczenie, dlaczego odnosimy się do takiego typu kodowania korelacyjnego jako do kodowania z odpowiedzią częściową. Odpowiedź na sygnał wejściowy rozciąga się na więcej niż jeden przedział sygnałowy; ujmując to innymi słowy, odpowiedź w jakimkolwiek przedziale sygnałowym jest „częściowa”. Zauważmy też, że zbocze hj(t) opada jak l/|t|2, a więc z nachyleniem spadku od l/|t|, które napotyka się w idealnym kanale Nyquista. Oryginalny ciąg dwupoziomowy {u*} odzyskano na podstawie ciągu {ck}, co wynika z równania (7.66). W szczególności niech ak będzie estymatorem oryginalnego impulsu ak odtwarzanego przez odbiornik w chwili t = kTb. Wtedy odejmując poprzedni estymator ak_ j od ck otrzymujemy: = Ck ~ ók - 1
(7-71)
Jest oczywiste, że jeśli ck będzie odebrane bez błędu a poprzedni estymator ak_ l posłużył w chwili t = (k—l)Tb do prawidłowej decyzji, to również i bieżący estymator ak będzie prawidłowy. Technika wykorzystywania przechowywanego estymatora poprzedniego sym bolu nazywana jest decyzyjnym sprzężeniem zwrotnym. Widzimy więc, że przed chwilą opisana procedura detekcji jest w zasadzie odwróceniem operacji uzyskiwanej w nadajniku za pomocą prostego filtru z linią opóź niającą. Istnieje jednak i poważny mankament takiej procedury detekcji, gdyż wystąpienie jednego błędu powoduje tendencję do jego propagacji przez wyjście. Oczywiście związane jest to z faktem, że decyzja odnośnie bieżącego wejścia ak uzależniona jest od poprawności decyzji poczynionej względem uprzedniego wejścia ak_v Praktyczny sposób uniknięcia zjawiska propagacji polega na użyciu prekodera poprzedzającego koder duobinarny, zgodnie z rysunkiem 7.14. Operacja kodowania wstępnego przeprowadzona na ciągu binarnym {bk} powoduje konwersję tego ciągu na inny ciąg binarny {dk} zdefiniowany przez: dk = bk ® d k_ i
(7.72)
gdzie symbol ® — suma modulo-2 liczb binarnych bk i dk_ r Sumowanie takie jest równoważne dwuwejściowej operacji logicznej ALBOł), którą można zapisać w następujący sposób:
Ang. EXCLUSIVE-OR (przyp. tłum.)
431
7.6. KODOWANIE O POZIOMACH SKORELOWANYCH ejściowy
Wyjściowy ciąg trzypoziomow
{c*}
Prekoder
Rys. 7.14. Schemat przetwornika duobinarnego z prekoderem; szczegółowy schemat kodera duobinarnego podano na rys. 7.11
symbol 1 symbol 0
jeśli albo symbol bk albo symbol w pozostałych przypadkach
jest 1
(7.73)
Zakodowany wstępnie ciąg binarny {dj jest podawany na wejście modulatora amplitudy impulsów dając w odpowiedzi dwupoziomowy ciąg krótkich impulsów ( a j , przy czym, tak jak poprzednio, ak = ±1. Ten ciąg krótkich impulsów przychodzi na wejście kodera duobinarnego w następstwie czego powstaje ciąg { cj, który jest związany z ciągiem { a j następującą zależnością: (7.74)
Ck — a k + a k - l
Zauważmy, iż w przeciwieństwie do liniowej operacji kodowania duobinarnego, kodowanie wstępne opisane równaniem (7.72) jest operacją nieliniową. Stosując łącznie równania (7.72) i (7.74) otrzymujemy: jeśli symbol danych bk jest 1 jeśli symbol danych bk jest 0
(7-75)
co zilustrowano dalej w przykładzie 3. Na podstawie równania (7.75) możemy otrzymać następującą regułę decyzyjną prowadzącą do detekcji oryginalnego ciągu {bk} mając dany ciąg (e j: jeśli \ck\ < 1, jeśli |ck| > 1,
powiedzmy symbol bk jest 1 powiedzmy symbol bk jest 0
Gdy |c*| = 1 odbiornik po prostu dokonuje w sposób przypadkowy decyzji na korzyść symbolu 1 lub 0. Dla realizacji tej reguły decyzyjnej, detektor składa się z prostownika, którego wyjście porównuje się w urządzeniu decyzyjnym z progiem równym 1. Schemat blokowy takiego detektora pokazano na rys. 7.15. Użyteczną cechą omawianego detektora jest fakt, że dla jego działania jest potrzebna jedynie znajomość bieżącej próbki sygnału wejściowego. Dlatego też w układzie detektora z rys. 7.15 zjawisko propagacji błędu nie występuje.
Przykład 3
Kodowanie dnobinarne z kodowaniem wstępnym
Rozważmy ciąg danych binarnych 0010110. Dla dokonania kodowania wstępnego tego ciągu, co wymaga sprzężenia zwrotnego wyjścia z wejściem prekodera, dodajemy jeden bit
432
7.
luf Prostownik
<1e„\)
TRANSMISJA W PAŚMIE PODSTAWOWYM
bk = 1 jeśli IcrI < 1
Urządzenie decyzyjne
bk =0 jeśli ICkl > 1
/i Próg = 1 Rys. 7.15. Detektor dla odtwarzania pierwotnego ciągu binarnego na podstawie wyjścia kodera duobinarncgo wyposażonego w prekoder
Tablica 7.1. ILUSTRACJA PRZYKŁADU 3 KODOWANIA DUOBINARNEGO Ciąg binarny{bj Prekodowany ciąg {4J Dwupoziomowy ciąg { a j Wyjście kodera duobinarnego { c j Ciąg binarny otrzymany z zastosowania reguły decyzyjnej z równ. (7.76)
1 +1
0 1 +1 +2 0
0 1 0 1 0 0 -1 + 1 -1 +2 0 -2 0 1 0
1 1 -f 1 0 1
1 0 0 0 -1 -1 0 -2 1 0
do ciągu wyjściowego tego prekodera. Dokonujemy arbitralnego wyboru — bit ten będzie 1. Z równania (7.73) określamy ciąg ( d j na wyjściu predekodera zapisując go w drugim wierszu tablicy 7.1. Dwubiegunową postać prekodowanego ciągu {dk} zamieszczono w wierszu trzecim tablicy 7.1. Na koniec, stosując równanie (7.74) uzyskujemy duobinarny ciąg wyjściowy kodera o poziomach amplitud danych w wierszu czwartym tablicy 7.1. Detekcja oryginalnego ciągu danych za pomocą reguły decyzyjnej z równania (7.76) pozwala uzyskać ciąg binarny, podany w wierszu piątym tablicy 7.1. Ten ostatni wynik wskazuje na poprawność detekcji oryginalnego ciągu binarnego w przypadku braku szumów.
Zm odyfikowane kodow anie duobinarne W duobinamej technice kodowania transmitancja H(f) i w konsekwencji również widmowa gęstość mocy przesyłanego impulsu jest niezerowa dla/ = 0. Stanowi to cechę niepożądaną w pewnej grupie zastosowań, ponieważ wiele kanałów telekomunikacyjnych nie może transmitować składowej stałej. Niedostatek ten może ulec skorygowaniu przy posłużeniu się odpowiedzią częściową IVrodzaju lub zmodyfikowaną techniką duobinarną, stosującą przedział korelacyjny z dwu liczb binarnych. Ten specyficzny rodzaj korelacji osiąga się za pomocą odjęcia dwu impulsów amplitudowo zmodulowanych rozdzielonych w czasie o 2Tb sekund, co pokazano na schemacie blokowym z rys. 7.16. Prekoder wprowadza opóźnienie o wartości 2Tb sekund. Wyjście zmodyfikowanego duobinarnego filtru konwersji pozostaje w na stępującej relacji do wejściowego dwupoziomowego ciągu {ak} z wyjścia modulatora amplitudy impulsów: Ck = a k ~ a k - 2
(7.77)
Również i w tym wypadku stwierdzamy, że generowany jest sygnał trójpoziomowy. Dla ak = ± 1 wartość ck przyjmuje jedną z trzech wartości + 2, 0, —2. Całkowita transmitancja filtru z linią opóźniającą połączoną kaskadowo z ideal nym kanałem Nyquista z rys. 7.16 dana jest w postaci:
Prekoder
Rys. 7.16. Schemat zmodyfikowanego kodowania duobinamego
Wyjściowy
ciąg trójpoziomowy
J Zmodyfikowany duobinamy filtr konwersji H i v (f)
434
7.
TRANSMISJA W PAŚMIE PODSTAWOWYM
W,v(/) = ^N yquistC 0 [ l- e x p ( - j4 n /T b)] = = 2jHNyquist(/)sin(2n/Tt)exp(-}2nfT b)
(7.78)
gdzie indeks IV w Hlv(f) wskazuje na przynależność do klasy odpowiedzi częściowych, natomiast i / Nyquis,(/) zdefiniowane jest równaniem (7.68). Mamy zatem charakterystykę częstotliwościową całego układu w postaci połówki okresu funkcji sinus, zgodnie ze wzorem: 2j sin (27i/r„)exp( —}2nfTb), 0,
l/l < 1/27; gdzie indziej
(7.79)
Na rysunkach 7.17a oraz 7.17b przestawione są odpowiednio charakterystyka amplitudowa i fazowa kodera duobinarnego. Użyteczną cechą zmodyfikowanego kodera duobinarnego jest faktyczny brak składowej na wyjściu. Dzięki tej właściwości zmodyfikowane kodowanie duobinarne dobrze nadaje się do wykorzystania w powiązaniu z transmisją o pojedynczej wstędze bocznej. Zanotujmy też, że ta druga postać kodowania z korelacją poziomów wykazuje podobną ciągłość na krańcach pasma jak i kodowanie duobinarne. Z pierwszego wiersza równania (7.78) i z definicji t f Nyquis,(/) w równaniu (7.68) wynika, że odpowiedź impulsowa zmodyfikowanego kodera duobinarnego składa się z dwu impulsów sine (Nyquista) przesuniętych w czasie o 2Tb sekund względem siebie, co (z dokładnością do czynnika skalującego) zapisuje się tak:
2Th
4Tb
-,,
47
2 Th
Rys. 7.17 Charakterystyka częstotliwościowa zmodyfikowanego filtru z konwersją duobinarną: a) charakterystyka amplitudowa, b) charakterystyka fazowa
7.6. KODOWANIE O POZIOMACH SKORELOWANYCH
435
Rys. 7.18. Odpowiedź impulsowa zmodyfikowanego filtru z konwersją duobinamą
sin(7ttjTb) nt/Tb sin(7it/T6) nt/Tb
sin[T t(t-2rb)/rh] * (t-2 T b)/Tb sm{nt/Tb) n (t—2T2)/Tb
2Tbsin(nt/Tb) nt{2Tb- t )
(7.80)
Tę odpowiedź impulsową przedstawiono na wykresie 7.18, na którym wykazano, że ma trzy rozróżnialne poziomy w chwilach próbkowania. Zauważmy też, że tak jak w przypadku zwykłego kodowania duobinarnego dla zmodyfikowanego kodowania duobinamego zbocza funkcji h,v(0 zanikają jak l/|t|2. Procedura prekodowania służy do eliminacji możliwości propagacji błędów w systemie zmodyfikowanym duobinamym, przy czym jest ona podobna do stosowanej w przypadku zwykłego systemu duobinamego. W szczególności przed wygenerowaniem zmodyfikowanego sygnału duobinarnego stosuje się sumowanie logiczne modulo-2 wzglę dem sygnałów odległych w czasie o 2Tb sekund (por. lewa część schematu z rys. 7.16), a mianowicie: — bk ® dk_ 2 symbol 1 symbol 0
{
jeśli albo symbol bk albo symbol dk_2 jest 1 w pozostałych przypadkach
(7.81)
gdzie {bk} — przychodzący binarny ciąg danych, a {dt} — ciąg na wyjściu prekodera. Ciąg {4*} wytworzony w fazie kodowania wstępnego jest następnie przesyłany do modulatora amplitudy impulsów i dalej do zmodyfikowanego duobinarnego filtru konwersji. Cyfra ck na wyjściu z rys. 7.16 równa jest —2, 0, + 2 przy założeniu, że modulator amplitudy impulsów stosuje dwubiegunowe przedstawienie dla prekodowanego ciągu {dk}. Można też stwierdzić, że zdetekowaną cyfrę hk na wyjściu odbiornika można otrzymać na podstawie cyfry ck, zaniedbując po prostu jej biegunowość (znak). W szczególności, możliwe jest sformułowanie następującej reguły decyzyjnej: jeśli |ct| > 1, jeśli |ck| < 1,
powiedzmy symbol bk jest 1 powiedzmy symbol bk jest 0
(7.82)
Jeśli ck = 1, to odbiornik dokonuje przypadkowego odgadnięcia na korzyść symbolu 1 lub 0. Podobnie jak w przypadku kodowania duobinarnego, możemy zanotować co następuje: • W nieobecności szumu kanału, zdekodowany ciąg binarny {£*} jest dokładnie taki sam, jak oryginalny ciąg binarny {bk} na wejściu nadajnika. 28*
436
7.
TRANSMISJA W PAŚMIE PODSTAWOWYM
• Zastosowanie równania (7.81) wymaga dodania dwu dodatkowych bitów do prekodowanego ciągu {a*}. Postać ciągu {bk} zdekodowanego za pomocą równania (7.82) jest taka sama, niezależnie od wyboru tych dwu dodatkowych bitów.
Uogólniona form a kodow ania z korelacją poziom ów (kodow anie z odpow iedzią częściow ą) Technika duobinama ma zakres korelacji obejmujący jedną liczbę binarną, natomiast dla zmodyfikowanej techniki duobinarnej obejmuje on dwie liczby binarne. W prosty sposób narzuca się więc myśl, by uogólnić obie wymienione techniki do bardziej rozbudowanych postaci, znanych pod zbiorczą nazwą kodowania z korelacją poziomów lub kodowania z odpowiedzią częściową. Takie uogólnienie przedstawiono na rys. 7.19, przy czym / / Nyquist(/) zdefiniowano w równaniu (7.68). W układzie zastosowano linię opóźniającą z odczepami, których wagi wynoszą odpowiednio: w0,Wj,..., W szczególności różne klasy układów kodowania z odpowiedzią częściową można uzyskać biorąc ważoną kombinację liniową N idealnych impulsów (sine) Nyquista, a mianowicie:
Wyjściowy ciąg wielopoziomowy
Wejściowy ciąg dwupoziomowy
{c*>
{ad
“•n—> Filtr z linią opóźniającą i odczepami Rys. 7.19. Schemat uogólnionego kodowania korelacyjnego
7.7.
437
TRANSMISJA M-WARTOŚCIOWYCH SYGNAŁÓW PAM
Tablica 7.2. RÓŻNE KLASY SCHEMATÓW KODOWANIA O ODPOWIEDZI CZĘŚCIOWEJ Typ klasy
N
wo
I II III IV
2 3 3 3
1 1 2 1
V
5
N -
-1
W2 1 2 1 0 0
W3
Nazwa
*4 -
Kodowanie duobinarne
1 -1 -1 2
Zmodyfikowane kodowanie duobinarne 0
-1
1
h(t)= £ w„sinc
(7.83)
(i"
Odpowiedni wybór wag odczepów w równaniu (7.83) prowadzi do różnorodnych kształtów widm, zaprojektowanych z myślą o indywidualnych zastosowaniach. Tablica 7.2 prezentuje dane dla 5 różnych klas układów kodowania o odpowiedzi cząstkowej. Na przykład dla kodowania duobinarnego (klasa I odpowiedzi cząstkowych) mamy: w0 = +1 wx = -f 1 oraz wn = 0 dla n > 2. W przypadku zmodyfikowanego kodowania duobinarnego (od powiedź częściowa klasy IV) wagi są następujące: w0 = +1 Wj = 0 w2 = —1 i w„ = 0 dla n ^ 3. Użyteczne cechy układów kodowania z odpowiedzią częściową można podsumować następująco: • transmisja danych binarnych przez fizyczny kanał o paśmie podstawowym może być osiągnięta dla szybkości bliskich szybkości Nyquista przy zastosowaniu realizowalnych filtrów o stopniowo opadających charakterystykach. • różne kształty widm mogą być wytwarzane, w zależności od konkretnych zastosowań. Jednakże takie pożądane charakterystyki uzyskuje się za pewną cenę: aby uzyskać to samo średnie prawdopodobieństwo błędu w obecności szumu, co w analogicznych systemach binarnych PAM, wymagany jest większy stosunek sygnału do szumu, ponieważ zwiększyła się liczba używanych poziomów sygnału.
7.7. Transmisja
M
-wartościowych sygnałów PAM
W systemie binarnym PAM o paśmie podstawowym z rys. 7.7, modulator amplitudy impulsów wytwarza impulsy binarne, a więc impulsy o jednym z dwu możliwych poziomów amplitudy. Z drugiej strony w M-wartościowym systemie PAM o paśmie podstawowym (M-PAM) modulator amplitudy wytwarza jeden z M możliwych poziomów amplitudy, gdzie M > 2, a w szczególnym przypadku zilustrowanym na rys. 7.20a jest to system czterowartościowy (M = 4) oraz binarny ciąg danych 0010110111. Na rysunku 7.20b umieszczono poziomy elektryczne reprezentujące cztery możliwe dwubity (pary bitów). W systemie
438
7.
TRANSMISJA W PAŚMIE PODSTAWOWYM
Q Dane binarne
0
0
0
o
Dwubit
Amplituda
00
-1 .5 -0 .5
01 10 11
1 1 1
+ 0.5 + 1.5
Rys. 7.20. Wyjście systemu czteropoziomowego: a) kształt impulsu, b) reprezentacja 4 możliwych dwubitów
M-wartościowym źródło informacji posługuje się alfabetem złożonym z M symboli. Poszczególnym symbolom odpowiadają ich poziomy amplitudy na wyjściu modulatora amplitudy impulsów. W sumie więc M rozróżnialnych poziomów amplitudy przezna czone jest do transmisji. Rozważmy zatem M-wartościowy system PAM z alfabetem sygnałowym złożonym z M równoprawdopodobnych i statystycznie niezależnych symboli, których czas trwania wynosi Tsekund. Odnosimy się do 1/Tjako do szybkości symbolowej systemu wyrażonej w symbolach na sekundę lub bodach. Pouczającym byłoby powiązać szybkość symbolową w tym systemie z szybkością w systemie binarnym PAM, w którym wartość M równa jest 2, a kolejne wartości 1 i 0 są także równoprawdopodobne i statystycznie niezależne, natomiast czas trwania dowolnego symbolu wynosi Tb sekund. W opisanych przez nas warunkach system binarny PAM wytwarza informację z szybkością równą \/Tb bitów na sekundę. Zaobserwujmy, że w systemie czterowartościowym PAM, przykładowo, cztery możliwe symbole mogą być reprezentowane przez dwubity 00, 01, 10 i l l . Widzimy więc, że każdy z symboli reprezentuje 2 bity informacji, w związku z czym 1 bod równy jest 2 bitom na sekundę. Możemy uogólnić ten wynik przez stwierdzenie, że
7.8. KOREKCJA UNI Ą OPÓŹNIAJĄCĄ Z ODCZEPAMI
439
w M-wartościowym systemie PAM, 1 bod równy jest log2 M bitów na sekundę, a czas trwania T symbolu w M-wartościowym systemie PAM związany jest z czasem trwania Tb symbolu w równoważnym binarnym systemie PAM relacją: T= T&log2M
(7.84)
Dlatego, przy zadanej szerokości pasma kanału, stosując system M-PAM jesteśmy w stanie przesyłać informację log2 M razy szybciej, niż w równoważnym binarnym systemie PAM. Przy tym samym średnim prawdopodobieństwie błędu na symbol, system M-PAM wymaga jednak przesyłania większej mocy. Stwierdzamy mianowicie, że dla M dużo większego od 2 i gdy średnie prawdopodobieństwo błędu symbolu jest małe w porównaniu do 1 trans mitowana moc musi być zwiększona o czynnik M2/log2M w porównaniu do systemu binarnego PAM. W systemie M-wartościowym o paśmie podstawowym pierwszą funkcją, modulato ra amplitudy na wejściu nadajnika jest konwersja sekwencji symboli pochodzących ze źródła informacji na M-wartościowy ciąg impulsów PAM. Następnie, podobnie jak w systemie binarnym PAM, ten ciąg impulsów jest kształtowany przez filtr nadajnika i wysyłany przez kanał telekomunikacyjny, w którym następują zniekształcenia przesyłanego sygnału związa ne z szumem i zakłóceniami. Odebrany sygnał jest następnie przepuszczany przez filtr odbiornika i próbkowany z odpowiednią częstotliwością, utrzymywaną w synchronizmie względem nadajnika. Każda próbka porównywana jest z zadanymi wartościami progowymi (znanymi też pod nazwą poziomów obcięcia), a następnie podejmowana jest decyzja, który z symboli był faktycznie nadany. Widzimy więc, że projektowanie modulatora amplitudy impulsów i urządzenia podejmującego decyzje w M-wartościowym systemie PAM jest bardziej skomplikowane, niż w systemie binarnym PAM. Błędy pojawiające się na wyjściu odbiornika spowodowane są interferencją międzysymbolową, szumem i niedokładnościami w synchronizacji. Filtry nadajnika i odbiornika projektowane są z myślą o zminimalizowaniu tych błędów. Procedury używane przy projektowaniu takich filtrów podobne są do procedur dyskutowanych w punktach 7.4 i 7.5, odnoszących się do binarnych systemów PAM o paśmie podstawowym.
7.8. Korekcja linią opóźniającą z odczepami Pierwszym kanałem telekomunikacyjnym, jaki przychodzi na myśl w przypadku transmisji danych cyfrowych (np. danych komputerowych) jest kanał telefoniczny, charakteryzujący się dużym stosunkiem sygnału do szumu. Jednakże kanał telefoniczny jest ograniczony w paśmie, co dla typowego połączenia międzymiastowego zilustrowano na rys. 7.21. Na rys. 7.21a, pokazano tłumienność własną (wtrąceniową) tego kanału w funkcji częstotliwości; przy czym tłumienność wtrąceniową (w dB) definiuje się jako 101og10(P0/P 2), gdzie P 2 jest mocą dostarczaną przez kanał do obciążenia, a P0 to moc jaka byłaby dostarczona do tego samego obciążenia, o ile podłączono by je bezpośrednio do źródła (tzn. przy usunięciu kanału). Na rysunku 7.2 lb pokazano odpowiednie wykresy fazy i opóźnienia (grupowego) obwiedni w funkcji częstotliwości; definicję opóźnienia grupowego podano w punkcie 2.14. Rysunek 7.21 jasno ilustruje dyspersyjną naturę kanału telefonicznego. Efektywne podejście do szybkiej transmisji danych cyfrowych przez taki kanał polega na wzajemnej kombinacji dwu podstawowych operacji przetwarzania sygnałów: • Dyskretna modulacja PAM, obejmująca kodowanie amplitudy kolejnych impulsów na okresowy ciąg impulsów o dyskretnym zbiorze możliwych poziomów amplitudy.
440
7.
TRANSMISJA W PAŚMIE PODSTAWOWYM
Q•
O) 0 3(/) 0N)
1 CL
Rys. 7.21. a) Charakterystyka amplitudowa dla typowego połączenia międzymiastowego, b) opóźnienie obwiedni i charakterystyka fazowa dla typowego połączenia międzymiastowego (Bellamy, 1982)
• Schemat modulacji liniowej, zapewniający zachowanie pasma dostatecznego dla trans misji kodowanego ciągu impulsów przez kanał telefoniczny. System w swej części odbiorczej dokonuje demodulacji i synchronicznego próbkowania odbieranego sygnału, następnie zaś przechodzi do decyzji odnośnie tego, jakie symbole zostały faktycznie nadane. W rezultacie dyspersji kształtu impulsów w kanale telefonicznym często obserwuje się, że liczba poziomów amplitudy możliwych do detekcji jest w większym stopniu ograniczona przez interferencję międzysymbolową, niż przez szum addytywny. W zasadzie bowiem, jeśli kanał jest dokładnie znany, to istnieje realna możliwość dowolnego
x(nT+NT)
1
I I
Rys. 7.22. Filtr z linią opóźniającą z odczepami
y(nT)
7.8. KOREKCJA LINIĄ OPÓŹNIAJĄCĄ Z ODCZEPAMI
442
TRANSMISJA W PAŚMIE PODSTAWOWYM
7.
ograniczenia interferencji międzysymbolowej w chwilach próbkowania przez stosowną parę filtrów nadajnika i odbiornika, tak aby kontrola całkowitego kształtu impulsu przebiegała w sposób uprzednio opisany. Filtr nadajnika umieszczony jest bezpośrednio przed modula torem, podczas gdy filtr odbiornika znajduje się bezpośrednio za demodulatorem. Tak więc pod względem wszystkiego co dotyczy interferencji międzysymbolowej, możemy uważać transmisję danych w kanale telefonicznym za transmisję w paśmie podstawowym. W praktyce jednak nieczęsto rozporządzamy uprzednią wiedzą odnośnie dokład nych charakterystyk kanału. Pojawia się również nieunikniony problem braku precyzji wynikający w trakcie fizycznej realizacji filtrów nadajnika i odbiornika. W efekcie tych wszystkich zjawisk mamy zawsze do czynienia z resztkowymi zniekształceniami ISI, co stanowi czynnik ograniczający szybkość transmisji danych systemu. Kompensację re sztkowych wewnętrznych zniekształceń można wykonać przy użyciu procesu zwanego korekcją. Filtr używany do realizacji tego procesu nazywany jest korektorem (ang. equalizer). Elementem dobrze nadającym się do wykorzystania przy projektowaniu liniowych filtrów korekcyjnych jest filtr z linią opóźniającą z odczepami, którego szkic pokazano na rys. 7.22. W celu symetryzacji, całkowitą liczbę odczepów wybrano jako (2N + 1), z wagami oznaczonymi przez w_N, ..., w_ l5 w0, wx,..., w*. Odpowiedź impulsowa takiego filtru wynie sie więc: N
h(t)=
X wkd ( t - k T )
(7.85)
fc= - N
gdzie: <$(t) — funkcja delta Diraca, natomiast opóźnienie T wybrano równe czasowi trwania symbolu. Wyobraźmy sobie, że filtr korekcyjny z linią opóźniającą z odczepami jest połączony kaskadowo z systemem liniowym o odpowiedzi impulsowej c(t), zgodnie ze schematem blokowym z rys. 7.23. Niech p(t) oznacza odpowiedź impulsową w systemie z korektorem. Wtedy p(t) równe jest splotowi c(r) z h(t), co prowadzi do zależności: iv p(t) = c(t) *h(t) = c(f) * £ Wj<5(t —kt) Jt= - N
Zmieniając kolejność sumowania i splotu: p(t)=
N
N
£
wkc(t )*ó( t - kT) = £
*=-N
wkc ( t - k T )
(7.86)
k= -N
przy czym skorzystaliśmy tu z właściwości filtracyjnej funkcji delta. Biorąc równanie (7.86) w chwilach próbkowania t = nT dostajemy dyskretną sumę splotową: p{nT)=
£
wtc ({n -k )T )
(7.87)
k= - N
Zauważmy, że ciąg {p(nTj} jest dłuższy od ciągu {c(n7’)}.
Rys. 7.23 Odpowiedź impulsowa, p (t)
Połączenie kaskadowe systemu liniowego i korektora z linią opóźniającą z odczepami
443
7.8. KOREKCJA LINIĄ OPÓŹNIAJĄCĄ Z ODCZEPAMI
W celu całkowitej eliminacji interferencji międzysymbolowej musimy spełnić warunek Nyquista dla niezniekształconej transmisji przytoczony w równaniu (7.49), przy podstawieniu Tw miejsce Tb. Zakłada się, że p(t) zdefiniowano w taki sposób, że spełniony jest warunek normalizacji p(0) = 1, zgodnie z równaniem (7.46). Tak więc, aby zapewnić brak interferencji między symbolami należy spełnić warunek: n=0 nź 0
p{nT) =
Jednakże, jak wynika z równania (7.87), mamy do dyspozycji jedynie (2N +1) regulowanych współczynników. Stąd spełnienie naszego warunku możliwe jest jedynie w przybliżeniu w następujący sposób: , _ fi, P(nT) = \ (0,
n= 0 ,1 n = + 1 , ±2,..,, + N
(7.88)
Dla uproszczenia notacji, niech n-ta próbka odpowiedzi impulsowej c(t) będzie zapisana jako: c„ = c(nT)
(7.89)
Wtedy nakładając warunek z równania (7.88) na dyskretną sumę splotu z równania (7.87) otrzymujemy układ (21V + 1) równań: N
Z
0= 0 n = + 1 , + 2,..., + N
™ k C n - k
k= -N
(7.90)
■
4 4 4
Cj
CN+1
...
C2
• • •
i; i
C
2 1
V
C
co
C - l
. . .
Cl
c 0
t
• • •
• •
4
4
4
JV+1
CN
C * - l
...
•H 1
...
C-2
1
CN
C _ j
O
Cq
• • *
...
CN- 1
S ,
C-2N
_____________ i
■
*
■
. . .
C-N
-------------------- 1
C -iV + i
1
...
1
---------------------1
co można zapisać w równoważnej postaci macierzowej: "0" • 4
0
WN- 1
C_jy
w 0
C-N+ 1
H-i
—
1
4
•
4
9
9
4
•
•
_
(7.91)
0
4
C0
'
4
_
0
Filtr wyrównujący z linią odczepową opisany równaniem (7.90) lub równoważnym równaniem (7.91) traktowany jest jako korektor z wymuszaniem zera. Taki układ jest optymalny w tym sensie, że minimalizuje odkształcenia wierzchołkowe (interferencję międzysymbolową). Ma on również tę miłą cechę, że jest względnie łatwy do zrealizowania. Teoretycznie im dłuższy filtr zostanie wykonany (tzn. przy N dążącym do nieskończoności), tym dokładniej będzie nasz układ spełniał idealny warunek określony przez kryterium Nyquista dla niezniekształconej transmisji.
444
7.
TRANSMISJA W PAŚMIE PODSTAWOWYM
7.9. Korekcja adaptacyjna Strategia z wymuszaniem zera opisana powyżej dobrze spisuje się w warunkach laboratoryj nych, gdy mamy dostęp do systemów, które mają być poddane korekcji i znamy współczynniki systemu c_N,...,c_ l ,c0,c 1,...,cN potrzebne przy rozwiązywaniu równania (7.91). W środowisku telekomunikacyjnym kanał jest jednak zazwyczaj niestacjonarny. Dla przykładu w przełączanej sieci telefonicznej znajdujemy dwa czynniki wnoszące wkład w zniekształcenia impulsów na różnych liniach łączeniowych (łączach): • Różnice w charakterystykach transmisyjnych poszczególnych łączy, które mogą działać wspólnie w tym samym czasie. • Różnice w liczbie łączy na magistralach. W wyniku opisywanych zjawisk kanał telefoniczny staje się losowy w tym sensie, że jest jednym ze zbioru możliwych realizacji fizycznych. W konsekwencji użycie konkretnego układu wyrównującego zaprojektowanego na podstawie średnich charakterystyk kanału może okazać się nieadekwatnym sposobem redukcji interferencji między symbolami. Dla wykorzystania pełnych możliwości transmisji istnieje więc potrzeba korekcji ad aptacyjnej5^ Proces korekcji nazywamy adaptacyjnym wtedy, gdy układ korektora sa moczynnie i w sposób ciągły dopasowuje się pod względem oddziaływania na sygnał wejściowy. Wśród różnych filozofii korekcji adaptacyjnej w systemach transmisji danych pojawia się korekcja przedkanałowa w nadajniku i pokanałowa w odbiorniku. Pierwsze podejście wymaga kanału ze sprzężeniem zwrotnym, rozważmy więc jedynie korekcję adaptacyjną po stronie odbiorczej systemu. Korekcja taka może być osiągnięta zanim jeszcze nastąpi transmisja danych, poprzez ukształtowanie filtru przy użyciu odpowiednich ciągów treningowych przesyłanych przez kanał tak, aby wyregulować parametry filtru na wartości optymalne. Typowy kanał telefoniczny zmienia się w niewielkim stopniu podczas przeciętnej transmisji danych, tak więc korekcja przed zaistnieniem połączenia za pomocą ciągu treningowego jest wystarczająca dla większości przypadków napotykanych w praktyce. Jak już wzmiankowaliśmy filtr korekcyjny jest umieszczony za filtrem odbiorczym w odbiorniku. W tym punkcie zajmiemy się systemem korekcji adaptacyjnej opartej na za stosowaniu linii opóźniającej z odczepami, synchronicznym w tym sensie, że odległość czasowa między poszczególnymi odczepami jest utrzymywana na tym samym poziomie, co czas trwania T nadawanego sygnału (tzn. jak odwrotność szybkości transmisji). Taki układ jest nie tylko prosty w realizacji, ale również zdolny do zrealizowania wymaganych charakterystyk funkcjonalnych.
Algorytm najm niejszych kw ad rató w Rozważmy korektor z linią opóźniającą z odczepami, którego wagi odczepów mogą być strojone w sposób przedstawiony na rys. 7.24. Ciąg (x(nT)} przyłożony na jego wejście powstał wskutek transmisji ciągu binarnego przez nieznany kanał, który jest zarówno dyspersyjny jak zaszumiony. Zakłada się, że pewne formy kształtowania impulsów zostały już uwzględnione w projekcie systemu transmisyjnego. Stawiane jest wymaganie co do korekcji łącznych zjawisk zniekształceń resztkowych i szumu w systemie, które można spełnić za pomocą układu adaptacyjnego.
Pożądana odpowiedź
Rys. 124. Elementy filtru adaptacyjnego
7.9. KOREKCJA ADAPTACYJNA
błędu
t
446
7.
TRANSMISJA W PAŚMIE PODSTAWOWYM
Dla uproszczenia zapisu przyjmujemy: x„ = x{nT)
(7.92)
= y(nT)
(7.93)
Wtedy wyjście yn korektora z linią opóźniającą w odpowiedzi na wejściowy ciąg {x„} zdefiniowane jest przez dyskretną sumę splotu (por. rys. 7.24):
yn=
Z
w
k x
n - k
(794)
k = —N
gdzie wk — waga k-tego odczepu, a 2N +1 — całkowita liczba odczepów. Wagi odczepów stanowią współczynniki filtru adaptacyjnego. Zakładamy, że ciąg wejściowy {x„} ma skończoną energię. Adaptacja może zostać osiągnięta przez obserwację błędu między pożądanym a rzeczywistym kształtem impulsów mierzonych na wyjściu filtru w chwilach próbkowania i posłużenie się tym błędem do wyznaczania kierunków zmian w wagach odczepów, tak aby zbliżyć się do optymalnego zestawu wartości. Jedną z metod adaptacji jest kryterium zniekształcenia wierzchołka, które minimalizuje odchyłki w wierzchołkach impulsów, zdefi niowane przez najniekorzystniejszy przypadek interferencji międzysymbolowej na wyjściu korektora. Koncepcja adaptacyjnego układu korektora opartego na powyższym kryterium opiera się na koncepcji wymuszania zera, opisanej w poprzednim punkcie. Jednakże układ ten będzie optymalny tylko w przypadku, gdy zniekształcenie wierzchołka na jego wejściu nie przekracza 100% (tzn. interferencja międzysymbolowa nie jest zbyt duża). Alternatywnie, można przyjąć także kryterium najmniejszych kwadratów, które jest bardziej ogólne w zastosowaniach; filtr adaptacyjny bazujący na kryterium najmniejszych kwadratów wydaje się też mniej wrażliwy na zakłócenia taktowania, niż układ oparty na kryterium zniekształceń wierzchołków. Stosownie do tego, użyjemy więc kryterium najmniejszych kwadratów dla zaprojektowania korektora adaptacyjnego. Niech an oznacza pożądaną odpowiedź zdefiniowaną w ramach dwubiegunowej reprezentacji n-tego przesyłanego symbolu binarnego. Niech e„ oznacza sygnał błędu zdefiniowany przez jako różnica pożądaną odpowiedzią układu an a rzeczywistą odpo wiedzią >»„, czyli: (7.95) Powszechnie spotykane w praktyce, z powodu dogodnej postaci matematycznej, kryterium błędu średniokwadratowego jest zdefiniowane przez funkcję kosztu: = E[_el)
(7.96)
gdzie E — operator statystyczny wartości oczekiwanej. Stosując równania (7.94) i (7.96) obliczamy gradient błędu średniokwadratowego & względem wagi fc-tego odczepu wk, otrzymując wyrażenie: ÓS dwk
(7.97)
Wartość oczekiwana po prawej stronie równania (7.97) jest uśrednioną po zbiorze korelacją wzajemną pomiędzy sygnałem błędu en a sygnałem wejściowym x„ wziętym z opóźnieniem o k próbek; to znaczy:
7.9.
447
KOREKCJA ADAPTACYJNA
(7.98)
Rex(k) = Elenx„. J Możemy więc uprościć równanie (7.97) do postaci: dS = - 2 Rtx(k) dw.
(7.99)
Warunek optymalizacji dla minimum błędu średniokwadratowego może być teraz wyrażony w prosty sposób: -— = 0 dwk
dla k = 0, ± 1,...,± N (7.100
W świetle równania (7.99), warunek taki jest równoważny wymaganiu, że Rex(k) = 0
dla k = 0, ± 1,..., ± N
(7.101)
Tak więc, dla zapewnienia minimum błędu średniokwadratowego, korelacja wzajemna pomiędzy ciągiem błędów wyjścia {en} a ciągiem wejściowym {x„} musi mieć zera dla (2N + 1) składowych, o opóźnieniach całkowitych odpowiadających indeksom wag poszczególnych odczepów filtru. Ten ważny wynik nazywany jest zasadą ortogonalności. Podstawiając równania (7.94) i (7.95) do (7.96) i rozwijając człony szeregu znajdujemy, że błąd średniokwadratowy S jest dokładnie funkcją drugiego rzędu wag odczepów w_N,...,w_ly w0, wlv.., wN. Działanie korektora realizującego kryterium optymal nego błędu średniokwadratowego może być zatem zobrazowane w postaci wielowymiarowej wypukłej powierzchni, podobnej w kształcie do misy, będącej paraboliczną funkcją wag odczepów. Proces adaptacyjny poprzez sukcesywne nastrajanie wag filtrów ma za zadanie ustawicznie nakierowywać się na dno misy; w tym jedynym punkcie średniokwadratowy błąd S’ przyjmuje swą minimalną wartość «^min. Jest zatem intuicyjnie uzasadnione, że kolejne dostrojenia wag odczepów będą zmierzać w kierunku najszybszego spadku powierzchni błędów (tzn. w kierunku przeciwnym do wektora gradientu d£fdw k, —N < k < N), prowadzącym zgodnie z oczekiwaniami ku minimum błędu średniokwadratowego S ^ . Taka podstawowa idea algorytmu najszybszego spadku, opisanego rekurencyjną zależnością. 1 dS wk(n+ \) = wk(n) —-~ g —— , 2 dwk
k = 0, ± 1,..., ± N (7.102
gdzie p — mała stała dodatnia, zwana parametrem stopniowania, natomiast czynnik x/ 2 został wprowadzony celem uproszczenia z czynnikiem 2 w równaniu definiującym d S jd w k. Wskaźnik n opisuje liczbę iteracji. Podstawienie równania (7.99) do (7.102) daje: wk(n+ l) = wk(n) + p R ex(k),
k = 0, ±1,..., ± N
(7.103)
Użycie algorytmu najszybszego spadku wymaga wiedzy odnośnie funkcji korelacji wzajemnej Rex{k). Jednakże wiedza ta nie jest dostępna, o ile obracamy się w sferze otoczenia, które jest nam nieznane. Możemy pokonać tę trudność stosując estymator chwilowy dla funkcji korelacji wzajemnej Rex{k). Precyzując, jeśli weźmiemy jako podstawę równanie definiujące (7.98), możemy skorzystać z następującego estymatora: R J k ) = enx n_k,
k = 0, ±1,..., ± N
(7.104)
W podobny sposób możemy zastosować estymator wt (n) zamiast wagi odczepu wfc(n). Procedura użycia takich estymatorów w równaniu (7.103) prowadzi do aproksymacji za
448
7.
TRANSMISJA W PAŚMIE PODSTAWOWYM
Rys. 7.25 Przedstawienie algorytm u LM S za pom ocą grafu przypływu sygnałów
pomocą algorytmu najszybszego spadku. Możemy wyrazić nowy wzór rekurencyjny opi sujący zmiany współczynników wag odczepów układu adaptacyjnego w następujący sposób: vv*(n+l) = wk(ń) + genxn_k,
k = 0, ± 1,..., ± N
(7.105)
Ten algorytm znany jest pod nazwą algorytmu najmniejszych kwadratów (LM S — least mean square)6). Rozpatrując wjako indeks dla poprzedniej iteracji, mamy w„(n) jako „starą wartość” k-tej wagi odczepu, i genxn_k jako „korekcję” służącą dla obliczania „nowej wartości” wk(n +1).
Algorytm LMS jest przykładem systemu ze sprzężeniem zwrotnym, zilustrowanego schematem blokowym z rys. 7.25. Dlatego algorytm ten może okazać się rozbieżny, (co równoznaczne jest z niestabilnością filtru adaptacyjnego). Niestety, zachowanie zbieżności algorytmu LMS jest trudne do przeanalizowania. Pomimo tego, jeśli przyporządkujemy parametrowi kroku rekurencji g niewielką wartość, to po dużej liczbie iteracji okaże się, że zachowanie algorytmu LMS jest z grubsza podobne do algorytmu najszybszego spadku, który jednakże zamiast estymatora szumowego posługuje się aktualnym gradientem w celu obliczenia wag odczepowych. Możemy uprościć sformułowanie algorytmu LMS posługując się macierzową formą zapisu. Niech wektor x„ o wymiarze ( 2f V+l ) xl oznacza wejścia odczepów układu: X*
L*n+N>*"»^n + 1>
- 1»•••>*r»-Af3
(7.106)
gdzie indeks górny T — transpozycja macierzy. Odpowiednio, niech wektor w„ o wymiarze (2JV +1) x 1 oznacza wagi odczepów układu: = [ vv_jv(m),..., vv_1(«), vv0(n), w^rt), ...,wJV(nj]T
(7.107)
Możemy teraz posłużyć się zapisem macierzowym, aby przekształcić sumę splotu z równania w zwartą formułę: yn = xt*„
(7.108)
gdzie w„ — iloczyn skalarny wektorów x„ i w„. Możemy teraz zapisać procedurę algorytmu LMS w następujący sposób: 1. Zainicjuj algorytm przez ustawienie = 0 (tzn. wyzeruj wszystkie wagi odczepów korektora dla n = 1, co odpowiada czasowi t = T).
449
7.9. KOREKCJA ADAPTACYJNA
2. Dla n = 1, 2,..., oblicz: y* = en = a n ~ yn w„+1 = Y/n+ ge„x„ gdzie g — parametr kroku rekurencji. 3. Kontynuuj obliczenia dopóki nie zostaną osiągnięte warunki stanu ustalonego.
Działanie korektora Istnieją dwa rodzaje funkcjonowania filtrów adaptacyjnych, a mianowicie mod treningowy i mod decyzyjny, co pokazano na rys. 7.26. Podczas modu treningowego transmitowany jest znany ciąg, którego zsynchronizowana wersja generowana jest w odbiorniku i następnie (po czasie równym opóźnieniu transmisji) przykładana na wejście filtru adaptacyjnego jako pożądana odpowiedź; wagi odczepów układu są przy tym dostosowywane zgodnie z algoryt mem LMS. Popularnie stosowanym ciągiem treningowym jest tak zwany ciąg pseudolosowy (PN), będący ciągiem deterministycznym o właściwościach podobnych do szumu; pełną dyskusję takich ciągów przeprowadzono w rozdziale 9. Gdy proces treningowy jest zakończony, filtr adaptacyjny przełączany jest na drugi rodzaj pracy: mod sterowany decyzyjnie. W tym rodzaju pracy sygnał błędu zdefiniowany jest jako: en = an- y n
(7.109)
gdzie yn — wyjście filtru dla czasu t = nT, a an — końcowy (niekoniecznie) prawidłowy estymator nadanego symbolu an. A więc, przy normalnej pracy decyzje podejmowane przez odbiornik są właściwe z dużym prawdopodobieństwem. Oznacza to również utrzymywanie się prawidłowych estymatorów błędu przez większą część czasu, co z kolei umożliwia satysfakcjonującą pracę układu adaptacyjnego. Idąc dalej, filtr adaptacyjny pracujący w modzie sterowanym decyzyjnie jest w stanie nadążać za względnie powolnymi zmianami w charakterystyce kanału. Okazuje się, że im większy jest parametr kroku g, tym szybsze są możliwości śledzenia przez korektor adaptacyjny. Jednakże duży parametr kroku g może sprowadzać nieakceptowalnie duży nadmiarowy błąd średniokwadratowy, zdefiniowany jako przewyż szenie średniokwadratowej wartości błędu sygnału ponad minimalną osiągalną wartość (która jest wynikiem optymalnej nastawy wag odczepów). Znajdujemy więc, że praktyczny
Filtr adaptacyjny
Urządzenie decyzyjne
Rys. 7.26. Ilustracja dwu rodzajów pracy korektora adaptacyjnego 29 Systemy telekomunikacyjne cz. 1
450
7.
TRANSMISJA W PAŚMIE PODSTAWOWYM
wybór odpowiedniej wartości parametru kroku rekurencji p sprowadza się do uczynienia kompromisu pomiędzy szybkim śledzeniem a redukcją nadmiarowego błędu średniokwadratowego.
Sposoby realizacji Ważną zaletą algorytmu LSM jest łatwość jego realizacji. Metody realizacji korektorów adaptacyjnych można podzielić na trzy kategorie: analogową, cyfrową z wbudowanym konstrukcyjnie oprogramowaniem oraz cyfrową z programowalnym pakietem co opisano dalej: 1. Podejście analogowe opiera się przede wszystkim na wykorzystaniu technologii przy rządów o sprzężeniu ładunkowym (CCD). Podstawowy obwód realizujący CCD składa się z rzędu tranzystorów polowych o szeregowo połączonych drenach i źródłach, przy czym dreny są sprzężone pojemnościowo do bramek. Zestaw nastawnych wag odczepów przechowywany jest w pamięci cyfrowej, a mnożenie cyfrowych wartości wag odczepów filtrów przez analogowe wartości próbek odbywa się w analogowy sposób. To podejście przedstawia sobą odpowiedni potencjał w tych zastosowaniach, w których szybkość transmisji jest zbyt duża dla techniki cyfrowej. 2. W zastosowaniach filtrów adaptacyjnych opartych na technice cyfrowej z wbudowanym konstrukcyjnie oprogramowaniam (hardwire digital) wejście układu jest najpierw prób kowane a następnie kwantowane w sposób przydatny dla przechowywania w rejestrach przesuwnych. Zestaw regulowanych wag filtrów również zapamiętywany jest w rejestrach przesuwnych. Układy logiczne zapewniają wykonywanie niezbędnych operacji aryt metycznych (tzn. mnożenia i akumulacji). W tym drugim podejściu, stosuje się układy, których jedynym zadaniem jest zapewnienie korekcji. Jest to jedna z najszerzej stosowa nych metod realizacji korektorów adaptacyjnych, nadająca się jednocześnie do wykona nia w technologii VLSI. 3. Użycie programowalnego procesora cyfrowego, na przykład w postaci mikroprocesora, pozwala na uzyskanie elastyczności działania, gdyż filtracja adaptacyjna przybiera funkcję ciągu rozkazów mikroprocesora. Ważną zaletą takiego podejścia jest możliwość wykorzy stania tych samych układów w systemie z podziałem czasowym, do wykonywania szeregu funkcji przetwarzania sygnałów, takich jak filtrowanie, modulacja i demodulacja w mode mie (modulator — demodulator) stosowanym dla transmisji danych cyfrowych poprzez kanał telefoniczny.
Korekcja z decyzyjnym sprzężeniem zw rotnym Aby lepiej zrozumieć jak działa korekcja adaptacyjna, rozważmy kanał o paśmie pod stawowym i o odpowiedzi impulsowej reprezentowanej przez ciąg próbek {hn}, przy czym hn = h(nT). Odpowiedź tego kanału na wejściowy ciąg {x„}, przy braku szumów, dana jest przez dyskretną sumę splotową. y n = ' L hkXn~k = k
h OX n +
ZM „-*+ I K k <0 fc>0
X«-k
(7-1 10)
Pierwszy człon równania (7.110) reprezentuje pożądany symbol danych. Drugi człon powstaje z impulsów odpowiedzi impulsowej kanału zwanych prekursorami, które pojawiły się wcześniej niż główna próbka h0 związana z pożądanym symbolem danych. Trzeci człon składa się z postkursorów odpowiedzi impulsowej kanału, które zdarzyły się później niż główna próbka h0. Prekursory i postkursory odpowiedzi impulsowej kanału zobrazowano na
7.9.
451
KOREKCJA ADAPTACYJNA
Prekursory
Postkursory
Rys. 7.27. Odpowiedź impulsowa kanału opisanego dyskretną sumą splotu
rys. 7.27. Idea korekcji z decyzyjnym sprzężeniem zwrotnym71 polega na użyciu danych z decyzji uczynionych względem prekursorów odpowiedzi impulsowej kanału podczas zaangażowania się systemu w ocenę postkursorów; aby jednak proces przebiegał prawidłowo wymagana jest oczywiście poprawność decyzji. Przypuśćmy, że warunek ten jest spełniony i układ korektora ze sprzężeniem zwrotnym jest w stanie zapewnić polepszenie charak terystyk funkcjonalnych korektora z linią opóźniającą z doczepami. Korektor z decyzyjnym sprzężeniem zwrotnym składa się z bloku wejściowego, układu sprzężenia zwrotnego i urządzenia decyzyjnego, przedstawionych na rys. 7.28. Blok wejściowy składa się z filtru z linią opóźniającą, której odczepy odległe są o okres, czyli odwrotność szybkości transmisji. Przeznaczony do korekcji ciąg danych podłączany jest na wejście tego układu. W skład układu sprzężenia zwrotnego wchodzi inny filtr z linią opóźniającą z odczepami; również i w tym filtrze odczepy są rozmieszczone z odstępem równym odwrotności szybkości transmisji. Na wejście układu sprzężenia zwrotnego podano informacje o decyzjach uczynionych przy detekcji poprzednich symboli ciągu wejściowego. Zadanie układu sprzężenia zwrotnego polega na eliminacji, drogą odejmowania, tej części interferencji między symbolami, która pojawiła się w poprzednio detekowanych symbolach, przy jednoczesnym zachowaniu estymatorów dla następnych próbek. Zwróćmy uwagę, że włączenie urządzenia decyzyjnego w skład pętli sprzężenia czyni korektor urządzeniem nieliniowym, które jest trudniejsze w analizie od zwykłego korektora z linią z odczepami. Pomimo to, kryterium błędu najmniejszych kwadratów może posłużyć do uzyskania dającej się matematycznie rozwiązać optymalizacji korektora z decyzyjnym sprzężeniem zwrotnym. Rzeczywiście, algorytm LMS może być użyty zarówno do adaptacyjnego strojenia wag odczepów toru głównego, jak i toru sprzężenia zwrotnego, opartego na wspólnym sygnale błędu. Aby to sprecyzować, niech wektor cn oznacza
Rys. 7.28. Schemat blokowy układu z decyzyjnym sprzężeniem zwrotnym 29*
452
7.
TRANSMISJA WPASMIE PODSTAWOWYM
kombinację wag odczepów bloku wejściowego i układu sprzężenia zwrotnego zapisanych wzorem: A(l)' (7.111) gdzie wektor w^ł) oznacza wagi odczepów bloku wejściowego i wj,2) oznacza wagi odczepów układu sprzężenia zwrotnego. Niech rozszerzony wektor v„ oznacza kombinację próbek wejściowych obu układów. (7.112) gdzie x„ — wektor wejść odczepów bloku wejściowego, a„ — wektor wejść odczepów (czyli bieżących i uprzednich decyzji) w układzie sprzężenia zwrotnego. Wspólny sygnał błędu dany jest wzorem: ~ c„ v„
(7.113)
gdzie indeks górny T oznacza transpozycję macierzy, a a„ — biegunowa reprezentacja n-tego przesyłanego symbolu binarnego. Algorytm LMS dla korektora z decyzyjnym sprzężeniem zwrotnym opisany jest przez równania: *W i =
+
(7.114)
= yi{n )jt n 2e„K
(7.115)
gdzie nl i /i2 — parametry kroku rekurencji odpowiednio toru głównego i sprzężenia zwrotnego. Korektor z decyzyjnym sprzężeniem zwrotnym zapewnia korzystne właściwości systemu przy obecności umiarkowanej lub silnej interferencji międzysymbolowej, co sprawdzono na przykład w eksperymentach ze zjawiskiem zaniku (fadingu) w kanale radiowym.
7.10. Wykres oczkowy W poprzednich punktach tego rozdziału przedyskutowaliśmy różne techniki rozwiązywania problemów związanych z wpływem takich zjawisk jak szumy odbiorników i interferencja międzysymbolowa na działanie impulsowych systemów transmisyjnych pracujących w paś mie podstawowym. To, co się naprawdę liczy w końcowej analizie, to umiejętność oceny sumarycznego wpływu czynników wymienionych przed chwilą na globalne charakterystyki funkcjonalne całego systemu w warunkach operacyjnych. Jednym z eksperymentalnych narzędzi, pozwalających na głębszy wgląd w ocenę zjawisk jest tak zwany wykres oczkowy, który powstaje przez naniesienie na pojedynczy wykres wszystkich możliwych realizacji interesujących nas sygnałów (np. sygnału odbieranego, wyjścia odbiornika), obserwowanych w określonym przedziale czasu. Nazwa wykresu Oczkowego bierze się z podobieństwa wykresu w przypadku fal binarnych do ludzkiego oka. Wewnętrzny obszar wykresu Oczkowego nazywany jest roztwarciem oczka. Wykres oczkowy dostarcza wielu użytecznych informacji odnośnie charakterystyk funkcjonalnych systemów transmisji danych, jak podano na rys. 7.29. W szczególności można stwierdzić co następuje:
453
7.10. WYKRES OCZKOWY Optymalny czas próbkowania Odchyłki w i chwilach Margines sygnału względem szumu
Rozrzut czasów przejść przez zero Przedział czasu, w którym sygnał może być próbkowany
Rys. 7.29. Interpretacja wykresu Oczkowego
• Szerokość otwarcia oka definiuje przedział czasu, w którym sygnał odbierany może być próbkowany bez wystąpienia błędów interferencji międzysymbolowej; jest przy tym oczywis te, że uprzywilejowaną chwilą próbkowania będzie chwila czasu przypadająca na najszersze otwarcie oka. • Czułość systemu względem błędów synchronizacji określona jest przez nachylenie pochod nej opisującej prędkość przymykania oka w funkcji czasu próbkowania. • Wysokość otwarcia oka, przy określonym czasie próbkowania, definiuje margines szumu w systemie. Przy dużej interferencji międzysymbolowej przebiegi z górnej części wykresu Oczkowego krzyżują się z przebiegami z dolnej części, ze skutkiem takim, że oko jest zupełnie zamknięte. W takiej sytuacji niemożliwe jest uniknięcie błędów związanych z łączną obecnością interferencji międzysymbolowej i szumu w systemie. W przypadku systemów M-wartościowych wykres zawiera (M —1) oczek, zgroma dzonych pionowo jedno nad drugim i tworzących liczbę M dyskretnych poziomów amplitudy użytych do konstrukcji przesyłanego sygnału. Przy ściśle liniowym systemie losowych danych wszystkie te oczka byłyby identyczne. W praktyce jednak często możliwe jest rozróżnienie asymetrii w wykresie oczkowym, które spowodowane są nieliniowościami w kanale komunikacyjnym.
Eksperyment komputerowy Wykresy oczkowe dla systemów binarnych i czteropoziomowych Rysunki 7.30a i 7.30b przedstawiają wykresy oczkowe dla transmisji w systemie PAM o paśmie podstawowym, odpowiednio dla M = 2 i M = 4. Kanał nie ma ograniczeń co do pasma, a symbole w źródle są wynikiem pracy komputerowego generatora liczb losowych. W obu przypadkach użyto impulsów cosinus. Parametry zastosowane dla generacji wykresów Oczkowych są następujące: pasmo Nyquista W= 0,5 Hz, indeks zbocza a = 0,5. W przypadku binarnym M = 2 czas trwania symbolu Ti czas trwania bitu Tb są identyczne, przy czym Tb = 1 s. Dla przypadku M = 4, mamy T = Tblog2 M = 2Tb. W obu przypadkach stwierdzamy, że oczka są otwarte, co wskazuje na niezawodną pracę systemu. Rysunki 7.3la i 7.3lb pokazują wykresy oczkowe dla tych samych systemów transmisji impulsowej w paśmie podstawowym, stosujących te same co poprzednio parametry, lecz tym razem w warunkach ograniczenia pasma. W szczególności kanał jest teraz oceniany na podstawie modelu z dolnopasmowym filtrem Buttrwortha, którego charakterystyka częstotliwościowa zdefiniowana jest w postaci:
454
7.
TRANSMISJA W PAŚMIE PODSTAWOWYM
a
O
0,5
1 1,5 + Chwila próbkowania
t Chwila próbkowania
2 r(s)
r(s)
Rys. 730 Wykres oczkowy sygnału odbieranego bez ograniczeń co do pasma: a) M = 2, b) M = 4
l IW ! =
l + ( / / / o ) 2*
gdzie N — filtru, a /0 —3-dB częstotliwość graniczna. W eksperymencie komputerowym pokazanym na rys. 7.31 zastosowano następujące wartości: N = 25 i /o = 0,975 Hz Pasmo wymagane przez system transmisji PAM wyliczono jako: Bt = VP(l+a) = 0,75 Hz
7.10. WYKRES OCZKOWY
455
4 Chwila próbkowania
Ms)
Rys. 7.31 Wykres oczkowy sygnału odbieranego, gdy charakterystyka kanału jest ograniczona co do pasma: a) M — 2, b) M = 4
Pomimo tego, że częstotliwość odcięcia pasma kanału jest większa od absolutnie koniecznej, jej wpływ na pasmo przepustowe obserwowany jest jako spadek w wielkości otwarcia oczka. W miejsce dotychczasowych dyskretnych wartości przy t = 1 s (pokazanych na poprzednich rysunkach) pojawia się teraz rozmazany obszar. Gdybyśmy w dalszym ciągu zmniejszali pasmo kanału, oczko zamykałoby się jeszcze bardziej, aż w końcu nie byłoby już rozpoznawalne żadne oczko.
456
7.
TRANSMISJA W PAŚMIE PODSTAWOWYM
7 .1 1 . P o d s u m o w a n ie i dyskusja W tym rozdziale zajmowaliśmy się badaniem wpływu szumów i interferencji międzysymbolowej na charakterystyki funkcjonalne impulsowych systemów transmisji w paśmie podstawowym. Interferencja międzysymbolowa (ISI) różni się od szumu tym, że istnieje w postaci interferencji sygnalowo zależnej, która powstaje wskutek odchyleń charakterystyki częstotliwościowej kanału, względem charakterystyki idealnego filtru dolnoprzepustowego (czyli kanału Nyquista); ponadto interferencja ta znika, gdy sygnał zostanie wyłączony. W rezultacie tych odchyleń impuls odbierany przez odbiornik i odpowiadający określonemu symbolowi pozostaje pod wpływem następujących zjawisk (1) rozciągniętych w czasie zboczy impulsów odpowiadających poprzednim symbolom i (2) narastających zboczy impulsów reprezentujących następne symbole. Zależnie od stosunku sygnału odbieranego do szumu możemy rozróżnić trzy różne sytuacje, które powstają w impulsowych systemach transmisji z pasmem podstawowym w kanale o ustalonych charakterystykach: 1. Wpływ ISI jest pomijalny w porównaniu do wpływu szumu. W tym przypadku prawidłowym podejściem jest zastosowanie filtru dolnoprzepustowego, zrealizowanego przez filtr optymalny, liniowy i stacjonarny dokonujący maksymalizacji szczytowego impulsowego stosunku sygnału do szumu. 2. Stosunek sygnału do szumu przy odbiorze jest dostatecznie duży, aby możliwe było pominięcie efektów szumowych. W tym przypadku zachodzi potrzeba zabezpieczenia odbiornika przed wpływem ISI w procesie odtwarzania przychodzących danych w odbiorniku. Specjalna uwaga musi być poświęcona kontrolowaniu kształtu odbieranych impulsów. Tak sformułowane założenia projektowe mogą być osiągnięte na dwa sposoby: • Posłużenie się widmem cosinusoidalnym dla ogólnego ukształtowania charakterystyki częstotliwościowej systemu transmisji w paśmie podstawowym. • Zastosowanie kodowania z korekcją poziomów lub kodowania z odpowiedzią cząstkową, co sprowadza się do celowego dodawania ISI do sygnału transmitowanego. 3. ISI i szum mają porównywalny wpływ. Rozwiązanie problemu w tym przypadku wymaga łącznej optymalizacji filtrów nadajnika i odbiornika. Najpierw staramy się zredukować ISI do zera w chwilach próbkowania, wykorzystując w tym celu odpowiedni kształt impulsu, następnie zaś stosujemy nierówność Schwarza do osiągnięcia maksymalizacji wyjściowego stosunku sygnału do szumu w chwilach próbkowania8*. Jeśli jednak kanał należy do losowych w sensie przynależności do zbioru pewnych możliwych realizacji fizycznych, a jest to dość często spotykane w przypadku środowiska telekomunikacyjnego, wtedy użycie filtrów stałych zaprojektowanych według średnich charakterystyk kanału może okazać się niewystarczające. W tego rodzaju sytuacjach preferuje się wykorzystanie korektora adaptacyjnego, umieszczonego za filtrem odbiorczym w odbiorniku. Zadanie układu adaptacyjnego sprowadza się do automatycznego kompen sowania zmian charakterystyki częstotliwościowej kanału podczas transmisji. Prosta i zarazem wysoce efektywna metoda realizacji tego układu polega na wykorzystaniu filtru z linią opóźniającą z odczepami przy jednoczesnym zastosowaniu algorytmu najmniejszych kwadratów LMS do regulacji wag odczepów. Skonstruowane tą metodą urządzenie zdolne jest do działania w niestacjonarnym środowisku w łącznej obecności efektów ISI i szumów odbiornika. Praktyczną wartość takiego urządzenia potwierdza fakt, że prawie każdy współcześnie stosowany komercyjny modem (modulator-demodulator) dla transmisji da nych cyfrowych przez kanał telefoniczny o profilu akustycznym ma integralnie wbudowany adaptacyjny filtr korekcyjny.
7.11. PODSUMOWANIE I DYSKUSJA
457
PRZYPISY I LITERATURA 1) Klasyczne książki na temat transmisji w paśmie podstawowym to Lucky, Salz i Weldon (1968) oraz Sunde (1969). Dokładniejsze potraktowanie różnych aspektów tematu można znaleźć w książkach Gitlina, Hayesa i Wcinsteina (1992), Proakisa (1989) i Benedetto, Biglieriego i Castellaniego (1987). 2) Wyprowadzenie charakterystyk filtrów dopasowanych po raz pierwszy wykonał North w poufnym raporcie (Raport Laboratorium RCA PTR-6C, czerwiec 1943), który został opublikowany w 20 lat później; chodzi o publikację Northa (1963). Podobny wynik został otrzymany niezależnie przez Van Vlccka i Middletona, którzy „ukuli” termin „filtr dopasowany” (ang. „matched filtr”); patrz publikcja Van Vlccka i Middletona (1964). Przeglądowy materiał dotyczący filtrów dopasowanych i ich właściwości jest zawarty w pracach Turina (1960, 1976). 3) Kryterium opisane równaniami (7.49) lub(7.53) sformułował najpierw Nyquist w ramach studiów nad teorią transmisji telegraficznej; do klasyki należy publikacja Nyquista z 1928 roku. To kryterium cytowane jest w literaturze jako pierwsze kryterium Nyquista. W następnej publikacji z 1928 roku Nyquist opisał metodę, nazywaną w literaturze drugim kryterium Nyquista. Druga metoda wykorzys tuje raczej informacje zawarte w czasach przejść od jednego do innego symbolu w sygnale odbiorczym, niż informacje zawarte w dekodowaniu wycentrowanych próbek. Dyskusja pierwszego i drugiego kryterium podana jest w pracy Bennetta (1970, pp. 78—92) i w publikacji Gibby i Smitha (1965). Trzecie kryterium przypisywane Nyquistowi przedyskutował Sunde (1969); patrz też publikacje Pasupathy (1974) i Sayara i Pasupathy (1987). 4) Kodowanie o poziomach częściowo skorelowanych i kodowanie z odpowiedzią częściową stanowią w pewnym sensie synonim; obydwa terminy stosowane są w literaturze. Ideę kodowania korelacyj nego zapoczątkował Lender (1963). Praca Lendera została uogólniona dla transmisji danych binarnych przez Krctzmera (1966). Dalsze szczegóły dotyczące techniki kodowania korelacyjnego zawiera książka Gitlina, Hayesa i Weinsteina (1992); patrz też publikacje Pasupathy (1977), Kabali i Pasupathy (1975), Sousa i Pasupathy (1983). 5) Pionierskie prace z dziedziny korekcji adaptacyjnej kanałów telefonicznych zapoczątkował Lucky (1965, 1966). Od tego czasu opublikowano liczne schematy filtrów adaptacyjnych, zapewniających korekcję w poszczególnych synchronicznych systemach transmisji danych. Prace przeglądowe z tej dziedziny, to artyk Proakisa (1975) i Qureshiego (1982, 1985). Różne aspekty korekcji adaptacyjnej przedyskutowano dokładnie w książkach Gitlina, Hayesa i Weinsteina (1992, rozdział 8) i Proakisa (1989, rozdział 6). 6) Algorytm LMS zapoczątkowali Widrow i Hoff, Jr. (1960). Dokładną analizę zbieżności algorytmu LMS podali Haykin (1991, str. 314— 336) i Widroc i Stearns (1985, rozdział 6). 7) Korekcja z decyzyjnym sprzężeniem zwrotnym najpierw opisana była w raporcie Austina (1967). Optymalizacja korektora z decyzyjnym sprzężeniem zwrotnym nacelowana na minimum błędu średniokwadratowego najpierw została osiągnięta przez Monsena (1971). Przejrzysty opis tematu zaprezentowano w książce Gitlina, Hayesa i Weinsteina (1992, str. 50Q 510). 8) Łączną optymalizację filtrów nadajnika i odbiornika, przy łącznej obecności interferencji międzysymbolowej i szumu, przedyskutowano u Shanmugama (1979, str. 197—201).
ZADANIA Zadanie 7.1 Rozważ sygnał s(t) pokazany na rys. Z7.1. a) Wyznacz odpowiedź impulsową filtru dopasowanego do tego sygnału i naszkicuj ją jako funkcję czasu. b) Wykreśl wyjście dopasowanego filtru w funkcji czasu. c) Jaka jest wartość szczytowa na wyjściu?
458
7.
TRANSMISJA W PAŚMIE PODSTAWOWYM
j (i )
Rys. Z7.1
Zadanie 7.2 Należy zaprojektować filtr dopasowany, który ma mieć postać filtru z linią opóźniającą z odczepami ze zbiorem wag odczepów {wk, k — 0,1,..., K}. Jeśli dany jest sygnał o czasie trwania T sekund, do którego filtr jest dopasowany, to znajdź wartość wk. Przyjmuje się założenie, że sygnał jest próbkowany równomiernie. Zadanie 7.3 Rozważ impuls prostokątny zdefiniowany w postaci: (a, 9(t) = < fO,
0< t< T w innych przypadkach
Należy dokonać aproksymacji filtru dopasowanego do sygnału g(t) za pomocą idealnego filtru dolnoprzepustowego o paśmie B; nadrzędnym celem jest optymalizacja szczytowego impulsu stosunku sygnału do szumu. a) Określ optymalną wartość B, dla której idealny filtr dolnoprzepustowy zapewnia najlepszą aproksymację filtru dopasowanego. b) O ile decybeli idealny filtr dolnoprzepustowy jest gorszy od filtru dopasowanego? Zadanie 7.4 Fala binarna PCM używa kodowania z przerywaniem fali nośnej do przesyłania symboli 1 i 0; symbol 1 jest reprezentowany przez impuls prostokątny o czasie trwania Tb i amplitudzie A. Szum addytywny na wyjściu odbiornika jest biały i jest szumem gaussowskim o zerowej średniej i widmowej gęstości mocy N J 2. Zakładając, że symbole 1 i 0 zdarzają się z równym prawdopodobieństwem, znajdź wyrażenie na średnie prawdopodobieństwo błędu na wyjściu odbiornika stosując filtr dopasowany opisany w punkcie 7.3. Zadanie 7.5 System binarny PCM, stosujący kod NRZ, funkcjonuje tuż ponad progiem błędu ze średnim prawdopodobieństwem błędu równym 10"6. Przypuśćmy, że podwojono szybkość trans misji. Znajdź nową wartość średniego prawdopodobieństwa błędu. Możesz użyć danych zawartych w tablicy 1 z dodatku 7 do oceny komplementarnej funkcji błędu.
7.11. PODSUMOWANIE 1 DYSKUSJA
459
Zadanie 7.6 Sygnał ciągły w czasie podlega próbkowaniu i następnie jest przesyłany jako sygnał PCM. Zmienna losowa na wejściu urządzenia decyzyjnego w odbiorniku ma wariancję równą 0,01 Volt2. a) Zakładając użycie kodu NRZ, wyznacz amplitudę impulsu jaką trzeba przesyłać, aby średnia stopa błędu nie przekroczyła 1 bitu na 108 bitów. b) Jeśli dodatkowo obecność interferencji pogorszy stopę błędów do 1 bitu na 106 bitów, to jaka jest wariancja interferencji? Zadanie 7.7 W systemie binarnym symbole 0 i 1 mają prawdopodobieństwa a priori odpowiednio p0 i pv Warunkowa funkcja gęstości prawdopodobieństwa zmiennej losowej Y(o wartości próbki y) otrzymana z próbkowania filtru dopasowanego w odbiorniku z rys. 7.4 na końcu przedziału sygnałowego ma oznaczenie/r(>’|0) pod warunkiem wysłania symbolu 0. Podobnie/y(y|l) oznacza warunkową funkcję gęstości prawdopodobieństwa z Y, o ile wysłano symbol 1. Niech A oznacza próg zastosowany w odbiorniku taki, że jeśli wartość próbki przekroczy X, to odbiornik zdecyduje na korzyść symbolu 1; w innym przypadku zdecyduje ona na korzyść symbolu 0. Pokaż, że optymalny próg Aopt, dla którego średnie prawdopodobieństwo błędu jest najmniejsze, dany jest przez rozwiązanie relacji: -M ^ -O p t 1 1 )
/ r ( 4 Pt|0)
_
Po^
Pi
Zadanie 7.8 Kształt impulsu p(t) systemu binarnego PAM o paśmie podstawowym zdefiniowany jest jako:
gdzie Tb — czas trwania bitu wejściowych danych binarnych. Poziomy amplitudy na wyjściu modulatora impulsowego są +1 i —1, zależnie od tego, czy na wejściu symbol binarny jest odpowiednio 1 lub 0. Naszkicuj kształt fali na wyjściu filtru odbiornika w odpowiedzi na dane wejściowe 001101001. Zadanie 7.9 Wyznacz odwrotną transformatę Fouriera funkcji częstotliwości P(f) zdefiniowanej w rów naniu (7.60). Zadanie 7.10 Sygnał analogowy jest próbkowany, kwantowany i zakodowany w falę binarną PCM. Dane tego systemu PCM są następujące: częstotliwość próbkowania = 8 kHz liczba poziomów reprezentacji = 64 Fala PCM przesyłana jest przez kanał o paśmie podstawowym przy zastosowaniu dyskretnej modulacji amplitudy impulsów. Wyznacz minimalne pasmo potrzebne dla transmisji fali PCM, jeśli każdy impuls może przyjmować następującą liczbę poziomów amplitudy: 2, 4 lub 8.
460
7. TRANSMISJA W PAŚMIE PODSTAWOWYM
Zadanie 7.11 Rozważ binarny system PAM o paśmie podstawowym zaprojektowany dla kosinusoidalnego widma P(f). Odpowiedni impuls p(t) zdefiniowany jest w równaniu (7.62). W jaki sposób zmieni się ten impuls, gdy zaprojektowany system będzie miał liniową charakterystyką fazową. Zadanie 7.12 Komputer wysyła dane binarne z szybkością 56 kb/s. Wyjście komputera współpracuje z systemem binarnym PCM o paśmie podstawowym zaprojektowanym dla widma kosinusoidalnego. Wyznacz pasmo transmisji wymagane dla każdego z wymienionych indeksów zbocza: a = 0,25; 0,5; 0,75; 1,0 Zadanie 7.13 Przelicz dane z zadania 7.12, jeśli każdy zbiór trzech kolejnych liczb binarnych z wyjścia komputera jest zakodowany w jeden z ośmiu możliwych poziomów amplitudy, a otrzymany sygnał przesyłany jest z wykorzystaniem ośmiopoziomowego systemu PAM zaprojek towanego dla widma kosinusoidalnego. Zadanie 7.14 Sygnał analogowy jest próbkowany, kwantowany i zakodowany w falę binarną PCM. Zastosowano liczbę 128 poziomów reprezentacji. Na końcu każdego słowa kodu reprezen tującego próbkę sygnału analogowego dodano impuls synchronizujący. Otrzymana w ten sposób fala PCM przesyłana jest przez kanał o paśmie 12 kHz za pomocą czteropoziomowego systemu PAM o widmie kosinusoidalnym. Indeks zbocza jest równy jedności. a) Znajdź szybkość bitową w (b/s) z którą informacja transmitowana jest przez kanał. b) Znajdź częstotliwość, z jaką próbkowany jest sygnał analogowy. Jaka jest maksymalna możliwa wartość składowej o najwyższej częstotliwości w sygnale analogowym? Zadanie 7.15 Fala binarna PAM ma być transmitowana przez kanał o paśmie podstawowym przy maksymalnym osiągalnym paśmie 75 kHz. Czas trwania bitu wynosi 10 ps. Znajdź widmo kosinusoidalne spełniające takie wymagania. Zadanie 7.16 Techniki kodowania: duobinama, trójkowa i bipolarna mają jedną wspólną cechę: wszystkie posługują się trzema poziomami amplitudy. W jaki sposób różni się technika doubinama od dwu pozostałych? Zadanie 7.17 Strumień danych binarnych 001101001 przyłożono na wejście systemu doubinarnego. a) Wykreśl wyjście kodera doubinarnego i odpowiednie wyjście odbiornika, bez prekodera. b) Wyobraźmy sobie, że z powodu błędu w transmisji, poziom na wejściu odbiornika wytworzony przez drugą cyfrę spadł do zera. Wykreśl ponownie wyjście odbiornika. Zadanie 7.18 Powtórz zadanie 7.17, zakładając użycie prekodera w nadajniku.
461
7.11. PODSUMOWANIE 1 DYSKUSJA Sumator modulo-2 Bipolarna reprezen tacja ciągu binarnego
Rys. Z7.2 Zadanie 7.19 Schemat pokazany na rys. Z7.2 może być rozpatrywany jako koder różnicowy (składający się z sumatora modulo-2 i pojedynczego elementu opóźniającego) połączony w szereg ze specjalnym rozwiązaniem kodera korelującego (w skład którego wchodzą pojedynczy element opóźniający i sumator). Pojedynczy element opóźniający pokazano na rys. Z7.2, ponieważ jest on wspólnym elementem zarówno kodera różnicowego jak i kodera korelującego. W koderze różnicowym przejście reprezentowane jest przez symbol 0 a brak przejścia przez symbol 1. a) Znajdź charakterystykę częstotliwościową i charakterystykę impulsową kodera korelują cego wchodzącego w skład schematu pokazanego na rys. Z7.2. b) Pokaż, że schemat ten może być użyty do konwersji stanów logicznych unipolarnego ciągu binarnego (przyłożonego na wejście) na reprezentację bipolarną ciągu wyjściowego. Możesz zilustrować tę konwersję rozważając ciąg 010001101. Celem znalezienia opisu kodowania z przerywaniem fali nośnej, bipolarnego i różnicowego dla ciągów binarnych, zobacz punkt 6.8. Zadanie 7.20 Rozważmy losową falę binarną x(t) w której 1 i 0 zdarzają się z równym prawdopodobieńst wem, symbole w sąsiadujących przedziałach czasowych są statystycznie niezależne, przy czym symbol 1 odpowiada A woltom a symbol 0 zero woltom. Ta przełączana fala binarna przyłożona jest do obwodu z rys. Z7.2. a) Stosując wynik z zadania 7.19 pokaż, że widmowa gęstość mocy fali bipolarnej y(f) pojawiającej się na wyjściu układu równa się: SY{f) = TbA 2sin2(uf Tb)sir\c2(KfTh) b) Wykreśl widmową gęstość mocy dla fali z przerywaniem nośnej oraz bipolarnej fali binarnej i porównaj je. ś
Zadanie 7.21 Strumień danych binarnych 011100101 przyłożony jest na wejście zmodyfikowanego systemu duobinarnego. a) Wykreśl wyjście zmodyfikowanego kodera duobinarnego i odpowiednie wyjście odbior nika, bez prekodera. b) Przypuśćmy, że wskutek błędu w transmisji, poziom wytworzony przez trzecią cyfrę spadł do zera. Wykreśl nowe wyjście odbiornika.
462
7.
m{t)
TRANSMISJA W PAŚMIE PODSTAWOWYM
Wyjście
Rys. Z73
Zadanie 7.22 Powtórz zadanie 7.21 zakładając użycie prekodera w nadajniku.
Zadanie 7.23 Rozważmy M-wartościowy system o paśmie podstawowym mający M dyskretnych pozio mów amplitudy. Model odbiornika jest taki, jak pokazano na rys. Z7.3, a jego działanie podlega następującym założeniom: a) Składowa sygnału w fali odbieranej jest równa: m(t) = J X n
s in c
gdzie 1/T — szybkość transmisji w bodach. b) Poziomy amplitudy wynoszą an = ± A j2, ±3/4/2,..., ±(M —1)4/2, jeśli M jest parzyste i an = 0, ±4,..., ±(M —1)4/2 jeśli M jest nieparzyste. c) Wszystkie poziomy są równo prawdopodobne, a symbole transmitowane w sąsiednich przedziałach czasu są statystycznie niezależne. d) Szum w(t) na wyjściu odbiornika jest biały i gaussowski o zerowej średniej i gęstości widmowej mocy N J2. e) Filtr dolnoprzepustowy jest idealny o paśmie B = 1/271 f) Poziomy progów użyte w urządzeniu decyzyjnym wynoszą 0, ±4,..., ±(M —3)4/2 i jeśli M jest parzyste i ± 4 /2 , ±34/2,..., ±(M —3)4/2 jeśli M jest nieparzyste. Średnie prawdopodobieństwo błędu symbolu w tym systemie zdefiniowane jest przez:
gdzie
Zadanie 7.24 Przypuśćmy, że w M-wartościowym systemie o paśmie podstawowym PAM oraz M równoprawdopodobnych poziomach amplitudy, zgodnie z opisem z zadania 7.23, średnie prawdopodobieństwo błędu symbolu Pe jest mniejsze od 10"6, tak aby uczynić błędy w dekodowaniu pomijalnymi. Pokaż, że minimalna wartość stosunku sygnału do szumu przy odbiorze w takim systemie dana jest w przybliżeniu przez: (SNR)K.rain^7 ,8 (M 2- l )
463
7.11. PODSUMOWANIE I DYSKUSJA
Rys. Z7.4 Zadanie 7.25 Niektóre systemy radiowe doznają zniekształceń wielodrożnych przypisywanych obecności więcej niż jednej drogi propagacji pomiędzy nadajnikiem i odbiornikiem. Rozważmy kanał, którego odpowiedź na sygnał s(f) zdefiniowana jest (przy braku szumu) jako: x(r) = K 1s ( t - t Ql) + K 2s ( t - t 02) gdzie K x i K 2 — stałe, a t01 i r02 opisują opóźnienie transmisji. Proponuje się użycie filtru z linią opóźniającą z trzema odczepami z rys. Z7.4 dla wyrównania wielodrożnej transmisji spowodowanej przez taki kanał. a) Wyznacz transmitancję kanału. b) Wyznacz parametry filtru z linią z odczepami wyrażając je za pomocą K v K 2, t01 i f02 przy założeniu, że K 2 « K x i t01 > r01.
Zadanie 7.26 Niech ciąg (x(nT)} oznacza wejście korektora z linią opóźniającą z odczepami. Pokaż, że interferencja symbolowa jest całkowicie eliminowana przez ten układ pod warunkiem, że jego transmitancja spełnia warunek: T
H(n= £ X(f-k/T) k
gdzie T — czas trwania symbolu. Gdy liczba odczepów w układzie dąży do nieskończoności, jego transmitancja staje się szeregiem Fouriera o współczynnikach rzeczywistych i może w związku z tym aproksymować jakąkolwiek funkcję z p r z e d z i a ł u 1/27; 1/2T). Zademonstruj tę właściwość /^ korektora.
Wydawnictwa Komunikacji i Łączności sp. z o.o. Warszawa 1998. Wydanie 1. Drukarnia Naukowo-Techniczna Warszawa, ul. Mińska 65
804366
Książka autorstwa profesora Simona Ha$ ialisty w dziedzinie przetwarzania sygnałów i telekomunikacji oraz autora szeregu znakomitych książek z tej dziedziny, jest tłumaczeniem trzeciego, gruntownie zmienionego wydania orygi nalnego. Stanowi doskonały podręcznik reprezentujący aktualny stan nauki i techniki w dziedzinie telekomunikacji analogowej i cyfrowej. Niezwykle umiejętnie potoczono w niej podstawy teoretyczne wraz z niezbędnym aparatem matematycznym oraz podstawy wiedzy inżynierskiej. Obok podstawowych metod reprezentacji sygnałówi systemów, takichjak transtormacjaFourierai Hilberta, a także teoria procesów stochastycznych zwiazana z analiza szumów w układach telekomunikacyjnych, przedstawiono sys tematyczny przegląd systemów modulacji analogowej i cyfrowej, kładąc gtówny nacisk na nowoczesne systemy impulsowe i cy frowe. Praca obejmuje ponadto analizę systemów telekomunika cyjnych oparta na teorii informacji, a także zagadnienia poświęcone nowoczesnym systemom telekomunikacji sateli tarnej, światłowodowej i radiokomunikacji ruchomej. Jest topierwsza książką z dziedziny telekomunikacji zawierają capodstawowe wiadomości na temat analizyczasowo - częstotli wościowej oraz kryptografii, potraktowanej jako nieodłączny element systemówbezpiecznej telekomunikacji.
ISBN 83-206-1273-X
Wydawnictwa Komunikacji i Łączności
9 788320 612738