Elektronika
ależ to bardzo proste! Andrzej
Zbigniew
Ewelina
Mariusz
Dobrowolski Majda
Jachna Wierzbowski
W trakcie pracy dydaktycznej autorzy książki często spotykali się z problemami studentów, którzy w czasie pierwszych lat studiów przechodzą wiele przedmiotów wprowadzających ich od podstaw w zagadnienia związane z m.in. automatyką, elektrotechniką, elektroniką i telekomunikacją. Kadra naukowo-dydaktyczna ma za zadanie przekazać w skondensowany sposób olbrzymi zakres wiedzy i jest to zadanie niełatwe, ponieważ obecnie czas studiowania do momentu osiągnięcia tytułu inżyniera elektronika skrócono do zaledwie trzech i pół roku. Kluczem do sukcesu jest opanowanie całego wykładanego materiału tworzącego fundament dla owocnej pracy zawodowej. Problemy w studiowaniu elektroniki wynikają ze słabego przygotowania wstępnego większości studentów, co najczęściej powoduje „utratę kontaktu” z wykładowcą już na pierwszych zajęciach. Konsekwencją tego stanu rzeczy jest opuszczanie kolejnych wykładów i „odpuszczenie sobie” przedmiotu, który jest przecież podstawą do studiowania kolejnych... Dlatego powstał ten podręcznik, który jest przeznaczony dla studentów wydziałów elektrycznych i elektronicznych wyższych uczelni technicznych, dla uczniów starszych klas techników o profilu elektronicznym, licealistów oraz dla wszystkich zainteresowanych układami elektronicznymi.
Sekretarz redakcji: mgr Katarzyna Kempista Redaktor merytoryczny: mgr Anna Kubacka Redaktor techniczny: mgr Delfina Korabiewska Opiniodawca: dr hab. inż. Michał Pawłowski
ISBN 978-83-60233-96-2 © Copyright by Wydawnictwo BTC Legionowo 2013
Wydawnictwo BTC ul. Lwowska 5 05-120 Legionowo fax: (22) 767-36-33 http://www.btc.pl e-mail:
[email protected] Wydanie I Wszystkie znaki występujące w tekście są zastrzeżonymi znakami firmowymi bądź towarowymi ich właścicieli. Autor oraz wydawnictwo BTC dołożyli wszelkich starań, by zawarte w tej książce informacje były kompletne i rzetelne. Nie biorą jednak żadnej odpowiedzialności ani za ich wykorzystanie, ani za związane z tym ewentualne naruszenie praw patentowych lub autorskich. Autorzy oraz wydawnictwo BTC nie ponoszą również żadnej odpowiedzialności za ewentualne szkody wynikłe z wykorzystania informacji zawartych w książce. Wszelkie prawa zastrzeżone. Nieautoryzowane rozpowszechnianie całości lub fragmentów niniejszej publikacji w jakiejkolwiek postaci jest zabronione. Wykonywanie kopii metodą kserograficzną, fotograficzną, a także kopiowanie książki na nośniku filmowym, magnetycznym lub innym powoduje naruszenie praw autorskich niniejszej publikacji.
Druk i oprawa: Drukarnia TOTEM S.C. w Inowrocławiu
Spis treści
3
Przedmowa........................................................................................................................................ 7 Część 1. Obwody elektryczne ............................................................................................................. 9 1. Podstawowe własności obwodu elektrycznego .............................................................. 10 1.1. 1.2. 1.3. 1.4.
Podstawowe pojęcia ................................................................................................................... 10 Prawa Ohma i Kirchhoffa ........................................................................................................ 25 Przekształcenia obwodów ........................................................................................................ 31 Liniowość obwodu elektrycznego ........................................................................................ 43
2. Metody analizy liniowych obwodów prądu stałego .................................................... 45 2.1. 2.2. 2.3. 2.4. 2.5. 2.6. 2.7.
Metoda równań Kirchhoffa ..................................................................................................... 45 Metoda prądów oczkowych .................................................................................................... 49 Metoda potencjałów węzłowych ........................................................................................... 53 Metoda superpozycji .................................................................................................................. 56 Metoda transfiguracji................................................................................................................. 59 Metoda oparta na twierdzeniach Thevenina i Nortona ................................................. 62 Czwórnik liniowy........................................................................................................................ 68
3. Nieliniowy obwód elektryczny .................................................................................................. 75 3.1.
Elementy nieliniowe i ich charakterystyki ........................................................................ 75
3.2.
Metody analizy obwodów nieliniowych ............................................................................ 80
3.3.
Metoda Newtona-Raphsona .................................................................................................... 84
4. Obwody prądu harmonicznego ................................................................................................ 87 4.1. 4.2. 4.3. 4.4. 4.5. 4.6. 4.7.
Ogólna charakterystyka przebiegów okresowych .......................................................... 87 Przebieg harmoniczny – interpretacja graficzna ............................................................. 92 Elementy idealne w obwodzie prądu harmonicznego ................................................... 96 Podstawowe prawa obwodów w postaci zespolonej .................................................. 103 Wykresy wskazowe ................................................................................................................. 107 Zjawisko rezonansu..................................................................................................................112 Analiza obwodów RLC metodą symboliczną ................................................................118
Część 2. Elementy półprzewodnikowe ....................................................................................121 5. Podstawy fizyki półprzewodników.......................................................................................122 5.1.
Atom według modelu Nielsa Bohra .................................................................................. 122
5.2.
Struktura krystaliczna ............................................................................................................. 124
5.3.
Półprzewodnik samoistny ..................................................................................................... 129
5.4.
Półprzewodnik domieszkowany ......................................................................................... 133
4
Spis treści
6. Złącze P-N .............................................................................................................................................145 6.1. 6.2. 6.3. 6.4. 6.5.
Struktura fizyczna .................................................................................................................... 145 Ruch nośników w stanie nierównowagi .......................................................................... 150 Praca statyczna złącza P-N ................................................................................................... 155 Praca dynamiczna złącza P-N ............................................................................................. 171 Rodzaje diod oraz ich parametry statyczne i dynamiczne ........................................ 197
7. Tranzystor bipolarny .....................................................................................................................207 7.1. 7.2. 7.3. 7.4.
Idea działania ............................................................................................................................. 207 Struktura fizyczna .................................................................................................................... 209 Ruch nośników (rozpływ prądów) .................................................................................... 210 Praca statyczna .......................................................................................................................... 214
7.5.
Praca dynamiczna .................................................................................................................... 238
8. Tranzystor unipolarny (polowy) ............................................................................................255 8.1.
Idea działania tranzystorów polowych............................................................................. 255
8.2.
Podział tranzystorów polowych ......................................................................................... 257
8.3.
Tranzystor złączowy PNFET............................................................................................... 258
8.4.
Tranzystor typu MIS ............................................................................................................... 278
8.5.
Pozostałe tranzystory polowe .............................................................................................. 296
9. Elementy przełączające................................................................................................................299 9.1.
Tyrystory ..................................................................................................................................... 299
9.2.
Tranzystor IGBT ...................................................................................................................... 310
10. Elementy optoelektroniczne......................................................................................................315 10.1. Zjawiska optyczne w półprzewodniku............................................................................. 315 10.2. Podział elementów optoelektronicznych......................................................................... 318 10.3. Fotorezystor ............................................................................................................................... 319 10.4. Fotodioda i fotoogniwo.......................................................................................................... 321 10.5. Fototranzystor............................................................................................................................ 324 10.6. Fototyrystor ................................................................................................................................ 325 10.7. Dioda świecąca ......................................................................................................................... 326 10.8. Wyświetlacze ciekłokrystaliczne ....................................................................................... 328 10.9. Transoptor ................................................................................................................................... 329
Część 3. Układy analogowe .............................................................................................................333 11. Zasilanie i stabilizacja punktu pracy tranzystora .....................................................334 11.1. Uwagi ogólne............................................................................................................................. 334 11.2. Układy polaryzacji tranzystorów bipolarnych .............................................................. 336
Spis treści
5
11.3. Układy polaryzacji tranzystorów polowych .................................................................. 341 11.4. Metody polaryzacji w układach scalonych .................................................................... 343
12. Małosygnałowe wzmacniacze pasmowe ...........................................................................345 12.1. Parametry robocze ................................................................................................................... 345 12.2. Ograniczenia częstotliwościowe ........................................................................................ 355 12.3. Wzmacniacze z ujemnym sprzężeniem zwrotnym ..................................................... 376 12.4. Wzmacniacze różnicowe ....................................................................................................... 384 12.5. Wzmacniacze operacyjne...................................................................................................... 391
13. Wzmacniacze mocy .........................................................................................................................403 13.1. Praca wielkosygnałowa ......................................................................................................... 403 13.2. Klasyfikacja i parametry robocze wzmacniaczy mocy.............................................. 408 13.3. Wzmacniacze mocy klasy A ................................................................................................ 410 13.4. Wzmacniacze mocy klasy B i AB ..................................................................................... 413 13.5. Wzmacniacze mocy klasy C ................................................................................................ 417
14. Generatory sygnałów harmonicznych ...............................................................................419 14.1. Liniowa teoria generacji ........................................................................................................ 419 14.2. Generatory LC........................................................................................................................... 422 14.3. Generatory RC .......................................................................................................................... 426
15. Generatory sygnałów prostokątnych .................................................................................429 15.1. Multiwibratory astabilne ....................................................................................................... 429 15.2. Multiwibratory monostabilne .............................................................................................. 431 15.3. Multiwibratory bistabilne...................................................................................................... 432 15.4. Multiwibratory przestrajane ................................................................................................. 433
16. Komputerowa analiza układów elektronicznych .......................................................435 16.1. Uwagi ogólne............................................................................................................................. 435 16.2. Wprowadzenie do programu ICAP/4 ............................................................................... 439 16.3. Projekt i analiza wzmacniacza małosygnałowego....................................................... 442
Część 4. Układy cyfrowe ...................................................................................................................461 17. Wprowadzenie do techniki cyfrowej ..................................................................................462 17.1. Reprezentacje liczb.................................................................................................................. 462 17.2. Algebra Boole’a i wzór Shannona ..................................................................................... 470 17.3. Symbole operacji logicznych .............................................................................................. 471 17.4. Zasady rysowania schematów logicznych...................................................................... 473
6
Spis treści
18. Układy kombinacyjne ...................................................................................................................475 18.1. Definicja układu kombinacyjnego ..................................................................................... 475 18.2. Dwupoziomowa reprezentacja układów kombinacyjnych ....................................... 475 18.3. Minimalizacja funkcji logicznych ..................................................................................... 482 18.4. Układy arytmetyczne .............................................................................................................. 490 18.5. Multipleksery, demultipleksery, konwertery kodów oraz pamięci ROM ........... 492
19. Układy sekwencyjne .......................................................................................................................501 19.1. Definicja układu sekwencyjnego ....................................................................................... 501 19.2. Sposoby opisu układów sekwencyjnych ......................................................................... 502 19.3. Zatrzaski i przerzutniki .......................................................................................................... 504 19.4. Synteza układów sekwencyjnych ...................................................................................... 508 19.5. Rejestry i liczniki ..................................................................................................................... 513
20. Cyfrowe układy scalone ...............................................................................................................519 20.1. Klasyfikacja układów cyfrowych ...................................................................................... 519 20.2. Budowa bramek CMOS ........................................................................................................ 520 20.3. Wybrane parametry elektryczne i czasowe .................................................................... 523 20.4. Architektury układów programowalnych ....................................................................... 526
21. Komputerowe projektowanie układów cyfrowych ...................................................533 21.1. Etapy projektowania układów cyfrowych ...................................................................... 533 21.2. Język VHDL – minimum na start ...................................................................................... 534 21.3. Projekt 1 – Sterownik świateł ulicznych ......................................................................... 542 21.4. Projekt 2 – Sterownik 4-pozycyjnego wyświetlacza 7-segmentowego............... 544 21.5. Projekt 3 – Generator liczb pseudolosowych ................................................................ 545
Dodatek matematyczny ........................................................................................................................549 A.
Pojęcie pochodnej .................................................................................................................... 550
B.
Pojęcie całki ............................................................................................................................... 555
C.
Funkcja wykładnicza i logarytmiczna .............................................................................. 560
D.
Arytmetyka liczb zespolonych ............................................................................................ 566
Literatura .......................................................................................................................................................570
Przedmowa Drogi Czytelniku, podczas naszej pracy dydaktycznej na Wydziale Elektroniki Wojskowej Akademii Technicznej w Warszawie często spotykamy się z problemami studentów, którzy w trakcie pierwszych lat studiów napotykają szereg przedmiotów wprowadzających w rozległą dziedzinę nazywaną najczęściej „elektroniką i telekomunikacją”. Realizująca te przedmioty kadra naukowo-dydaktyczna ma za zadanie przekazać w skondensowany sposób olbrzymi zakres wiedzy i jest to zadanie dodatkowo utrudnione, ponieważ czas studiowania do momentu osiągnięcia tytułu inżyniera elektronika skrócono do zaledwie trzech i pół roku. Mamy więc sytuację, którą krótko można scharakteryzować następująco: • śladowa liczba szkół średnich o profilach elektronicznych kształci niewystarczającą liczbę techników, a elektronicy amatorzy kończący licea nie mają najczęściej uporządkowanej wiedzy podstawowej z dziedziny elektroniki; • absolwenci liceów, którzy dopiero chcą rozpocząć przygodę z elektroniką, nie mają tej wiedzy praktycznie zupełnie, a stanowią jednocześnie większość studentów pierwszych lat studiów na kierunku elektronika; • wyższe uczelnie techniczne muszą praktycznie w ciągu niecałych czterech lat wykształcić dużą liczbę inżynierów elektroników; • rynek z niecierpliwością oczekuje napływu dobrych inżynierów elektroników, z naciskiem na słowo „dobrych”. Kluczem do sukcesu jest opanowanie całego wykładanego materiału tworzącego fundament dla owocnej pracy zawodowej. Problemy w studiowaniu elektroniki wynikają ze słabego przygotowania wstępnego większości studentów, co najczęściej powoduje utratę kontaktu z wykładowcą już na pierwszych zajęciach. Konsekwencją tego stanu rzeczy jest opuszczanie kolejnych wykładów i odpuszczenie sobie przedmiotu, który jest przecież podstawą do studiowania kolejnych... W celu przerwania tego zgubnego ciągu przyczynowo-skutkowego, zainspirowani uwagami naszego kolegi dr. inż. Jacka Pasia, któremu tą drogą składamy serdeczne podziękowania, przygotowaliśmy podręcznik-przewodnik po kluczowych działach elektroniki napisany prostym i przyjaznym językiem (przynajmniej z założenia). Zapoznanie się z treściami zawartymi na kartach tego podręcznika początkującym umożliwi łagodny start w czterech podstawowych modułach przedmiotowych, tj. w obwodach i sygnałach elektrycznych, elementach półprzewodnikowych oraz analogowych i cyfrowych układach elektronicznych, a zaawansowanym pozwoli na uporządkowanie i rozszerzenie zdobytej już wiedzy. Na starcie wymagane są dobre chęci oraz podstawowa wiedza z matematyki i fizyki na poziomie licealnym. Książka składa się z czterech części obejmujących zasadnicze działy podstaw elektroniki. W części pierwszej przedstawiamy podstawowe własności oraz metody analizy liniowych i nieliniowych obwodów prądu stałego oraz obwodów prądu har-
8
Przedmowa
monicznego, a w części drugiej podstawy działania i zastosowania półprzewodnikowych elementów elektronicznych. Przestudiowanie dwóch pierwszych części podręcznika umożliwi efektywne przyswojenie treści zawartych w dwóch kolejnych częściach obejmujących analogowe i cyfrowe układy elektroniczne. Przedmioty związane z techniką analogową i cyfrową sprawiają studiującym duże trudności, ponieważ łączą i całościowo wykorzystują wiedzę obejmującą teorię obwodów i elementy półprzewodnikowe. Autorzy są przekonani, że przyswojenie tej wiedzy w pigułce, opierając się na części pierwszej i drugiej, jest wystarczające do zrozumienia działania podstawowych układów analogowych i cyfrowych. Chcielibyśmy w tym miejscu zwrócić uwagę Czytelnika na fakt, że materiał dotyczący elementów półprzewodnikowych, ze względu na kompletność wykładu, przedstawiono dość obszernie. Do pełnego zrozumienia trzeciej i czwartej części niniejszego podręcznika wystarczy zapoznanie się z rozdziałami 1–7. Rozdziały 8–10 można potraktować jako materiał nieobowiązkowy przy pierwszym czytaniu książki. W części trzeciej przedstawiamy zagadnienia związane z zasilaniem i stabilizacją punktu pracy tranzystora, małosygnałowymi wzmacniaczami pasmowymi, wzmacniaczami mocy, generatorami oraz komputerową analizą analogowych układów elektronicznych. Część czwarta, poza wprowadzeniem do techniki cyfrowej, obejmuje: charakterystykę układów kombinacyjnych i sekwencyjnych, opis parametrów elektrycznych i czasowych układów cyfrowych oraz przybliża projektowanie układów cyfrowych z użyciem języka VHDL. W trakcie pracy redakcyjnej staraliśmy się wykryć i wyeliminować z tekstu książki wszystkie napotkane błędy, zdajemy sobie jednak sprawę, że pewne niedociągnięcia mogły pozostać niezauważone. W związku z tym będziemy wdzięczni wszystkim Czytelnikom, którzy zechcą przesłać na adres redakcji swoje krytyczne uwagi związane z dostrzeżonymi błędami, jak również propozycje poprawek i uzupełnień. Składamy serdeczne podziękowania opiniodawcy, panu profesorowi Michałowi Pawłowskiemu, za wszystkie wnikliwe uwagi, które pomogły nam udoskonalić treść tej książki. Na zakończenie chcielibyśmy podziękować naszym przyjaciołom z Wojskowej Akademii Technicznej za konsultacje i korekty, które przyczyniły się do wzbogacenia treści i poprawienia błędów nieuniknionych w pierwszej wersji rękopisu. Serdecznie dziękujemy: dr. inż. Krzysztofowi Kwiatosowi, dr. inż. Jerzemu Pasierbińskiemu, dr. inż. Markowi Szulimowi, mgr. inż. Jakubowi Kaźmierczakowi oraz mgr. inż. Andrzejowi Malinowskiemu. Autorzy Warszawa, sierpień 2013 r.
Część 1.
Obwody elektryczne
1.
Podstawowe własności obwodu elektrycznego Teoria obwodów, której podstawy prezentujemy w pierwszej części książki, zajmuje się w dużym uproszczeniu badaniem wszelkich zjawisk zachodzących w różnego rodzaju obwodach elektrycznych. Przedstawimy zatem podstawowe pojęcia i prawa obwodów elektrycznych stosowane w praktyce z uwzględnieniem zasad łączenia poszczególnych elementów obwodu. Pierwsza część książki serwuje solidną porcję wiadomości, które są punktem wyjścia do zrozumienia wszystkich zagadnień poruszanych w tym podręczniku. Niestety nie jest możliwe przedstawienie od razu wszystkiego, dlatego skupiliśmy się na podstawowych metodach analizy obwodów niezbędnych do zrozumienia kluczowych zagadnień elektroniki. W podręczniku zastosowaliśmy wyraźny podział na analizę obwodów prądu stałego oraz zmiennego, tak aby Czytelnik zrozumiał ich specyfikę. Nie ulega wątpliwości, że taki podział pozwoli na efektywne wkraczanie w krainę prostej, w gruncie rzeczy, elektroniki. Na początek poznajmy podstawowe elementy obwodu elektrycznego i prawa nim rządzące.
1.1.
Podstawowe pojęcia Aby móc mówić o jakichkolwiek obwodach elektrycznych, trzeba sobie w pierwszej kolejności uzmysłowić, co to jest prąd oraz napięcie – dwie podstawowe wielkości nierozerwalnie związane z analizą dowolnego obwodu elektrycznego. Prąd elektryczny to uporządkowany ruch ładunków elektrycznych. Ale co w istocie oznacza pojęcie uporządkowany? Synonimem może być tu słowo ukierunkowany, czyli taki, podczas którego ładunki przemieszczają się w konkretnym kierunku. Oczywiście to, w jaki sposób prąd przepływa, zależy od struktury, w jakiej ten przepływ się odbywa. Z różnymi przepływami będziemy bowiem mieli do czynienia w metalu, półprzewodniku, gazie czy elektrolicie. Skupmy się więc na prądzie przepływającym przez przewodnik elektryczny. Posłużymy się bliską naszej percepcji analogią hydrauliczną. Prąd płynie w przewodach, tak jak woda w rurach. Im więcej wody w rurze przepływa w ustalonej jednostce czasu przez jednostkę powierzchni przekroju poprzecznego, tym większy przepływ. Z prądem jest analogicznie – im więcej ładunków płynie w przewodniku (przez jednostkę powierzchni przekroju poprzecznego), tym większe jest jego natężenie. Ilość ładunku przepływająca w jednostce czasu to natężenie prądu. W codziennej praktyce zamiast określenia „natężenie prądu” mówi się w skrócie „prąd”. Jak zapewne Czytelnik pamięta z lekcji fizyki, podstawowymi nośnikami ładunku elektrycznego w przewodniku metalowym są elektrony. Mimo że faktycznie płyną one od ujemnego do
1.1. Podstawowe pojęcia
11
dodatniego bieguna zasilania, przyjęło się umownie, że prąd płynie od dodatniego do ujemnego potencjału. Prąd elektryczny będzie oznaczany małą bądź dużą literą i, w zależności od tego czy będziemy analizować prąd zmienny, czy stały. Małą literą i (prąd zmienny) oznaczamy wartość chwilową prądu lub tylko jego składową zmienną, natomiast jeśli wartość prądu nie zmienia się w czasie, oznaczamy go dużą literą I (prąd stały). Powrócimy do tego w kolejnych rozdziałach książki. Jednostką prądu elektrycznego zgodnie ze stosowanym układem jednostek SI jest amper [A]. Można tutaj zadać pytanie, jakie są typowe wartości prądów spotykane w elektronice? Dla zastosowań teorii obwodów oraz w ogólności całej elektroniki prąd o wartości 1 A jest już dość dużym prądem. W praktyce najczęściej używa się miliamperów [mA] (1 mA = 10–3 A) oraz mikroamperów [µA] (1 µA = 10–6 A). Warto dodać, że prąd mierzymy za pomocą urządzenia zwanego amperomierzem, który należy zawsze podłączać do gałęzi szeregowo (rysunek 1.1a), co wynika z oporu wewnętrznego amperomierza. Przyjmuje się bowiem, że amperomierz ma zerowy opór wewnętrzny, a to oznacza, że nie wpływa na wartość prądu w gałęzi, do której go włączamy. Za chwilę wyjaśnimy to dokładniej. Przejdźmy teraz do drugiego kluczowego pojęcia związanego z obwodami elektrycznymi, tj. do napięcia w obwodzie elektrycznym. Każde przemieszczanie się ładunków w polu elektrycznym wiąże się z wykonaniem pracy. Praca ta jednak nie zależy od drogi przebytej przez ładunki, a jedynie od położenia punktów krańcowych. Oznacza to, że jeśli pewien ładunek o wartości q wystartuje z punktu A i przesuwając się po dowolnej drodze, powraca w końcu do punktu początkowego, to nie wykona pracy, gdyż punkt początkowy i końcowy jest taki sam. Jeśli ładunek przemieści się z punktu A do punktu B, to wykonana praca nie będzie zależała od toru, po jakim poruszał się ładunek, a jedynie od odległości między punktami A i B. Stosunek wykonanej pracy (przy przemieszczeniu między tymi punktami) do ładunku q jest wielkością fizyczną nazywaną napięciem elektrycznym. W tym miejscu należy się Czytelnikowi komentarz przypominający podstawowe fakty znane z lekcji fizyki w szkole średniej. Na ładunek umieszczony w polu elektrycznym działa siła proporcjonalna do natężenia tego pola. Jeśli ładunek przesunął się między punktami A i B pod wpływem działania sił pola elektrycznego, to mówimy, że pole elektryczne wykonało pracę, a ładunek utracił jakąś część energii potencjalnej związanej ze źródłem pola. Jeśli zaś zewnętrzna siła spowodowała ruch ładunku przeciw sile pola, to mówimy, że nad ładunkiem została wykonana praca, skutkiem czego jego energia potencjalna wzrosła. Zakłada się przy tym, że przenoszony ładunek q jest na tyle mały, że nie wpływa na kształt pola elektrycznego (czasami nazywa się go ładunkiem próbnym). Interpretacja powyższych zjawisk stanie się intuicyjnie prosta, gdy posłużymy się porównaniem do pola grawitacyjnego. Człowiek o masie m, przemieszczający się po płaskim obszarze Ziemi, ma stałą energię potencjalną, jeśli jednak zmieni swoją wysokość, np. wchodząc na drabinę, to będzie musiał wykonać pracę przeciwko sile pola grawitacyjnego ściągającej go w dół i po wdrapaniu się na wysokość h jego energia (potencjalna) wzrośnie. Najczęściej nie interesuje nas, do jakiej bezwzględnej wartości ta energia wzrośnie, a tylko o ile względem poprzedniej wartości, tj. względem wartości na powierzchni Ziemi. Widzimy więc, że możemy przy-
12
1. Podstawowe własności obwodu elektrycznego
jąć pewien dowolny poziom jako poziom odniesienia i przypisać mu zerową energię (oczywiście umownie), a energie na innych poziomach (wysokościach) określać w stosunku do tego poziomu odniesienia. Naturalne wydaje się w tym kontekście przyjęcie zerowej energii na powierzchni Ziemi, tj. dla zerowej wysokości. W tym przypadku energia potencjalna ciała o masie m po podniesieniu na wysokość h osiąga wartość E = mgh, gdzie g oznacza przyspieszenie ziemskie. Podczas swobodnego spadku z wysokości h pracę wykonuje siła pola grawitacyjnego, a ciało traci energię potencjalną. W przypadku wyidealizowanym, gdy nie ma tarcia powietrza i innych oporów, energia potencjalna ciała zamienia się w energię kinetyczną – ciało spada coraz szybciej. Energia potencjalna zależy od masy ciała i pola (trywializując, możemy powiedzieć, że inaczej będzie na Ziemi, a inaczej na Księżycu). Czynnik zależny od pola nazywamy potencjałem V (w rozważanym „grawitacyjnym” przykładzie będzie on równy gh). Zmiana energii potencjalnej wiążę się z pracą, czyli praca potrzebna do przesunięcia masy z punktu A do punktu B jest równa różnicy energii potencjalnych, zdefiniowanych względem powierzchni Ziemi (gdzie energia jest umownie zerowa), tj. W = E pA − E pB = m ( ghA − ghB ) = m (VA − VB ) .
(1.1)
Zwróćmy uwagę, że nie ma znaczenia, gdzie przyjmiemy poziom odniesienia – podniesienie cegły z podłogi na stół o wysokości 1 m wymaga tyle samo wysiłku na powierzchni Ziemi i w pokoju na 10 piętrze. W pierwszym przypadku hA = 1 m, hB = 0 m i ∆h = 1 m – 0 m = 1 m, a w drugim przypadku hA = 21 m, a hB = 20 m i również ∆h = 1 m. Wróćmy teraz na chwilę do pola elektrycznego – tu zamiast masy mamy ładunek, a różnica potencjałów nazywana jest napięciem. Poznaliśmy już więc prąd i napięcie oraz użyliśmy intuicyjnie pojęcia opór. Jak można tenże opór powiązać z prądem i napięciem? Związek ten, znany jako prawo Ohma, jest fundamentalnym wzorem teorii obwodów i poznamy go już wkrótce, ale teraz, aby postawić kropkę nad i, powróćmy po raz ostatni do pola grawitacyjnego. Wyobraźmy sobie pionową szklaną rurę. Na górze wrzucamy równomiernie kamyczki i gdzieś poniżej wybieramy dowolny przekrój, w którym zliczamy wszystkie przelatujące kamyczki. Liczba kamyczków, przelatująca przez przekrój poprzeczny rury w jednostce czasu, odpowiada liczbie ładunków przepływających przez przekrój poprzeczny przewodnika w jednostce czasu, a więc prądowi. Co się stanie, jeśli rurę wypełnimy żelem? Oczywiście kamyczki będą przelatywać dużo wolniej – prąd zmaleje. Dlaczego? Ponieważ pojawił się opór. Im większy opór (gęstszy żel), tym mniejszy „mechaniczny prąd kamyczków”. Analogicznie jest w obwodzie elektrycznym. Wzrost oporu, zwanego częściej, z języka angielskiego, rezystancją, powoduje spadek wartości prądu. Dopiero teraz możemy szerzej skomentować rysunek 1.1a. Symbolizuje on szeregowe połączenie źródła napięcia E (źródło napięcia zapewnia jakby różnicę wysokości, ściślej potencjałów, w naszej analogii grawitacyjnej, wymuszającą przepływ prądu – spadanie kamyczków), rezystancji R (bardziej lub mniej gęsty żel) oraz
1.1. Podstawowe pojęcia
13
amperomierza A mierzącego prąd (czyli zliczającego kamyczki przelatujące w jednostce czasu). Opór samego amperomierza musi być bardzo mały (najlepiej gdyby był zerowy – brak „żelu”), bo tylko wówczas jego włączenie nie zakłóci pracy obwodu. Połączenie to nazywamy szeregowym, ponieważ wszystkie elementy tworzą szereg, tzn. ustawione są szeregowo jeden po drugim. A zatem, każdemu punktowi w środowisku przewodzącym prąd elektryczny można przypisać konkretną wartość potencjału mierzonego względem tzw. punktu odniesienia. Potencjał wiążę się z pracą, jaką należy wykonać, przesuwając ładunek q z punktu, w którym określamy potencjał do punktu odniesienia. Różnica potencjałów pomiędzy dwoma dowolnymi punktami nazywana jest, jak już wcześniej wspomnieliśmy, napięciem elektrycznym, a jego jednostką jest wolt [V]. Napięcie pomiędzy dwoma punktami w obwodzie mierzy się woltomierzem, włączanym równolegle, pomiędzy te punkty (rysunek 1.1b). I tu pojawia się kolejne pytanie, dlaczego równolegle, a nie jak w przypadku amperomierza szeregowo? Podobnie jak w przypadku amperomierza ma to związek z rezystancją wewnętrzną woltomierza, która w tym przypadku powinna być bliska nieskończoności. Opór o takiej wartości powoduje, że przez woltomierz prąd praktycznie nie przepływa. Oznacza to, że taki doskonały woltomierz podłączony równolegle nie wpływa na rozpływ prądów w obwodzie. Określenie połączenie równoległe oznacza, że istnieją pewne węzły (na rysunku 1.1b. oznaczone kropkami), w których prąd rozpływa się i zaczyna płynąć dwutorowo, czyli równolegle dwiema drogami. Cały czas używamy pojęcia obwodów elektrycznych. Nie wiemy jednak jeszcze, co praktycznie może być uznane za obwód elektryczny? W ogólności obwód elektryczny to takie połączenie elementów (rezystorów, kondensatorów, cewek oraz źródeł prądu i napięcia), które umożliwia przepływ prądu. W teorii obwodów obwód utożsamiany jest z pewnym modelem analizowanego układu. Jest to połączenie wielu podstawowych elementów (modeli cech fizycznych), które w wyniku dają model tego układu. Teoria zakłada jednocześnie, że konkretne modele są już przyjęte, pomijając przy tym problem ich adekwatności do rzeczywistości (ten etap analizy układu można nazwać etapem modelowania). Zadaniem zaś jest badanie konkretnego obwodu z uwzględnieniem odpowiednich metod analizy. Każdy obwód ma charakterystyczną dla siebie strukturę, którą w elektrotechnice przedstawia się za pomocą schematu z odpowiednimi połączeniami poszczególnych elementów. Zgodnie z powszechnie stosowaną nomenklaturą pojęcia obwód używa się w odniesieniu
Rys. 1.1. Schemat podłączenia do obwodu: a) amperomierza, b) woltomierza
14
1. Podstawowe własności obwodu elektrycznego
do prostych struktur i takie będziemy rozpatrywać w pierwszej części tej książki. Bardziej rozbudowane konfiguracje nazywane są powszechnie układami i nimi będziemy się zajmować w kolejnych częściach. Obecnie bardzo często pojęcia obwodu i układu wzajemnie się przenikają, warto jednak dostrzegać różnicę znaczeniową związaną z tymi dwoma pojęciami. Przejdźmy zatem do szczegółowego opisu oraz zdefiniowania poszczególnych elementów obwodu. Na strukturę obwodu składają się tzw. gałęzie, węzły i oczka. Gałęzią obwodu nazywamy taki fragment struktury obwodu, w którym możemy wyróżnić prąd I oraz napięcie U, zwane odpowiednio prądem gałęziowym i napięciem gałęziowym. Inaczej mówiąc, jest to odcinek obwodu pomiędzy wyróżnionymi węzłami, który składa się z jednego bądź kilku elementów połączonych ze sobą w określony sposób, przy założeniu, że w gałęzi zostanie wyróżniony prąd I wspólny dla całej gałęzi [14]. Węzeł obwodu to taki punkt obwodu, w którym łączą się co najmniej dwie gałęzie obwodu. W węźle prądy się sumują lub rozpływają. Dla uściślenia należy stwierdzić, że definicja węzła jest szersza, ale najczęściej mówimy po prostu węzeł obwodu, choć w domyśle jest to wspomniany wyżej węzeł rozgałęźny. W tej książce, o ile nie zaznaczymy tego wyraźnie, pisząc węzeł, będziemy mieli na myśli właśnie węzeł rozgałęźny. Ostatnim elementem obwodu są oczka stanowiące zbiór połączonych ze sobą gałęzi tworzących zamkniętą drogę dla przepływu prądu elektrycznego. Oczko ma tę własność, że po usunięciu dowolnej gałęzi ze zbioru pozostałe gałęzie nie tworzą zamkniętej drogi dla przepływu prądu. Wyróżniamy oczka zależne oraz oczka niezależne. Oczkiem niezależnym jest oczko mające co najmniej jedną gałąź niewchodzącą w skład innego oczka. W konsekwencji jako oczko zależne można rozumieć takie oczko, które jest dowolną kombinacją oczek niezależnych. W obwodzie o zadanej strukturze istnieje skończona liczba oczek. Przykładowy obwód z zaznaczonymi składnikami struktury przedstawiono na rysunku 1.2. Pomiędzy liczbą oczek, gałęzi i węzłów zachodzi następująca zależność: n = g − w +1, gdzie: n – liczba oczek niezależnych, g – liczba gałęzi, w – liczba węzłów. W przykładowym obwodzie mamy więc n = 5 − 3 + 1 = 3.
Rys. 1.2. Przykładowy obwód z zaznaczonymi składnikami struktury
(1.2)
1.1. Podstawowe pojęcia
15
W obwodzie elektrycznym często będziemy posługiwać się takimi pojęciami jak wymuszenie i odpowiedź. Przez wymuszenie będziemy rozumieć pewną zewnętrzną przyczynę, źródło przepływu prądów i powstawania napięć. Natomiast odpowiedzią jest reakcja układu na wymuszenie. Funkcję wymuszeń spełniają źródła energii, a odpowiedzią są wywołane przez nie prądy oraz napięcia występujące na poszczególnych elementach. Jeżeli pod wpływem wymuszeń natężenie prądu w obwodzie nie zmienia się w funkcji czasu, to mówimy o prądzie stałym i oznaczamy go dużą literą I, a obwód tego typu nazywamy obwodem prądu stałego lub obwodem stałoprądowym. Jeśli natomiast natężenie prądu zmienia się w czasie, to mówimy o prądzie zmiennym i oznaczamy go małą literą i. W podobny sposób oznaczamy również napięcia (U, u). Przejdźmy teraz do omówienia podstawowych elementów tworzących obwody elektryczne. Mówiąc elementy, mamy na myśli niepodzielne „cegiełki” niezbędne do budowy każdego obwodu elektrycznego. Elementy reprezentują konkretne zjawiska fizyczne, więc każdy rodzaj elementu ma różne własności ilustrujące te zjawiska. W teorii obwodów wyróżnia się trzy rodzaje procesów (zjawisk fizycznych), które zachodzą w poszczególnych elementach: – wytwarzanie energii elektrycznej, – rozpraszanie energii elektrycznej, – akumulacja energii elektrycznej. Jeśli element charakteryzuje się wyłącznie jednym procesem fizycznym, to traktowany jest jako element idealny. Jest on więc modelem tylko jednego zjawiska. W teorii obwodów operujemy wyłącznie elementami idealnymi. Warto jednak wspomnieć, że pojęcie elementu idealnego jest pojęciem fikcyjnym, w elektronice często posługujemy się nim praktycznie, aby wskazać pewien punkt odniesienia dla elementów rzeczywistych. Warto również wspomnieć o ważnym podziale elementów w zależności od istoty zachodzących w nich procesów energetycznych. Wyróżniamy tutaj elementy pasywne oraz elementy aktywne. Elementy aktywne charakteryzują się zdolnością wytwarzania energii i są nazywane źródłami energii. Natomiast elementy charakteryzujące się rozpraszaniem lub akumulacją energii nazywane są elementami pasywnymi. W pierwszej kolejności omówimy podstawowe elementy pasywne, a więc rezystor, cewkę oraz kondensator. Następnie skupimy się na niezależnych źródłach napięcia i prądu, czyli na elementach aktywnych. Innym ważnym podziałem elementów elektrycznych jest podział na elementy liniowe oraz nieliniowe. Element liniowy jest elementem, dla którego zależność między prądem a napięciem można opisać równaniem liniowym. Może to być liniowe równanie algebraiczne, ale może to być również liniowe równanie różniczkowe. Obecnie zajmiemy się elementami liniowymi, a elementy nieliniowe omówimy szerzej w rozdziale trzecim.
Wybrane elementy obwodu elektrycznego Rezystor Rezystor, zwany również opornikiem, to idealny element obwodu, w którym zgodnie z wcześniej przytoczoną definicją zachodzi tylko i wyłącznie jeden proces fizyczny.
16
1. Podstawowe własności obwodu elektrycznego
W tym przypadku mówimy tu o jednostronnej przemianie energii elektrycznej na energię cieplną. Idealizacja w porównaniu z opornikiem rzeczywistym polega na pominięciu jego cech związanych z istniejącymi w rzeczywistości polami elektrycznym i magnetycznym. Pozbawia się go więc zjawiska wytwarzania i akumulacji energii. Dodatkowo zakłada się, że wartość rezystancji rezystora liniowego jest stała, niezależnie od przepływającego prądu elektrycznego. W związku z reprezentacją przez rezystor tylko jednego zjawiska fizycznego można mu przypisać wyłącznie jedną cechę (parametr), jakim jest rezystancja oznaczana literą R. Jednostką rezystancji jest om [Ω]. W elektronice 1 Ω to mała rezystancja. Częściej mamy do czynienia z rezystancjami rzędu kiloomów (1 kΩ = 103 Ω). Rezystancja przewodnika zależy od jego odległości l, pola przekroju poprzecznego S oraz rezystancji właściwej (rezystywności) r materiału, z jakiego go wykonano.
ρ ⋅l . S
(1.3)
U = R ⋅ I.
(1.4)
R=
1 i wyOdwrotność rezystancji nazywana jest konduktancją (przewodnością) G = R rażana jest w simensach [S]. Z czym zatem możemy utożsamiać rezystancję? Rezystancja to w dużym uproszczeniu pewna miara przeciwstawiania się przepływającemu prądowi. W obwodach elektrycznych rezystor służy najczęściej do ograniczenia prądu bądź uzyskania wymaganych napięć. Zgodnie z przedstawionym formalnie w podrozdziale 1.2 prawem Ohma prąd płynący przez rezystor zwiększa się, gdy zmniejsza się wartość rezystancji opornika (przy stałej wartości napięcia). Z drugiej zaś strony wartość napięcia, które odkłada się na rezystorze, zależy od wartości rezystancji i prądu płynącego przez rezystor. Zależności te ujmuje formuła
Graficzny symbol typowego liniowego rezystora jest pokazany na rysunku 1.3.
Rys. 1.3. Symbol graficzny idealnego rezystora (a) i wersja stosowana w USA (b)
Przy okazji omawiania tego elementu warto również wspomnieć o szczególnym typie rezystorów, jakim są potencjometry. Najprościej mówiąc, są to zmienne rezystory. Służą one do płynnej regulacji wartości rezystancji, w zależności od aktualnych potrzeb analizowanego obwodu. Najczęściej wykorzystuje się je w bardziej zaawansowanych układach w celu dobrania odpowiednich warunków pracy bądź dostrojenia układu. Kondensator Kondensator idealny jest rodzajem elementu pasywnego, który zgodnie z wcześniejszymi ustaleniami reprezentuje wyłącznie jeden proces fizyczny – w tym przypadku akumulację energii w polu elektrycznym. Jego nazwa pochodzi od tego, że „zagęsz-
17
1.1. Podstawowe pojęcia
Rys. 1.4. Symbol graficzny idealnego kondensatora
cza” on pole elektryczne (łac. condensat). Na schematach kondensator oznacza się jako dwie równoległe kreski przerywające obwód (rysunek 1.4). Parametrem charakteryzującym kondensator jest pojemność C wyrażana zgodnie z obowiązującym układem jednostek SI w faradach [F]. Pojemność C (ang. capacity) kondensatora definiuje się jako iloraz ładunku Q zgromadzonego na kondensatorze do napięcia U panującego pomiędzy jego okładkami C=
Q . U
(1.5a)
Warto wiedzieć, że w praktyce można spotkać się z kondensatorami o pojemnościach od pojedynczych [pF] (1 pF = 10–12 F) do setek [µF] (1 µF = 10–6 F). Większych pojemności praktycznie się nie spotyka, co wynika z ograniczeń konstrukcyjnych (gabarytów) – z wyłączeniem superkondensatorów. Wyjaśnimy to na przykładzie kondensatora płaskiego, którego pojemność określa się wzorem C=
ε 0ε r S ε S , = d d
(1.5b)
gdzie: ε0 – bezwzględna prznikalność elektryczna próżni (ε0 = 8,85 · 10 –12 F/m), er – względna przenikalność dielektryka (np. dla powietrza εr = 1, dla papieru er = 3,5), e – przenikalność dielektryczna, S – pole powierzchni okładek, d – odległość pomiędzy okładkami. Osiągnięcie wymaganej wartości pojemności można uzyskać poprzez zwiększenie powierzchni okładek S, zmniejszenie odległości d między nimi lub zastosowanie dielektryka o dużej przenikalności. Na parametr ε0 nie mamy wpływu, gdyż jest to stała fizyczna, a przenikalność względna może być dobierana w niewielkim zakresie. Ze względu na fakt, że wartość ε0 jest rzędu 10–12, należałoby ją zniwelować poprzez zastosowanie dielektryka o stosunkowo dużej przenikalności dielektrycznej, maksymalizując jego powierzchnie, przy jednoczesnej minimalizacji odległości pomiędzy okładkami. I tu pojawia się problem, gdyż duża powierzchnia kondensatora spowodowałaby ogromne trudności związane zarówno z wykonaniem, jak i z gabarytami takiego kondensatora. Kolejną kwestią niezmiernie ważną przy omawianiu takich elementów jak kondensatory jest właściwość przewodzenia przez nie prądu. Zależność wiążąca napięcie i prąd kondensatora dana jest w postaci: du i=C . (1.6) dt
18
1. Podstawowe własności obwodu elektrycznego
Dla prądu stałego kondensator jest w stanie ustalonym rozwarciem (przerwą), choć napięcie na nim może być różne od zera. Z kolei rozpatrując obwody prądu zmiennego, żargonowo mówi się, że kondensator przewodzi prąd zmienny. W rzeczywistości jednak kondensator nie przewodzi prądu, gdyż przez sam dielektryk prąd nie jest w stanie popłynąć, ze względu na brak nośników ładunku. Faktycznie sytuacja wygląda następująco. Rzeczywisty kondensator składa się z przewodzących okładek oraz znajdującego się między nimi dielektryka, czyli izolatora. Na okładkach kondensatora gromadzą się ładunki elektryczne o różnych wartościach, w związku z tym pomiędzy nimi tworzy się pole elektryczne, a w konsekwencji różnica potencjałów, czyli napięcie na kondensatorze. Zmieniając napięcie na okładkach kondensatora, wymuszamy zmiany ładunku na okładkach kondensatora, które wiążą się z przepływem prądu w obwodzie zewnętrznym, co sprawia wrażenie, że prąd zmienny jakby płynie przez kondensator – ładunek do jednej okładki dopływa i jednocześnie od drugiej odpływa i w kolejnej fazie sytuacja jest odwrotna. Nośniki ładunku gromadzą się na okładkach kondensatora i wytwarzają pole elektryczne, dlatego klasyfikujemy kondensator jako element magazynujący energię w polu elektrycznym. Cewka Cewka idealna (czasem dodaje się określenie „indukcyjna”) podobnie jak kondensator jest rodzajem elementu pasywnego, z tą różnicą, że proces akumulacji energii dla cewki zachodzi w polu magnetycznym. Często o cewce mówi się zamiennie induktor, ponieważ indukuje się w niej napięcie źródłowe, zwane dawniej siłą elektromotoryczną. Na rysunku 1.5 przedstawiono powszechnie używany graficzny symbol cewki (3 wybrzuszenia symbolizujące zwoje).
Rys. 1.5. Symbol graficzny idealnej cewki
Cewce idealnej przypisuje się tylko jeden parametr – indukcyjność własną oznaczaną literą L. Jednostką indukcyjności jest henr [H]. 1 H to bardzo duża indukcyjność i najczęściej indukcyjności cewek wyraża się w [mH] (1 mH = 10–3 H) lub w [µH] (1 µH = 10–6 H). Ograniczając się do cewki liniowej, indukcyjność definiujemy jako stosunek strumienia magnetycznego ψ skojarzonego z cewką do płynącego przez nią prądu ψ (1.7) L= . I Co oznacza jednak pojęcie strumień skojarzony z cewką? Każdy zwój cewki ma własny strumień φ skojarzony z tym zwojem, czyli wytwarzany przez ten zwój. Suma tych wszystkich strumieni przy n zwojach cewki daje całkowity strumień skojarzony z cewką (1.8) ψ = n ⋅φ . Działanie cewki może wydawać się z pozoru skomplikowane, gdyż porusza kwestie elektromagnetyzmu, ale w gruncie rzeczy opiera się na prostej zasadzie. Nie
19
1.1. Podstawowe pojęcia
będziemy wnikać głęboko w szczegóły teoretyczne, ale postaramy się wyjaśnić sens fizyczny cewki jako elementu w obwodzie. Cewka ma tę własność, że przeciwstawia się gwałtownym zmianom prądu. Na próbę zmiany wartości prądu reaguje powstaniem własnego napięcia samoindukcji, które próbuje powstrzymać te zmiany prądu. Należy pamiętać, że napięcie to powstaje tylko wtedy, gdy prąd zmienia swą wartość. Warto więc w tym momencie przestudiować dwa przypadki bardzo często występujące w teorii obwodów. W chwili, gdy cewka zostaje dołączona do źródła napięcia, prąd w cewce narasta stopniowo, ze względu na napięcie samoindukcji powstające na cewce, które odejmuje się w danej chwili od napięcia źródła. W momencie przerwania obwodu cewka próbuje podtrzymać przepływ prądu, poprzez to samo napięcie samoindukcji, które pełni teraz funkcję źródła i w efekcie prąd maleje stopniowo. Napięcie samoindukcji opisuje się wzorem u=L
di . dt
(1.9)
Powstanie napięcia na cewce musi więc wiązać się nierozerwalnie ze zmianą prądu. Przy przepływie prądu stałego (niezmiennego w czasie) napięcie jest równe 0 (pochodna stałej równa się zeru), ze względu na brak zmian prądu. Cewka zachowuje się więc, jak gdyby jej zaciski były zwarte. Co to oznacza? Można to interpretować jako przewód bezoporowy, oczywiście jeśli mówimy o cewce idealnej. Zatem cewka w obwodach prądu stałego w stanie ustalonym stanowi zwarcie, ale warto pamiętać, że magazynuje energię w polu magnetycznym. Indukcyjność cewki można wyliczyć opierając się na jej geometrii, wg wzoru L=
µ0 µr z 2 S µ z 2 S , = l l
(1.10)
gdzie: µ0 – bezwzględna przenikalność magnetyczna próżni, µr – względna przenikalność magnetyczna, µ – przenikalność magnetyczna, z – liczba zwojów, S – przekrój poprzeczny cewki, l
– długość korpusu cewki.
Omawiając cewki, warto również wspomnieć, że w praktyce możemy wyróżnić cewki liniowe oraz nieliniowe. Cewka nieliniowa ma rdzeń ferromagnetyczny. Cewki powietrzne są liniowe, gdyż względna przenikalność magnetyczna powietrza µr = const = 1, więc ich indukcyjności nie zależą od płynącego prądu. Poznane dotychczas elementy są elementami klasy SLS, tzn. są stacjonarne, liniowe i skupione. Upraszczając nieco teorię, można powiedzieć, że ze stacjonarnością mamy do czynienia w przypadku, gdy właściwości elementów obwodu nie ulegają zmianom w czasie. Obwód liniowy to taki, który składa się ze skończonej liczby liniowych elementów idealnych R, L i C. Natomiast przez pojęcie skupiony rozumiemy obwód, w którym napięcia i prądy nie są funkcjami położenia.
20
1. Podstawowe własności obwodu elektrycznego
Kondensatory i cewki nie mają wpływu na stan pracy obwodu prądu stałego. W stanie ustalonym nie płyną prądy ładowania kondensatorów i nie występują napięcia na cewkach. Nie ma więc potrzeby umieszczania tych elementów na schematach obwodów prądu stałego (kondensator stanowi tu przerwę, a cewka – zwarcie stałoprądowe). Jedynymi elementami pasywnymi, występującymi na schematach obwodów stałoprądowych, są rezystancje. Niezwykle ważną kwestią w analizie obwodów elektrycznych jest umiejętność strzałkowania prądów i napięć, niezbędna do prawidłowego układania równań obwodowych, które poznamy w rozdziale drugim. Prąd elektryczny w gałęzi oznaczamy za pomocą strzałki oraz znaku literowego, w zależności od rodzaju analizowanego obwodu elektrycznego (I – prąd stały, i – prąd zmienny). Grot strzałki prądu zgodnie z obowiązującymi zasadami powinien wskazywać punkt o niższym potencjale. Często jednak nie wiemy, gdzie de facto jest niższy potencjał, dlatego w wielu przypadkach przyjmuje się założone arbitralnie na początku analizy zwroty. Ważne jest, aby być konsekwentnym w stosowaniu przyjętej metody strzałkowania. Prąd w jednej gałęzi może bowiem płynąć tylko w jedną stronę. Gdy wszystkie prądy w obwodzie zostaną już określone oraz zaznaczone na strukturze obwodu, należy jeszcze określić zwroty napięć na poszczególnych elementach. To już jednak jest stosunkowo proste, ponieważ zwroty napięć na elementach idealnych biernych są zawsze przeciwnie skierowane do prądu płynącego w obwodzie. Natomiast strzałki napięć na zaciskach źródeł i strzałki prądów wypływających ze źródeł są z nim zgodne. Zasady te są zilustrowane na rysunku 1.6.
Rys. 1.6. Zasady strzałkowania prądów i napięć
Jeśli w wyniku analizy otrzymamy ujemne wartości prądu lub napięcia, oznacza to, że faktyczny zwrot danej wielkości jest przeciwny do przyjętego przez nas podczas wstępnego strzałkowania obwodu.
1.1. Podstawowe pojęcia
21
Poznaliśmy już elementy pasywne, z których składać się może obwód elektryczny, przejdźmy więc teraz do omówienia wspomnianych wcześniej elementów aktywnych. Najprościej mówiąc, są to elementy wymuszające przepływ prądu w obwodzie elektrycznym, czyli źródła napięcia lub prądu. Mogą być nimi maszyny elektryczne, transformatory, ogniwa itp. W tej części książki omówimy niezależne źródła napięcia i prądu, czyli elementy, które generują energię elektryczną, bazując na energii innego rodzaju (np. mechanicznej czy chemicznej). Elementy aktywne Idealnym źródłem napięcia nazywamy dwójnik (element o dwóch zaciskach) wytwarzający napięcie niezależne od prądu płynącego w tym źródle. Tę podstawową cechę ilustruje charakterystyka prądowo-napięciowa źródła napięcia (często mówimy też źródła napięciowego), czyli zależność prądu od napięcia na jego zaciskach. Symbol graficzny idealnego źródła oraz jego charakterystykę prądowo-napięciową przedstawiono na rysunku 1.7.
Rys. 1.7. Symbol graficzny idealnego źródła napięciowego (a) i jego charakterystyka prądowonapięciowa (b)
Parametrem charakteryzującym tego rodzaju źródło jest napięcie źródłowe E. Jakikolwiek element dołączony do takiego źródła zmienia prąd płynący w źródle, nie wpływa natomiast na jego napięcie. Idealne źródło napięcia teoretycznie może dostarczać prąd o natężeniu od 0 do nieskończenie dużych wartości, a napięcie pozostanie cały czas takie samo. Wyklucza się przypadek idealnego zwarcia zacisków źródła. Szczególną cechą źródła napięciowego jest zerowa rezystancja wewnętrzna. Idealnym źródłem prądu nazywamy dwójnik wytwarzający prąd niezależnie od napięcia na jego zaciskach. Symbole graficzne tego źródła (oba równie często stosowane) oraz jego charakterystykę prądowo-napięciową zamieszczono na rysunku 1.8. Parametrem charakteryzującym źródło prądowe jest prąd źródłowy Iźr . Przeciwnie niż w przypadku źródła napięciowego, odbiornik dołączony do tego źródła wpływa jedynie na napięcie na jego zaciskach, natomiast nie zmienia prądu źródłowego. Teoretycznie źródło prądowe może generować prąd o wartościach od 0 do nieskończoności, wyklucza się jednak rozwarcie zacisków. Napięcie na zaciskach idealnego źródła prądu zależy wyłącznie od parametrów dołączanego do niego odbiornika. Rezystancja wewnętrzna idealnego źródła prądowego jest nieskończenie duża.
22
1. Podstawowe własności obwodu elektrycznego
Rys. 1.8. Symbole graficzne idealnego źródła prądowego (a) i jego charakterystyka prądowo-napięciowa (b)
Elementy idealne nie istnieją w rzeczywistości, należy się jednak przyzwyczaić, że w elektronice bardzo często używa się pewnych uproszczeń oraz bazuje na idealizowanych modelach, które są pewnym odniesieniem dla elementów rzeczywistych. Wykorzystuje się je często w obliczeniach i rozważaniach teoretycznych. Elementy idealne należy traktować jako przypadek graniczny elementów rzeczywistych. Rzeczywiste źródła energii mają zawsze niezerową rezystancję wewnętrzną w przypadku źródeł napięciowych oraz skończoną rezystancję wewnętrzną w przypadku źródeł prądowych. Schematy zastępcze takich źródeł przedstawia się zazwyczaj w postaci odpowiedniego połączenia źródła idealnego oraz rezystancji. Dla źródła napięciowego jest to połączenie szeregowe, natomiast dla źródła prądowego połączenie równoległe. Schematy źródeł rzeczywistych pokazane są na rysunku 1.9. Rzeczywiste źródła opisywane są poprzez dwa parametry: napięcie względnie prąd źródłowy oraz rezystancję wewnętrzną. W przypadku źródła napięciowego istnienie
Rys. 1.9. Schematy zastępcze rzeczywistych źródeł: a) napięciowego b) prądowego
23
1.1. Podstawowe pojęcia
niezerowej rezystancji wewnętrznej powoduje zmniejszenie wartości napięcia na zaciskach źródła o spadek napięcia na rezystancji wewnętrznej1 U = E − I Rw .
(1.11)
Zwiększanie prądu pobieranego z takiego źródła powoduje wzrost spadku napięcia na rezystancji wewnętrznej kosztem napięcia na dołączonym odbiorniku. Wynika z tego, że rzeczywiste źródło napięcia generuje ograniczony prąd. Jaki jest więc maksymalny prąd generowany przez takie źródło? W idealnym źródle nie było żadnych ograniczeń co do wartości generowanego prądu. W przypadku źródła rzeczywistego (rzeczywiste źródło napięcia można zwierać) maksymalny prąd Imax wyznacza się w stanie zwarcia zacisków źródła i jest on równy I max = I z =
E . Rw
(1.12)
Wartość tego prądu nazywana jest prądem zwarcia. Większego prądu z rzeczywistego źródła napięciowego nie można pobrać! Dobrym przykładem rzeczywistego źródła napięciowego jest np. akumulator samochodowy. Jego rezystancja wewnętrzna rośnie przy spadku temperatury. Każdy kierowca z pewnością zauważył, że zimą, jeśli najpierw włączymy światła, a później uruchomimy rozrusznik (pobierający duży prąd), to w czasie rozruchu światła przygasną. Jest to efekt dużego spadku napięcia na rezystancji wewnętrznej, który odejmując się od napięcia źródłowego E, powoduje spadek napięcia na zewnętrznych zaciskach źródła, a jak zmniejsza się napięcie, to światła przygasają. Wewnątrz rzeczywistego źródła nie ma oczywiście oddzielnie idealnego źródła i rezystancji – są one rozłożone w całym obszarze źródła. Fikcyjne rozdzielenie na dwa elementy idealne ułatwia obliczenia podczas analizy i syntezy rzeczywistych obwodów elektrycznych. W przypadku rzeczywistego źródła prądowego sytuacja jest analogiczna. Do źródła prądowego dołączony jest równolegle rezystor. Im mniejsza jest wartość jego rezystancji, tym większa część prądu źródłowego „ucieka” przez niego, a tym samym prąd wyjściowy I jest mniejszy I = Iźr – Iw = Iźr –
U . Rw
(1.13)
Rzeczywiste źródło prądowe charakteryzuje się pewną graniczną wartością napięcia wyjściowego, a jego wydajność prądowa jest tylko w przybliżeniu stała. Poprzez rozwarcie zacisków źródła (rzeczywiste źródło prądu można zwierać) jesteśmy w stanie zidentyfikować maksymalne napięcie, jakie może być generowane przez źródło. Taki stan nazywamy stanem jałowym (cały prąd źródłowy płynie przez rezystancję wewnętrzną, więc spadek na niej nie może być już większy). W stanie jałowym wyznaczamy maksymalną wartość napięcia wyjściowego równą Umax = U0 = Iźr Rw. 1
(1.14)
Zależności (1.11)...(1.17) staną się zupełnie jasne dopiero po lekturze podrozdziału 1.2. Dlatego teraz można się po nich „prześlizgnąć” i wrócić do tego miejsca po uważnym przestudiowaniu prawa Ohma i praw Kirchhoffa.
24
1. Podstawowe własności obwodu elektrycznego
Rys. 1.10. Równoważność rzeczywistych źródeł napięciowego i prądowego
Podsumowując, można stwierdzić, że przyczyną sprawczą przepływu prądu w obwodzie dołączonym do źródła jest w przypadku źródła napięciowego napięcie źródłowe, a w przypadku źródła prądowego prąd źródłowy. Obserwując charakterystyki obydwu źródeł rzeczywistych, można zauważyć, że mają one taki sam kształt, co oznacza, że przy odpowiednim doborze parametrów możliwe jest zastąpienie jednego źródła drugim. Często ułatwia to późniejsze obliczenia analizowanego obwodu elektrycznego. Równoważność źródeł dotyczy prądów i napięć zaciskowych (rysunek 1.10). Dla źródła napięciowego spełnione jest równanie (1.11), natomiast dla źródła prądowego (1.13). Przyrównując prawą stronę zależności (1.11) z napięciem U wyznaczonym z (1.13), otrzymujemy tożsamość E – IRw = Iźr Rw – IRw
(1.15)
a z niej warunki równoważności układów: a) przy przekształceniu źródła prądowego na napięciowe E = Iźr Rw ,
(1.16)
b) przy przekształceniu źródła napięciowego na prądowe Iźr =
E . Rw
(1.17)
W tym miejscu należy się Czytelnikowi pewien komentarz związany z nazewnictwem. Po pierwsze, tradycyjnie dla napięcia źródłowego stosuje się oznaczenie E, a dla wszystkich pozostałych napięć symbol U. Są oczywiście pewne odstępstwa (np. w układach prezentowanych w kolejnych częściach książki), ale nie zmienia to reguły. W przypadku źródeł prądowych stosuje się symbol Iźr i tu wyróżnikiem jest dolny indeks „źr”. Symbol I obowiązuje generalnie zarówno dla źródeł prądowych, jak i dla prądów płynących w obwodzie. Po drugie, w schematach zastępczych rzeczywistych źródeł prądowych bardzo często spotyka się oznaczenie Gw zamiast Rw – jest to tylko kwestia oznaczenia wiążąca się z prostszą postacią niektórych wzorów wyprowadzanych dla pewnych obwodów. Pamiętajmy, że rezystor ma pewną rezystancję (opór) Rw i jednocześnie pewną konduktancję (przewodność) Gw i po-
25
1.2. Prawa Ohma i Kirchhoffa
nieważ te dwie wielkości dotyczą tego samego rezystora, są one ze sobą wzajemnie jednoznacznie powiązane: przewodność jest odwrotnością oporu (i vice versa), tj. 1 . Rw
Gw =
(1.18)
Napięcie źródłowe i prąd źródłowy są często nazywane wydajnością odpowiednio źródła napięciowego i prądowego, co oznacza, że jeśli spotkamy się z określeniem źródło prądowe o wydajności 5 mA, to oznacza, że prąd źródłowy tego źródła ma wartość 5 mA. Kończąc temat źródeł napięciowych i prądowych, należy wspomnieć o tzw. źródłach sterowanych. Dla podkreślenia, że dotychczas poznane źródła nie są źródłami sterowanymi, czasem dodaje się do ich nazwy dodatkowe określenie „niezależne”. Zatem poznaliśmy dotychczas niezależne źródło napięciowe i niezależne źródło prądowe. Z kolei źródła sterowane charakteryzują się tym, że ich wydajności zależą od innych prądów lub napięć obwodowych. Prostym przykładem może być tu źródło napięcia sterującego żarówką w automacie zmierzchowym – im ciemniej, tym słabszy sygnał z fotodetektora i tym większe napięcie podawane na żarówkę. Mamy więc sterowane źródło napięciowe z ujemnym współczynnikiem – spadek napięcia sterującego (z fotodetektora) powoduje wzrost napięcia wyjściowego (na żarówce). Do dyspozycji mamy cztery rodzaje źródeł sterowanych – źródła napięciowe sterowane napięciem lub prądem oraz źródła prądowe sterowane napięciem lub prądem. Podsumowując podrozdział, możemy z ulgą stwierdzić, że poznaliśmy już wszystkie elementy liniowe stosowane w obwodach elektrycznych, są to trzy elementy pasywne (bierne), tj. rezystor, kondensator i cewka, dwa źródła niezależne, tj. napięciowe i prądowe oraz cztery źródła sterowane. Czytelnika, który chciałby zapoznać się ze szczegółowym opisem źródeł sterowanych, odsyłamy do [3, 10, 14], a teraz nadszedł czas na poznanie podstawowych praw obwodowych...
1.2.
Prawa Ohma i Kirchhoffa Prawo Ohma oraz dwa prawa Kirchhoffa to główne prawa teorii obwodów. W zależności od rodzaju obwodu przyjmują one różne formy. W pierwszej kolejności zajmiemy się przedstawieniem tych praw w zastosowaniu do obwodów prądu stałego, czyli takich, w których napięcia i prądy nie zmieniają się w czasie. Prawo Ohma W teorii obwodów nagminnie korzysta się z prawa Ohma, bardzo często nawet nie zdając sobie z tego sprawy (z czasem staje się to wręcz intuicyjnie). Warto więc dobrze przemyśleć zależności opisujące to prawo. We wszystkich układach, które spotykamy w praktyce, prąd jest ściśle związany z napięciem. Jeśli płynie prąd, to występuje też napięcie. Zależność prądu płynącego przez rezystor od napięcia panującego na tym rezystorze opisuje właśnie słynne prawo Ohma I=
U , R
(1.19)
26
1. Podstawowe własności obwodu elektrycznego
Rys. 1.11. Zależności prądu od rezystancji przy stałej wartości napięcia zasilającego
które interpretujemy następująco: prąd płynący przez rezystor jest wprost proporcjonalny do napięcia przyłożonego do tego rezystora i odwrotnie proporcjonalny do jego rezystancji. Co w praktyce oznacza ten wzór? W pierwszej kolejności trzeba sobie uzmysłowić, iż mając dane dwie z trzech wielkości we wzorze, zawsze jesteśmy w stanie obliczyć tę trzecią. Ale nie chodzi przecież o to, aby uczyć się wszystkich wzorów oraz formułek na pamięć. Zastanówmy się więc, jaka jest idea prawa Ohma i jakie zależności sobą reprezentuje. W tym celu skonstruujmy najprostszy obwód składający się z idealnego źródła napięciowego oraz rezystancji. W pierwszej kolejności rozważmy przypadek, w którym wartość napięcia zasilającego jest stała i wynosi E = 24 V. Na rysunku 1.11 pokazano zależności prądu od rezystancji przy stałej wartości napięcia. Nietrudno zauważyć, że im większa wartość rezystancji rezystora, tym prąd płynący w obwodzie jest mniejszy. Ten fakt próbowaliśmy już wcześniej sygnalizować, określając wartość rezystancji jako ilościową miarę przeciwstawiania się płynącemu prądowi. Drugi przypadek jest przedstawiony na rysunku 1.12. Tym razem stała jest wartość dołączonej do obwodu rezystancji, a zmienia się napięcie. W wyniku zastosowania rezystora o stałej wartości możemy zaobserwować zależność prądu od napięcia w obwodzie. Widzimy, że im większe jest napięcie w obwodzie, tym większy prąd przepływa przez rezystor.
Rys. 1.12. Zależności prądu od napięcia przy stałej wartości rezystancji
Zrozumienie łącznie tych dwóch zagadnień umożliwia właściwą interpretację podstawowego prawa obwodowego i jest niezbędne do pełnego zrozumienia kolejnych rozdziałów niniejszej książki. Jeśli w tym momencie Czytelnik ma jakiekolwiek wątpliwości, zachęcamy do cofnięcia się do początku i ponownego przestudiowania tego materiału – nie będzie to czas zmarnowany.
27
1.2. Prawa Ohma i Kirchhoffa
Oprócz prawa Ohma w teorii obwodów stosujemy praktycznie jeszcze dwa inne wspomniane wyżej prawa. Są to: pierwsze prawo Kirchhoffa, nazywane często prądowym oraz drugie prawo Kirchhoffa, nazywane napięciowym. W odróżnieniu od prawa Ohma nie dotyczą one pojedynczego elementu, ale pewnej struktury obwodu. Prądowe prawo Kirchhoffa Jak sama nazwa wskazuje, prądowe prawo Kirchhoffa odnosi się do rozpływu prądu w obwodzie i dotyczy poszczególnych węzłów obwodu, czyli punktów, gdzie „spotykają się różne prądy”. Zgodnie z tym prawem algebraiczna suma prądów w każdym węźle obwodu jest równa zeru
∑ I k = 0,
(1.20)
k
przy czym k oznacza liczbę sumowanych prądów, wpływających i wypływających z węzła. Określenie suma algebraiczna oznacza, że podczas sumowania należy uwzględnić znak skojarzony z kierunkiem przepływu prądu. Przyjmuje się, że prądy wpływające do węzła traktowane są jako prądy z jednakowym znakiem (tzn. dodatnim lub ujemnym), natomiast prądy odpływające od węzła ze znakiem przeciwnym. Jak to zatem interpretować? Oznacza to, że nie jest ważne, czy prądy wpływające oznaczamy jako dodatnie, czy ujemne, ważne, by prądy odpływające miały przeciwny znak. W celu zilustrowania prądowego prawa Kirchhoffa rozważmy przykładowy węzeł z rysunku 1.13. Zgodnie z wcześniejszymi założeniami niezależnie od założonego zwrotu prądów w węźle możemy ułożyć dla jednego węzła dwa tożsame równania, bazując na (1.20) I1 + I 2 − I 3 − I 4 − I 5 = 0 ,
(1.21.a)
− I1 − I 2 + I 3 + I 4 + I 5 = 0.
(1.21.b)
Formułując równanie (1.21a), przyjmujemy jako dodatnie prądy wpływające do węzła, natomiast w przypadku równania (1.21b) za dodatnie przyjmujemy prądy odpływające z węzła. Zwróćmy uwagę, że zmiana oznaczenia kierunku prądów skutkuje obustronnym wymnożeniem równania przez minus jeden.
Rys. 1.13. Przykładowy węzeł obwodu elektrycznego prądu stałego
28
1. Podstawowe własności obwodu elektrycznego
Czasem formułuje się prądowe prawo Kirchhoffa w prostszej do interpretacji formie, a mianowicie: suma prądów wpływających do węzła jest równa sumie prądów z niego odpływających. Jest to ujęcie bardzo intuicyjne i wręcz oczywiste. Zgodnie z nim prawo Kirchhoffa dla węzła z rysunku 1.13 możemy zapisać następująco I1 + I 2 = I 3 + I 4 + I 5 .
(1.21.c)
Należy pamiętać, że w obwodzie zawierającym więcej niż jeden węzeł należy na wstępie przypisać początkowe kierunki wszystkim prądom. Jeśli w wyniku obliczeń pewne wartości okażą się ujemne, to będzie to oznaczało, że rzeczywisty prąd płynie w przeciwnym kierunku, niż wskazuje przyjęta na wstępie strzałka. Rozwiązywanie obwodów metodą praw Kirchhoffa omówimy w rozdziale 2, ale warto już teraz wspomnieć, że dla obwodu zawierającego w węzłów można sformułować w – 1 niezależnych równań wynikających z prądowego prawa Kirchhoffa. Analizując przykładowy obwód z rysunku 1.14, pokażemy, z czego wynika ta redukcja.
Rys. 1.14. Ilustracja węzła odniesienia dla prądowego prawa Kirchhoffa
Ponieważ dla każdego węzła w obwodzie można napisać równanie na podstawie prądowego prawa Kirchhoffa, dla obwodu mającego w węzłów można napisać w równań. W tych równaniach każdy prąd gałęziowy występuje dwukrotnie: raz ze znakiem minus, a drugi raz ze znakiem plus. Oznacza to, że po dodaniu tych równań stronami wszystkie prądy zredukują się, dając w wyniku tożsamościowe zero. W przykładowym obwodzie liczba węzłów jest równa 4 i dla każdego z nich można napisać równanie bilansu prądów w węźle: w1 :
I1 = I 2 + I 3,
(1.22.a)
w2 :
I3 + I 6 = I5 ,
(1.22.b)
w3 :
I 2 = I1 + I 4 ,
(1.22.c)
w4 :
I 4 + I5 = I 6 .
(1.22.d)
Dodając wszystkie równania stronami, otrzymamy tożsamościowe zero. I1 + I 3 + I 6 + I 2 + I 4 + I 5 = I 2 + I 3 + I 5 + I1 + I 4 + I 6 → 0 = 0 .
(1.23)
29
1.2. Prawa Ohma i Kirchhoffa
Wynika stąd, że równania otrzymane na podstawie prądowego prawa Kirchhoffa dla wszystkich węzłów tworzą układ równań liniowo zależnych, wobec tego każde równanie jest liniową kombinacją pozostałych w – 1 równań. Można więc stwierdzić, że dla obwodu o w węzłach istnieje w – 1 równań liniowo niezależnych. W związku z powyższym mówi się często, że obwód zawierający w węzłów ma w – 1 węzłów niezależnych. Pozostały węzeł nazywany jest węzłem odniesienia. W celu otrzymania układu równań liniowo niezależnych należy w pierwszym kroku wybrać i oznaczyć węzeł odniesienia, a następnie na podstawie prądowego prawa Kirchhoffa zapisać równania dla wszystkich pozostałych węzłów obwodu (rysunek 1.15).
Rys. 1.15. Ilustracja węzła odniesienia dla prądowego prawa Kirchhoffa
Oczywiście dla węzła odniesienia prądowe prawo Kirchhoffa również obowiązuje, ale okazuje się, że sformułowane dla tego węzła równanie jest sumą wszystkich pozostałych równań, jest więc od nich liniowo zależne, czyli nie wnosi żadnej dodatkowej informacji i można je pominąć. w1 :
I1 = I 2 + I 3 ,
(1.24.a)
w2 :
I3 + I 6 = I5 ,
(1.24.b)
w3 :
I 2 = I1 + I 4 .
(1.24.c)
Dodając wszystkie równania stronami I1 + I 3 + I 6 + I 2 = I 2 + I 3 + I 5 + I1 + I 4 ,
(1.25)
otrzymujemy równanie dla węzła odniesienia (1.22.d) I 6 = I5 + I 4 .
(1.26)
Napięciowe prawo Kirchhoffa Kolejnym fundamentalnym prawem teorii obwodów jest napięciowe prawo Kirchhoffa, dotyczące bilansu napięć w oczku i mające zastosowanie w analizie rozkładu napięć w obwodzie elektrycznym. W celu prezentacji napięciowego prawa Kirchhoffa rozpatrzymy przykładowy obwód elektryczny, przedstawiony na ry-
30
1. Podstawowe własności obwodu elektrycznego
Rys. 1.16. Ilustracja napięciowego prawa Kirchhoffa
sunku 1.16, w którym można wyodrębnić oczko, czyli część obwodu z zamkniętą drogą dla prądu. Zgodnie z napięciowym prawem Kirchhoffa algebraiczna suma napięć na wszystkich elementach dowolnego oczka obwodu jest równa zeru
∑U k = 0,
(1.27)
k
przy czym k oznacza liczbę napięć w danym oczku. W celu wyznaczenia sumy (1.27) należy przyjąć pewien umowny kierunek w oczku, zgodnie z którym będziemy sumować napięcia występujące w oczku, czyli „drogę”, po której będziemy dodawać, względnie odejmować poszczególne napięcia. Może to być kierunek zgodny z ruchem wskazówek zegara, i tak najczęściej się postępuje, bądź kierunek przeciwny. Ważne jest jednak, aby przy przyjętym kierunku wszystkie napięcia gałęziowe, oznaczone strzałkami zgodnie z tym kierunkiem, zapisywane były do równania ze znakiem plus, natomiast napięcia przeciwne do tego kierunku ze znakiem minus. W przypadku obwodu pokazanego na rysunku 1.16, przyjmując kierunek zgodny z kierunkiem ruchu wskazówek zegara, otrzymujemy E − U1 − U 2 − U 3 = 0.
(1.28a)
Prostsze interpretacyjnie i bardziej intuicyjne sformułowanie napięciowego prawa Kirchhoffa brzmi: algebraiczna suma napięć źródłowych w oczku jest równa sumie spadków napięcia w tym oczku. Zgodnie z tą zasadą w przypadku obwodu z rysunku 1.16 możemy zapisać bilans napięć w oczku za pomocą zależności E = U1 + U 2 + U 3.
(1.28b)
Użyliśmy przed chwilą niezmiernie popularnego sformułowania spadek napięcia, w celu określenia napięcia na rezystorze. Interpretacja tego sformułowania wymaga pewnej dozy wyobraźni. W obwodzie z rysunku 1.16 istnieje wymuszające napięcie źródłowe E przyłożone do trzech rezystorów, a więc na wszystkich rezystorach mamy pełne napięcie E. Na dwóch ostatnich mamy napięcie U2 + U3 równe napięciu E pomniejszonemu o U1, czyli na rezystorze R1 napięcie spadło o wartość U1, a zatem U1 możemy nazywać i nazywamy „spadkiem napięcia”.
31
1.3. Przekształcenia obwodów
Podobnie jak prądowe prawo Kirchhoffa, również napięciowe prawo Kirchhoffa może być podstawą do odrębnej metody analizy obwodów elektrycznych. Dla każdego obwodu możemy napisać tyle równań, ile oczek możemy wyodrębnić w obwodzie, ale szerzej omówimy te zagadnienia w rozdziale 2.
1.3.
Przekształcenia obwodów Aby efektywnie analizować obwody elektryczne, bardzo często dokonuje się przekształceń oryginalnych obwodów w celu uproszczenia ich struktury. W praktyce istnieje wiele rodzajów połączeń, które mogą zostać zastąpione poprzez jeden element zastępczy, upraszczając tym samym analizę obwodu. W bieżącym podrozdziale przedstawimy zasady zastępowania w przypadku wielu elementów połączonych szeregowo i równolegle. Skupimy się zarówno na elementach biernych, jak i czynnych obwodu elektrycznego, uzupełniając dodatkowo ten podrozdział o analizę zasady działania dzielników napięcia i prądu. Połączenie szeregowe elementów Połączenie szeregowe elementów jest połączeniem, w którym wartość prądu płynącego przez te elementy jest w każdym elemencie jednakowa (rysunek 1.17).
Rys. 1.17. Szeregowe połączenie rezystancji
W zależności od rodzaju połączonych elementów można wyróżnić pewne elementy zastępcze zastępujące takie połączenia. I tak dla układu rezystorów połączonych szeregowo, przedstawionego na rysunku 1.17, otrzymujemy I=
U1 U 2 U 3 U = = = , R1 R2 R3 R Z
(1.29)
ponieważ U = U1 + U 2 + U 3 = IR1 + IR2 + IR3 = I ( R1 + R2 + R3 ) ,
(1.30)
otrzymujemy U = R1 + R2 + R3 I
(1.31)
i ostatecznie rezystancja zastępcza Rz szeregowego połączenia rezystorów jest określana wzorem Rz = R1 + R2 + R3 .
(1.32)
32
1. Podstawowe własności obwodu elektrycznego
W ogólnym przypadku n rezystorów możemy zapisać Rz = R1 + R2 + R3 + ... + Rn.
(1.33)
Podobnie sytuacja ma się z szeregowym połączeniem cewek. Wypadkowa indukcyjność zastępczej cewki jest sumą indukcyjności poszczególnych cewek. Lz = L1 + L2 + L3 + ... + Ln.
(1.34)
Inaczej sprawa wygląda w przypadku szeregowego połączenia kondensatorów. Tu wypadkowa zastępcza pojemność jest wyrażona wzorem 1 1 1 1 1 = + + + ... + . C z C1 C2 C3 Cn
(1.35)
Oznacza to, że wartość wypadkowej pojemności jest mniejsza od najmniejszej ze wszystkich pojemności wchodzących w skład danego połączenia szeregowego. Zależności dla zastępczej indukcyjności i pojemności podajemy bez wyprowadzeń, ponieważ nie znamy jeszcze pojęcia reaktancji cewki i kondensatora, a wyprowadzenia bazujące na tych pojęciach są najprostsze. Do tego zagadnienia powrócimy przy okazji omawiania obwodów prądu harmonicznego. Przejdźmy teraz do źródeł napięcia i prądu oraz metod zastępowania ich szeregowych połączeń. Cały czas przypominamy, że mówimy tu o elementach obwodów stałoprądowych, czyli o źródłach napięcia stałego i prądu stałego. W przypadku połączenia szeregowego idealnych źródeł napięcia (rysunek 1.18) wartość zastępczego źródła sprowadza się jedynie do określenia wartości zastępczego napięcia generowanego przez takie źródło. Jest ono, zgodnie z napięciowym prawem Kirchhoffa, sumą wartości napięć poszczególnych elementów składających się na szeregowe połączenie. n
Ez = ∑ Ek . k =1
Rys. 1.18. Szeregowe połączenie idealnych źródeł napięciowych
W przypadku rzeczywistych źródeł napięciowych należy dodatkowo wyznaczyć wartość zastępczej rezystancji wewnętrznej powstałej z połączenia szeregowego – rysunek 1.19. n
Ez = ∑ Ek k =1
n
Rz = ∑ Rk . k =1
Rys. 1.19. Szeregowe połączenie rzeczywistych źródeł napięciowych
33
1.3. Przekształcenia obwodów
Źródła napięciowe łączy się szeregowo najczęściej w celu uzyskania większej wartości napięcia wypadkowego. W przypadku próby szeregowego połączenia idealnych źródeł prądowych dochodzimy do sytuacji niemożliwej do zrealizowania fizycznie (każde idealne źródło prądowe może mieć inny prąd źródłowy niezależny od obwodu, do którego źródło jest włączone, zachodzi więc sprzeczność z atrybutem połączenia szeregowego, mówiącym o jednakowym prądzie w każdym elemencie), dlatego w teorii obwodów nie rozpatruje się takiej sytuacji. W przypadku prądowych źródeł rzeczywistych nie ma już tej sprzeczności, a wydajność szeregowego połączenia takich źródeł można wyznaczyć w następujący sposób. W pierwszej kolejności należy źródła prądowe przekształcić w równoważne im źródła napięciowe (wzór 1.16). Następnie trzeba zastąpić szeregowo połączone rzeczywiste źródła napięciowe źródłem zastępczym i w ostatnim kroku przekształcić je w źródło prądowe (1.17). Ten tok postępowania zilustrowano na rysunku 1.20.
I=
E1 = R1 I1 ,
(1.36)
E2 = R2 I 2 ,
(1.37)
E E1 + E2 R1 I1 + R2 I 2 . = = R R1 + R2 R1 + R2
(1.38)
Rys. 1.20. Szeregowe połączenie rzeczywistych źródeł prądowych
Połączenie równoległe elementów Połączenie równoległe elementów to taki rodzaj połączenia elementów obwodu elektrycznego, w którym wszystkie końce oraz wszystkie początki elementów są połączone razem (rysunek 1.21). Połączenie takie charakteryzuje się tym, że tworzy ono
34
1. Podstawowe własności obwodu elektrycznego
pewną liczbę gałęzi (na potrzeby rozważanego zagadnienia przyjmujemy, że gałąź złożona jest tylko z pojedynczego elementu), w których mogą płynąć różne prądy, ale na których panuje takie samo napięcie. Dodatkowo prąd wypadkowy płynący przez element zastępczy powstały przez zastąpienie równoległego połączenia tych elementów jest na mocy prądowego prawa Kirchhoffa równy sumie prądów wszystkich elementów obwodu.
Rys. 1.21. Równoległe połączenie rezystorów
Korzystając z podstawowych praw obwodowych, otrzymujemy U = I1 R1 = I 2 R2 = ... = I n Rn = I z Rz ,
(1.39)
ponieważ I = I1 + I 2 + I 3 + ... + I n =
U U U U + + + ... + R1 R2 R3 Rn
(1.40)
oraz I=
U Rz
(1.41)
otrzymujemy 1 U 1 1 1 =U + + + ... + Rz R R R R 2 3 n 1
(1.42)
1 1 1 1 1 . = + + + ... + Rz R1 R2 R3 Rn
(1.43)
i ostatecznie
Przy większej liczbie rezystorów połączonych równolegle o wiele łatwiej operować konduktancjami, ponieważ konduktancja wypadkowa jest sumą konduktancji wszystkich elementów składających się na połączenie równoległe Gz = G1 + G2 + G3 + ... + Gn .
(1.44)
Podobnie jak poprzednio, tj. bez wyprowadzeń, przytaczamy wzory na indukcyjność i pojemność zastępczą przy połączeniu równoległym 1 1 1 1 1 , = + + + ... + Lz L1 L2 L3 Ln
(1.45)
C z = C1 + C2 + C3 + ... + Cn.
(1.46)
35
1.3. Przekształcenia obwodów
Rys. 1.22. Równoległe połączenie idealnych źródeł prądowych
Ostatnim zagadnieniem jest równoległe połączenie źródeł prądowych i napięciowych. Tym razem zaczniemy od równoległego połączenia idealnych źródeł prądowych (rysunek 1.22). Wypadkowa wydajność zastępczego źródła jest (zgodnie z prądowym prawem Kirchhoffa) sumą wydajności poszczególnych źródeł Iźr z =
n
∑ Iźr k.
(1.47)
k =1
W przypadku rzeczywistych źródeł prądowych, po przemyśleniu metodyki postępowania w przypadku połączenia szeregowego, sytuacja jest już intuicyjnie wyczuwalna. Wartość wypadkowego prądu jest równa sumie algebraicznej prądów wszystkich źródeł, natomiast wypadkowa konduktancja jest sumą konduktancji poszczególnych źródeł (rysunek 1.23). Należy jednak pamiętać o uwzględnieniu zwrotów prądów poszczególnych źródeł, tzn. prądy o zwrocie zgodnym ze zwrotem prądu wypadkowego bierzemy ze znakiem dodatnim, natomiast prądy o zwrocie przeciwnym sumujemy ze znakiem ujemnym. Iźr z =
n
∑ Iźr k
k =1
n
Gz = ∑ Gk .
(1.48)
k =1
Rys. 1.23. Równoległe połączenie rzeczywistych źródeł prądowych
W przypadku próby równoległego połączenia idealnych źródeł napięcia napotykamy problemy podobne jak w przypadku szeregowego łączenia idealnych źródeł prądowych. Równanie opisujące takie połączenie nie ma rozwiązania i przypadek ten nie jest w teorii obwodów rozpatrywany. W przypadku rzeczywistych źródeł napięcia postępujemy wg następującej metodyki (rysunek 1.24): – każde ze źródeł zastępujemy równoważnym rzeczywistym źródłem prądowym,
36
1. Podstawowe własności obwodu elektrycznego
– równolegle połączone źródła prądowe zastępujemy zastępczym źródłem prądowym, – zamieniamy otrzymane zastępcze źródło prądowe na rzeczywiste źródło napięciowe.
I = I1 + I 2 =
I1 =
E1 2 , a + b2 R1
(1.49)
I2 =
E2 , R2
(1.50)
E1 E2 + R1 R2
1 1 1 , = + R R1 R2
E1 E2 + R1 R2 G1 E1 + G2 E2 E = IR = = . 1 1 G1 + G2 + R1 R2
(1.51)
(1.52)
Rys. 1.24. Równoległe połączenie rzeczywistych źródeł napięciowych
Podsumowując, powinniśmy zapamiętać, że aby uzyskać większe napięcie, należy połączyć kilka źródeł napięcia szeregowo (napięcia sumują się), trzeba jednak unikać łączenia równoległego źródeł napięcia z uwagi na to, że jeżeli ich napięcia źródłowe będą różne, to nastąpią szybkie rozładowania (źródło o mniejszej wydajności staje się odbiornikiem). Z kolei dla zwiększania prądu należy łączyć równolegle źródła prądowe, a z drugiej strony trzeba unikać szeregowego łączenia źródeł prądowych.
1.3. Przekształcenia obwodów
37
Wnikliwy Czytelnik, dotarłszy do tego miejsca, zapyta zapewne, czym właściwie różni się rzeczywiste źródło napięciowe od rzeczywistego źródła prądowego, skoro jedno można zastąpić drugim i vice versa. Odpowiedź jest prosta, choć być może zaskakująca. Otóż decydujące znaczenie ma tu rezystancja wewnętrzna, ale – i to jeszcze dziwniejsze – w stosunku do planowanej do podłączenia rezystancji zewnętrznej. Chodzi o to, na ile źródło rzeczywiste jest zbliżone do idealnego źródła prądowego, a na ile do napięciowego. Jeśli rezystancja wewnętrzna jest stosunkowo mała, to mówimy o źródle napięciowym, a jak stosunkowo duża, to o źródle prądowym. Ale co to znaczy stosunkowo? I tu właśnie trzeba uwzględnić rezystancję zewnętrzną, bo „stosunkowo” oznacza „w stosunku do rezystancji zewnętrznej, tj. rezystancji obciążenia”. Przykładowo, jeśli rezystancja wewnętrzna Rw = 50 Ω, a obciążeniem będzie rezystor o rezystancji R0 = 10 kΩ, to z pewnością źródło będzie miało charakter napięciowy – zdecydowana większość napięcia źródłowego odłoży się na obciążeniu. Jeśli jednak obciążenie będzie niskoomowe, np. R0 = 0,47 Ω, wówczas to samo źródło będzie miało charakter prądowy – prawie cały prąd źródłowy popłynie przez obciążenie, a tylko niewielka część przez rezystancję wewnętrzną. Przedstawiliśmy w ten sposób najprostsze rodzaje połączeń występujących w obwodach. W praktyce najczęściej spotykamy się z połączeniami mieszanymi, czyli obwodami złożonymi z elementów połączonych i szeregowo, i równolegle. Rozważmy taki przypadek wykorzystując obwód rezystancyjny (rysunek 1.25). Rezystancję zastępczą wyznacza się stosując na przemian wzory dla połączeń szeregowych i równoległych.
Rys. 1.25. Układ o połączeniu mieszanym
W pierwszej kolejności należy zidentyfikować rodzaje połączeń w danym układzie. W tym przypadku widać, że możemy wyróżnić dwa połączenia szeregowe, zaznaczone kolorem czarnym oraz jedno połączenie równoległe zaznaczone kolorem szarym (rysunek 1.26a). Dokonamy uproszczenia poprzez zastąpienie ich jednym zastępczym rezystorem, zgodnie z metodyką postępowania przy szeregowym oraz równoległym łączeniu rezystorów. W wyniku pierwszego uproszczenia otrzymujemy układ o strukturze zaprezentowanej na rysunku 1.26b. W kolejnym kroku kontynuujemy upraszczanie. Widać, że rezystory R12 oraz R34 są połączone szeregowo. Dodatkowo występuje również połączenie równoległe pomiędzy rezystorami R56 i R7. Kontynuujemy więc uprosz-
38
1. Podstawowe własności obwodu elektrycznego
Rys. 1.26. Przekształcenia układu o połączeniu mieszanym. Wszystkie układy pokazane na rysunku są sobie równoważne względem zacisków A i B
39
1.3. Przekształcenia obwodów
czenia tej struktury i otrzymujemy układ z rysunku 1.26c. Dokonujemy kolejnego uproszczenia dwóch szeregowo połączonych rezystorów i przechodzimy do struktury pokazanej na rysunku 1.26d i ostatecznie na rysunku 1.26e. R12 =
R1 R2 , R1 + R2
R34 = R3 + R4 , R56 = R5 + R6, R1234 = R12 + R34 , R567 =
R56 R7 , R56 + R7
R5678 = R567 + R8 , Rz =
R1234 R5678 . R1234 + R5678
Widać, że z obwodu o stosunkowo skomplikowanej strukturze powstał w wyniku zastosowania serii uproszczeń pojedynczy rezystor, który możemy traktować jako „reprezentanta” mieszanego połączenia elementów. Dzielnik napięcia Bardzo często w praktyce wykorzystywane są układy zwane dzielnikami napięcia. Dzielnik napięcia jest układem dzielącym napięcie doprowadzone do jego wejścia na dwie części, co oznacza, że napięcie wyjściowe jest częścią napięcia wejściowego. Przykład dzielnika pokazano na rysunku 1.27. Jak widać, dzielnik ten stanowią dwa rezystory połączone szeregowo. Napięcie wejściowe doprowadzone jest do rezystorów R1 i R2, natomiast napięcie wyjściowe jest równe spadkowi napięcia na jednym z nich. Najczęściej rysujemy schematy tak, że napięciem wyjściowym jest napięcie na rezystorze R2. Za pomocą rezystorów możemy uzyskać dowolne napięcie Uwy, nie większe niż Uwe. Graniczny przypadek może wystąpić w sytuacji, gdy wartość jednego rezystora jest równa 0 i wtedy całkowite napięcie zasilające odkłada się na drugim rezystorze. Potocznie mówi się, że napięcie zasilające „dzieli się” na rezystancjach proporcjonalnie do ich wartości. Zasada działania dzielnika jest bardzo prosta. Przez oba rezystory płynie ten sam prąd (oczywiście przy założeniu, że wyjście nie jest obciążone dodatkową rezystancją), określony zależnością I=
U we . R1 + R2
(1.53)
40
1. Podstawowe własności obwodu elektrycznego
Rys. 1.27. Przykładowy dzielnik napięcia (a) i odpowiedni układ potencjometru (b)
Zgodnie z prawem Ohma napięcie odkładane na rezystancji R2 wyraża się wzorem U 2 = I ⋅ R2 = U we
R2 . R1 + R2
(1.54)
Z powyższego wzoru wynika zatem, że im większa wartość rezystancji R2, tym większe napięcie odkłada się na tym rezystorze. Oczywiście jeśli na rezystorze R2 wzrasta wartość napięcia, to jednocześnie następuje zmniejszenie napięcia na rezystorze R1. Wynika to z faktu, iż suma wszystkich napięć występujących w danym oczku musi być zawsze stała (bilans napięć zgodny z napięciowym prawem Kirchhoffa), a w rozważanym przypadku konkretnie: U1 + U2 = Uwe. W wyniku tego napięcie na rezystorze R1 jest równe różnicy napięcia wejściowego oraz napięcia U2. Napięcie na rezystorach połączonych szeregowo mają się tak do napięcia zasilania, jak ich rezystancje do rezystancji zastępczej szeregowego połączenia tych elementów. U1 = U we
R1 R1 + R2
U 2 = U we
R2 . R1 + R2
(1.55)
Można wyróżnić tutaj kilka szczególnych przypadków. Jeśli rezystory wykorzystywane w dzielniku są jednakowe, to intuicyjnie wyczuwamy, że napięcia na nich również będą jednakowe. Nastąpi więc podział napięcia wejściowego na połowy. Jedna połowa odłoży się na rezystorze R1, a druga na R2. Jeżeli wartość jednego z rezystorów będzie dwukrotnie większa od drugiego, napię-
41
1.3. Przekształcenia obwodów
cie na nim będzie jednocześnie również dwukrotnie większe. A tym samym na jednym odłoży się 2/3 napięcia zasilającego, a na drugim pozostała 1/3 napięcia zasilania. Gruntowne przemyślenie idei działania dzielnika napięcia pozwala na intuicyjne wyczuwanie jego roli w późniejszych skomplikowanych układach elektronicznych. Często do budowy dzielników napięcia wykorzystywane są nie tylko rezystory. W skład wchodzić mogą również pozostałe elementy bierne, tj. kondensatory i cewki. Są one przede wszystkim używane w układach prądu przemiennego. Przykładowym dzielnikiem rezystancyjnym powszechnie stosowanym w układach elektronicznych jest potencjometr (suwak dzieli rezystancję potencjometru na dwie części reprezentujące R1 i R2 ze schematu na rysunku 1.27). Dla utrwalenia zasady działania dzielnika dokonajmy jego analizy, bazując na obwodzie z rysunku 1.27 i uzupełniając go o wartości poszczególnych elementów: Uwe = 24 V, R1 = 4 Ω, R2 = 2 Ω. Przez rezystory płynie prąd o wartości I=
U we 24 = = 4 A. R1 + R2 4 + 2
(1.56)
Zgodnie z (1.55) napięcia na poszczególnych rezystorach osiągają wartości U1 = U we
R1 4 96 = = 16 V, = 24 4+2 6 R1 + R2
(1.57)
U 2 = U we
R2 2 48 = = 8 V. = 24 4+2 6 R1 + R2
(1.58)
A więc stosunek rezystancji poszczególnych rezystorów w dzielniku przekłada się na adekwatny stosunek napięć na tych elementach. Ponieważ wartość rezystancji rezystora R1 jest dwa razy większa od wartości rezystancji R2, również wartość napięcia odkładającego się na rezystorze R1 jest dwukrotnie większa w stosunku do napięcia na elemencie R2. Dla sprawdzenia poprawności działań możemy zapisać bilans napięć dla oczka zgodnie z napięciowym prawem Kirchhoffa U we = U1 + U 2 → 24 V = 16 V + 8 V.
(1.59)
Dzielnik prądu W dzielniku prądu w odróżnieniu od dzielnika napięcia występuje równoległe połączenie rezystorów. Prąd dopływający do tego układu „dzieli się” na prądy gałęziowe o wartościach odwrotnie proporcjonalnych do wartości rezystancji, czyli wprost proporcjonalnych do konduktancji gałęziowych. Przykład dzielnika prądu pokazany jest na rysunku 1.28.
42
1. Podstawowe własności obwodu elektrycznego
Rys. 1.28. Przykładowy dzielnik prądu
Napięcie na obydwu rezystancjach jest takie samo i równe napięciu zasilającemu. Natężenie prądu elektrycznego w każdej z gałęzi dzielnika zasilanego prądem stałym, zgodnie z I prawem Kirchhoffa, jest zawsze mniejsze od natężenia prądu wejściowego I i zależy tylko od stosunku wartości użytych rezystancji oraz wartości prądu wejściowego. O wiele wygodniej w przypadku połączenia równoległego operować na konduktancjach. Wartości prądów określone są wówczas prostymi zależnościami I1 = U ⋅ G1 ,
I 2 = U ⋅ G2 ,
zatem ponieważ U= otrzymujemy I1 = I ⋅
G1 G1 + G2
I = U ( G1 + G2 ) ,
I , G1 + G2 I2 = I ⋅
(1.60)
(1.61) G2 . G1 + G2
(1.62)
Przy zapisie z wykorzystaniem rezystancji dostajemy odpowiednio I1 = I ⋅
R2 R1 + R2
I2 = I ⋅
R1 . R1 + R2
(1.63)
Z otrzymanych wzorów wynika, że prądy płynące przez równolegle połączone rezystory mają się tak do prądu całkowitego układu, jak ich konduktancje do konduktancji całkowitej. Podobnie jak w przypadku dzielnika napięcia dokonajmy analizy dzielnika z rysunku 1.28, uzupełniając go o wartości poszczególnych elementów: I = 12 A, R1 = 3 Ω, R2 = 6 Ω. Zgodnie z założeniami prądy płynące w poszczególnych gałęziach dzielnika będą zawsze mniejsze od prądu wejściowego. Określone są one wzorami I1 = I ⋅
R2 6 = 12 ⋅ = 8 A, 3+ 6 R1 + R2
(1.64)
I2 = I ⋅
R1 3 = 12 ⋅ = 4 A. 3+ 6 R1 + R2
(1.65)
43
1.4. Liniowość obwodu elektrycznego
W przypadku użycia we wzorach konduktancji musimy w pierwszej kolejności obliczyć wartości konduktancji poszczególnych rezystorów, a następnie bazować na wzorach „konduktancyjnych”. G1 = I1 =
I2 =
1 1 = S R1 3
G2 =
1 1 = S, R2 6
I 12 1 12 1 12 1 ⋅ G1 = ⋅ = ⋅ = ⋅ = 8 A, 1 1 2 1 3 3 G1 + G2 + 3 + 3 3 6 6 6 6 I 12 1 12 1 12 1 ⋅ G2 = ⋅ = ⋅ = ⋅ = 4 A. 1 1 6 2 1 6 3 6 G1 + G2 + + 3 6 6 6 6
(1.66)
(1.67)
(1.68)
Tak więc w tym przypadku stosunek rezystancji poszczególnych rezystorów w dzielniku przekłada się na odwrotnie proporcjonalny stosunek prądów tych elementów. Ponieważ wartość rezystancji rezystora R1 jest dwa razy mniejsza od wartości rezystancji R2, wartość prądu płynącego przez ten rezystor jest dwukrotnie większa w stosunku do prądu płynącego przez rezystor R2. Dla sprawdzenia poprawności działań możemy zapisać bilans prądów dla węzła obwodu zgodnie z prądowym prawem Kirchhoffa I = I1 + I 2 → 12 A = 8 A + 4 A A.
1.4.
(1.69)
Liniowość obwodu elektrycznego Ostatnim problemem, który poruszymy w rozdziale pierwszym, jest problem liniowości obwodów elektrycznych. Jest to zagadnienie niezmiernie ważne, gdyż metody analizy obwodów liniowych i nieliniowych są odmienne. Praktycznie rzecz ujmując, liniowy obwód elektryczny to taki, który składa się tylko i wyłącznie z elementów liniowych. Jeśli co najmniej jeden element jest nieliniowy, to obwód należy uznać za nieliniowy. Elementy liniowe charakteryzują się liniowymi charakterystykami prądowo-napięciowymi. W przypadku rezystancji liniowość rezystora oznacza, że spełnia on prawo Ohma.
Rys. 1.29. Zasady warunkujące liniowość obwodu elektrycznego
44
1. Podstawowe własności obwodu elektrycznego
Formalnie obwodem liniowym nazywamy obwód spełniający warunki jednorodności i addytywności (rysunek 1.29). Obwód jednorodny to obwód, który na wymuszenie x reaguje odpowiedzią y, a na wymuszenie a · x odpowiedzią a · y, gdzie a jest pewną stałą. Cechę addytywności obwodów elektrycznych wyraża zasada superpozycji, zgodnie z którą odpowiedź liniowego obwodu elektrycznego na jednoczesne działanie kilku wymuszeń jest sumą odpowiedzi tego obwodu na każde z wymuszeń działające z osobna. Co to oznacza? Dla przykładu w obwodzie prądu stałego oznacza to, że prądy w obwodzie zasilanym przez dwa niezależne źródła napięcia będą równe sumie prądów płynących w tym obwodzie przy zasilaniu go z jednego i drugiego źródła działającego osobno.
2.
Metody analizy liniowych obwodów prądu stałego W niniejszym rozdziale zajmiemy się omówieniem metod analizy liniowych obwodów prądu stałego. Zrozumienie metodyki postępowania w przypadku tego typu obwodów stanowić będzie dla Czytelnika solidną bazę do zrozumienia teorii obwodów w całości. Pisząc liniowe obwody prądu stałego, mamy na myśli obwody liniowe, w których wymuszeniami są stałe napięcia źródłowe i/lub stałe prądy źródłowe, a odpowiedziami stałe napięcia i prądy w obwodzie. Ze względu na fakt, że w stanie ustalonym cewka dla prądu stałego stanowi zwarcie, natomiast kondensator rozwarcie, obwód taki w praktyce zawiera tylko i wyłącznie liniowe rezystory i źródła. Analiza obwodów elektrycznych polega na obliczaniu prądów i napięć w obwodzie poprzez formułowanie i rozwiązywanie równań matematycznych opisujących dany obwód. Równania obwodu formułuje się opierając się na różnych metodach analizy obwodów, a celem tego rozdziału jest omówienie grupy podstawowych metod analizy stałoprądowych obwodów liniowych. W celu jasnego przedstawienia istoty problemu każda z metod zostanie omówiona na przykładowym obwodzie, z rozpisaną szczegółowo metodyką postępowania.
2.1.
Metoda równań Kirchhoffa Metoda równań Kirchhoffa wywodzi się bezpośrednio z praw Kirchhoffa, które poznaliśmy w poprzednim rozdziale i jest fundamentalną metodą rozwiązywania obwodów elektrycznych. Przy stosowaniu tej metody należy ułożyć g niezależnych równań (g oznacza liczbę gałęzi, więc liczba równań jest równa liczbie gałęzi w obwodzie) ze względu na fakt, że ideą tej metody jest poszukiwanie prądów gałęziowych obwodu, czyli prądów płynących w poszczególnych gałęziach obwodu. Ze wzoru (1.2) jasno wynika, że możemy do tego celu wykorzystać w – 1 równań ułożonych dla w – 1 niezależnych węzłów według prądowego prawa Kirchhoffa oraz n równań dla wszystkich oczek niezależnych zgodnie z napięciowym prawem Kirchhoffa. Należy pamiętać, że całkowita liczba równań, układanych według praw Kirchhoffa, musi być równa liczbie g nieznanych prądów. W przypadku wystąpienia w obwodzie idealnych źródeł prądowych nie ma potrzeby układania dla takich gałęzi równań napięciowych, ponieważ prąd w danej gałęzi jest od razu znany. Metodykę postępowania przedstawimy na przykładzie obwodu z rysunku 2.1. Tok postępowania przy rozwiązywaniu obwodu metodą praw Kirchhoffa jest następujący: – strzałkujemy dowolnie prądy gałęziowe w obwodzie, – strzałkujemy napięcia na elementach pasywnych przeciwnie do przyjętych zwrotów prądów.
46
2. Metody analizy liniowych obwodów prądu stałego
Rys. 2.1. Przykładowy obwód elektryczny ilustrujący metodę Kirchhoffa
W wyniku tych czynności otrzymujemy obwód zamieszczony na rysunku 2.2. W celu sformułowania prądowych praw Kirchhoffa należy ułożyć w – 1 równań. W rozważanym przypadku wyróżniamy cztery węzły. Jeden z węzłów wybieramy jako węzeł odniesienia, a dla reszty formułujemy równania. Węzły, dla których układamy równania, zaznaczone są na schemacie na szaro. I1 − I 2 − I 3 = 0 (2.1) I 4 + I3 − I5 = 0 I + I − I = 0 5 2 6 W celu sformułowania kompletu równań dla metody Kirchhoffa należy jeszcze ułożyć równania bazujące na napięciowym prawie Kirchhoffa dla wszystkich niezależnych oczek w obwodzie. W rozpatrywanym przypadku mamy trzy oczka niezależne, więc należy ułożyć trzy dodatkowe równania. Kierunek w oczku przyjmujemy jako zgodny z kierunkiem ruchu wskazówek zegara. W wyniku tego otrzymujemy E1 − U 3 − E2 − U1 = 0 U 3 − U 2 + U 5 = 0 E − U − U + E = 0 5 6 6 2
Rys. 2.2. Obwód elektryczny z zaznaczonymi zwrotami prądów i napięć
(2.2)
47
2.1. Metoda równań Kirchhoffa
Ponieważ nie znamy wartości napięć na poszczególnych rezystorach, należy skorzystać dodatkowo z prawa Ohma i wyrazić spadki napięć przez iloczyny prądów płynących przez elementy i ich rezystancji E1 − R3 ⋅ I 3 − E2 − R1 ⋅ I1 = 0 R3 ⋅ I 3 − R2 ⋅ I 2 + R5 ⋅ I 5 = 0 E − R ⋅ I − R ⋅ I + E = 0 5 5 6 6 6 2
(2.3)
Powstały w ten sposób układ równań I1 − I 2 − I 3 = 0 I 4 + I3 − I5 = 0 I 5 + I 2 − I 6 = 0 E1 − R3 ⋅ I 3 − E2 − R1 ⋅ I1 = 0 R3 ⋅ I 3 − R2 ⋅ I 2 + R5 ⋅ I 5 = 0 E2 − R5 ⋅ I 5 − R6 ⋅ I 6 + E6 = 0
(2.4)
rozwiązujemy ze względu na niewiadome (prądy gałęziowe). Tym sposobem prześledziliśmy ogólną metodykę postępowania przy rozwiązywaniu obwodów stałoprądowych z użyciem praw Kirchhoffa. Bogatsi o tę wiedzę spróbujmy rozwiązać tą metodą przykładowy obwód przedstawiony na rysunku 2.3. W obwodzie tym można wyróżnić dwa węzły, a więc jesteśmy w stanie sformułować jedno równanie z wykorzystaniem prądowego prawa Kirchhoffa dla wybranego węzła. Niech będzie to węzeł A, wówczas I1 + I 3 − I 2 = 0.
(2.5)
Mamy tutaj do czynienia ze specyficzną sytuacją istnienia w jednej z gałęzi źródła prądowego, dzięki temu jeden prąd gałęziowy I1 jest od razu znany. W wyniku tego powyższe równanie pomniejszone zostaje automatycznie o jedną niewiadomą. I1 = Iźr ⇒ Iźr + I3 – I2 = 0.
(2.6)
Pozostają nam więc do wyznaczenia dwie pozostałe niewiadome. Ponieważ musimy mieć tyle równań, ile jest niewiadomych, należy ułożyć dodatkowe równania z użyciem napięciowego prawa Kirchhoffa. Mimo że zgodnie z założeniami me-
Rys. 2.3. Obwód elektryczny z zaznaczonymi zwrotami prądów i napięć
48
2. Metody analizy liniowych obwodów prądu stałego
tody jesteśmy w stanie ułożyć dwa takie równania, z uwagi na fakt występowania w obwodzie dwóch niezależnych oczek, jest to w tym przypadku zupełnie niepotrzebne, ponieważ liczba niewiadomych została wcześniej pomniejszona ze względu na występowanie w obwodzie źródła prądowego. Formułujemy więc tylko jedno równanie dla oczka zawierającego źródło napięciowe U 2 + U3 − E = 0 .
(2.7)
Korzystając z prawa Ohma, wyznaczamy spadki napięć na poszczególnych elementach U 2 = I 2 R2 , (2.8) U 3 = I 3 R3 i ostatecznie otrzymujemy układ dwóch równań z dwoma niewiadomymi I źr + I 3 − I 2 = 0 I 2 R2 + I 3 R3 − E = 0
(2.9)
Podstawiamy znane wartości i otrzymujemy układ 4 + I3 − I 2 = 0 I 2 ⋅1 + I 3 ⋅ 3 − 20 = 0
(2.10)
który możemy rozwiązać metodą podstawiania. Z pierwszego równania wyznaczamy dowolny prąd i podstawiamy go do drugiego równania ⇒ 4 + I3 − I 2 = 0 I 2 + 3 ( I 2 − 4) − 20 = 0
I3 = I 2 − 4
(2.11)
a następnie po kilku przeliczeniach otrzymujemy I3 = I 2 − 4 I 21 + 3I 2 − 12 − 20 = 0
(2.12)
I3 = I 2 − 4 4 I 2 = 32
(2.13)
⇒ I2 = 8 A
I2 = 8 A I3 = I 2 − 4 = 8 − 4 = 4 A
(2.14)
Analizowany obwód rozwiązano, ponieważ znaleźliśmy wszystkie prądy gałęziowe płynące w obwodzie: I1 = 4 A, I2 = 8 A, I3 = 4 A. Łatwo sprawdzić, że bilans prądów w węzłach oraz bilans napięć w każdym oczku jest zerowy. Mając dane wszystkie prądy w obwodzie, można dodatkowo dokonać obliczeń spadków napięć na poszczególnych elementach obwodu, korzystając z prawa Ohma. W wyniku tego została przeprowadzona całkowita analiza obwodu prądu stałego. Jak widać, metoda ta jest dosyć prosta, choć przy skomplikowanych obwodach może być pracochłonna obliczeniowo, a więc mało efektywna.
2.2. Metoda prądów oczkowych
2.2.
49
Metoda prądów oczkowych Analizowanie obwodu elektrycznego metodą prądów oczkowych wymaga w pierwszej kolejności wyjaśnienia pojęcia prądu oczkowego. Najprościej mówiąc, jest to fikcyjny prąd krążący wzdłuż konkretnego oczka obwodu. Intuicyjnie sprawa może wydawać się prosta, ale nurtować może pytanie: jak ten prąd oczkowy ma się do wcześniej poznanych prądów gałęziowych? Odpowiedź jest prosta! Prąd gałęziowy jest wypadkową prądów oczkowych płynących w danej gałęzi. Prądy oczkowe numerujemy, używając z reguły cyfr rzymskich (I, II, III), w odróżnieniu od prądów gałęziowych, które oznaczane są cyframi arabskimi. Idea metody oczkowej polega na wyznaczeniu fikcyjnych prądów oczkowych, a następnie na ich podstawie rzeczywistych prądów gałęziowych. W metodzie tej równania układa się tylko dla oczek niezależnych, pomijając węzły, a niewiadomymi są prądy oczkowe. Niewątpliwie łatwiej będzie to zrozumieć na konkretnym przykładzie liczbowym, który rozwiążemy później. W pierwszej kolejności prześledźmy zatem tok postępowania na podstawie przykładowego obwodu z rysunku 2.4. W pierwszej kolejności należy dokonać strzałkowania prądów oczkowych, czyli prądów przypisanych niezależnym oczkom występującym w obwodzie. Liczbę niezależnych oczek można wyznaczyć za pomocą wzoru (1.2), znając liczbę gałęzi i węzłów analizowanego obwodu. W rozważanym obwodzie można wyróżnić trzy niezależne oczka, zgodnie z poniższym wzorem n = g − w + 1 = 5 − 3 + 1 = 3. W wyniku tego otrzymujemy trzy prądy oczkowe. Najwygodniej jest przyjąć, że zwroty prądów oczkowych są takie same we wszystkich oczkach, np. zgodne z ruchem wskazówek zegara. Oczywiście można dokonywać dowolnego strzałkowania tych prądów, ale wtedy układanie równań niepotrzebnie się komplikuje. Obwód z zaznaczeniem poszczególnych prądów oczkowych jest pokazany na rysunku 2.5. Kolejną czynnością jest ułożenie równań dla poszczególnych niezależnych oczek. Równania formułuje się na podstawie napięciowego prawa Kirchhoffa, przy czym zwroty prądów oczkowych przyjmuje się jako takie same jak zwroty obiegu oczek. W tym miejscu należy wprowadzić pojęcia rezystancji własnej oraz rezystancji wspólnej, niezbędne podczas stosowania tej metody. Rezystancja własna oczka to suma wszystkich rezystancji w oczku, opisywanym przez konkretny prąd oczkowy. Natomiast rezystancja wspólna to suma rezystancji w gałęzi wspólnej dla dwóch sąsiednich oczek. Przykładowo, w rozpatrywanym obwodzie dla oczka I rezystancja własna jest równa
Rys. 2.4. Przykładowy obwód elektryczny ilustrujący metodę prądów oczkowych
50
2. Metody analizy liniowych obwodów prądu stałego
Rys. 2.5. Przykładowy obwód elektryczny ilustrujący metodę oczkową z zaznaczonymi zwrotami prądów oczkowych
sumie rezystancji R1 oraz R5, natomiast rezystancją wspólną w tym przypadku jest rezystancja R5, znajdująca się w gałęzi wspólnej dla oczek I i II. Formułując równania dla poszczególnych oczek, należy uwzględniać rezystancje wspólne ze znakiem minus, ponieważ prądy płynące przez nie, mają przeciwne kierunki. Druga zasada dotyczy odpowiedniego zapisywania napięć źródłowych znajdujących się w wybranych oczkach. Operujemy tutaj pojęciem napięcie źródłowe oczka, które jest sumą algebraiczną napięć źródłowych występujących w danym oczku. W sumie tej źródła napięcia otrzymują znak plus, jeśli jego zwrot jest zgodny z obiegiem oczka, natomiast gdy są przeciwne, dodaje się je ze znakiem minus. Napięcia te umieszcza się po prawej stronie formułowanego równania. Znając już zasady tworzenia równań opierające się na metodzie oczkowej, spróbujmy sformułować równania dla rozpatrywanego obwodu. I oczko I I ( R1 + R5 ) − I II ⋅ R5 = E1
(2.15)
I II ( R5 + R3 + R4 ) − I I ⋅ R5 − I III ⋅ R4 = 0
(2.16)
II oczko
51
2.2. Metoda prądów oczkowych
III oczko I III ( R4 + R2 ) − I II ⋅ R4 = − E 21
(2.17)
W wyniku tego powstaje układ równań, który należy rozwiązać ze względu na prądy oczkowe. I I ( R 1 + R 5 ) − I II ⋅ R 5 = E 1 (2.18) ⇒ I I , I II , I III . I II ( R 5 + R 3 + R 4 ) − I I ⋅ R5 − I III ⋅ R 4 = 0 I III ( R 4 + R 2 ) − I II ⋅ R 4 = − E 2 Po obliczeniu „wirtualnych” prądów oczkowych należy obliczyć realne prądy gałęziowe, pamiętając, że prądy w gałęziach zewnętrznych obwodu, tj. gałęziach niebędących wspólnymi dla sąsiednich oczek, są równe odpowiednim prądom oczkowym (z uwzględnieniem zwrotów poszczególnych prądów). W tej fazie analizy obwodu należy dokonać strzałkowania prądów gałęziowych. W wyniku otrzymujemy obwód zamieszczony na rysunku 2.6. Zgodnie z tą zasadą, ponieważ mamy do czynienia z trzema zewnętrznymi gałęziami, znamy już trzy z pięciu wartości prądów gałęziowych: I1 = I I I 2 = − I III
(2.19)
I 3 = I II . Pozostają nam zatem do obliczenia prądy I4 oraz I5. Prądy te można obliczyć z prądowego prawa Kirchhoffa I 4 = I 3 + I 2 = I II − I III I 5 = I1 − I 3 = I I − I II .
Rys. 2.6. Obwód elektryczny z zaznaczonymi zwrotami prądów gałęziowych
(2.20)
52
2. Metody analizy liniowych obwodów prądu stałego
Przeanalizowaliśmy zatem szczegółowo metodę postępowania w przypadku obliczania prądów gałęziowych z użyciem metody prądów oczkowych. Zamiast rozwiązywać układ 5 równań wynikających z metody praw Kirchhoffa, rozwiązaliśmy układ tylko 3 równań, co jest wyraźnie szybsze. Wyznaczenie pozostałych prądów wymaga już tylko kilku sumowań. W przypadku obwodów zawierających idealne źródło prądowe w gałęzi zewnętrznej rezygnuje się z formułowania równania dla tego oczka, ponieważ prąd źródłowy pochodzący z takiego źródła jest jednocześnie prądem oczkowym obwodu. W przypadku wystąpienia rzeczywistego źródła prądowego należy dokonać jego zamiany na równoważne rzeczywiste źródło napięcia. Wynika to z faktu, że metoda prądów oczkowych opiera się na napięciowym prawie Kirchhoffa, wymagane jest zatem istnienie jedynie źródeł napięciowych w obwodzie. Jeżeli jednak w gałęzi wewnętrznej mamy do czynienia z idealnym źródłem prądowym, to nie można stosować bezpośrednio metody oczkowej. W takim wypadku należy ominąć tę trudność, przenosząc idealne źródła do innych gałęzi. Przenoszenie polega na dołączeniu takich samych, odpowiednio skierowanych źródeł idealnych. Miejsce dołączenia i zwroty źródeł muszą być takie, aby wartości prądów w węzłach nie ulegały zmianie. Szerszy opis metody może Czytelnik znaleźć w [10, 14]. Tytułem przykładu rozwiążemy teraz metodą prądów oczkowych analizowany wcześniej obwód z rysunku 2.3. W pierwszej kolejności dokonujemy strzałkowania prądów oczkowych (rysunek 2.7). Z uwagi na fakt, że analizowany obwód nie jest zbyt skomplikowany, dokonaliśmy jednoczesnego zastrzałkowania zarówno prądów oczkowych, jak i gałęziowych, ponieważ przy prostej strukturze nie zaciemni to schematu obwodu. Zauważmy, że jedna z zewnętrznych gałęzi ma idealne źródło prądowe, w wyniku tego od razu znamy prąd II, równy prądowi generowanemu przez źródło (zwroty są zgodne, więc również nie zmienia się znak). W wyniku tego uproszczenia pozostaje nam do sformułowania jedynie jedno równanie dla oczka II. Pamiętając o rezystancji własnej, rezystancji wspólnej oraz o uwzględnieniu zwrotu źródła napięcia występującego w obwodzie, formułujemy równanie I II ( R2 + R3 ) − I I R2 = − E1 .
(2.21a)
Podstawiając znane wartości liczbowe, otrzymujemy kolejno I II (1 + 3) − 4 ⋅1 = −20 4 I II − 4 = −20 4 I II = −16
(2.21b)
I II = − 4 A. Ponieważ prąd oczkowy III jest jednocześnie prądem zewnętrznej gałęzi oczka II – I3, z tym zastrzeżeniem, że zwrot prądu gałęziowego jest przeciwny do zwrotu prądu oczkowego, otrzymujemy I 3 = − I II = 4 A.
(2.22)
2.3. Metoda potencjałów węzłowych
53
Rys. 2.7. Przykładowy obwód elektryczny z zastrzałkowanymi prądami oczkowymi i gałęziowymi
Pozostaje nam do wyznaczenia wartość prądu I2, który można obliczyć, korzystając z prądowego prawa Kirchhoffa dla węzła A I 2 = I1 + I 3 I 2 = 4 + 4 = 8 A.
(2.23)
Analizowany obwód został rozwiązany, ponieważ znaleźliśmy wszystkie prądy oczkowe i w konsekwencji prądy gałęziowe: I1 = 4 A, I2 = 8 A, I3 = 4 A.
2.3.
Metoda potencjałów węzłowych Metoda potencjałów węzłowych, zwana krótko metodą węzłową, oparta jest na prądowym prawie Kirchhoffa. Jak już wcześniej wspomniano, dla obwodu o w węzłach otrzymuje się układ w – 1 równań liniowych z w – 1 niewiadomymi, którymi są potencjały węzłowe obwodu, czyli napięcia między poszczególnymi węzłami obwodu, a węzłem odniesienia (którego potencjał przyjmuje się jako zerowy). Pewnego komentarza wymaga w tym miejscu samo pojęcie węzła. Przez to pojęcie najczęściej rozumie się węzeł rozgałęźny, czyli punkt obwodu elektrycznego, z którego wychodzą co najmniej trzy przewody (gałęzie). W takim węźle, zgodnie z prądowym prawem Kirchhoffa, suma prądów wpływających do węzła musi być równa sumie prądów z niego odpływających. Takim węzłem, w obwodzie na rysunku 2.8, jest węzeł nr 2 i bez głębszego zastanowienia, odruchowo zauważamy, że I1 = I2 + I3. Innym typem węzła jest węzeł nierozgałęźny, czyli punkt połączenia tylko dwóch elementów – węzły 1 i 3 na rysunku 2.8. Ponieważ nie ma rozgałęzienia, prądowe prawo Kirchhoffa nic nowego nie wnosi – węzeł jest wirtualny, jest punktem jednej
Rys. 2.8. Układ ilustrujący metodę węzłową
54
2. Metody analizy liniowych obwodów prądu stałego
gałęzi. Możemy jednak napisać, że prąd wpływający do węzła jest równy prądowi odpływającemu, np. dla węzła 1 możemy napisać, że Iźr = I1. Powstaje naturalne pytanie, co zyskamy, wypisując takie trywialne zależności? Odpowiedź wymaga nieco szerszego spojrzenia na obwód. Jeśli w zbiorze węzłów uwzględnimy również węzły nierozgałęźne, to stosując prądowe prawo Kirchhoffa do każdego z węzłów, wyznaczymy potencjał każdego węzła i automatycznie, tzn. bez dodatkowych przekształceń, otrzymamy kompletne rozwiązanie. Przykładowo, obwód z rysunku 2.8 ma tylko jeden niezależny rozgałęźny węzeł (nr 2), a zatem, rozpatrując klasycznie tylko węzły nierozgałęźne, mamy tylko jedno równanie węzłowe, z którego wyznaczamy potencjał węzła 2: I źr = I 2 + I 3
⇒ I źr =
V2 V2 + R2 R3 + R4
⇒ V2 = I źr
R2 ( R3 + R4 ) R2 + R3 + R4
.
(2.24)
Potencjały w pozostałych punktach obwodu musimy wyznaczyć, korzystając z innych metod obwodowych. Kontynuując przykład, otrzymamy V1 = V2 + I źr R1 V3 = V2
R4 . R3 + R4
(2.25)
Trudność tego podejścia wynika z konieczności zastrzałkowania wszystkich prądów i napięć oraz dodatkowej analizy obwodu – wyznaczając V1, posłużyliśmy się napięciowym prawem Kirchhoffa i prawem Ohma, natomiast przy V3 skorzystaliśmy bezpośrednio ze wzorów na dzielnik napięcia. Dla przykładowych wartości, podanych na schemacie 2.7, otrzymujemy R2 ( R3 + R4 ) 10 kΩ ⋅ ( 8 kΩ + 2 kΩ ) = 1 mA ⋅ 5 kΩ = 5 V = 1 mA ⋅ V2 = I źr R2 + R3 + R4 10 kΩ + 8 kΩ + 2 kΩ V1 = V2 + I źr R1 = 5 V + 1 mA ⋅ 5 kΩ = 10 V R4 2 kΩ V3 = V2 =1 V = 5 V⋅ 8 kΩ + 2 kΩ R3 + R4
(2.26)
W przypadku, gdy ułożymy równania dla wszystkich węzłów niezależnych, włączając w to węzły nierozgałęźne, sytuacja będzie znacznie prostsza. Zanim przystąpimy do układania równań, jeszcze jedna uwaga. Korzystając z prądowego prawa Kirchhoffa, warto, wbrew powszechnym przyzwyczajeniom, jako dodatnie oznaczać prądy wypływające z węzła, a jako ujemne prądy do niego dopływające. Ponieważ prąd płynie od wyższego potencjału do niższego, to przykładowo na rysunku 2.8 prąd odpływający z węzła pierwszego do drugiego obliczamy, odejmując od potencjału węzła 1 (z założenia wyższego) potencjał węzła 2 (z założenia niższy) i tę różnicę dzielimy przez rezystancję między węzłami R1. Procedura pisania równań nie wymaga więc strzałkowania. Rozpatrując po kolei wszystkie niezależne węzły, układamy równania następująco: biorąc kolejne rezystory przyłączone do rozpatrywanego węzła, tworzymy sumę ilorazów typu po-
55
2.3. Metoda potencjałów węzłowych
tencjał rozpatrywanego węzła minus potencjał sąsiedniego węzła podzielone przez rezystancję łączącą węzły. Otrzymaną sumę uzupełniamy prądami przyłączonych do węzła źródeł prądowych i całość przyrównujemy do zera. Tym sposobem dla kolejnych węzłów otrzymujemy V1 − V2 − I źr = 0 R1 V2 − V1 V2 V2 − V3 + + =0 R2 R3 R1 V − V V 3 2 + 3 =0 R R4 3
(2.27)
Ułożyliśmy automatycznie układ trzech równań z trzema niewiadomymi, którymi są trzy nieznane potencjały węzłowe. Należy tu podkreślić prostotę tego podejścia i łatwość algorytmizacji skutkującą szerokim zastosowaniem w programach do komputerowej analizy układów elektronicznych. Zalety stają się wyraźnie dostrzegalne dopiero podczas analizy złożonych układów, w których liczba węzłów przekracza tysiące. Prosty układ z rysunku 2.8 można oczywiście rozwiązać metodami ręcznymi, stosując elementarne sposoby rozwiązywania układu równań liniowych. W rozważanym przypadku podstawiamy wartości elementów w jednostkach podstawowych V1 − V2 − 1 ⋅10−3 = 0 3 5 ⋅10 V −V V2 V2 − V1 + + 2 33 = 0 3 3 10 ⋅10 8 ⋅10 5 ⋅10 V3 − V2 V3 =0 + 8 ⋅103 2 ⋅103
⋅5 ⋅103 ⋅40 ⋅103
(2.28)
⋅8 ⋅103
i upraszczamy V1 − V2 − 5 = 0 8 (V2 − V1 ) + 4V2 + 5 (V2 − V3 ) = 0 V − V + 4V = 0 3 3 2
(2.29)
V1 − V2 = 5 −8V1 + 17V2 − 5V3 = 0 −V + 5V = 0 3 2
(2.30)
oraz porządkujemy
Dodając stronami równanie trzecie do równania drugiego, otrzymujemy V1 − V2 = 5 −8V1 + 16V2 = 0 −V + 5V = 0 3 2
(2.31)
56
2. Metody analizy liniowych obwodów prądu stałego
Ostatecznie z dwóch pierwszych równań wyznaczamy potencjały V1 i V2
i z ostatniego V3
V1 = 10 V2 = 5 5V = V 2 3
(2.32)
V1 = 10 V V2 = 5 V V = 1 V 3
(2.33)
W skład stałoprądowego układu liniowego wchodzą elementy dwójnikowe, takie jak rezystory oraz niezależne źródła prądowe i napięciowe oraz czterozaciskowe źródła sterowane. W klasycznej metodzie węzłowej nie można stosować idealnych niezależnych źródeł napięciowych oraz idealnych sterowanych źródeł napięciowych, ponieważ nie jesteśmy w stanie napisać wyrażeń określających prądy płynące przez takie źródła. Są to główne ograniczenia klasycznej metody węzłowej. Usunięcie wymienionych niedogodności jest związane z jej rozszerzeniem, co prowadzi do zmodyfikowanej metody węzłowej [3].
2.4.
Metoda superpozycji W tej części książki przedstawimy zasadę superpozycji, której treść już przytoczono w podrozdziale o liniowości obwodów elektrycznych, ale przypomnijmy ją jeszcze raz. Zasada ta jest spełniona, jeśli skutek działania sumy przyczyn jest taki sam jak suma skutków wywołanych przez każdą z przyczyn osobno. Mówiąc przyczyna, mamy na myśli pewne wymuszenie, czyli źródło sygnału. Ogólnie metoda ta polega na wyznaczeniu wszystkich prądów w obwodzie wywołanych przez poszczególne źródła energii działające osobno, czyli de facto rozpatrywane oddzielnie, a następnie na skorzystaniu ze stwierdzenia, że prąd w dowolnej gałęzi obwodu, przy działaniu wszystkich źródeł energii, jest sumą algebraiczną prądów, które płyną przez tę gałąź w wyniku działania każdego ze źródeł osobno. Praktyczne postępowanie przy rozwiązywaniu obwodów z użyciem tej metody sprowadza się więc do pozostawienia wyłącznie jednego źródła w obwodzie i wyzerowania pozostałych niezależnych źródeł (źródeł sterowanych się nie zeruje). Co to jednak faktycznie oznacza? Sytuację tę musimy rozpatrzyć w zależności od rodzaju występującego w obwodzie źródła. Zerowanie idealnego źródła napięcia utożsamiamy ze zwarciem obwodu. Dlaczego? Wynika to bezpośrednio z rezystancji wewnętrznej idealnego źródła napięcia, która jest równa zeru. Właściwość ta powoduje, że w wyniku zerowania napięcia dostajemy w miejscu takiego źródła idealne zwarcie. Przeciwna sytuacja ma miejsce w przypadku idealnego źródła prądowego, którego rezystancja wewnętrzna dąży do nieskończoności, czyli do przerwy (rozwarcia) w miejscu włączenia takiego źródła. Warto przy tym jeszcze raz podkreślić, że pozostawiamy tylko jedno źródło, a zerujemy wszystkie pozostałe, zachowując jednak ich rezystancje wewnętrzne. Prześledźmy więc tok postępowania przy stosowaniu tej metody, przedstawiając rozwiązanie przykładowego obwodu. W pierwszej kolejności należy dokonać dowolnego strzałkowania prądów – rysunek 2.9.
57
2.4. Metoda superpozycji
Rys. 2.9. Przykładowy obwód do rozwiązania metodą superpozycji z zaznaczonymi dowolnie kierunkami prądów gałęziowych
Kolejną czynnością jest rozłożenie obwodu na tyle obwodów cząstkowych, ile mamy źródeł niezależnych, pozostawiając w każdym obwodzie wszystkie rezystancje, ale tylko jedno źródło. W naszym przypadku będziemy rozpatrywać dwa oddzielne obwody, ponieważ w strukturze obwodu znajdują się dwa źródła energii: jedno napięciowe i jedno prądowe (rysunek 2.10). Na rysunku 2.10a widać obwód z usuniętym źródłem prądowym, co oznacza, że w jego miejscu pojawiło się rozwarcie, a na rysunku 2.10b obwód pozbawiony źródła napięciowego, co wiąże się z jego zwarciem.
Rys. 2.10. Obwody cząstkowe, z wyłączeniem: a) źródła prądowego, b) źródła napięciowego
Obwody cząstkowe należy rozwiązać dowolną metodą, a po obliczeniu cząstkowych prądów składowych prądy gałęziowe w obwodzie oryginalnym oblicza się jako sumę prądów pochodzących od poszczególnych źródeł I1 = I1 ' + I1 '' I 2 = I 2 ' + I 2 ''
(2.34)
I 3 = I 3 ' + I 3 ''. W przypadku, gdy obwód zawiera n źródeł energii, należy go rozłożyć na n oddzielnych obwodów i n razy obliczyć poszczególne prądy płynące pod wpływem działania każdego ze źródeł z osobna. Przy dodawaniu prądów składowych należy uwzględniać ich zwroty. W celu ilustracji opisanej metodyki rozwiążemy przykładowy obwód opisany na rysunku 2.3. Przyjmujemy zwroty prądów gałęziowych tak jak pokazano na rysunku 2.11. W obwodzie występują dwa źródła energii, w wyniku czego otrzymujemy dwa niezależne obwody cząstkowe zilustrowane na rysunku 2.12.
58
2. Metody analizy liniowych obwodów prądu stałego
Rys. 2.11. Przykładowy obwód do rozwiązania metodą superpozycji
Rys. 2.12. Obwody cząstkowe, z wyłączeniem: a) źródła prądowego, b) źródła napięciowego
Rozważmy w pierwszej kolejności obwód z wyłączonym źródłem prądowym. W wyniku rozwarcia automatycznie prąd I1' jest równy zeru. W obwodzie płynie więc tylko jeden prąd przez rezystory R2 oraz R3, który jest skutkiem wymuszenia napięciowego E. Korzystając z prawa Ohma, dostajemy I 2 ' = I3 ' =
E 20 = = 5 A. R2 + R 3 1 + 3
(2.35)
Pozostają do obliczenia poszczególne prądy w obwodzie cząstkowym z wyłączonym źródłem napięciowym. Zgodnie ze strukturą obwodu zauważamy, że prąd I1" jest znany, ponieważ jest on równy prądowi generowanemu przez źródło prądowe. Pozostają więc do obliczenie prądy I2" oraz I3". Obliczymy je na podstawie zależności wyprowadzonych dla dzielnika prądu: I1 '' = I źr = 4 A, 1 = −1 A, 1+ 3 3 I 3 '' = 4 ⋅ = 3 A. 1+ 3 I 2 '' = − 4 ⋅
(2.36)
59
2.5. Metoda transfiguracji
Prąd I2" przyjmuje znak ujemny, ponieważ jest przeciwnie skierowany do kierunku prądu Iźr w dzielniku prądowym. W ostatniej kolejności należy obliczyć rzeczywiste prądy płynące w pierwotnym obwodzie. Zgodnie z założeniami metody są one równe sumie algebraicznej prądów w obwodach cząstkowych. Wobec tego: I1 = I1 ' + I ''1 = 0 + 4 A = 4 A, I 2 = I 2 ' + I ''2 = 5 A − 1 A = 4 A,
(2.37)
I 3 = I 3 ' + I ''3 = 5 A + 3 A = 8 A. Dotychczas mówiliśmy o obliczaniu jedynie prądów za pomocą zasady superpozycji. Ponieważ jednak napięcia między dowolnymi punktami obwodu są liniowymi funkcjami prądów, równie szybko za pomocą zasady superpozycji można wyznaczać napięcia. Niewątpliwą zaletą tej metody jest jej szybkość i skuteczność w prostych obwodach zawierających kilka źródeł. Watro też zauważyć, że metoda superpozycji jest podstawą wielu innych metod obwodowych, np. metody prądów oczkowych opartej na zasadzie superpozycji, prąd gałęziowy jest bowiem superpozycją prądów oczkowych. Stosowanie zasady superpozycji i metod pochodnych jest dozwolone wyłącznie w obwodach liniowych, gdyż z założenia tylko wtedy ona obowiązuje.
2.5.
Metoda transfiguracji Metoda transfiguracji polega na odpowiednim upraszczaniu obwodu względem gałęzi aktywnej, aż do postaci nierozgałęzionej, a następnie na powrotnym rozwijaniu do postaci wyjściowej. W metodzie transfiguracji wykorzystuje się zależności i zasady opisane w podrozdziale 1.3, tj.: – zastąpienie szeregowo połączonych rezystorów rezystancją zastępczą, będącą sumą rezystancji tworzących dane połączenie, – zastąpienie równolegle połączonych rezystorów konduktancją zastępczą, będącą sumą równolegle połączonych konduktancji, – zastąpienie mieszanego połączenia rezystorów jednym równoważnym rezystorem zastępczym, z uwzględnieniem wcześniej przytoczonych zasad łączenia rezystorów, – zastępowanie rzeczywistych źródeł napięcia (prądu) równoważnym rzeczywistym źródłem prądu (napięcia), – zastępowanie szeregowego połączenia rzeczywistych źródeł napięć jednym rzeczywistym źródłem napięcia, – zastępowanie równoległego połączenia rzeczywistych źródeł prądu jednym rzeczywistym źródłem prądu. Transfiguracji dokonuje się najczęściej względem wybranej gałęzi, którą najczęściej jest gałąź aktywna, czyli taka, która zawiera źródło wymuszające. Prześledźmy tok postępowania przy rozwiązywaniu obwodów z użyciem metody transfiguracji. Przykładowy obwód przedstawiono na rysunku 2.13, a zadanie polega na obliczeniu rozpływu prądów w obwodzie.
60
2. Metody analizy liniowych obwodów prądu stałego
Rys. 2.13. Przykładowy obwód do rozwiązania metodą transfiguracji
Rys. 2.14. Ewolucja schematu na kolejnych etapach zwijania obwodu dla metody transfiguracji
61
2.5. Metoda transfiguracji
Pierwszym przekształceniem będzie zastąpienie równoległego połączenia rezystorów R4 oraz R5 zastępczą rezystancją R45. W wyniku tego dostajemy obwód o strukturze pokazanej na rysunku 2.14a. Kolejnym przekształceniem jest połącznie szeregowe rezystora R3 oraz rezystora R45 – rysunek 2.14b. Następnie należy dokonać uproszczenia równoległego połączenia rezystora R2 oraz rezystora R345 – rysunek 2.14c. Ostatnim krokiem jest szeregowe połączenie rezystora R1 oraz R2345 – rysunek 2.14d. Po fazie przekształceń mamy już do czynienia z nierozgałęzionym obwodem, w którym obliczenie prądu jest trywialne I1 =
E . Rz
(2.38)
W drugim etapie, którym jest rozwijanie obwodu, obliczamy te prądy i napięcia, które można wyznaczyć bezpośrednio i cofamy kolejne uproszczenia. Mając prąd I1, obliczamy napięcie na rezystancji R2345 – rysunek 2.15a, a następnie prądy I2
Rys. 2.15. Ewolucja schematu na kolejnych etapach rozwijania obwodu dla metody transfiguracji
62
2. Metody analizy liniowych obwodów prądu stałego
oraz I3 – rysunek 2.15b. Kolejne prądy I4, I5 wyznaczamy podobnie, wracając do pierwotnej postaci obwodu (rysunek 2.15c). Jak widać, metoda oparta na transfiguracji poszczególnych fragmentów struktury obwodu jest dosyć żmudna. Wymaga wielu przekształceń, szczególnie w obwodach rozgałęzionych, w których również mogą występować dodatkowe źródła energii. Warto ją zatem stosować wszędzie tam, gdzie mamy do czynienia wyłącznie z jedną gałęzią aktywną, a obwód wymaga transformacji jedynie w zakresie połączeń poszczególnych rezystorów. Dodatkowo metoda transfiguracji sprawdzi się wszędzie tam, gdzie nie interesują nas wszystkie prądy w gałęziach, a zadanie sprowadza się do wyznaczenia prądu jedynie w gałęzi aktywnej, czyli takiej, która zawiera źródło wymuszenia (w rozważanym przypadku I1). Użycie w takiej sytuacji metody transfiguracji jest niezwykle korzystne, ponieważ nie ma potrzeby rozwijania obwodu do stanu pierwotnego.
2.6.
Metoda oparta na twierdzeniach Thevenina i Nortona Twierdzenia Thevenina i Nortona należą do podstawowych i bardzo przydatnych narzędzi w teorii obwodów elektrycznych. Metody na nich oparte stosowane są w przypadku, gdy w liniowym obwodzie elektrycznym występuje potrzeba wyznaczenia wielkości elektrycznych związanych tylko z jedną gałęzią. Zgodnie z twierdzeniem Thevenina, nazywanym często twierdzeniem o zastępczym źródle napięcia, dowolny aktywny dwójnik liniowy można od strony wybranych zacisków AB zastąpić obwodem równoważnym, będącym rzeczywistym źródłem napięcia, na które składa się szeregowo połączone idealne źródło napięcia oraz rezystancja. Wartość napięcia generowanego przez to źródło jest równa napięciu pomiędzy wybranymi zaciskami AB w stanie jałowym (tzn. w stanie rozwarcia między zaciskami A i B). Natomiast rezystancja zastępcza jest równa rezystancji zastępczej obwodu pasywnego widzianego od strony zacisków AB po wyzerowaniu wszystkich niezależnych źródeł (zwarciu wszystkich idealnych źródeł napięciowych oraz rozwarciu źródeł prądowych). Podstawowe zastosowanie tego twierdzenia to przede wszystkim zastępowanie fragmentu obwodu rzeczywistym źródłem napięcia, ale także wyznaczanie prądu w wybranej gałęzi obwodu bez potrzeby rozwiązywania całego obwodu. Nie zawsze bowiem istnieje potrzeba obliczania wszystkich prądów gałęziowych. Zastosowanie tego twierdzenia w licznych przypadkach upraszcza tok obliczeń dzięki zmniejszeniu liczby równań niezbędnych do opisania obwodu. Prześledźmy więc tok postępowania w przypadku użycia tej metody na przykładzie obwodu z rysunku 2.16. Naszym zadaniem jest obliczenie prądu płynącego przez rezystancję R3. Zgodnie z twierdzeniem Thevenina, chcąc wyznaczyć prąd płynący przez rezystancję R3, należy w pierwszej kolejności odłączyć gałąź, w której płynie interesujący nas prąd (AB). Następnym krokiem jest obliczenie dowolną metodą napięcia U0 pomiędzy zaciskami AB dwójnika w stanie jałowym, tzn. przy rozwartych zaciskach
2.6. Metoda oparta na twierdzeniach Thevenina i Nortona
63
Rys. 2.16. Układ ilustrujący twierdzenie Thevenina
AB – rysunek 2.17. Ponieważ prąd płynący w obwodzie jest znany (równy jest prądowi generowanemu przez źródło prądowe), to korzystając z prawa Ohma i napięciowego prawa Kirchhoffa, w prosty sposób otrzymujemy U0 (rysunek 2.17). E + U R1 − U 0 = 0 U 0 = E + U R1 U 0 = E + I źr R1.
Rys. 2.17. Obwód podlegający przekształceniu w rzeczywiste źródło napięciowe
W drugim kroku należy obliczyć wartość rezystancji zastępczej równoważnego źródła napięcia, korzystając ze struktury zamieszczonej na rysunku 2.18. R w = R1. Po obliczeniu parametrów rzeczywistego źródła napięciowego trzeba dołączyć do niego uprzednio odłączoną gałąź i obliczyć prąd w niej płynący – rysunek 2.19. U 0 − I3 R 3 − I3 R w = 0 I3 =
Rys. 2.18. Obwód do wyznaczania rezystancji zastępczej
U0 . R3 + R w
Rys. 2.19. Rozwiązanie obwodu z wykorzystaniem metody Thevenina
64
2. Metody analizy liniowych obwodów prądu stałego
Metoda oparta na twierdzeniu Thevenina pozwoliła na szybkie obliczenie prądu płynącego przez rezystancję R3. Metoda ta jest niezmiernie efektywna w przypadku konieczności obliczenia konkretnego prądu w obwodzie. Dla utrwalenia prześledźmy jeszcze raz tok postępowania przy wykorzystaniu twierdzenia o zastępczym źródle napięcia. W obwodzie z rysunku 2.20 należy wyznaczyć prąd płynący przez rezystor R3. Odłączamy gałąź zawierającą rezystancję R3 i wyznaczamy wartość napięcia U0 pomiędzy zaciskami AB, korzystając z napięciowego prawa Kirchhoffa. Napięcie U0 jest równe napięciu na źródle prądowym – rysunek 2.21a. Kolejnym krokiem jest obliczenie rezystancji zastępczej układu z punktu widzenia zacisków AB. Pamiętając o zastąpieniu źródła napięciowego i prądowego odpowiednio zwarciem i rozwarciem, otrzymujemy obwód pokazany na rysunku 2.21b. Ostatnim krokiem jest dołączenie otrzymanego rzeczywistego źródła napięcia do wcześniej odłączonej gałęzi oraz obliczenie prądu płynącego przez rezystor R3 – rysunek 2.21c. Przejdźmy teraz do sformułowania kolejnego twierdzenia związanego z transfiguracją, a mianowicie do twierdzenia Nortona. Pamiętamy, że rzeczywiste źródło napięciowe można przekształcić w równoważne mu rzeczywiste źródło prądowe. Prawo to w połączeniu z twierdzeniem Thevenina prowadzi do twierdzenia Nortona. Zgodnie w tym twierdzeniem, każdy aktywny liniowy dwójnik można od strony wybranych zacisków AB zastąpić obwodem równoważnym, będącym równoległym połączeniem idealnego źródła prądowego oraz konduktancji zastępczej obwodu, widzianej z zacisków AB. Źródło prądowe ma wydajność prądową równą prądowi płynącemu w gałęzi AB przy zwarciu zacisków AB. I tu warto zauważyć istotną różnicę pomiędzy tymi dwoma twierdzeniami – w pierwszym przypadku, stosując twierdzenie Thevenina, napięcie wyznacza się w stanie jałowym, natomiast prąd źródłowy przy zastosowaniu twierdzenia Nortona wyznacza się dla stanu zwarcia. Jest to zupełnie naturalne, ponieważ jeśli chcemy obliczyć lub zmierzyć napięcie źródłowe, musimy robić to w stanie jałowym – prąd nie płynie, więc nie ma spadku napięcia na rezystancji wewnętrznej i całe napięcie źródłowe jest obserwowane na zaciskach zewnętrznych źródła. W przypadku źródła prądowego musi to być stan zwarcia, gdyż wtedy cały prąd źródłowy płynie przez obwód zewnętrzny – nic nie płynie przez rezystancję wewnętrzną, zawsze dużo większą od zwarcia. Twierdzenie Nortona w odróżnieniu do twierdzenia Thevenina stosuje się w celu wyznaczania napięcia w wybranej gałęzi obwodu. Przyjmijmy, że jest to gałąź między zaciskami AB. Podobnie jak podczas stosowania twierdzenia Thevenina, wy-
Rys. 2.20. Układ ilustrujący twierdzenie Thevenina
2.6. Metoda oparta na twierdzeniach Thevenina i Nortona
65
Rys. 2.21. Rozwiązanie obwodu w oparciu na metodzie Thevenina
łącza się gałąź AB i dla takiego obwodu dokonuje obliczeń w celu wyznaczenia zastępczego źródła prądowego, z tą różnica, że wyznaczenie prądu źródła opiera się na wyznaczeniu prądu zwarcia pomiędzy zaciskami AB, a więc dane zaciski należy zewrzeć. Prześledźmy tok postępowania przy stosowaniu tej metody na przykładzie obwodu, którym posłużyliśmy się również w interpretacji metody zastępczego źródła napięcia (rysunek 2.16). Interesuje nas w tym przypadku spadek napięcia na rezystorze R3 – rysunek 2.22.
Rys. 2.22. Obwód do analizy z zastosowaniem twierdzenia Nortona – kolorem szarym zaznaczono poszukiwane napięcie
66
2. Metody analizy liniowych obwodów prądu stałego
W pierwszej kolejności należy odłączyć gałąź, w której znajduje się rezystancja R3. Aby obliczyć prąd zwarciowy gałęzi AB, trzeba dokonać zwarcia zacisków AB i korzystając z dowolnej metody, obliczyć prąd zwarcia Iz – rysunek 2.23, a następnie konduktancję zastępczą widzianą z zacisków AB – rysunek 2.24. Po obliczeniu parametrów zastępczego rzeczywistego źródła prądu należy je dołączyć do uprzednio odłączonej gałęzi AB i obliczyć napięcie na rezystorze R3. Korzystamy z własności dzielnika prądowego – rysunek 2.25. W ten sposób obliczyliśmy napięcie na wybranym elemencie obwodu, korzystając z twierdzenia Nortona. Wyłączenie gałęzi wraz z elementem, na którym chcemy obliczyć spadek napięcia z zastosowaniem metody zastępczego źródła pozwoliło na szybkie obliczenie prądu płynącego przez ten element. Metoda jest bardzo efektywna w przypadku konieczności obliczania tylko jednego napięcia w całym obwodzie. Tytułem przykładu rozwiążemy układ z rysunku 2.26. Zadanie polega na obliczeniu napięcia na rezystorze R3.
Rys. 2.23. Struktura obwodu przekształcanego do postaci rzeczywistego źródła prądowego
Rys. 2.24. Obwód do wyznaczania rezystancji zastępczej
Rys. 2.25. Obwód z rysunku 2.22 uproszczony na podstawie twierdzenia Nortona
2.6. Metoda oparta na twierdzeniach Thevenina i Nortona
67
Rys. 2.26. Układ ilustrujący twierdzenie Nortona
Odłączamy gałąź z rezystorem R3 i dokonujemy w pierwszej kolejności obliczenia prądu zwarcia Iz. W tym celu dokonujemy transfiguracji połączenia rezystorów R1 oraz R2, a następnie zamiany rzeczywistego źródła napięcia na równoważne mu rzeczywiste źródło prądu – rysunek 2.27a i rysunek 2.27b. Ze względu na równoległe połączenie źródeł prądowych można dokonać kolejnego uproszczenia struktury obwodu – rysunek 2.27c. Wartość prądu zwarciowego jest równa prądowi źródłowemu, ponieważ rezystancja gałęzi AB jest zerowa, a konduktancja zastępcza równa konduktancji Gw. Ostatnim krokiem jest dołączenie obliczonego równoważnego rzeczywistego źródła prądu do gałęzi, dla której chcemy obliczyć spadek napięcia – rysunek 2.28a.
Rys. 2.27. Ilustracja kolejnych etapów realizacji obliczeń z wykorzystaniem twierdzenia Nortona
68
2. Metody analizy liniowych obwodów prądu stałego
Rys. 2.28. Schemat obwodu uproszczonego metodą Nortona
Upraszczając obwód do postaci nierozgałęzionej poprzez zastąpienie równoległego połączenia konduktancji, w prosty sposób otrzymujemy poszukiwane napięcie U3 – rysunek 2.28b.
2.7.
Czwórnik liniowy Rozpatrywaliśmy dotychczas obwody o różnych konfiguracjach i badaliśmy związki prądowo-napięciowe w nich zachodzące. Po tych rozważaniach dochodzimy do wniosku, że układ elektryczny powinien mieć „wejście” i „wyjście”, a właściwie może mieć wiele różnych „wejść” i „wyjść”. Słowa wejście i wyjście ujęliśmy w cudzysłów, ponieważ pojęć tych w zasadzie do tej pory nie definiowaliśmy. Sądzimy jednak, że są one intuicyjnie wyczuwalne. W niniejszej książce, będącej z założenia przewodnikiem po elektronice, często podkreślamy rolę intuicji, która w ujęciu psychologicznym jest narzucającym się przekonaniem, którego nie można w pełni uzasadnić, powstałym w wyniku zaistnienia podobnej sytuacji lub w wyniku działania bardzo słabych bodźców. Tę „elektroniczną intuicję” wykształca się właśnie podczas analizy setek prostych i z czasem coraz trudniejszych obwodów i układów. Dzięki intuicji jedni inżynierowie potrafią szybko rozwiązać konkretne zadanie projektowe, a inni – ci intuicji pozbawieni – tracą na to mnóstwo cennego czasu. Autorzy mają nadzieję, że lektura tego podręcznika przyczyni się do rozwoju wspomnianej intuicji i stworzy dobry grunt do dalszego zdobywania wiedzy w trakcie studiów na kierunku elektronika i kierunkach pokrewnych. Pojęcia wejście i wyjście powinniśmy kojarzyć z miejscami, do których podłącza się odpowiednio wymuszenie (np. mikrofala, generator) i obciążenie (np. głośnik, silnik). Wymuszeniem jest pewne napięcie źródłowe lub prąd źródłowy, powodujące przepływ prądów gałęziowych i ustalenie się odpowiednich potencjałów węzłowych. Ten rozkład prądów i potencjałów jest odpowiedzią układu na wymuszenie, przy czym z reguły nie interesuje nas komplet prądów i potencjałów. Najczęściej chcemy wiedzieć, jakie jest napięcie między konkretnymi zaciskami lub prąd przez nie przepływający – i to są właśnie zaciski wyjściowe. Do zacisków wyjściowych podłączamy rezystor, zwany obciążeniem, na którym odkłada się napięcie wyjściowe i przez który płynie prąd wyjściowy. W obwodach stałoprądowych przez pojęcie obciążenia rozumiemy również rezystancję reprezentującą dowolnie złożony obwód
2.7. Czwórnik liniowy
69
obciążający. Pojęcie obciążenia będzie nam już teraz towarzyszyć coraz częściej i w różnych kontekstach, zawsze jednak będzie wiązało się z wyjściem obwodu. Kolejnym pojęciem, które należy w tym miejscu poruszyć, jest pojęcie wielobiegunnika, czyli układu mającego wiele zacisków. Najprostszymi wielobiegunnikami są dwójniki, czyli elementy mające dwa zaciski (np. rezystor, cewka, źródło napięciowe) lub układy sprowadzone do postaci dwuzaciskowej, np. metodami Thevenina lub Nortona. Często posługujemy się pojęciem trójnika (trzy zaciski ma np. tranzystor), ale najczęściej będziemy się posługiwać pojęciem czwórnika, czyli układu o czterech zaciskach, tworzących parę wrót. Wrota te nazywamy wrotami wejściowymi i wyjściowymi, a czwórnik bywa w związku z tym nazywany dwuwrotnikiem. Żeby układ można było nazwać czwórnikiem, musi on dodatkowo spełniać warunek równoważenia prądów, co oznacza, że prąd wpływający do czwórnika przez jeden z zacisków wejściowych musi być równy prądowi wypływającemu przez drugi zacisk wejściowy i analogicznie we wrotach wyjściowych. Czwórnik reprezentuje najczęściej pewien podobwód, czyli logicznie zamknięty, tzn. stanowiący funkcjonalną całość, fragment obwodu, zwany często blokiem, zawierający wewnątrz dowolnie skomplikowaną strukturę, ale z zewnętrznego punktu widzenia mający wrota wejściowe przeznaczone do podłączenia sygnału wymuszającego (sterującego) i wrota wyjściowe, do których podłącza się obciążenie, będące odbiornikiem sygnału przetworzonego wewnątrz struktury czwórnika. Szczególną klasą czwórników są czwórniki liniowe, czyli czwórniki spełniające zasady superpozycji (addytywności) i jednorodności (proporcjonalności). Na rysunku 2.29 przedstawiono czwórnik liniowy w układzie roboczym, tj. sterowany z określonego generatora sygnału (może to być źródło napięciowe eG lub prądowe iG) i obciążony konkretną rezystancją RL (ang. load – obciążenie, obciążać)1. Każdy czterozaciskowy obwód liniowy może zostać zastąpiony czwórnikiem, pod warunkiem że nie zawiera niezależnych źródeł napięciowych lub prądowych oraz spełnia warunek równoważenia prądów. Czwórnik liniowy jest w pełni opisany przez cztery wielkości fizyczne: napięcie wejściowe u1 i prąd wejściowy i1 oraz napięcie wyjściowe u2 i prąd wyjściowy i2. Wielkości te są ze sobą wzajemnie liniowo powiązane poprzez strukturę wewnętrzną czwórnika.
Rys. 2.29. Schematy czwórnika liniowego w układzie roboczym
1
Zastosowaliśmy tu (i konsekwentnie do końca tego rozdziału) małe litery określające napięcie i prąd (tak jak dla sygnałów zmiennych), w celu zapewnienia zgodności z oznaczeniami stosowanymi w dalszej części książki. Przedstawiona teoria czwórników jest obowiązująca zarówno dla sygnałów stałych, jak i zmiennych.
70
2. Metody analizy liniowych obwodów prądu stałego
Zależności wiążące prądy i napięcia zaciskowe można wyznaczyć, przyłączając do wejścia i wyjścia źródła wymuszające i obliczając odpowiedź układu. Wymuszeniami mogą być sygnały z idealnego źródła napięciowego lub prądowego i ponieważ istnieje możliwości swobodnego wyboru, można utworzyć różne układy równań opisujących czwórnik liniowy. Największą popularność zdobył układ wymuszeń pokazany na rysunku 2.30 – do zacisków wejściowych podłączone jest idealne źródło prądowe, a do wyjściowych idealne źródło napięciowe. Jest to mieszany (hybrydowy) układ wymuszeń. Ponieważ rozważamy czwórnik liniowy, możemy zastosować zasadę superpozycji, obliczając najpierw układ z wyzerowanym źródłem napięciowym, a następnie z wyzerowanym źródłem prądowym, co zilustrowano na rysunku 2.31. Przyjmując na oznaczenie parametrów wewnętrznych czwórnika literę h z odpowiednimi indeksami i pamiętając, że wewnątrz czwórnika nie ma niezależnych źródeł prądu i napięcia, dla układu z rysunku 2.31a wyznaczamy nieznane wielkości u1 oraz i2 jako funkcje wymuszenia i1 u 1 = h11 i 1 i 2 = h 21 i 1
Rys. 2.30. Czwórnik liniowy z wymuszeniem mieszanym
Rys. 2.31. Czwórnik liniowy – ilustracja do zasady superpozycji
(2.39)
71
2.7. Czwórnik liniowy
i analogicznie dla układu z rysunku 2.31b u 1 = h12 u 2 i 2 = h 22 u 2
(2.40)
Korzystając z zasady superpozycji, otrzymujemy ostatecznie u 1 = h11 i 1 + h12 u 2 i 2 = h 21 i 1 + h 22 u 2
(2.41)
Układ równań (2.41) można zapisać w konwencji macierzowej, w postaci h11 h 21
h12 i 1 u 1 ⋅ = h 22 u 2 i 2
⇔
i 1 u 1 = . 2 i 2
h ⋅ u
(2.42)
Dla większości Czytelników postać (2.41) jest zapewne o wiele czytelniejsza, ale zachęcamy do porównania jej z postacią (2.42) i przyzwyczajania się do tej drugiej wersji, ponieważ nieprzyjemny (bo nudny) na zajęciach z matematyki rachunek macierzowy jest niezastąpiony w analizie (szczególnie komputerowej) dużych układów elektronicznych, oferując zwarty zapis układu równań opisujących obwód. Z zapisu (2.42) wynika nazwa macierz mieszana (hybrydowa) – w zapisie równania pomieszane są prądy z napięciami oraz wielkości wejściowe z wyjściowymi. Okazuje się jednak, że mimo tego pozornego bałaganu jest to macierz najczęściej wykorzystywana. Wynika to z interpretacji jej parametrów. Zwróćmy uwagę, że jak wyzerujemy u2, to otrzymamy u2=0
u 1 = h11i 1 ⇒ h11 = u2=0
i 2 = h 21i 1 ⇒ h 21 =
u1 i1
u 2=0
(2.43)
i2 i1
u 2=0
Czyli h11 okazuje się w tym przypadku rezystancją wejściową czwórnika. Parametr h21 wiąże wielkość wyjściową z wielkością wejściową. Parametry tego typu noszą nazwę transmitancji, często używanej z dodatkowym przymiotnikiem precyzującym jej rodzaj. W świetle powyższego parametr h21 jest transmitancją prądową czwórnika. Zastanówmy się przez moment, co znaczy u2 = 0? Oznacza to, że na wyjściu czwórnika musimy zapewnić zwarcie, a zatem wymienione parametry to zwarciowa rezystancja wejściowa i zwarciowa transmitancja prądowa. Z drugiej strony, jeśli utworzymy na wejściu rozwarcie, czyli wyzerujemy i1, to otrzymamy i1 = 0
u 1 = h12u 2 i1 = 0
i 2 = h 22u 2
⇒ h12 = ⇒ h 22 =
u1 u2
i1= 0
i2 u2
i1= 0
(2.44)
72
2. Metody analizy liniowych obwodów prądu stałego
Czyli h12 jest rozwarciową zwrotną transmitancją napięciową (ponieważ wymuszenie podane jest do umownego wyjścia układu, a odpowiedź rejestrowana jest na wejściu), a h22 rozwarciową konduktancją wyjściową czwórnika. W świetle otrzymanych zależności, ponieważ komplet parametrów macierzowych w pełni opisuje czwórnik liniowy, można zsyntetyzować strukturę zastępczą modelu określonego macierzą h i przedstawić go w postaci pokazanej na rysunku 2.32. Gdybyśmy zastosowali do tego schematu zastępczego odpowiednie zwarcia i rozwarcia, i spróbowali określić parametry h11, h12, h21 i h22, to otrzymalibyśmy dokładnie (2.43) i (2.44).
Rys. 2.32. Schemat zastępczy czwórnika liniowego z wykorzystaniem macierzy h
Chcielibyśmy zwrócić uwagę Czytelnika na fakt, że modele macierzowe są modelami matematycznymi nieodzwierciedlającymi faktycznej struktury wewnętrznej modelowanego elementu lub podukładu. Macierz mieszana h służy zazwyczaj do opisu tranzystora bipolarnego w zakresie małych i średnich częstotliwości, ponieważ jej struktura jest zbliżona do jego modelu fizycznego obowiązującego w tym zakresie częstotliwości. Właśnie z powodu modelowania tranzystorów bipolarnych wynika duża popularność tej struktury czwórnika liniowego. W części opisującej analogowe układy wzmacniające macierz h będzie wszechobecna, a transmitancję prądową h21 będziemy tam nazywać wzmocnieniem prądowym. Zastosowanie podejścia czwórnikowego do analizy obwodów jest bardzo korzystne, ponieważ umożliwia zastąpienie całości lub części obwodu elementem opisanym przez dwa równania liniowe. Pozwala to na znaczne uproszczenie dalszych obliczeń. Podczas analizy układów elektronicznych reprezentowanych przez czwórniki z dodatkowymi elementami sprzęgającymi wyjście z wejściem bardzo użyteczne są zaprezentowane niżej twierdzenia Millera. Twierdzenia te pozwalają na takie przekształcenie obwodu, aby element sprzęgający został wyeliminowany, co znakomicie upraszcza dalsza analizę. Twierdzenia te zastosujemy do unilateryzacji modelu tranzystora oraz będziemy je wykorzystywać w celu uproszczenia analizy częstotliwościowej wzmacniaczy oraz do analizy wzmacniaczy ze sprzężeniem zwrotnym. Pierwsze twierdzenie Millera Zgodnie z I twierdzeniem Millera, układ z rysunku 2.33a można zastąpić równoważnym układem z rysunku 2.33b (tzn. prądy i1 i i2 oraz napięcia u1 i u2 w obydwu
73
2.7. Czwórnik liniowy
Rys. 2.33. Ilustracja pierwszego twierdzenia Millera
układach są sobie równe), transformując impedancję Z w odpowiednim stosunku do wejścia oraz wyjścia układu. Impedancja jest pewnym uogólnieniem pojęcia rezystancja, o którym będziemy mówić w kolejnych rozdziałach. Bez utraty ogólności Czytelnik może teraz traktować impedancję tak, jakby to była czysta rezystancja. Zakładamy, że wzmocnienie napięciowe czwórnika zdefiniowane zależnością Gu =
u2
(2.45)
u1
jest znane. Prąd i1 w układzie z rysunku 2.33a dany jest zależnością u2 u 1 1 − u1 u1 − u 2 i1 = = Z Z a w przypadku układu z rysunku 2.33b i1 =
u (1 − G ) u = 1 = Z
u1 Z1
u1 , Z 1 − Gu
.
(2.46)
(2.47)
Dla zapewnienia równości prądów w obu obwodach impedancja Z przetransformowana do wejścia musi być równa Z . (2.48) Z1 = 1 − Gu Przy przenoszeniu impedancji Z do wyjścia wyznaczamy prądy i2 obu układów: u1 u 2 1 − u2 u 2 − u1 i2 = = Z Z
u 2 1 − 1 u2 = Gu = , G Z u ⋅Z Gu − 1
i2 =
u2 Z2
(2.49)
(2.50)
i otrzymujemy Z2 =
Gu >>1 Gu ⋅Z ≈ Z . Gu − 1
(2.51)
74
2. Metody analizy liniowych obwodów prądu stałego
Drugie twierdzenie Millera Drugie twierdzenie Millera dotyczy innej konfiguracji elementu sprzęgającego wyjście z wejściem. Zgodnie z nim układ z rysunku 2.34a można zastąpić równoważnym układem z rysunku 2.34b, transformując impedancję Z w odpowiednim stosunku do wejścia oraz wyjścia układu. W tym przypadku zakładamy, że wzmocnienie prądowe czwórnika zdefiniowane jako Gi =
i2 i1
(2.52)
jest znane i warunek równoważności wyznaczamy z napięć w oczku wejściowym i wyjściowym. Napięcie u1 w obwodzie z rysunku 2.34a wynosi i2 u 1 = i 1 + i 2 Z + u 13 = i 1 1 + i1
(
)
Z + u 13 = i 1 (1 + Gi ) Z + u 13
(2.53)
natomiast w obwodzie z rysunku 2.34b u 1 = i1Z 1 + u 13 ,
(2.54)
Z 1 = (1 + Gi ) Z .
(2.55)
i1 1 u 2 = i 1 + i 2 Z + u 23 = i 2 1 + Z + u 23 = i 2 1 + Z + u 23 , i2 Gi
(2.56)
u 2 = i 2 Z 2 + u 23 ,
(2.57)
czyli Podobnie
(
)
Z2 =
Rys. 2.34. Ilustracja drugiego twierdzenia Millera
Gi + 1 Gi >>1 ⋅Z ≈ Z . Gi
(2.58)
3.
Nieliniowy obwód elektryczny W świecie elektroniki bardzo często będziemy się spotykać z elementami nieliniowymi. Mówiąc elementy nieliniowe, mamy na myśli takie elementy, których charakterystyki prądowo-napięciowe nie są liniami prostymi, czyli nie można ich opisać za pomocą równań liniowych. Bez elementów nieliniowych nie byłoby wzmacniaczy, powielaczy, mieszaczy, generatorów, układów cyfrowych, ani żadnych innych zaawansowanych układów elektronicznych. Ten krótki przegląd pokazuje szerokie spektrum układów z elementami nieliniowymi i wskazuje na konieczność swobodnego poruszania się w obszarze metod analizy układów nieliniowych. W niniejszym rozdziale przedstawimy podstawowe metody rozwiązywania obwodów nieliniowych prądu stałego ilustrując je, podobnie jak dotychczas, przykładami obliczeniowymi. Rozpatrzymy nieliniowe obwody rezystancyjne zawierające rezystory nieliniowe oraz liniowe źródła wymuszające.
3.1.
Elementy nieliniowe i ich charakterystyki Z pojęciem elementu nieliniowego spotkaliśmy się już wcześniej. Przypomnijmy jednak ten termin. Mówiąc element nieliniowy, mamy na myśli fakt, że jego charakterystyka prądowo-napięciowa jest nieliniowa. Ilustrując różnice pomiędzy elementami liniowymi i nieliniowymi, możemy dla przykładu podać element, dla którego dwukrotny wzrost napięcia powoduje taki sam dwukrotny wzrost prądu. Jest to element liniowy. Natomiast element, w którym dwukrotny wzrost napięcia powoduje wzrost prądu mniejszy bądź większy niż dwa razy, nazywany jest elementem nieliniowym, gdyż napięcia i prądy nie zmieniają się w takich samych proporcjach. Wspominaliśmy już o charakterystyce prądowo-napięciowej. Termin ten jest wyczuwalny intuicyjnie. Jest to zależność prądu I płynącego przez element od napięcia U panującego na zaciskach tego elementu. Charakterystyka prądowo-napięciowa może być podawana w różnej formie. Najczęściej jednak definiuje się ją za pomocą wzoru bądź wykresu. Można jednak spotkać się również z tabelą podającą wartości prądu dla pewnych wartości napięcia bądź opisem, jeżeli brak jest odpowiednich wartości liczbowych. Elementy nieliniowe można klasyfikować ze względu na wiele czynników. W zależności od możliwości sterowania elementy nieliniowe możemy podzielić na: – nieliniowe elementy niesterowane, czyli takie, które dają się opisać za pomocą jednej charakterystyki, należą do nich między innymi: żarówki, termistory, diody półprzewodnikowe, – nieliniowe elementy sterowane w odróżnieniu od elementów niesterowanych opisuje się rodziną, czyli zbiorem charakterystyk, gdyż charakterystyka toru głównego tego elementu zmienia się wskutek zmiany czynnika sterującego, przykładem może być tranzystor bipolarny, którego zasadę działania poznamy w dalszej części książki.
76
3. Nieliniowy obwód elektryczny
Jako inne kryterium podziału elementów nieliniowych przyjmuje się symetrię charakterystyki elementu. W tej kategorii możemy wyróżnić: – elementy o charakterystyce symetrycznej (np. żarówki), które odznaczają się symetrią charakterystyki prądowo-napięciowej względem początku układu współrzędnych, co można zapisać w postaci zależności I = f (U ) = − f (−U ) .
(3.1)
W praktyce oznacza to, że przy zmianie zwrotu prądu w elemencie o charakterystyce symetrycznej napięcie na jego zaciskach również zmienia zwrot, ale nie zmienia swojej wartości bezwzględnej – rysunek 3.1a; – elementy o charakterystyce niesymetrycznej (np. diody półprzewodnikowe), których charakterystyki nie są symetryczne względem początku układu współrzędnych – rysunek 3.1b. Aby móc porównywać elementy i układy nieliniowe, należy zdefiniować pewne parametry charakteryzujące ich pracę. Do określania rezystancji elementów nieliniowych stosuje się dwa parametry: rezystancję statyczną i rezystancję dynamiczną. Parametry te zależą od punktu pracy elementu nieliniowego. Co jednak oznacza pojęcie punktu pracy? Jeżeli przez element płynie prąd I, to na zaciskach tego elementu występuje napięcie U, które bezpośrednio wynika z charakterystyki prądowo-napięciowej. Parę (Up, Ip), tj. napięcie na zaciskach elementu i prąd płynący przez ten element, nazywamy właśnie punktem pracy elementu w układzie współrzędnych (U, I), co zilustrowano na rysunku 3.2. Rezystancją statyczną w danym punkcie pracy nazywamy stosunek napięcia na zaciskach tego elementu do prądu przepływającego przez ten element Rs =
Up Ip
.
(3.2)
Rezystancja statyczna Rs ma prostą interpretację geometryczną. Jest równa tangensowi kąta zawartego pomiędzy prostą, łączącą początek układu współrzędnych z danym punktem pracy elementu nieliniowego, a osią prądu. Kąt ten może przyjmować wartości z przedziału od 0° do 90°, a więc rezystancja statyczna zgodnie z właściwościami funkcji tangens może przybierać wyłącznie wartości nieujemne.
Rys. 3.1. Charakterystyki prądowo-napięciowe elementu nieliniowego: a) symetryczna b) niesymetryczna
77
3.1. Elementy nieliniowe i ich charakterystyki
Rys. 3.2. Ilustracja punktu pracy na charakterystyce prądowo-napięciowej
Rezystancją dynamiczną nazywamy granicę stosunku przyrostu napięcia (∆U) do przyrostu prądu (∆ I), gdy przyrost ten dąży nieograniczenie do zera, ale w punkcie pracy (Up, Ip) ∆U dU . (3.3) Rd = lim = ∆I →0 ∆I dI W praktyce wyznaczenie rezystancji dynamicznej sprowadza się do obliczenia pochodnej napięcia względem prądu w punkcie pracy1. Podobnie jak rezystancja statyczna również rezystancja dynamiczna ma interpretację graficzną. Jest ona proporcjonalna do tangensa kąta między styczną do krzywej, w danym punkcie pracy elementu nieliniowego, a osią prądu. Kąt ten może przyjmować wartości od 0° do 180°, dlatego też rezystancja dynamiczna może przyjmować wartości zarówno dodatnie, jak i ujemne. Jak to jednak możliwe, aby rezystancja przyjmowała wartości ujemne? Odpowiedź nasuwa się sama przy okazji interpretacji powyższego wzoru. Sytuacja taka może mieć miejsce w przypadku, gdy wzrost napięcia powoduje spadek prądu płynącego przez dany element. Wobec tego faktu licznik wyrażenia przyjmuje wartość dodatnią, mianownik zaś wartość ujemną i całość wartość ujemną. Z takim przypadkiem mamy do czynienia np. w diodzie tunelowej. Warto zauważyć, że obydwie rezystancje zależą od punktu pracy. Jedynie w przypadku rezystora liniowego rezystancja statyczna jest równa rezystancji dynamicznej i jest niezależna od punktu pracy. Interpretację graficzną obydwu rodzajów rezystancji przedstawiono na rysunku 3.3 [7]. W celu ilustracji pojęć rezystancji statycznej i dynamicznej obliczymy ich wartości przy założeniu, że charakterystyka elementu nieliniowego wyrażona jest zależnością I = kU 2
k = 0, 25 ,
a napięcie w punkcie pracy wynosi Up = 4 V Rezystancja statyczna Up Up 4 4 = =1 Ω . Rs = = = 2 I p k ⋅U p 0, 25 ⋅16 4 1
(3.4)
(3.5)
Prostą interpretację pojęcia pochodnej znajdzie Czytelnik w dodatku matematycznym na końcu niniejszej książki, a szersze dywagacje na temat rezystancji dynamicznej w podrozdziale 6.4.
78
3. Nieliniowy obwód elektryczny
Rys. 3.3. Interpretacja graficzna rezystancji statycznej oraz dynamicznej w punkcie pracy elementu nieliniowego
Prąd w punkcie pracy I=
U 4 = = 4 A. Rs 1
(3.6)
Rezystancja dynamiczna 1 1 dU 1 . = = = 2 dI dI d (kU ) 2 ⋅ k ⋅ U dU dU
Rd =
(3.7)
Dla U = 4 V otrzymujemy Rd =
1 1 1 = = = 0, 5 Ω . 2 ⋅ k ⋅ U 2 ⋅ 0, 25 ⋅ 4 2
(3.8)
Podczas analizy obwodów nieliniowych przydatna jest, podobnie jak w obwodach liniowych, umiejętność ich upraszczania. Jeżeli dwa elementy są połączone szeregowo, to prąd płynący przez te elementy jest jednakowy, natomiast napięcie na zaciskach połączenia jest sumą napięć na poszczególnych elementach. Znając charakterystyki elementów wchodzących w skład takiego połączenia, możemy uzyskać charakterystykę zastępczą takiego połączenia, opierając się na charakterystyce łącznej. Dla stałej wartości prądu I należy sumować napięcia na szeregowo połączonych elementach obwodu. W celu wyznaczenia punktu charakterystyki łącznej rysujemy dla wybranych wartości prądu proste równoległe do osi U, które przechodzą przez obydwie charakterystyki elementów połączonych szeregowo (rysunek 3.4). Punkty przecięcia tej prostej z charakterystykami wyznaczają napięcia U1 i U2 na tych elementach, przy przepływie konkretnej wartości prądu I. Odkładając na prostej odcinek będący sumą tych napięć, otrzymujemy punkt B charakterystyki łącznej określający napięcie UB = U1B + U2B na zaciskach układu przy prądzie IB. Postępując podobnie dla kolejnych prądów, znajdujemy szereg punktów wyznaczających charakterystykę łączną szeregowego połączenia dwóch elementów nieliniowych.
3.1. Elementy nieliniowe i ich charakterystyki
79
Rys. 3.4. Łączna charakterystyka prądowo-napięciowa szeregowego połączenia elementów nieliniowych
Analogiczna sytuacja występuje przy połączeniu równoległym elementów. Tutaj również można dokonać uproszczenia takiego połączenia, ze względu na fakt, że napięcie na zaciskach elementów jest jednakowe, natomiast prąd zastępczego elementu jest równy sumie prądów płynących przez elementy tworzące połączenie równoległe. Postępując podobnie jak w przypadku połączenia szeregowego, dla wybranych wartości napięć rysujemy proste równoległe do osi I (rysunek 3.5). Punkty przecięcia prostych z charakterystykami elementów połączonych równolegle wyznaczają prądy I1, I2 płynące w gałęziach tych elementów przy konkretnej wartości napięcia U. Odkładając na prostej dla UB odcinek równy sumie tych prądów, wyznaczamy punkt B charakterystyki łącznej, który określa sumacyjny prąd IB = I1B + I2B płynący w gałęzi zastępczego połączenia równoległego dwóch elementów, przy stałej wartości napięcia UB na tych elementach. Podobnie znajdujemy szereg innych punktów, które tworzą charakterystykę zastępczą równoległego połączenia elementów nieliniowych. Metody te można również stosować przy większej liczbie elementów wchodzących w skład danego połączenia. Wówczas sumować należy wszystkie napięcia, względnie prądy elementów składowych. Powyższą metodę można również wykorzystywać w przypadku szczególnym, gdy jeden, lub kilka elementów, ma charakter liniowy.
Rys. 3.5. Łączna charakterystyka prądowo-napięciowa równoległego połączenia elementów nieliniowych
80
3.2.
3. Nieliniowy obwód elektryczny
Metody analizy obwodów nieliniowych Należy bezwzględnie zapamiętać fundamentalną zasadę, że nie wszystkie dotychczas poznane prawa oraz twierdzenia można wykorzystywać podczas analizy i syntezy obwodów nieliniowych. Przede wszystkim obwód nieliniowy nie spełnia zasady superpozycji. Wynika więc z tego fakt, że przy występowaniu wielu wymuszeń w obwodzie analizę należy przeprowadzać, uwzględniając wszystkie źródła włączone jednocześnie. Niestety zwiększa to generalnie ilość obliczeń. Dodatkowo w analizie obwodów nieliniowych nie znajdują zastosowania wzory na dzielniki napięcia i prądu oraz metoda źródeł zastępczych, jeśli scaleniu podlega część obwodu zawierająca elementy nieliniowe. Nic natomiast nie stoi na przeszkodzie, aby metody te wykorzystywać do uproszczenia liniowych fragmentów obwodu nieliniowego. Metody przeznaczone dla obwodów nieliniowych dzielimy na metody dokładne oraz metody przybliżone. Metody dokładne stosuje się, gdy charakterystyki elementów są podane w postaci wzorów, a powstałe równania nieliniowe można rozwiązać dokładnie. Postępuje się więc tak jak w metodzie równań Kirchhoffa, a powstały układ równań nieliniowych rozwiązuje się dostępnymi metodami. Jeżeli otrzymanego równania (lub układu równań) nie można rozwiązać metodami dokładnymi, wtedy stosuje się metody przybliżone, a wśród nich metody numeryczne, w których podstawą jest proces iteracyjny. Szerzej przykładową iteracyjną metodę rozwiązywania równań nieliniowych opiszemy w podrozdziale 3.3. Oprócz metod numerycznych w kategorii metod przybliżonych wyróżnić można metody graficzne, używane, gdy charakterystyki elementów dane są w postaci graficznej (tabelarycznej) oraz metody analityczne stosowane w przypadku, gdy rzeczywistą charakterystykę elementu przybliża się pewnym wyrażeniem liniowym. O linearyzacji elementów nieliniowych będziemy jeszcze wspominać przy okazji omawiania elementów półprzewodnikowych i układów wzmacniających, a teraz przedstawimy dwie najczęściej stosowane metody graficzne. Pierwszą metodą jest metoda przecięcia charakterystyk. Umożliwia ona wyznaczenie punktu pracy elementów połączonych szeregowo bądź równolegle w przypadku, gdy w obwodzie znajduje się jedno źródło prądu lub napięcia. Metodę tę można zastosować do struktury z wieloma elementami nieliniowymi, konstruując graficznie charakterystyki wypadkowe poszczególnych elementów łączonych szeregowo lub równolegle. Prześledźmy tok postępowania przy użyciu tej metody, opierając się na obwodzie z rysunku 3.6, w którym należy obliczyć rozpływ prądów. Analizując obwód rozgałęziony, należy w pierwszej kolejności przekształcać go do postaci nierozgałęzionej. Jest to niezbędne w przypadku stosowania metody przecięcia charakterystyk. Liniowy dwójnik aktywny działający na element nieliniowy może zostać zwinięty przy użyciu twierdzenia Thevenina. Po tej operacji otrzymujemy obwód o postaci nierozgałęzionej (rysunek 3.7), co upraszcza dalszą analizę. Teraz można już przystąpić do analizy nieliniowej. Będziemy poszukiwać prądu I, płynącego w obwodzie, metodą przecięcia charakterystyk. W pierwszej kolejności należy we wspólnym układzie współrzędnych narysować charakterystyki prądowo-napięciowe obydwu elementów Rw oraz RN (rysunek 3.8a). Następnie na osi napięcia zaznaczyć wartość napięcia U0 = 6 V (rysunek 3.8b).
3.2. Metody analizy obwodów nieliniowych
81
Rys. 3.6. Obwód do analizy metodą przecięcia charakterystyk
Rys. 3.7. Maksymalnie uproszczony obwód z rysunku 3.6
W kolejnym kroku charakterystykę elementu liniowego trzeba przesunąć do punktu U0, a następnie odbić lustrzanie, w wyniku czego powstanie charakterystyka połączenia U0 – IRw (rysunek 3.8c). Punkt przecięcia tej charakterystyki z charakterystyką nieliniowego rezystora wyznacza punkt pracy elementów w obwodzie (rysunek 3.8d). Z wykresu odczytujemy wartości napięć na poszczególnych elementach obwodu. Mając dane napięcie UN, możemy za pomocą schematu pierwotnego (rysunek 3.6) obliczyć prądy płynące w obwodzie, korzystając z następujących zależności: I2 =
U N 2, 7 = = 1, 35 A, R2 2
I1 = I 2 + I = 1, 35 + 3, 2 = 4, 55 A.
(3.9) (3.10)
Ponieważ w układzie szukamy wartości napięcia na konkretnym elemencie, mając daną wartość napięcia zasilania, wszystkie transformacje graficzne wykonywane są względem osi napięcia. Gdyby w układzie występowało źródło prądowe, a poszukiwalibyśmy prądu w danej gałęzi, wtedy wszystkie transfiguracje (przenoszenie, odbijanie lustrzane charakterystyk elementu itd.) przeprowadzane by były względem osi prądu. Drugą równie często stosowaną metodą graficzną jest metoda charakterystyki łącznej. Możemy ją porównać do metody transfiguracji znanej z analizy obwodów prądu stałego. Metoda ta polega na maksymalnym uproszczeniu obwodu poprzez łączenie poszczególnych elementów i wyznaczenie charakterystyki łącznej aktualnie łączonych elementów. W zależności od tego, jaki jest rodzaj połączenia pomiędzy elementami, dokonuje się graficznego łączenia tych elementów wzglę-
82
3. Nieliniowy obwód elektryczny
Rys. 3.8. Ilustracja metody przecięcia charakterystyk
3.2. Metody analizy obwodów nieliniowych
83
Rys. 3.9. Obwód do analizy metodą charakterystyki łącznej
dem wartości odniesienia, która jest stałą wartością charakteryzującą konkretne połączenie. W przypadku połączenia szeregowego będzie to stała wartość prądu, przepływającego przez elementy, w przypadku zaś połączenia równoległego stała wartość napięcia na tych elementach. Aby zrozumieć ideę tej metody, prześledźmy na bazie przykładowego obwodu (rysunek 3.9) tok postępowania przy jego rozwiązywaniu. Analiza obwodu polegać będzie na wyznaczeniu rozpływu prądów w obwodzie. W pierwszej kolejności należy uprościć obwód poprzez zastąpienie równoległego połączenia rezystorów RN i R2 rezystorem zastępczym, którego charakterystykę tworzy się, bazując na graficznych charakterystykach obydwu rezystorów. Dla jednej wartości napięcia (połączenie równoległe charakteryzuje się występowaniem takiej samej wartości napięcia na elementach) dodaje się wartości prądu każdego z równolegle połączonych elementów i otrzymuje wartość wypadkową prądu płynącego przez rezystancję zastępczą. Na rysunku 3.10 przedstawiono konstrukcję charakterystyki łącznej (linia czarna) oraz schemat wynikowego obwodu. Z wykresu charakterystyki łącznej dla U = E = 5 V można odczytać wartość prądu płynącego w dwójniku I = 4 A oraz wartości prądów płynących w poszczególnych rezystorach I2 = 1 A (linia ciemnoszara) oraz IN = 3 A (linia jasnoszara).
Rys. 3.10. Obwód uproszczony metodą charakterystyki łącznej oraz konstrukcja jego charakterystyki
84
3.3.
3. Nieliniowy obwód elektryczny
Metoda Newtona-Raphsona W poprzednim podrozdziale przyjrzeliśmy się graficznym metodom rozwiązywania obwodów nieliniowych. Obecnie zapoznamy się z popularną metodą numeryczną służącą do rozwiązywania równań nieliniowych, standardowo wykorzystywaną w programach do komputerowej analizy układów elektronicznych, tj. z metodą Newtona-Raphsona. W celu ilustracji tej bardzo popularnej w elektronice metody wyprowadzimy jej algorytm na przykładzie równania nieliniowego, występującego często w matematycznym opisie układów zawierających elementy półprzewodnikowe (3.11) x + e x = 2. Jest to równanie niejawne, które nie może być rozwiązane za pomocą przekształceń algebraicznych, tzn. nie można wyprowadzić zależności typu x = ..., można je natomiast rozwiązać, w sposób przybliżony, metodą iteracyjną. W tym celu przedstawmy zależność (3.11) w standardowej postaci f (x) = 0, tj. f ( x) = x + ex − 2 = 0.
(3.12)
Rozwiązanie iteracyjną metodą Newtona-Raphsona polega na tym, że po przyjęciu przybliżonego początkowego (zerowego) rozwiązania (punktu początkowego) x0 oblicza się „pierwsze” przybliżenie x1; jeżeli nie jest ono wystarczająco dokładne, to, traktuje się je jako nowy punkt startowy i oblicza „drugie” przybliżenie x2 itd., aż do osiągnięcia rozwiązania z odpowiednio małym błędem. Algorytm Newtona-Raphsona jest oparty na rozwinięciu w szereg Taylora nieliniowej funkcji f (x) w punkcie x0 f ( x ) = f ( x0 ) +
f ' ( x0 ) 1!
( x − x0 ) +
f '' ( x0 ) 2!
( x − x0 ) 2 + ...
(3.13)
Jeżeli odrzucimy wszystkie wyrazy rozwinięcia rzędu wyższego niż 1, to otrzymamy aproksymację funkcji f (x) funkcją liniową wyrażoną przez równanie przybliżone f ( x ) ≈ f ( x0 ) + f ' ( x0 ) ( x − x0 ) .
(3.14)
Występującą w powyższych wyrażeniach pochodną f’(x0) interpretuje się jako nachylenie stycznej do krzywej f (x) w punkcie x0. Idea metody polega na zastąpieniu nieliniowej funkcji f (x) liniową funkcją w(x), występującą po prawej stronie równania (3.14) w ( x ) = f ( x0 ) + f ' ( x0 ) ( x − x0 ) .
(3.15)
Funkcja w(x) przyjmuje w punkcie x0 tę samą wartość co funkcja f (x), a jednocześnie pochodna funkcji w(x) w punkcie x0 ma tę samą wartość co pochodna funkcji f (x), czyli nachylenia obu funkcji w punkcie x0 są jednakowe w ( x0 ) = f ( x0 ) . w ' ( x0 ) = f ' ( x0 )
(3.16)
85
3.3. Metoda Newtona-Raphsona
Ponieważ funkcja w(x) jest liniowa, jej rozwiązanie (obliczenie x1) jest trywialne. Istota metody polega na zauważeniu, że dokładne rozwiązanie x1 równania w(x1) = 0, czyli f ( x0 ) + f ' ( x0 ) ( x1 − x0 ) = 0 ⇒
x1 = x0 −
f ( x0 )
f ' ( x0 )
(3.17)
jest przybliżonym rozwiązaniem równania f (x) = 0. Opisaną sytuację zilustrowano graficznie na rysunku 3.11. Aby otrzymać dokładniejsze niż x1 przybliżenie, ponownie stosujemy opisaną procedurę, lecz tym razem w stosunku do przybliżenia x1 itd., aż do zadowalającego rozwiązania, co zilustrowano na rysunku 3.12. Reasumując, można stwierdzić, że algorytm Newtona-Raphsona rozpoczyna iterację od pewnego punktu startowego i znajduje rozwiązanie poprzez serię kolejnych iteracji określonych formułą xn +1 = xn −
f ( xn )
f ' ( xn )
.
Rys. 3.11. Miejsce zerowe stycznej jako przybliżenie miejsca zerowego funkcji nieliniowej
Rys. 3.12. Ilustracja iteracyjnego algorytmu Newton-Raphsona
(3.18)
86
3. Nieliniowy obwód elektryczny
Dla przykładu zastosujmy algorytm Newtona-Raphsona do równania (3.12) xn +1 = xn −
xn + e xn − 2 1 + e xn
.
(3.19)
Przyjmując za punkt początkowy xn = 2, otrzymamy ciąg zmierzający do rozwiązania, przedstawiony w tabeli 3.1. Zauważmy, że od czwartej iteracji wartości xn i xn + 1 pozostają niezmienione. Algorytm Newtona-Raphsona wychodzi od pewnej wartości początkowej, a kończy iteracje, gdy różnice pomiędzy kolejnymi wartościami xi zmierzają do zera. Gdy algorytm znajdzie właściwe rozwiązanie, wartości przewidywane w kolejnych krokach, na założonym poziomie dokładności, nie zmieniają się (np. czwarta i piąta iteracja w tabeli 3.1). Tab. 3.1. Ciąg iteracji Newtona-Raphsona dla równania (3.19) n 0 1 2 3 4 5
xn 2,000 1,119 0,582 0,449 0,443 0,443
xn + 1 1,119 0,582 0,449 0,443 0,443 0,443
W przypadku algorytmu Newtona-Raphsona istotne jest, by punkt startowy znajdował się blisko właściwego rozwiązania. Jeśli warunek ten nie jest spełniony, do osiągnięcia rozwiązania może być wymagana duża liczba iteracji, dlatego jeśli liczba iteracji przekroczy pewną liczbę graniczną, np. 250, korzystne może być przerwanie ciągu obliczeń i rozpoczęcie algorytmu z innego punktu startowego. Pełny opis metody Newtona-Raphsona wraz z obszernym komentarzem i przykładami jej zastosowania do wspomaganej komputerowo analizy nieliniowych obwodów elektronicznych znajdzie Czytelnik w [3].
4.
Obwody prądu harmonicznego Dotychczas zajmowaliśmy się głównie obwodami prądu stałego oraz metodami ich rozwiązywania. W tym rozdziale rozszerzymy dotychczas zdobytą wiedzę na obwody prądu harmonicznego. Dowiemy się zatem, co to jest prąd harmoniczny, gdzie najczęściej występuje i za pomocą jakich metod można analizować obwody przy tego typu wymuszeniach. Wkroczymy w świat liczb urojonych i zespolonych...
4.1.
Ogólna charakterystyka przebiegów okresowych Aby móc scharakteryzować przebiegi okresowe (do których należą m.in. przebiegi harmoniczne), musimy w pierwszej kolejności dowiedzieć się, co kryje się pod pojęciem sygnał okresowy. Zacznijmy od tego, że każdy sygnał (może to być napięcie lub prąd) można sklasyfikować na podstawie jego zmian w funkcji czasu. Jest to podstawowa klasyfikacja prądów i napięć stosowana w teorii obwodów. Podział ten obejmuje sygnały stałe bądź zmienne w funkcji czasu. W pierwszej części książki skupiliśmy się na napięciach i prądach stałych, tzn. takich, które nie zmieniały swojej wartości w dowolnie długim przedziale czasu. Graficznie odpowiada to linii prostej opisanej tylko jednym parametrem: wartością sygnału (niezmieniającą się w funkcji czasu). W tej części książki będziemy natomiast omawiać sygnały zmienne w czasie, czyli sygnały, których wartość ulega zmianom w funkcji czasu. Przypomnijmy, że sygnały zmienne w elektronice oznaczamy małymi literami (i – prąd, u – napięcie). Przykładowe przebiegi sygnału stałego oraz zmiennego przedstawiono na rysunku 4.1. Ponieważ zajmujemy się teraz sygnałami zmiennymi, dokonajmy kolejnego podziału tego typu sygnałów. Wśród przebiegów zmiennych rozróżnić możemy sygnały okresowe oraz nieokresowe. Sygnał zmienny jest okresowy, gdy można wyodrębnić takie (jednakowe) przedziały czasu, w których sygnał się powtarza. Najmniejszy przedział czasu T, po którym przebieg wielkości okresowej powtarza się, nazywany
Rys. 4.1. Przykłady przebiegów napięcia lub prądów w funkcji czasu: a) sygnał stały, b) sygnał zmienny
88
4. Obwody prądu harmonicznego
jest okresem T przebiegu danej wielkości. Okres wyrażany jest w sekundach i oznaczany dużą literą T. Warunek okresowości zapisuje się w postaci f (t ) = f (t + kT ) ,
(4.1)
gdzie k oznacza liczbę całkowitą. Przebiegi okresowe można poddawać kolejnym klasyfikacjom. Szczególnym przykładem przebiegu okresowego zmiennego jest przebieg harmoniczny, utożsamiany w praktyce z przebiegiem sinusoidalnym, który jest de facto przebiegiem zmiennym, okresowym i przemiennym. Pojęcie przemienny oznacza, że pole powierzchni ograniczonej krzywą przebiegu w ciągu okresu T jest równe zeru, przy czym pole powierzchni pod osią czasu jest brane ze znakiem ujemnym. Graficzną interpretację tego typu sygnałów pokazano na rysunku 4.2. Matematyczny zapis prądu sinusoidalnego jest następujący i(t) = Im sin (wt + ψ), gdzie: i(t) Im w ψ wt + ψ
(4.2)
– – – – –
wartość chwilowa prądu, wartość maksymalna prądu, zwana amplitudą, pulsacja sygnału, faza początkowa sygnału w chwili t = 0, argument funkcji sinusoidalnej, nazywany kątem fazowym prądu w chwili t. Wcześniej określiliśmy już jeden z parametrów opisujących sygnał harmoniczny, a mianowicie jego okres. Z kolei odwrotnością okresu jest częstotliwość f =
1 . T
(4.3)
Jednostką częstotliwości jest herc [Hz]. Częstotliwość określa zatem liczbę okresów przypadających na jedną sekundę. Jeśli okres T = 1 s, to częstotliwość jest równa 1 Hz, co oznacza, że na jedną sekundę przypada jeden okres. Częstotliwość sieci energetycznej jest równa 50 Hz i oznacza to, że na jedną sekundę przypada 50 okresów sygnału. Bardzo często używa się również pojęcia pulsacji, wykorzystanego już w (4.2). Jest to częstotliwość kołowa (kątowa) zdefiniowana następująco
ω = 2πf =
2π . T
Rys. 4.2. Przykłady przebiegu przemiennego i nieprzemiennego
(4.4)
4.1. Ogólna charakterystyka przebiegów okresowych
89
Rys. 4.3. Przykładowy przebieg sinusoidalny
Jednostką pulsacji jest radian na sekundę [rad/s]. Bardzo często używa się jej do zwięzłego zapisu sygnału sinusoidalnego. Zwróćmy uwagę, że przy zastosowaniu pulsacji jeden okres sygnału odpowiada kątowi pełnemu. Na rysunku 4.3 zilustrowano przebieg sygnału sinusoidalnego z oznaczeniami wszystkich jego parametrów. Na podstawie powyższego przebiegu możemy zauważyć: – oś odciętych może mieć podwójne znaczenie: czasu (wówczas jest wyskalowana w [s]) lub kąta (jak na rysunku 4.3) i wtedy jest wyskalowana w [°] lub [rad] i można na niej bezpośrednio pokazać fazę początkową, – jeżeli faza początkowa ψ > 0, to przebieg sinusoidalny jest przesunięty w lewo względem początku układu współrzędnych i tak jest w przedstawionym przebiegu, natomiast jeśli ψ < 0, to przebieg jest przesunięty w prawo – dodatkowa ilustracja pokazana jest na rysunku 4.4, – przebiegi o tej samej pulsacji (częstotliwości) mogą różnić się amplitudą i/lub fazą początkową ψ, – z dwóch przebiegów sinusoidalnych o różnych fazach za wyprzedzający uważa się ten, który ma większą fazę początkową, natomiast za opóźniający się ten, który ma mniejszą fazę początkową, – różnicę faz dwóch przebiegów sinusoidalnych o tych samych pulsacjach nazywamy przesunięciem fazowym j. Wyobraźmy sobie prąd sinusoidalny przepływający przez rezystor. Jakie jest jego natężenie? Jak je wyliczyć? Chcąc obliczyć wartość średnią prądu, bierzemy pod uwagę kierunek – gdy przepływa w jedną stronę, jest dodatni (chwilowo), gdy w drugą – ujemny. Można oczywiście podawać wartości chwilowe, które będą się zmieniały w granicach od dodatniej wartości amplitudy do ujemnej wartości amplitudy. Tak się jednak nie robi. W celu opisu sygnałów zmiennych wprowadza się dwa podstawowe parametry, które niezmiernie często przewijają się w praktycznych zastosowaniach. Są to wartość skuteczna oraz wartość średnia sygnału. Wartość skuteczna przebiegu to pierwiastek kwadratowy z wartości średniej kwadratu sygnału obliczonej za jeden okres przebiegu I=
T
1 2 i (t ) dt . T ∫0
(4.5)
90
4. Obwody prądu harmonicznego
Rys. 4.4. Ilustracja znaku fazy początkowej przebiegu sinusoidalnego
Interpretacja tego parametru wiąże się ze skutkami cieplnymi, jakie powoduje przepływ prądu. Jest to bowiem wartość takiego równoważnego prądu stałego, który w czasie równym jednemu okresowi wywołuje jednakowy skutek cieplny. Inaczej mówiąc, prąd stały o wartości I wytworzy w rezystorze energię cieplną o takiej samej wartości jak prąd zmienny o wartości skutecznej równej I. Wzór (4.5) jest wzorem ogólnym obowiązującym dla dowolnych sygnałów. W przypadku szczególnym, gdy rozpatrujemy sygnał harmoniczny, w wyniku całkowania otrzymujemy prosty związek wartości skutecznej z amplitudą sygnału określony wzorem I=
Im 2
≈ 0, 707 I m .
(4.6)
Wartość skuteczna jest swego rodzaju ekwiwalentem energetycznym sygnału. Warto zapamiętać, że to właśnie wartość skuteczną prądu (napięcia) wskazują najczęściej amperomierze (woltomierze). Drugim równie ważnym parametrem jest wartość średnia całookresowa, która wyraża się wzorem I śr c =
T
1 i (t ) dt. T 0∫
(4.7)
Uwzględniając geometryczną interpretację całki, możemy stwierdzić, że jest to pole powierzchni ograniczone krzywą, podzielone przez czas, dla jakiego jest obliczane, czyli przez okres T. Dla przebiegów przemiennych, czyli również dla przebiegów
4.1. Ogólna charakterystyka przebiegów okresowych
91
sinusoidalnych, które mają jednakowe pola nad i pod osią czasu w przedziale czasu T, wartość średnia całookresowa jest równa 0. Dlatego też dla prądów i napięć przemiennych posługujemy się wartością średnią półokresową, zdefiniowaną jako I śr =
1 T /2
T /2
∫
i (t ) dt.
(4.8)
0
Parametr ten często nazywany jest również wartością średnią przebiegu wyprostowanego. Przebieg wyprostowany to przebieg, w którym ujemne połówki sygnału są odbite symetrycznie względem osi czasu, tak że wszystkie połówki przebiegu są dodatnie. Jest to więc sygnał okresowy, ale okres jest o połowę krótszy od okresu oryginalnego przebiegu. Zatem wzór (4.8) reprezentuje po prostu wartość średnią tego wyprostowanego sygnału. Spróbujmy zinterpretować sens średniej wartości półokresowej, bazując na przebiegu sinusoidalnym. Na rysunku 4.5a ciemnoszare pole odpowiada ładunkowi Q przeniesionemu przez prąd sinusoidalny w czasie równym T/2. Zakreskowane pole na rysunku 4.5b odpowiada temu samemu ładunkowi Q przeniesionemu przez
Rys. 4.5. Interpretacja graficzna średniej wartości półokresowej
92
4. Obwody prądu harmonicznego
prąd stały Iśr w czasie T/2. Równość tych dwóch pól polega więc na „wpasowaniu” pola z sinusoidy do pola prostokąta. Podstawiając do zależności (4.8) wyprostowany przebieg harmoniczny, otrzymujemy związek łączący wartość średnią półokresową z amplitudą I śr =
2 ⋅ I m ≈ 0, 637 I m . π
(4.9)
Kończąc wprowadzenie do sygnałów zmiennych, można stwierdzić, że prąd stały jest szczególnym przypadkiem sygnału sinusoidalnego o częstotliwości f = 0, natomiast jego wartość chwilowa jest zawsze równa wartości maksymalnej. Sygnał stały charakteryzuje się jednocześnie tym, że jego wartość maksymalna, skuteczna i średnia są identyczne i równe wartości stałej. W konsekwencji metody analizy obwodów prądu stałego są w pewnym sensie szczególnym przypadkiem ogólniejszych metod analizy obwodów opracowanych dla wymuszeń harmonicznych, o których Czytelnik dowie się w podrozdziale 4.3.
4.2.
Przebieg harmoniczny – interpretacja graficzna Załóżmy, że rozpatrujemy sygnał sinusoidalny, w postaci prądu: i (t ) = I m sin (ωt + ψ ) .
(4.10)
Posługiwanie się na dłuższą metę tego typu zapisem jest niewygodne i mało efektywne. Wyrażeniem (4.10) można się posługiwać jedynie przy analizie bardzo prostych obwodów, ponieważ wraz ze wzrostem skomplikowania obwodu zapisy równań obwodowych stają się coraz bardziej nieczytelne. Na końcu książki umieściliśmy specjalny dodatek matematyczny. Przestudiowanie dodatku D zatytułowanego „Arytmetyka liczb zespolonych”, jest dla Czytelników niezorientowanych w dziedzinie liczb zespolonych niezbędne przed przystąpieniem do dalszej lektury zagadnień związanych z metodami symbolicznymi. Aby płynnie przejść do zapisywania wielkości reprezentowanych przez przebiegi harmoniczne przy użyciu rachunku symbolicznego, spróbujemy dokonać interpretacji graficznej przebiegu sinusoidalnego – rysunek 4.6. Wartość chwilowa i(t) jest rzutem na oś rzędnych odcinka o długości Im wychodzącego z początku układu współrzędnych pod kątem wt + ψ do osi odciętych. Wraz w upływem czasu odcinek ten wiruje wokół początku układu współrzędnych z prędkością w, w kierunku przeciwnym do ruchu wskazówek zegara. Ten wirujący odcinek będziemy nazywać wskazem przebiegu sinusoidalnego. Przebieg i(t) jest zatem w pełni określony przez jego wirujący wskaz. Ponieważ wskaz wiruje jednostajnie, jedyną wielkością niezbędną do określenia wirowania jest pulsacja mająca w tym podejściu sens prędkości kątowej. Żeby porównać różne przebiegi o jednakowej pulsacji, zamiast porównywać wirujące wskazy (co nie ułatwiłoby analizy), można porównać te wskazy, ale w stanie statycznym („zamrożonym”), w wybranym momencie. Z reguły przyjmuje się t = 0, co powoduje, że argument funkcji sinus jest równy kątowi fazowemu ψ. Dzięki temu każdemu przebiegowi
4.2. Przebieg harmoniczny – interpretacja graficzna
93
Rys. 4.6. Interpretacja graficzna przebiegu harmonicznego sinusoidalnego
przyporządkowuje się wskaz o długości równej amplitudzie Im lub wartości skutecznej I. Wskaz ten rysuje się na płaszczyźnie zmiennej zespolonej pod kątem równym kątowi fazowemu danego przebiegu ψ względem osi odniesienia, którą zazwyczaj jest oś pozioma, zwana osią rzeczywistą (Re – realis). Oś rzędnych jest osią urojoną (Im – imaginaria) – rysunek 4.7. Przedstawienie przebiegu sinusoidalnego w postaci wskazu na płaszczyźnie zmiennej zespolonej determinuje od razu zapis przebiegu w postaci liczby zespolonej. Wykorzystujemy tu współrzędne biegunowe, czyli wskaz jest charakteryzowany za pomocą długości (amplitudy) i kąta fazowego. Następuje więc zastąpienie przebiegów czasowych wskazami opisywanymi przez liczby zespolone. Prąd i(t) zostaje zastąpiony przez wirujący wskaz, czyli przez symboliczną wartość chwilową, jak pokazano na rysunku 4.8. W wyniku tego otrzymujemy zależność na symboliczną wartość chwilową prądu i ( t ) = 2 I e jω t = I m e jω t .
(4.11)
A więc rzeczywista wartość chwilowa i(t) nie jest równa symbolicznej wartości chwilowej i(t). Spróbujmy więc wyjaśnić dlaczego. Zgodnie z uogólnionym wzorem Eulera, który wiąże zespoloną eksponentę z funkcjami harmonicznymi ke jϕ = k cos ϕ + j k sin ϕ .
(4.12)
Rys. 4.7. Interpretacja graficzna zastąpienia przebiegu czasowego prądu wskazem opisanym przez liczbę zespoloną
94
4. Obwody prądu harmonicznego
Rys. 4.8. Zastąpienie przebiegu czasowego prądu wskazem opisanym przez liczbę zespoloną
Część rzeczywista takiego wyrażenia jest równa
(
)
(4.13)
Im ke jϕ = k sin ϕ ,
(
)
(4.14)
j = −1.
(4.15)
Re ke jϕ = k cos ϕ natomiast część urojona
gdzie j jest jednostką urojoną
Korzystając ze wzoru Eulera dla zespolonego przebiegu sinusoidalnego prądu i(t) otrzymujemy j ωt + ψ ) i (t ) = Im e ( = I m cos (ωt + ψ ) + j I m sin (ωt + ψ ),
(4.16)
gdzie część urojona to dobrze nam znana zależność na rzeczywistą wartość chwilowa prądu sinusoidalnego. A więc w rozważanym przypadku rzeczywista wartość chwilowa jest częścią urojoną symbolicznej wartości chwilowej i (t ) ≠ i ( t ) ,
(4.17)
i (t ) = Im i ( t ) .
(4.18)
Podkreślenie danej wartości sygnalizuje, że ma ona charakter zespolony. Podsumowując: dla danego przebiegu harmonicznego możemy określić następujące wielkości: – i(t) – rzeczywistą wartość chwilową prądu, – i(t) – zespoloną wartość chwilową prądu, – Im – amplitudę przebiegu,
95
4.2. Przebieg harmoniczny – interpretacja graficzna
– Im – zespoloną amplitudę przebiegu, – I – wartość skuteczną przebiegu, – I – zespoloną wartość skuteczną przebiegu. Jesteśmy przekonani, że Czytelnik jest już nieco zmęczony dużą porcją nowego materiału, a nic tak nie krzepi, jak dobry przykład. Przeanalizujmy więc tematykę symbolicznych oraz rzeczywistych wartości chwilowych, przedstawiając jako funkcje czasu prądy i napięcia o następujących symbolicznych wartościach skutecznych: 1. I1 = 20 + j10 A. 2. I2 = 20e j 30° A. 3. U1 = 12e j110° V. 4. U2 = (–13 + j3) V. Jako pulsację przyjmijmy wartość w = 314 rad/s. 1. W pierwszej kolejności należy zapisać prąd I1 w postaci wykładniczej. Korzystając z zależności na przekształcenie z postaci algebraicznej na wykładniczą (dodatek D), otrzymujemy I 1 = 202 + 102 e
j arctg
10 20
= 500e j27 .
(4.19)
Po wyznaczeniu wykładniczej postaci zespolonej wartości skutecznej prądu możemy przejść do zapisania tego przebiegu jako rzeczywistej funkcji czasu, posługując się wzorem i (t ) = I m sin (ωt + ψ ) .
(4.20)
Znamy wartość kąta fazowego ψ = 27°, a wartość amplitudy możemy obliczyć, korzystając ze wzoru I m = 2 ⋅ I = 2 ⋅ 500 = 1000 = 10 10.
(4.21)
W wyniku tego otrzymujemy i (t ) = 14,14 sin ( 314 t + 27° ) A.
(4.22)
Obliczenia dla przykładu 2 oraz 3 są łatwiejsze, gdyż symboliczna wartość skuteczna podana jest bezpośrednio w postaci wykładniczej, nie trzeba więc dokonywać obliczeń zespolonych.
2. I 2 = 20e j30 ⇒ i (t ) = 2 ⋅ 20 sin ( 314 t + 30° ) A =
(4.23)
= 28, 28sin ( 314 t + 30° ) A.
3. U 1 = 12 e j110 = u (t ) = 2 ⋅12 sin ( 314 t + 110° ) V =
(4.24)
= 16, 97 sin ( 314 t + 110° ) V.
4. W tym przypadku musimy zwrócić uwagę na położenie liczby na płaszczyźnie zespolonej. Z dodatku D dowiedzieliśmy się, że obliczanie postaci wykładniczej liczby zespolonej zależy od tego, w której ćwiartce płaszczyzny zespolonej znajduje się wskaz. Wcześniej omijaliśmy ten problem, gdyż zarówno część rzeczy-
96
4. Obwody prądu harmonicznego
Rys. 4.9. Położenie liczby na płaszczyźnie zespolonej
wista, jak i urojona były dodatnie. Tutaj jednak część rzeczywista jest ujemna, w wyniku czego liczba plasuje się w II ćwiartce płaszczyzny zespolonej. Zgodnie z poznanymi wzorami, jeśli wartość rzeczywista liczby zespolonej jest mniejsza od 0, argument liczby zespolonej oblicza się, korzystając ze wzoru: b ϕ = arctg + π = −13° + 180° = 167°. a
(4.25)
Bez komplikacji wyznaczamy wartość skuteczną (tu znaki nie mają znaczenia).
U 1 = (−13) 2 + 32 e j167 = 13, 34 e j167
(4.26)
u (t ) = 18, 87 sin (314 t + 167°) V .
(4.27)
i funkcję czasu
4.3.
Elementy idealne w obwodzie prądu harmonicznego Liniowy obwód prądu sinusoidalnego zawiera takie elementy jak rezystory, cewki i kondensatory oraz źródła napięcia i prądu sinusoidalnego. W obwodach prądu stałego w stanach ustalonych rozkład prądów i napięć zależał wyłącznie od napięć i prądów źródłowych oraz rezystancji. Cewki idealne nie odgrywały żadnej roli, gdyż napięcie na nich było zerowe. Natomiast kondensatory w obwodach zasilanych prądem stałym nie przewodziły prądu, w wyniku czego stanowiły przerwę w obwodzie. W obwodach prądu zmiennego kondensatory i cewki należy uwzględniać, biorąc pod uwagę procesy zachodzące w polu elektrycznym i magnetycznym. Przedstawimy zatem elementy pasywne wchodzące w skład obwodu zasilanego prądem harmonicznym oraz charakterystyczne dla nich zjawiska. Rezystor Rozpatrzmy w pierwszej kolejności rezystor o stałej rezystancji R, przez który przepływa prąd harmoniczny o postaci i (t ) = I m sin (ωt + ψ i ) .
(4.28)
4.3. Elementy idealne w obwodzie prądu harmonicznego
97
Odpowiedzią na wymuszenie prądowe jest pojawienie się napięcia na rezystorze. Ponieważ rezystor jest elementem liniowym, związek pomiędzy napięciem a prądem reguluje w nim prawo Ohma. Zgodnie z nim u (t ) = R ⋅ i (t ) = R ⋅ I m sin (ωt + ψ i ) ,
(4.29)
u (t ) = U m sin (ωt + ψ u ) .
(4.30)
Przy czym amplituda napięcia U m = RI m ,
(4.31)
przechodząc na symboliczne wartości skuteczne, otrzymujemy I = Ie jψ i ,
(4.32)
U = R ⋅ I → Ue jψ u = RIe jψ i
(4.33)
ψu = ψi.
(4.34)
i w konsekwencji
Na podstawie wyprowadzonych zależności można wysunąć kilka istotnych wniosków: – prąd i napięcie na rezystorze są w fazie, tzn. mają ten sam kąt fazowy, oznacza to, że napięcie na nim zmienia się sinusoidalnie z tą samą pulsacją co płynący przez niego prąd, a przesunięcie fazowe między nimi jest zerowe, – wartość skuteczna napięcia na rezystorze jest równa iloczynowi wartości skutecznej prądu przepływającego przez rezystor i jego rezystancji, – amplituda napięcia na rezystorze jest równa iloczynowi amplitudy prądu płynącego przez rezystor i jego rezystancji. Przykładowe przebiegi prądu i napięcia dla rezystora pokazane są na rysunku 4.10.
Rys. 4.10. Przykładowe przebiegi i wskazy prądu oraz napięcia dla rezystora
98
4. Obwody prądu harmonicznego
Cewka W przypadku cewki korzystamy z uniwersalnej zależności wiążącej napięcie indukcji własnej z szybkością zmian prądu u (t ) = L
di ( t ) dt
,
(4.35)
przyjmując, że w cewce płynie prąd sinusoidalny i (t ) = I m sin (ωt + ψ i ) , napięcie na cewce będzie wynosiło: d u (t ) = L ( I m sin (ωt + ψ i ) ) = dt
(4.37) (4.38)
{
u (t ) = ω LI m cos (ωt + ψ i )
(4.36)
Um amplituda napięcia na zaciskach cewki
{
U m = ω LI m = X L I m
(4.39)
reaktancja indukcyjna cewki XL u (t ) = U m cos(ωt + ψ i ) .
(4.40)
Ponieważ funkcja cosinus jest przesunięta o 90° względem funkcji sinus, otrzymujemy cos x = sin ( x + 90° ) ,
(4.41)
u (t ) = U m cos(ωt + ψ i ),
(4.42) (4.43)
{
u (t ) = U m sin (ωt + ψ i + 90° ) kąt fazowy napięcia ψu u (t ) = U m sin (ωt + ψ u ) .
(4.44)
A zatem przesunięcie fazowe pomiędzy przebiegami u(t) i i(t) wynosi
ϕ = ψ u − ψ i = ψ i + 90° −ψ i = 90° .
(4.45)
Przebiegi oraz wskazy prądu i napięcia dla cewki pokazane są na rysunku 4.11. Wielkość XL nazywamy reaktancją indukcyjną albo oporem biernym indukcyjnym i wyrażamy w omach [Ω] (4.46) X L = ωL.
4.3. Elementy idealne w obwodzie prądu harmonicznego
99
Rys. 4.11. Przykładowe przebiegi oraz wskazy prądu i napięcia dla cewki
W wyniku takiego sformułowania zależność pomiędzy wartościami skutecznymi prądu i napięcia na cewce ma postać prawa Ohma dla cewki (zdefiniowane dla wartości skutecznych) U = XLI .
(4.47)
Prawo Ohma definiowane jest również dla wartości amplitud prądu i napięcia na cewce i wyrażone jest wzorem 4.39. Reaktancja indukcyjna zależy od częstotliwości prądu płynącego przez cewkę. Zgodnie ze wzorem (4.46) im większa pulsacja (częstotliwość), tym większa reaktancja cewki (rysunek 4.12). Potocznie mówi się, że wraz ze wzrostem częstotliwości cewka stawia coraz większy opór płynącemu prądowi. Dla prądu stałego (f = 0) cewka stanowi zwarcie, gdyż jej reaktancja jest równa zero (XL = 2π · 0 · L = 0). Dla bardzo dużych częstotliwości cewka stanowi praktycznie przerwę. Często więc wykorzystuje się ją do tłumienia prądów o dużych częstotliwościach.
Rys. 4.12. Zależność reaktancji indukcyjnej cewki od częstotliwości
Odwrotnością reaktancji indukcyjnej jest susceptancja indukcyjna BL wyrażana w siemensach [S] 1 1 BL = = . (4.48) X L ωL Podsumowując, symboliczne wartości chwilowe prądu i napięcia na cewce wyrażają się zależnościami i (t ) = I m e jωt
I m = I m e jψ i ,
(4.49)
100
4. Obwody prądu harmonicznego
u (t ) = L zatem U m = j X L I zależnością
m
di (t ) = jω LI m e jωt = U m e jωt dt
(4.50)
co oznacza, że symboliczne wartości skuteczne są związane U = jω LI = jX L I .
(4.51)
Z otrzymanych zależności można wyciągnąć następujące wnioski: – wskazy prądu i napięcia są prostopadłe, przy czym wskaz napięcia wyprzedza wskaz prądu o 90°, – napięcie na cewce wyprzedza prąd o 90°, – napięcie na zaciskach cewki zmienia się sinusoidalnie z tą samą pulsacją co płynący w niej prąd, – wartość skuteczna napięcia na zaciskach idealnej cewki jest równa iloczynowi reaktancji indukcyjnej i wartości skutecznej prądu przepływającego przez cewkę, – zespolona wartość skuteczna napięcia na zaciskach cewki jest równa iloczynowi reaktancji indukcyjnej, zespolonej wartości skutecznej prądu przepływającego przez cewkę oraz jednostki urojonej j, – reaktancja indukcyjna zmienia się liniowo wraz ze zmianą pulsacji. Kondensator Prześledźmy teraz zależności wiążące wielkości występujące w kondensatorze. Załóżmy, że na zaciskach idealnego kondensatora o pojemności C występuje napięcie sinusoidalne opisane wzorem u (t ) = U m sin (ωt + ψ u ).
(4.52)
Prąd płynący przez kondensator jest określony równaniem różniczkowym i (t ) = C i (t ) = C
du ( t ) dt
,
d (U m sin (ωt +ψ u ) ) , dt
(4.53) (4.54)
i (t ) = ωCU m cos (ωt + ψ u ) .
(4.55)
cos x = sin ( x + 90° ) ,
(4.56)
Ponieważ otrzymujemy
Im amplituda prądu
{
{
i (t ) = ωCU m sin (ωt + ψ u + 90° ) . kąt fazowy prądu ψi
(4.57)
4.3. Elementy idealne w obwodzie prądu harmonicznego
101
Przy czym amplituda prądu I m = ω CU m =
Um Um . = 1 XC ωC
(4.58)
Reaktancja pojemnościowa kondensatora XC W wyniku dostajemy i (t ) = I m sin (ωt + ψ i ) .
(4.59)
Przesunięcie fazowe pomiędzy przebiegami u(t) a i(t) na kondensatorze wynosi zatem:
ϕ = ψ u − (ψ u + 90° ) = −90° .
(4.60)
Przebiegi oraz wskazy prądu i napięcia na kondensatorze pokazane są na rysunku 4.13. Wielkość XC nazywana jest reaktancją pojemnościową albo oporem biernym pojemnościowym i wyrażana jest w omach [Ω] 1 . (4.61) XC = ωC Korzystając z pojęcia reaktancji, zależność pomiędzy wartościami skutecznymi prądu i napięcia na kondensatorze możemy zapisać w postaci prawa Ohma dla kondensatora (zdefiniowane dla wartości skutecznych): U = I XC.
(4.62)
Reaktancja pojemnościowa jest odwrotnie proporcjonalna do częstotliwości (pulsacji) płynącego przez nią prądu. Im większa częstotliwość, tym reaktancja kondensatora jest mniejsza (rysunek 4.14). Mówi się zatem, że kondensator stawia tym mniejszy opór płynącemu prądowi, im jego częstotliwość jest większa. Dla prądu
Rys. 4.13. Przykładowe przebiegi oraz wskazy prądu i napięcia dla kondensatora
102
4. Obwody prądu harmonicznego
Rys. 4.14. Zależność reaktancji pojemnościowej kondensatora od częstotliwości
stałego (f = 0) oraz bardzo małych częstotliwości kondensator stanowi przerwę, gdyż wartość jego reaktancji dąży do nieskończoności (XC = ∞), dlatego też często wykorzystuje się ją do tłumienia napięć o małych częstotliwościach. Odwrotnością reaktancji pojemnościowej jest susceptancja pojemnościowa BC wyrażana w siemensach [S] 1 (4.63) BC = = ωC . XC Podsumowując, symboliczne wartości chwilowe napięcia i prądu na kondensatorze wyrażają się zależnościami u (t ) = U m e jωt i (t ) = C
du (t ) dt
U m = U m e jψ u
,
= jωCU m e jωt = I m e jωt ,
a ich symboliczne wartości skuteczne są związane wzorem 1 U= ⋅ I = − j XC I . jω C
(4.64) (4.65)
(4.66)
Z otrzymanych zależności można wyciągnąć następujące wnioski: – wskazy prądu i napięcia są prostopadłe, przy czym wskaz prądu wyprzedza wskaz napięcia o 90°, – prąd wyprzedza napięcie o 90°, – prąd kondensatora zmienia się sinusoidalnie z tą samą pulsacją co napięcie na jego zaciskach, – wartość skuteczna napięcia na zaciskach kondensatora idealnego jest równa iloczynowi reaktancji pojemnościowej i wartości skutecznej prądu płynącego przez ten kondensator, – zespolona wartość skuteczna napięcia na zaciskach kondensatora idealnego jest równa iloczynowi reaktancji pojemnościowej, zespolonej wartości skutecznej prądu przepływającego przez kondensator oraz ujemnej jednostki urojonej ze znakiem ujemnym (–j), – reaktancja pojemnościowa zmienia się odwrotnie proporcjonalnie do częstotliwości.
4.4. Podstawowe prawa obwodów w postaci zespolonej
103
Rys. 4.15. Ilustracja związków prąd-napięcie na elementach R, L i C
Krótkie podsumowanie przedstawione jest na rysunku 4.15.
4.4.
Podstawowe prawa obwodów w postaci zespolonej Prawo Ohma Podstawowym prawem jest uogólnione prawo Ohma, zgodnie z którym symboliczna wartość skuteczna napięcia U na pewnym dwójniku jest równa iloczynowi impedancji zespolonej tego dwójnika Z i symbolicznej wartości skutecznej prądu w nim płynącego I U = Z ⋅I . (4.67) Trzeba w tym miejscu zadać pytanie, co oznacza pojęcie impedancji dwójnika? Najprościej mówiąc, jest to uogólnienie rezystancji na przypadek prądów sinusoidalnych. Zgodnie z wyżej przedstawionym prawem jest to stosunek napięcia na zaciskach dowolnego aktywnego dwójnika do prądu płynącego w tym dwójniku (rysunek 4.16). Impedancja podobnie jak rezystancja jest wyrażana w omach [Ω] i charakteryzuje przewodnictwo elektryczne dwójnika dla prądu sinusoidalnego.
Rys. 4.16. Ilustracja pojęcia kąta fazowego impedancji
104
4. Obwody prądu harmonicznego
Podstawiając do uogólnionego prawa Ohma symboliczne wartości skuteczne, otrzymamy: U Ue jψ u U j(ψ u − ψ i ) Z= = = e = Z e jϕ . (4.68) I I Ie jψ i Oprócz modułu impedancji Z każdy dwójnik pasywny charakteryzuje się również kątem fazowym. Jest to różnica pomiędzy kątami fazowymi napięcia i prądu występującymi w tym dwójniku. (4.69) ϕ = ψ u −ψ i . Wartości kąta fazowego w ogólności zawierają się w przedziale od –90° do 90°. Kąt ten jest dodatni w przypadku, gdy napięcie wyprzedza prąd. Z takim przypadkiem mamy do czynienia w cewce, gdzie napięcie wyprzedza prąd o 90°. Natomiast wartość ujemną przyjmuje w przypadku, gdy napięcie opóźnia się względem prądu (na kondensatorze napięcie opóźnia się względem prądu o 90°). Wynika więc z tego, że każdy dwójnik pasywny scharakteryzować można za pomocą dwóch parametrów: modułu impedancji oraz kąta fazowego. Moduł impedancji jest zawsze liczbą nieujemną. Wartości te nie zależą od wartości skutecznej prądu i napięcia dwójnika, ponieważ rozpatrujemy dwójnik liniowy, w którym stosunek ten jest stały. Zależą jednak od częstotliwości. Impedancję Z możemy przedstawić geometrycznie na płaszczyźnie zespolonej za pomocą trójkąta impedancji, który jest łącznikiem między znanymi już pojęciami rezystancji i reaktancji. Jest to trójkąt prostokątny o przeciwprostokątnej Z i kącie j – rysunek 4.17.
Rys. 4.17. Trójkąt impedancji
Zgodnie z zasadami geometrii przyprostokątne wyrażają się wzorami R = Z cos ϕ
X = Z sin ϕ ,
(4.70)
oraz dodatkowo zachodzą związki: Z = R2 + X 2
ϕ = arg ( Z ) .
(4.71)
Zatem zespoloną impedancję gałęzi można przedstawić za pomocą następującego wzoru: Z = Z e jϕ = R 2 + X 2 e
jarg [ Z ]
,
Z = R + j( X ).
rezystancja gałęzi
reaktancja gałęzi
(4.72) (4.73)
4.4. Podstawowe prawa obwodów w postaci zespolonej
Odwrotnością impedancji jest admitancja 1 Y= . Z
105
(4.74)
Admitancja jest uogólnieniem konduktancji dla prądu sinusoidalnego. Jednostką admitancji jest siemens [S]. Prądowe prawo Kirchhoffa Kolejnym prawem obowiązującym w obwodach prądu harmonicznego jest prądowe prawo Kirchhoffa, zgodnie z którym algebraiczna suma symbolicznych wartości chwilowych prądów ik(t) we wszystkich gałęziach dołączonych do jednego dowolnego węzła obwodu jest w każdej chwili równa zeru
∧∑ n
t
k =1
λ k i k (t ) = 0 ,
(4.75)
przy czym lk = ±1 („+” jeśli prąd elektryczny ma zwrot do węzła; „–” jeśli zwrot jest przeciwny, od węzła). Prawo Kirchhoffa jest słuszne również dla symbolicznych amplitud i symbolicznych wartości skutecznych n
∑ λ k I mk = 0 k =1
n
∑ λ k I k = 0.
(4.76)
k =1
Pamiętajmy, że nie wolno dodawać wartości skutecznych, lecz jedynie zespolone (symboliczne) wartości skuteczne, które uwzględniają fazy poszczególnych prądów. Prześledźmy prądowe prawo Kirchhoffa, obliczając wszystkie wartości chwilowe prądów w obwodzie z rysunku 4.18, jeśli amperomierze wskazują prądy I1 = 5,6 A, I2 = 4 A, a kąt fazowy pomiędzy prądami wynosi 120°.
Rys. 4.18. Ilustracja prądowego prawa Kirchhoffa
Amperomierze wskazują wartości skuteczne prądów. Mając dane przesunięcie fazowe pomiędzy tymi prądami, możemy zapisać prądy I1 oraz I2 w postaci zespolonej wartości skutecznej. Zakładamy, że prąd I2 ma fazę początkową 0, w wyniku tego prąd I1 ma fazę początkową równą kątowi fazowemu. I 1 = I1e j120°
I 2 = I 2 e j0° .
(4.77)
Korzystając z prądowego prawa Kirchhoffa, możemy zapisać równanie prądowe dla węzła w obwodzie. I 3 = I 1 + I 2 = I 1e j120° + I 2 e j0° = 5, 6e j120° + 4e j0° .
(4.78)
106
4. Obwody prądu harmonicznego
Żeby dodać dwie liczby zespolone, musimy przejść z postaci wykładniczej liczby zespolonej na jej postać algebraiczną I 3 = 5, 6 ( cos 120° + j sin 120° ) + 4 ( cos 0° + j sin 0° ) = 1 3 = 5, 6 − + j + 4 = 1, 2 + j 4, 8 2 2 i ostatecznie
2
2
I 3 = 1, 2 + 4, 8 e
4 ,8 1, 2
jarctg
= 4, 95 e j76° .
(4.79)
(4.80)
Z obliczeń wynika więc, że wartość wskazywana przez trzeci amperomierz będzie równa I3 = 4,95 A. Po obliczeniu zespolonych wartości skutecznych wszystkich prądów można zapisać wyrażenia opisujące ich wartości chwilowe: i1 ( t ) = 5, 6 2 sin (ωt + 120° ) ,
(4.81)
i2 ( t ) = 4 2 sin (ωt ) ,
(4.82)
i3 ( t ) = 4, 95 2 sin (ωt + 76° ) .
(4.83)
Napięciowe prawo Kirchhoffa Napięciowe prawo Kirchhoffa dla prądu harmonicznego stanowi, że algebraiczna suma symbolicznych wartości chwilowych napięć uk(t) na wszystkich elementach, tworzących dowolnie wybrane oczko w obwodzie, jest w każdej chwili równa zeru
∧
n
∑ vk u k (t ) = 0,
(4.84)
t k =1
przy czym vk = ±1 („+” jeśli zwrot napięcia jest zgodny z przyjętym za dodatni kierunkiem obiegu oczka; „–” jeśli jest przeciwny). Prawo Kirchhoffa słuszne jest również dla symbolicznych amplitud i symbolicznych wartości skutecznych odpowiednich napięć n
∑ vk U mk = 0
k =1
n
∑ vk U k = 0 .
(4.85)
k =1
W celu ilustracji napięciowego prawa Kirchhoffa obliczmy napięcie u0(t) w obwodzie z rysunku 4.19.
Rys. 4.19. Ilustracja napięciowego prawa Kirchhoffa
107
4.5. Wykresy wskazowe
Zgodnie z napięciowym prawem Kirchhoffa rzeczywiste napięcie chwilowe u0(t) jest sumą rzeczywistych napięć chwilowych na poszczególnych elementach u0 (t ) = u1 ( t ) + u2 ( t ) ,
(4.86)
u0 (t ) = 15 sin (ωt + 30° ) + 9 sin (ωt + 15° ) .
(4.87)
Powyższy zapis dobitnie uświadamia nam, że operowanie na zapisach w dziedzinie czasu jest bardzo niewygodne i pracochłonne. Korzystając z metody symbolicznej, w pierwszej kolejności zapisujemy harmoniczne przebiegi czasowe w postaci zespolonych amplitud u1 (t ) = 12 sin (ωt + 30° ) → U 1m = 12e j30° ,
(4.88)
u2 (t ) = 9 sin (ωt + 15° ) → U 2 m = 9e j15° ,
(4.89)
U 0 m = U 1m + U 2 m = 12e j30° + 9e j15° ,
(4.90)
U 0 m = 12 ( cos 30° + j sin 30° ) + 9 ( cos 15° + j sin 15° ) ,
(4.91)
U 0 m = 10, 39 + j 6 + 8, 69 + j 2, 33 = 19, 08 + j 8, 33 ,
(4.92)
U 0 m = 19, 082 + 8, 332 e
j arctg
8,33 19, 08
= 20, 82e j23,58° ,
u0 ( t ) = 20, 82 sin ⋅ (ωt + 23, 58° ) .
4.5.
(4.93) (4.94)
Wykresy wskazowe Pojęcie wykresu wskazowego pojawiło się już przy okazji omawiania idealnych elementów pasywnych występujących w obwodzie prądu harmonicznego. Przedstawimy teraz dalsze zastosowania wykresów wskazowych. Wykres wskazowy to graficzne przedstawienie zależności występujących pomiędzy prądem a napięciem na danym elemencie bądź w obwodzie. Zastosowanie liczb zespolonych do analizy obwodów prądu harmonicznego ułatwia obliczenia, ponieważ w wyniku otrzymujemy jednocześnie dwie informacje potrzebne do wyznaczenia szukanej wielkości: jedna dotyczy modułu, a druga argumentu. Metoda wykresów wskazowych jest pewnym (geometrycznym) uzupełnieniem metody liczb zespolonych i dzięki niej można w prosty i przejrzysty sposób pokazywać zależności w obwodach prądu harmonicznego. Polega ona na budowaniu wykresu wskazowego opierając się na zależnościach wiążących prąd i napięcie na poszczególnych elementach. Konstruując wykresy wskazowe, należy pamiętać o kilku zasadach, które warunkują poprawne wykorzystanie metody [15]: – kąt przesunięcia fazowego j = ψu – ψi oznaczamy na wykresie za pomocą strzałki, którą rysuje się od wskazu prądu do wskazu napięcia,
108
4. Obwody prądu harmonicznego
• jeżeli strzałka kąta j wskazuje dodatni kierunek trygonometryczny (tzn. kierunek przeciwny do ruchu wskazówek zegara), to j > 0, co oznacza, że napięcie wyprzedza prąd (rysunek 4.20a), • jeżeli strzałka kąta j wskazuje ujemny kierunek trygonometryczny, to j < 0, co oznacza, że prąd wyprzedza napięcie (rysunek 4.20b);
Rys. 4.20. Ilustracja znaku kąta fazowego
– konstruowanie wykresu zaczynamy zazwyczaj od gałęzi położonej najdalej od źródła, • w przypadku, gdy gałąź, od której rozpoczynamy konstruowanie wykresu, jest szeregowym połączeniem elementów, wykres rozpoczynamy, rysując prąd tej gałęzi, ze względu na fakt, że prąd ten będzie taki sam we wszystkich szeregowo połączonych elementach danej gałęzi, • w przypadku, gdy gałąź, od której rozpoczynamy konstruowanie wykresu, jest równoległym połączeniem elementów, wykres rozpoczynamy rysując napięcie na tej gałęzi, ze względu na fakt, że napięcie na elementach połączonych równolegle jest zawsze takie samo; – w następnej kolejności rysuje się na wykresie na przemian napięcia i prądy w kolejnych gałęziach, dochodząc w ostatnim kroku do źródła, – relacja wektora prądu źródłowego do napięcia informuje o charakterze układu: • jeśli napięcie i prąd są w fazie (tzn. nie występuje przesunięcie pomiędzy nimi), to obwód ma charakter rezystancyjny i występuje tzw. stan rezonansu, o którym Czytelnik dowie się więcej w podrozdziale 4.6, • jeśli napięcie wyprzedza prąd, to obwód ma charakter indukcyjny, • jeśli natomiast prąd wyprzedza napięcie, to obwód ma charakter pojemnościowy. W trakcie konstruowania wykresu wskazowego bardzo pomocne są następujące własności: a) pomnożenie wskazu przez operator j powoduje obrót wskazu o 90o w przód (przeciwnie do ruchu wskazówek zegara), ponieważ e j90° = cos 90° + j sin 90° = 0 + j1 = j , j ϕ + 90° ) Ue jϕ ⋅ j = Ue jϕ ⋅ ( 0 + 1 j) = Ue jϕ ⋅1 e j90° = Ue ( ,
(4.95)
109
4.5. Wykresy wskazowe
b) pomnożenie wskazu przez operator (–j) powoduje obrót wskazu o 90o wstecz (zgodnie z ruchem wskazówek zegara), ponieważ e − j 90° = cos (−90°) + j sin (−90°) = 0 + j (−1) = − j , Ue jϕ ⋅ ( − j) = Ue jϕ ⋅ ( 0 − 1 j) = Ue jϕ ⋅1e (
j − 90° )
j ϕ − 90° ) = Ue ( ,
(4.96)
c) pomnożenie wektora przez 1 nie zmienia pozycji wskazu w przestrzeni, ponieważ (4.97) ue jϕ ⋅1 = ue jϕ , d) pomnożenie wektora przez –1 powoduje obrót wskazu o 180o stopni, ponieważ j ϕ + 180° ) Ue jϕ ⋅ ( −1) = Ue jϕ ⋅ ( −1 + j 0 ) = Ue jϕ ⋅1e j180° = Ue ( .
(4.98)
Zauważmy, że –j · (–j) = j · j = j2 = –1, czyli faktyczne dwukrotne przesunięcie o 90° (w przód lub w tył) daje w efekcie odwrócenie fazy: 90° + 90° = 180°, –90° – 90° = –180°, a sin(180°) = sin(–180°) oraz cos(180°) = cos(–180°). Metodykę wykresów wskazowych zilustrujemy na przykładzie obwodu RLC przedstawionego na rysunku 4.21. W pierwszej kolejności należy przerysować obwód z zaznaczeniem zespolonych wartości skutecznych, w wyniku tego dostajemy obwód z rysunku 4.22. Zespolone napięcia skuteczne na poszczególnych elementach obwodu dane są zależnościami: (4.99) UR = R⋅I U L = jXL ⋅I U C = − j XC ⋅ I . Nie działamy tu na konkretnych liczbach, dlatego przyjmijmy jedynie, że po przeprowadzeniu obliczeń moduły napięć spełniają relację UC < UR < UL .
Rys. 4.21. Obwód do analizy metodą wykresów wskazowych
Rys. 4.22. Obwód z rysunku 4.21 z zaznaczonymi zespolonymi wartościami skutecznymi
(4.100)
110
4. Obwody prądu harmonicznego
Ponieważ elementy w gałęzi są połączone szeregowo, konstruowanie wykresu wektorowego zaczynamy od narysowania wektora prądu, który dla każdego elementu będzie wyglądał tak samo (rysunek 4.23a). Mając dany wskaz prądu, w kolejności zaznaczamy napięcia na poszczególnych elementach (rysunek 4.23b): – napięcie na rezystorze jest w fazie z prądem, więc wskaz napięcia rysujemy równolegle do wskazu prądu, – napięcie na cewce wyprzedza prąd o 90°, więc wskaz UL zaznaczamy jako obrócony o +90° względem prądu, przeciwnie do ruchu wskazówek zegara, – napięcie na kondensatorze jest opóźnione względem prądu o 90°, więc wskaz UC zaznaczamy jako obrócony o –90°, czyli obrócony zgodnie z ruchem wskazówek zegara względem położenia prądu. Suma wskazów UR, UL i UC daje nam wskaz napięcia zasilania. Dodawanie i odejmowanie wskazów przeprowadza się zgodnie z zasadami obowiązującymi w rachunku wektorowym. Należy więc dokonać sumowania napięcia UL i UC. Ponieważ wskaz napięcia UC jest przeciwnie skierowany do wskazu UL, należy odjąć te dwa wskazy. Kolejnym krokiem jest wykreślenie wypadkowego wektora, będącego wektorem napięcia źródłowego, który składa się z sumowania wektora UR oraz (UL – UC). W wyniku tego dostajemy wektor U. Ostatnim krokiem jest zaznaczenie kąta fazowego pomiędzy wskazami U i I. Opisane operacje zilustrowano na rysunku 4.23c. Z wykresu widać, że napięcie w rozpatrywanym obwodzie wyprzedza prąd. Oznacza to, że obwód ma charakter indukcyjny. Mając sporządzony wykres wskazowy ob-
Rys. 4.23. Wykres wskazowy obwodu z rysunku 4.21
111
4.5. Wykresy wskazowe
wodu, można wyznaczyć prądy i napięcia na poszczególnych elementach. Na podstawie wykresu obliczamy: – wartość skuteczną napięcia na obwodzie 2
U = U R 2 + (U L − U C ) =
( RI )2 + ( X L I − X C I )
2
2
= I R 2 + ( X L − X C ) , (4.101)
– moduł impedancji Z=
U 2 = R2 + ( X L − X C ) , I
(4.102)
– kąt fazowy tgϕ =
U L − UC X L I − X C I X L − X C . = = UR RI R
(4.103)
Mając dane wartości skuteczne i kąty fazowe, można obliczyć wartości chwilowe napięć i prądu w obwodzie: Skoro u ( t ) = 2 U sin (ωt + ψ u ) ,
(4.104)
to prąd płynący w obwodzie jest równy i (t ) = 2
U sin (ωt + ψ u − ϕ ) . Z
(4.105)
Kąt fazowy j występuje ze znakiem minus, ponieważ impedancja jest w mianowniku wyrażenia (dzielenie liczb zespolonych przechodzi w odejmowanie wykładników). Podsumowując, napięcia chwilowe na elementach obwodu dane są zależnościami: – wartość napięcia chwilowego na rezystorze u R ( t ) = i (t ) ⋅ R = 2
U R sin (ωt + ψ u − ϕ ) ⋅ R = 2U sin (ωt + ψ u − ϕ ) , Z Z
(4.106)
– wartość napięcia chwilowego na cewce (napięcie wyprzedza prąd o 90°, dlatego dodajemy 90° w argumencie funkcji) u L ( t ) = i (t ) ⋅ X L = 2
U sin (ωt + ψ u − ϕ + 90° ) ⋅ X L = Z
X = 2 U L sin (ωt + ψ u − ϕ + 90° ) , Z
(4.107)
– wartość napięcia chwilowego na kondensatorze (napięcie jest opóźnione względem prądu na kondensatorze o 90°, dlatego odejmujemy 90° w argumencie funkcji) U u C ( t ) = i (t ) ⋅ X C = 2 sin (ωt + ψ u − ϕ − 90° ) ⋅ X C = Z (4.108) XC = 2U sin (ωt + ψ u − ϕ − 90° ) . Z
112
4.6.
4. Obwody prądu harmonicznego
Zjawisko rezonansu Ze zjawiskiem rezonansu mamy do czynienia w różnych dziedzinach życia i techniki. W teorii obwodów rezonansem nazywamy stan, w którym odbiornik zawierający elementy reaktancyjne zachowuje się jak „czysta” rezystancja. W efekcie stan ten charakteryzuje się tym, iż prąd jest w fazie z napięciem. Rezonans może wystąpić w każdym obwodzie zawierającym elementy pasywne R, L i C. Rozróżniamy dwa rodzaje rezonansów. Obwód, w którym elementy RLC są połączone szeregowo, nazywamy szeregowym obwodem rezonansowym bądź mówimy, że mamy do czynienia z rezonansem napięć. Natomiast obwód, w którym elementy RLC są połączone równolegle, nazywamy równoległym obwodem rezonansowym (rezonans prądów). Szeregowy obwód rezonansowy W pierwszej kolejności przedstawimy szeregowy obwód rezonansowy, a więc obwód złożony z szeregowo połączonych elementów RLC, do którego przyłożone jest napięcie sinusoidalne o zespolonej wartości skutecznej U i pulsacji w.
Rys. 4.24. Szeregowy obwód rezonansowy
Bazując na napięciowym prawie Kirchhoffa, dla zespolonych wartości skutecznych możemy zapisać równanie oczka dla tego obwodu. Zgodnie z nim napięcie źródłowe U jest algebraiczną sumą napięć na poszczególnych elementach obwodu u = u R + u L + uC → U = U R + U L + U C .
(4.109)
Korzystając z metody symbolicznej, możemy napisać U = I ⋅ R + j I X L − j I XC ,
(4.110)
U = I ⋅ R + j ( X L − X C ) .
(4.111)
Aby obwód miał charakter rzeczywisty, czyli aby wystąpił rezonans, część urojona impedancji powinna być równa zeru (X = 0). Wobec tego reaktancja indukcyjna musi być równa co do wartości reaktancji pojemnościowej X L = XC . Z warunku tego można wyznaczyć pulsację rezonansową wr 1 , ωr L = ωr C
(4.112)
(4.113)
113
4.6. Zjawisko rezonansu
skąd otrzymujemy
ωr = i ponieważ w = 2πfr fr =
1
(4.114)
LC 1
2π LC
.
(4.115)
Jak wynika ze wzoru, na częstotliwość rezonansową szeregowego obwodu rezonansowego wpływ mają jedynie elementy reaktancyjne. Ze względu na duże znaczenie praktyczne obwodów rezonansowych podsumujmy wiedzę związaną ze zjawiskiem rezonansu szeregowego. – Reaktancja pojemnościowa XC i reaktancja indukcyjna XL są sobie równe, (X = Im(Z) = 0). – Równość tych reaktancji oznacza, że napięcia na cewce UL i kondensatorze UC mają jednakowe wartości skuteczne, lecz są przeciwnie skierowane, dlatego ich suma jest zerowa (wzajemnie się kompensują). – Moduł impedancji jest równy wartości rezystancji obwodu Z = R, jest to wartość minimalna impedancji Zmin = R. – Ponieważ impedancja układu osiąga w stanie rezonansu wartość minimalną, prąd osiąga wartość maksymalną równą Imax = U/R. – Kąt fazowy j pomiędzy napięciem na obwodzie rezonansowym i prądem źródłowym płynącym przez obwód wynosi 0 (prąd jest w fazie z napięciem). – Napięcie zasilania odkłada się w całości na rezystorze, U = UR. – Dla f < fr napięcie na kondensatorze jest większe niż napięcie na cewce, ponieważ jego reaktancja jest odwrotnie proporcjonalna do wartości częstotliwości i dla mniejszych częstotliwości XC > XL (obwód ma charakter pojemnościowy). – Dla f > fr napięcie na cewce jest większe niż napięcie na kondensatorze, z analogicznych przyczyn (obwód ma charakter indukcyjny). – Wartość rezystancji nie wpływa na wartość częstotliwości rezonansowej, ma jednak wpływ na kształt charakterystyk częstotliwościowych. Wykres wskazowy szeregowego obwodu RLC w stanie rezonansu zamieszczono na rysunku 4.25.
Rys. 4.25. Wykres wskazowy szeregowego obwodu RLC w stanie rezonansu
114
4. Obwody prądu harmonicznego
W celu oceny i porównania różnych szeregowych obwodów rezonansowych, oprócz częstotliwości rezonansowej, definiuje się jeszcze dodatkowe parametry uwzględniające wartość rezystancji i pozwalające na ilościowy opis charakterystyki częstotliwościowej obwodu. Są to: dobroć obwodu rezonansowego, pasmo przenoszenia obwodu i selektywność obwodu. Dobrocią szeregowego układu rezonansowego RLC nazywamy stosunek napięcia na elemencie reaktancyjnym do napięcia na rezystorze w stanie rezonansu. W ujęciu fizycznym dobroć, to stosunek energii magazynowanej do energii traconej. Q=
UL UR Q=
= ω =ωr
UC UR
,
(4.116)
ω =ωr
ωr L 1 . = R ωr RC
(4.117)
Korzystając z zależności (4.114), otrzymujemy Q=
L LC ⋅ R
=
1 L . R C
(4.118)
Dobroć jest wielkością niemianowaną i przyjmuje wartości nieujemne. Zgodnie ze wzorem zależy od wartości indukcyjności, pojemności i rezystancji obwodu, nie zależy natomiast od napięcia zasilania obwodu. W układach rezonansowych dąży się do tego, aby dobroć była jak największa, najczęściej minimalizując wartość rezystancji szeregowej obwodu. Mając daną dobroć obwodu, można obliczyć wartości skuteczne napięć na cewce i kondensatorze: UC = U L = X L I = X L
U ωr L U = QU . = R R
(4.119)
Zauważmy, że jeśli Q > 1, to napięcie na cewce i na kondensatorze w stanie rezonansu może osiągać wartości większe od napięcia zasilania układu. Zjawisko takie określamy mianem przepięcia rezonansowego układu. Jak już wcześniej ustalono, impedancja gałęzi ma najmniejszą wartość (równą rezystancji) dla pulsacji rezonansowej. Jednak zarówno przy w < wr , jak i przy w > wr wartość tej impedancji zwiększa się. W związku z tym gałąź RLC wykazuje właściwość łatwego przepuszczania prądu o określonej pulsacji, a większy opór stawia przepływowi prądu o innych pulsacjach. Właściwość tę nazywa się selektywnością układu, czyli zdolnością do przepuszczania wybranych częstotliwości. Z pojęciem selektywności obwodu jest ściśle związane pojęcie pasma przenoszenia obwodu. Jest to taki przedział pulsacji, względnie częstotliwości, dla których wartość skuteczna prądu w obwodzie jest nie mniejsza niż Imax / 2 . Pasmo przenoszenia zależy bezpośrednio zarówno od częstotliwości rezonansowej układu, jak i od jego dobroci i może być obliczone ze wzoru f (4.120) B= r. Q
115
4.6. Zjawisko rezonansu
Rys. 4.26. Charakterystyka częstotliwościowa obwodów o dobrociach Q1 (kolor czarny) i Q2 (kolor szary)
W stanie rezonansu, przy ustalonych wartościach L i C, pasmo przepustowe obwodu jest tym węższe, im większa jest dobroć obwodu. Przedstawione właściwości szeregowego obwodu rezonansowego najlepiej ilustruje amplitudowa charakterystyka częstotliwościowa prądu, czyli przebieg amplitudy prądu w funkcji częstotliwości. Na rysunku 4.26 przedstawiono przebieg charakterystyki prądu dwóch różnych obwodów rezonansowych o tej samej częstotliwości rezonansowej. Obwody różnią się dobrocią – charakterystyka narysowana kolorem czarnym dotyczy obwodu o większej dobroci. „Dobry” jest obwód o wąskiej i stromej charakterystyce częstotliwościowej, stąd pochodzi nietypowa w świecie techniki nazwa parametru dobroć. Obwód o większej dobroci jest bardziej selektywny i w efekcie skuteczniejszy jako filtr. Równoległy obwód rezonansowy Drugim rodzajem rezonansu jest rezonans równoległy zwany również rezonansem prądów. Rozpatrzmy zatem równoległy układ RLC pokazany na rysunku 4.27. Przy takim połączeniu każda z gałęzi poddana jest działaniu takiego samego napięcia u(t). Bazując na prądowym prawie Kirchhoffa dla zespolonych wartości prądów, otrzymujemy i = iR + iL + iC → I = I R + I L + I C .
Rys. 4.27. Równoległy obwód rezonansowy
(4.121)
116
4. Obwody prądu harmonicznego
Korzystając z metody symbolicznej, możemy wyznaczyć całkowity prąd dopływający do obwodu I = G ⋅ U − jU BL + jU BC ,
(4.122)
U + jUωC , ωL
(4.123)
I = G ⋅U − j
1 I = U G + j ω C − = UY . ω L
(4.124)
Podobnie jak w przypadku rezonansu szeregowego, tak i tutaj warunkiem wystąpienia rezonansu równoległego jest rzeczywisty charakter obwodu. Zgodnie z zależnością na wypadkowy prąd obwodu będzie to miało miejsce wtedy, gdy część urojona admitancji osiągnie wartość 0. Wobec tego dla pulsacji rezonansowej susceptancja pojemnościowa musi być równa co do wartości susceptancji indukcyjnej, co zapisujemy BC = BL ,
ωr C =
1 → ωr = ωr L
1 LC
(4.125) → fr =
1 2π LC
.
(4.126)
Jeżeli zatem częstotliwość źródła napięcia jest równa częstotliwości rezonansowej równoległego obwodu RLC, dla rezonansu prądów zachodzą następujące zależności: – susceptancja pojemnościowa BC i indukcyjna BL są sobie równe: BC = BL (B = Im(Y) = 0); – równość tych susceptancji oznacza, że prądy płynące przez cewkę i przez kondensator mają jednakową wartość skuteczną, lecz są przeciwnie skierowane, dlatego ich suma jest zerowa (wzajemnie się kompensują); – moduł admitancji jest równy konduktancji obwodu Y = G i osiąga wartość minimalną, Y = Ymin; – w konsekwencji prąd osiąga wartość minimalną w obwodzie w momencie rezonansu, I = Imin = UG; – kąt fazowy j pomiędzy napięciem przyłożonym do obwodu i prądem dopływającym do obwodu wynosi 0, co oznacza, że prąd jest w fazie z napięciem; – prąd I płynie w całości przez rezystor, I = IR; – dla f < fr prąd płynący przez kondensator jest mniejszy niż prąd płynący w cewce (obwód ma charakter indukcyjny); – dla f > fr prąd płynący przez kondensator jest większy niż prąd płynący w cewce (obwód ma charakter pojemnościowy); – wartość rezystancji nie wpływa na częstotliwość rezonansową, ma jednak wpływ na kształt charakterystyk częstotliwościowych.
117
4.6. Zjawisko rezonansu
Rys. 4.28. Wykres wskazowy równoległego obwodu RLC w stanie rezonansu
Wykres wskazowy równoległego obwodu RLC w stanie rezonansu jest widoczny na rysunku 4.28. W odróżnieniu od obwodu szeregowego, w obwodzie równoległym dobrocią nazywamy stosunek modułu prądu w elemencie reaktancyjnym (w stanie rezonansu IL = IC) do prądu w gałęzi z rezystorem Q=
IL IR
Q=
= ω =ωr
IC IR
,
(4.127)
ω =ωr
ωC 1 = r . ωr LG G
(4.128)
Uwzględniając zależność na pulsację rezonansową, otrzymamy: Q=
C LCG
=R
C . L
(4.129)
W przypadku obwodu równoległego dobroć jest wprost proporcjonalna do rezystancji obwodu. A więc wzrost rezystancji w tym przypadku powoduje proporcjonalny wzrost dobroci. Jest to zależność odwrotna niż w przypadku szeregowego obwodu rezonansowego RLC. „Dobry” obwód rezonansu szeregowego ma rezystancję szeregową bliską zeru, a „dobry” obwód rezonansu równoległego ma rezystancję bliską nieskończoności. Czyli w przypadkach idealnych zarówno z obwodu szeregowego, jak i równoległego znikają rezystory. Analogicznie jak w przypadku obwodu szeregowego, mając daną dobroć obwodu równoległego, można obliczyć prądy w stanie rezonansu w gałęziach reaktancyjnych IC = I L =
U IR I = = = QI . X L ωr L ωr LR
(4.130)
Dobroć więc w tym przypadku jest miarą przetężenia występującego w obwodzie. Jeśli Q > 1, to prądy w cewce oraz kondensatorze w stanie rezonansu osiągają wartość większą od prądu dopływającego do układu.
118
4.7.
4. Obwody prądu harmonicznego
Analiza obwodów RLC metodą symboliczną Obwody prądu harmonicznego można rozwiązywać na dwa sposoby: metodą klasyczną lub symboliczną. W metodzie klasycznej podstawowe trudności polegają na występowaniu w opisie obwodu równań różniczkowych, z uwagi na obecność w obwodzie cewki i kondensatora. Metoda symboliczna jest algebraicznym zapisem tego, co można zrobić za pomocą wskazów. Jest to niewątpliwie bardzo wygodna i ogólna metoda analizy obwodów prądu harmonicznego. W ogólności prowadzi ona do sprowadzenia wszystkich operacji różniczkowania i całkowania do działań algebraicznych na liczbach zespolonych. Podstawą metody symbolicznej jest zastąpienie czasowych przebiegów harmonicznych ich reprezentacją zespoloną. Całkowanie i różniczkowanie funkcji harmonicznej daje w wyniku również funkcję harmoniczną przesuniętą o plus bądź minus 90°. Różniczkowanie i całkowanie w dziedzinie czasu zostaje zatem sprowadzone do obracania wskazów w dziedzinie liczb zespolonych. Dzięki temu przekształceniu równania opisujące obwody stają się równaniami algebraicznymi. Istnieje kilka założeń, bez których stosowanie tej metody nie jest możliwe. Zakłada się bowiem, że stan obwodu jest ustalony. Co to oznacza? Identyfikuje się to ze stanem, w którym charakter odpowiedzi jest identyczny z charakterem wymuszenia. Zatem odpowiedzią na wymuszenie sinusoidalne jest również sygnał sinusoidalny o takiej samej pulsacji. Amplituda i faza mogą się natomiast różnić. Jednakowa częstotliwość oznacza, że wskazy wirują z taką samą prędkością kątową, zatem pozostają one względem siebie w ustalonym położeniu. Dodatkowo zakłada się również, że wszystkie elementy są liniowe. Prawa, z jakich korzystamy przy analizie obwodów tą metodą, odnoszą się do praw w postaci zespolonej, które opisano w poprzednich rozdziałach. Opisu obwodu dokonuje się, umieszczając wartości amplitud, bądź wartości skuteczne danych elementów, pamiętając jednak, że mają one właściwe sobie przesunięcia fazowe. Dla ujednolicenia posłużymy się zespolonymi wartościami skutecznymi. I tak na schematach: – źródła zaznaczamy, zazwyczaj przyporządkowując im zespoloną wartość skuteczną
– rezystor zaznacza się tak samo jak przy prądzie stałym, z uwzględnieniem zespolonych wartości skutecznych prądu i napięcia
4.7. Analiza obwodów RLC metodą symboliczną
119
– cewkę zaznacza się zamiennie za pomocą indukcyjności L bądź reaktancji indukcyjnej XL, z uwzględnieniem zespolonych wartości skutecznych prądu i napięcia
– kondensator oznaczamy zamiennie za pomocą pojemności C bądź reaktancji pojemnościowej XC, z uwzględnieniem zespolonych wartości skutecznych prądu i napięcia
Ponieważ nic nie zastąpi dobrego przykładu, obliczmy prąd płynący w obwodzie z rysunku 4.29. W pierwszej kolejności należy przerysować obwód z uwzględnieniem wartości skutecznych oraz obliczyć potrzebne wielkości – rysunek 4.30. Następnie układamy równanie dla oczka, opierając się na napięciowym prawie Kirchhoffa dla zespolonych wartości skutecznych, wyznaczając z niego zespoloną skuteczną wartość prądu płynącego w obwodzie. Oczywiście te same obliczenia możemy wykonać dla zespolonych wartości amplitud. E −U R −U L −U C = 0 ,
(4.131)
E = RI + j X L I + ( − j X C I ) ,
(4.132)
E = I ( R + j( X L − X C ) ) ,
(4.133)
I=
E , R j( X + ( L − X C ))
20 j15° 20 j15° e e 2 I= = 2 . (10 + j (10 − 20 ) ) 10 − j10
Rys. 4.29. Przykład obwodu do analizy metodą symboliczną
(4.134)
(4.135)
120
4. Obwody prądu harmonicznego
Rys. 4.30. Schemat z rysunku 4.29 w konwencji metody symbolicznej
Dokonujemy zamiany liczby zespolonej w mianowniku z postaci algebraicznej na postać wykładniczą, ze względu na fakt, że dzielenie i mnożenie najlepiej jest wykonywać, gdy liczby zespolone przedstawione są w postaci wykładniczej 20 j15° e 2
I= 2
2
10 + 10 e
j arctg
−10 10
20 j15° e 2 = = 1 ⋅ e j60° A . 10 2e − j45°
(4.136)
Po obliczeniu zespolonej skutecznej wartości prądu można zapisać chwilową wartość prądu przepływającego przez szeregowy obwód RLC i (t ) = 1 ⋅ 2 sin (ωt + 60° ) A.
(4.137)
Napięcia chwilowe na poszczególnych elementach możemy wyrazić zależnościami: U R = RI = 10 ⋅1e j60° = 10e j60° → u R (t ) = = 10 ⋅ 2 sin (ωt + 60° ) A U L = I ⋅ j X L = e j60° ⋅ j10 = e j60° ⋅10 ⋅ e j90° = = 10e j150° → u L (t ) = 14,14 sin ( 314 000 t + 150° ) U C = I ⋅ ( − j X C ) = e j60° ⋅ ( − j 20 ) = e j60° ⋅ 20 ⋅ e j−90 = = 20e j−30° → u L (t ) = 28, 28 sin ( 314 000 t − 30° ) Szerszy opis metod analizy złożonych obwodów RLC przy wymuszeniu sinusoidalnym znajdzie Czytelnik w [15].
Część 2.
Elementy półprzewodnikowe
5.
Podstawy fizyki półprzewodników
Materiały, pod względem ich własności elektrycznych, do tej pory dzieliliśmy na przewodniki (np. aluminium, miedź, srebro, złoto), charakteryzujące się dobrą przewodnością prądu elektrycznego, oraz na dielektryki czy inaczej izolatory (tj. drewno, tworzywa sztuczne, szkło, ceramika, czy spora liczba tlenków), które praktycznie nie przewodzą prądu elektrycznego. W elektronice bardzo ważną grupą materiałów okazała się jeszcze jedna grupa, która pod względem przewodnictwa elektrycznego mieści się pomiędzy przewodnikami a izolatorami i z tego też względu zwana jest półprzewodnikami. Najbardziej znanymi w tej grupie materiałów są: german (symbol chemiczny Ge), krzem (Si), arsenek galu (GaAs), fosforek indu (InP), węglik krzemu (SiC), czy azotek galu (GaN). Materiały te wykorzystywane są powszechnie do produkcji tak znanych i podstawowych elementów półprzewodnikowych, jak diody, tranzystory czy ogniwa słoneczne, ale też o wiele bardziej złożonych, jak mikroprocesory. Zrozumienie działania tych elementów wymaga poznania budowy oraz własności elektrofizycznych materiałów półprzewodnikowych [13, 18]. W tym celu przypomnimy budowę najmniejszej cegiełki materii, jaką jest atom. Wystarczy do tego wiedza niewykraczająca poza ramy szkoły średniej, gdzie omówiono już budowę atomu według kwantowego modelu Nielsa Bohra, uogólnioną tu na atomy inne niż wodór. Co prawda model ten ostatecznie fizycy odrzucili, m.in. z uwagi na niezgodność z obserwacjami eksperymentalnymi, których elektrodynamika klasyczna, z której model ten się wywodzi, nie potrafiła wyjaśnić, jednak w naszym przypadku model ten jest zupełnie wystarczający do wyjaśnienia budowy półprzewodników i niektórych zjawisk zachodzących w elementach półprzewodnikowych.
5.1.
Atom według modelu Nielsa Bohra Model Bohra, w dużym uproszczeniu, przedstawia atom na podobieństwo miniukładu planetarnego, w środku którego znajduje się jądro atomowe (złożone z protonów mających elektryczny ładunek dodatni i neutronów obojętnych elektrycznie), z krążącymi dookoła niego, po orbitach o różnej średnicy, elektronami posiadającymi ładunek ujemny (rysunek 5.1). Od liczby protonów, neutronów i elektronów zależy rodzaj atomu i jego właściwości. Jak wiadomo, liczba protonów w jądrze definiuje rodzaj pierwiastka, w tym jego właściwości (np. wodór ma jeden proton, węgiel – 6, miedź – 29, krzem – 14), z kolei od liczby neutronów, w przypadku tego samego pierwiastka, zależy rodzaj jego izotopu (np. wodór w podstawowej postaci, inaczej zwany też protem, nie ma neutronów, jego izotop o nazwie deuter ma jeden neutron, a tryt dwa), liczba elektronów natomiast decyduje o stopniu zjonizowania atomu, a przy tym również o jego właściwościach.
5.1. Atom według modelu Nielsa Bohra
123
Rys. 5.1. Struktura atomu według modelu Bohra
Normalnie atomy są obojętne elektrycznie. Ale jak to się dzieje, skoro atom składa się z cząstek mających ładunek elektryczny? Otóż, ładunek protonu jest co do wartości bezwzględnej równy ładunkowi elektronu, a liczba elektronów w atomie jest równa liczbie protonów. Tak więc ilość ładunku dodatniego w jądrze jest równa ilości ładunku ujemnego znajdującego się na orbitach. Ładunki te znoszą się wzajemnie (kompensują się), nadając atomowi w sumie ładunek równy zero. Mimo, że różne obszary atomu mają różne znaki ładunku, atom jako całość jest obojętny elektrycznie. W pewnych przypadkach, w wyniku tzw. jonizacji, atom może stracić jeden, kilka lub nawet wszystkie elektrony albo też zyskać dodatkowe. Wówczas atom taki staje się atomem zjonizowanym i określa się go mianem jonu. Jon jest dodatni (kation), jeśli atom utracił elektrony, albo ujemny (anion), jeśli je zyskał. Z czego to wynika? Po zjonizowaniu zachwiana zostaje równowaga ładunków dodatniego i ujemnego, przeważa wówczas jeden z nich, stąd atom może być zjonizowany dodatnio bądź ujemnie. Jest to ważne zjawisko występujące w półprzewodnikach, gdyż na nim opiera się ich budowa, a jego konsekwencją są niektóre istotne zjawiska występujące w elementach półprzewodnikowych. Z teorii elektrodynamiki wynika, że elektron krążący po określonej orbicie w atomie ma pewną określoną energię. Im dalej od jądra krąży elektron, tym większą ma energię. Jednak, według kwantowego modelu Bohra, energie te nie mogą być dowolne, lecz są skwantowane, tzn. mogą przyjmować tylko określone (dyskretne) wartości z całego, ciągłego zakresu energii. Z tego wynika, że również położenia orbit, czyli odległości, w jakich elektrony krążą dookoła jądra, są również skwantowane. Elektrony mogą zajmować tylko pewne wybrane położenia w atomie, tzn. mogą krążyć w atomie tylko w pewnych określonych odległościach od jądra. Pozostałe położenia (odległości) są dla elektronów zabronione. W pewnych przypadkach elektrony mogą zmieniać orbity, po których krążą (przeskakiwać z jednych na drugie). Zmiany orbit wymagają zmiany energii elektronu.
124
5. Podstawy fizyki półprzewodników
A ponieważ energia ta nie może po prostu znikać ani pojawiać się znikąd, to różnica energii elektronu wynikająca ze zmiany orbity musi zostać elektronowi dostarczona lub zostać przez niego wypromieniowana. Aby przemieścić elektron na wyższą orbitę (dalszą od jądra), należy zwiększyć energię elektronu poprzez jej dostarczenie z zewnątrz. Atom, w którym doszło do takiego przemieszczenia się elektronu, nazywa się wówczas atomem wzbudzonym. Energia ta może mieć różną formę, np. energii termicznej (zwiększenie temperatury), kinetycznej (zderzenie elektronu z inną cząstką), elektrycznej czy promieniowania elektromagnetycznego, przy czym wartość tej energii musi być co najmniej równa różnicy energii na obu orbitach. Natomiast w celu zmiany orbity elektronu na niższą, elektron musi zmniejszyć swoją energię, co odbywa się poprzez jej wypromieniowanie, najczęściej w postaci fotonu (kwantu promieniowania elektromagnetycznego) lub fononu (kwantu ciepła zwiększającego drgania atomu), a ich energia jest równa różnicy, o jaką zmieniła się energia elektronu po przejściu na nową orbitę. Wypromieniowywanie energii przez elektron następuje samoczynnie po uprzednim wzbudzeniu atomu, a wynika to z zasady dążenia do zajęcia przez elektrony jak najniższych poziomów energetycznych. Ważną rolę w atomie odgrywa ostatnia orbita elektronowa, zwana orbitą walencyjną. Elektrony z tej orbity (elektrony walencyjne) najczęściej uczestniczą w wiązaniach atomów między sobą. W zasadzie istnieje kilka rodzajów wiązań atomowych. W dużym uproszczeniu można stwierdzić, że jeśli elektrony wiązanych ze sobą atomów są współdzielone między te atomy, krążąc wokół nich po odpowiednio zmienionych orbitach, to mamy do czynienia z wiązaniami walencyjnymi lub kowalencyjnymi. W zasadzie jedynie te wiązania będą nas dalej interesowały, jako że praktycznie tylko takie występują między atomami w materiałach półprzewodnikowych.
5.2.
Struktura krystaliczna Do tej pory mówiliśmy o pojedynczym atomie, natomiast materiał półprzewodnikowy jest ciałem stałym, czyli strukturą utworzoną z wielkiej liczby atomów. W ogólności ciało stałe może mieć różną strukturę, od amorficznej, gdzie atomy są ze sobą powiązane w sposób nieuporządkowany (np. szkło), poprzez polikrystaliczną, jako połączenia wielu, zorientowanych w różnych kierunkach, obszarów (ziaren) o lokalnie uporządkowanej strukturze (np. metale), aż po krystaliczną, gdzie obserwuje się ściśle uporządkowaną strukturę tworzącą sieć o regularnie powtarzających się komórkach (w każdym z trzech kierunków przestrzeni). Sieć taka zwana jest siecią krystaliczną i jeśli jej uporządkowanie zachowane jest w całej bryle materiału, to materiał taki nazywa się monokryształem (rysunek 5.2). Przykładowo, atomy krzemu, najpopularniejszego półprzewodnika, tworzą strukturę krystaliczną typu diament, gdzie podstawowa komórka sieci złożona jest z pięciu atomów wpisanych w bryłę czworościanu (rysunek 5.3). Jak już zostało wspomniane, wiązania występujące między atomami sieci krystalicznej półprzewodnika są wiązaniami kowalencyjnymi. Jako że krzem jest pierwiastkiem IV grupy układu okresowego, ma na swojej orbicie walencyjnej cztery
5.2. Struktura krystaliczna
125
Rys. 5.2. Model sieci krystalicznej
Rys. 5.3. Konfiguracja atomów w podstawowej komórce sieci krystalicznej typu diament
elektrony i tworząc sieć krystaliczną, wiąże się wiązaniami kowalencyjnymi z czterema sąsiednimi atomami krzemu, „użyczając” każdemu z nich po jednym swoim elektronie walencyjnym, ale równocześnie od każdego z nich „pożyczając” też po jednym elektronie, co w sumie daje dodatkowe cztery elektrony wiążące ten atom z pozostałymi. W rezultacie każdy atom krzemu związany jest ze swoimi sąsiadami za pomocą ośmiu elektronów. Na rysunku 5.4 przedstawiono na płaszczyźnie w sposób schematyczny wiązanie kowalencyjne między atomami krzemu. W pewnych sytuacjach, a ściślej, po dostarczeniu do struktury krystalicznej półprzewodnika odpowiednio wysokiej energii (np. dla krzemu co najmniej 1,1 elektronowolta [eV]1) dojść może do wspomnianej już wcześniej jonizacji, objawiającej się w tym przypadku wyrwaniem jednego lub większej liczby elektronów walencyjnych z tworzonych przez nie wiązań kowalencyjnych, co prowadzi do zerwania wiązania. W wyniku tego elektron, nie będąc już dłużej związanym z żadnym z atomów, oddala się od nich, przechodząc do międzyatomowej przestrzeni swobodnej i staje się swobodnym nośnikiem ładunku ujemnego. W rezultacie jego oddalenia się, obojętność elektryczna obszaru, w którym tworzył on wcześniej wiązanie ko-
1
[eV] elektronovolt – energia jaką uzyskuje elektron, który jest przyspieszany napięciem równym 1 woltowi, co stanowi ok. 1,6 · 10–19 J
126
5. Podstawy fizyki półprzewodników
Rys. 5.4. Model wiązań kowalencyjnych między atomami krzemu i ich symboliczna reprezentacja
walencyjne, zostaje zachwiana i obszar ten (luka po elektronie) staje się dodatnio zjonizowany. Jak pamiętamy, ładunek zjonizowanego dodatnio atomu pochodzi od przewagi protonów znajdujących się w jądrze atomu nad elektronami na orbitach. W tym przypadku trudno jednak jednoznacznie określić, od którego atomu pochodzi ten ładunek, ponieważ utracony elektron wiązał ze sobą dwa atomy i krążył wokół obu po wspólnej orbicie. Ładunek ten należy raczej kojarzyć z samym zerwanym wiązaniem, a nie z konkretnym atomem z pary. W tym momencie dochodzimy do ważnego etapu naszych rozważań. To zjonizowane dodatnio miejsce w sieci krystalicznej półprzewodnika nazywane jest dziurą elektronową lub krótko – dziurą – i traktowane jest, jak się wkrótce okaże, jako dodatkowy, obok elektronu, nośnik swobodny ładunku, ale tym razem ładunku dodatniego (rysunek 5.5). Tak więc,
Rys. 5.5. Ilustracja powstawania pary elektron-dziura w wyniku zerwania wiązania kowalencyjnego
5.2. Struktura krystaliczna
127
w materiale półprzewodnikowym będą jednocześnie występowały dwa rodzaje nośników swobodnych ładunku: ujemne elektrony oraz dodatnie dziury. W fizyce często przedstawia się strukturę materiału w ujęciu energetycznym, a ściślej, w postaci poziomów energetycznych. Przedstawienie takie nazywane jest energetycznym modelem pasmowym materiału. W przypadku pojedynczego atomu model taki również istnieje i pokazuje dyskretne poziomy energii W związane z każdą z orbit atomu w funkcji odległości od jądra r. Poziomy te to dozwolone poziomy energetyczne w atomie – „dozwolone” w sensie zajęcia czy obsadzenia przez elektron, bo, jak pamiętamy, nie wszystkie orbity, czy energie są przez elektron możliwe do przyjęcia. Orbity, inaczej powłoki, w atomie mają swoje oznaczenia literowe, w kolejności rosnących odległości od jądra: K, L, M, N, O, P, Q. Na rysunku 5.6 pokazano model energetyczny atomu na przykładzie krzemu. Oprócz poziomów energetycznych charakterystycznych dla każdej z powłok w atomie krzemu, widać jeszcze dwa: poziom wzbudzenia (następny po poziomie walencyjnym) odpowiadający elektronom we wzbudzonym atomie ciągle z nim związanym oraz, najwyższy, poziom jonizacji, odpowiadający elektronom swobodnym, niezwiązanym z atomem. Poziom ten osiąga elektron, który pod wpływem dostarczonej energii może oderwać się od atomu, jonizując go przy tym dodatnio i stając się elektronem swobodnym. Teoretycznie, poziom ten jest wartością energii elektronu, który oddalił się na nieskończoną odległość od atomu, w praktyce natomiast jest to skończona odległość, na której zanika już elektrostatyczne oddziaływanie atomu z elektronem. Trochę inaczej natomiast wygląda model energetyczny kryształu. Istnieje pewne podstawowe prawo fizyki atomowej, zwane zakazem Pauliego, według którego w atomie nie mogą istnieć dwa identyczne elektrony w sensie ich kwantowe-
Rys. 5.6. Model energetyczny atomu krzemu
128
5. Podstawy fizyki półprzewodników
Rys. 5.7. Energetyczny model pasmowy ciała stałego na przykładzie półprzewodnika krzemowego
go stanu energetycznego. Można więc zadać pytanie – jak to jest możliwe, że na jednej powłoce może znajdować się kilka elektronów, mających tę samą energię. Otóż stan energetyczny elektronu jest określony nie tylko przez jego energię, ale również przez dodatkowe trzy parametry (w sumie cztery liczby kwantowe), które różnicują elektrony z tej samej orbity. W krysztale natomiast mamy do czynienia z układem ogromnej liczby atomów, a tym samym i ogromnej liczby elektronów. Te cztery liczby kwantowe opisujące stan elektronu już nie wystarczają do zróżnicowania wszystkich elektronów. Obowiązująca nadal zasada Pauliego sprawia, że w takim przypadku dyskretne poziomy energetyczne atomów ulegają rozszczepieniu na ogromną liczbę pojedynczych poziomów o różnych energiach. A ponieważ jest ich tak wiele, różnice między sąsiednimi poziomami energii są na tyle małe, że można tu praktycznie mówić o ciągłych zakresach energii, tworzących pasma energetyczne. Tak więc, z dyskretnych poziomów energetycznych w atomie przechodzimy do ciągłych pasm energetycznych w ciele stałym. Model pasmowy materiału półprzewodnikowego na przykładzie kryształu krzemu przedstawiono na rysunku 5.7. Należy zauważyć, że w odróżnieniu od modelu pojedynczego atomu, zamiast poziomu wzbudzonego, występuje tu pasmo przewodnictwa. A ponieważ za właściwości elektryczne półprzewodnika odpowiadają zjawiska zachodzące jedynie w paśmie walencyjnym i paśmie przewodnictwa, model pasmowy najczęściej przedstawia się w prostszej postaci, ukazującej jedynie jego wycinek, obejmujący właśnie pasmo walencyjne i pasmo przewodnictwa (rysunek 5.8). Na wykresie tym widnieją typowe oznaczenia: szczytu pasma walencyjnego Wv, dna pasma przewodnictwa Wc, szerokości pasma zabronionego (przerwy energetycznej) Wg oraz poziomu Fermiego WF. Poziom Fermiego czy energia Fermiego ma sens średniej energii elektronów w krysztale liczonej na jeden elektron. Określa się ją również jako poziom energetyczny, którego zajęcie przez elektron (w znaczeniu statystycznym) jest równe 50%. Ponieważ w czystym półprzewodniku (półprzewodniku samoistnym) liczba elektronów równa jest liczbie dziur, to średnia energia elektronów liczona z uwzględnieniem energii dziur jest równa energii odpowiadającej środkowi pasma zabronionego. W takim przypadku poziom Fermiego jest oznaczany przez Wi. Warto poznać interpretację tych wykresów. Pasmo walencyjne jest dozwolonym zakresem energii, którą mogą mieć elektrony tworzące wiązania kowalencyjne. Innymi
5.3. Półprzewodnik samoistny
129
Rys. 5.8. Uproszczona wersja energetycznego modelu pasmowego ciała stałego ograniczona do najistotniejszego zakresu energii
słowy, jeśli elektron w półprzewodniku ma energię z tego zakresu, to tworzy on wiązanie kowalencyjne i nie jest nośnikiem swobodnym. Z kolei, jeśli elektron ma energię z zakresu pasma przewodnictwa, to nie uczestniczy w tworzeniu wiązania atomowego, lecz jest swobodnym nośnikiem ładunku. Natomiast energii z zakresu pasma zabronionego elektrony mieć nie mogą (co jest przejawem skwantowania energii elektronu pojedynczego atomu), ponieważ oznaczałoby to, że elektron jest w jakimś nieznanym stanie pośrednim, w którym ani nie tworzy wiązania, ani nie jest nośnikiem swobodnym. Zakres tych energii jest więc dla elektronów zabroniony, stąd też nazwa tego pasma. Aby elektron mógł zmienić poziom energetyczny z pasma przewodnictwa na pasmo walencyjne bądź odwrotnie, zmiana jego energii musi wynosić co najmniej Wg. Mówi się wówczas, że elektron przeskoczył z jednego pasma do drugiego przez pasmo zabronione. W zależności od rodzaju półprzewodnika przerwa energetyczna Wg przyjmuje różne wartości, przykładowo półprzewodnik krzemowy charakteryzuje się wartością Wg równą ok. 1,1 eV, półprzewodnik germanowy wartością Wg równą ok. 0,7 eV, a półprzewodnik wykonany z arsenku galu ma Wg = 1,4 eV.
5.3.
Półprzewodnik samoistny W poprzednim punkcie poznaliśmy budowę kryształu półprzewodnikowego o idealnie uporządkowanej strukturze krystalicznej, bez defektów i idealnie czystego, niezawierającego obcych, czyli innych niż dany półprzewodnik, pierwiastków. Taki materiał nazywany jest półprzewodnikiem samoistnym (w odróżnieniu od półprzewodnika niesamoistnego, niespełniającego podanych wyżej kryteriów). W półprzewodniku samoistnym mogą istnieć wolne nośniki ładunku zdolne do przewodzenia prądu elektrycznego. Nośniki takie powstają w wyniku zrywania wiązań kowalencyjnych atomów sieci krystalicznej. Jak pamiętamy, w wyniku zerwania wiązania kowalencyjnego w półprzewodniku powstaje swobodny elektron oraz dziura (dodatnio naładowana luka po elektronie w wiązaniu). Ponieważ, z definicji samej dziury, powstają one zawsze jednocześnie, nazywa się je parą elektron-dziura (co nie oznacza wcale, że są ze sobą w jakikolwiek sposób dalej związane), a zjawisko, w wyniku którego powstają, nazywane jest generacją samoistną. Z punktu widzenia energetycznego modelu pasmowego mówi się wówczas, że elektron
130
5. Podstawy fizyki półprzewodników
z pasma walencyjnego przeszedł do pasma przewodnictwa, pozostawiając po sobie dziurę w paśmie walencyjnym (rysunek 5.9a). W każdym momencie może również zajść zjawisko odwrotne do generacji samoistnej, a mianowicie rekombinacja, czyli powrót elektronu do wiązania kowalencyjnego. Wówczas elektron wypełnia dziurę (lukę) i przestaje być nośnikiem swobodnym. Stosuje się wówczas określenie „rekombinacji elektronu z dziurą”. W energetycznym modelu pasmowym objawia się to powrotem elektronu z pasma przewodnictwa i zapełnieniem dziury w paśmie walencyjnym (rysunek 5.9b). Można wówczas powiedzieć, że oba nośniki znikają w sensie nośników swobodnych, chociaż fizycznie elektron nadal istnieje, zmieniając jedynie poziom energetyczny, a tym samym swoją rolę w półprzewodniku, tworząc teraz wiązanie kowalencyjne. Im łatwiej dochodzi do zrywania wiązań, tym większa jest w półprzewodniku liczba generowanych par elektron-dziura. Na „łatwość” zrywania wiązań wpływ ma energia drgań sieci krystalicznej atomów tworzących półprzewodnik oraz szerokość przerwy energetycznej Wg. Każdy atom znajdujący się w temperaturze większej od zera bezwzględnego (ok. –273,15°C) drga, czyli porusza się w sposób przypadkowy w ograniczonej przestrzeni, co można utożsamiać z jego energią kinetyczną. Energię tych drgań można wiązać z ich amplitudą, a więc im większa energia, tym większa amplituda drgań. Drgający atom może przekazać elektronowi część swojej energii, powodując jego przejście do wyższego poziomu energetycznego, w przypadku elektronu z pasma walencyjnego oznacza to jego przejście do pasma przewodnictwa, co jest równoznaczne z zerwaniem wiązania. W wielkim, ale przejrzystym uproszczeniu opartym na klasycznym rozumowaniu można to interpretować w ten sposób, że drgania atomu są na tyle silne, że przy pewnej amplitudzie wychyleń powodują oddalenie się tego atomu od atomu sąsiedniego w takim stopniu, że uniemożliwia to już elektronowi dalsze utrzymywanie wiązania kowalencyjnego między nimi i wiązanie to ulega zerwaniu, a elektron staje się nośnikiem swobodnym, co określamy jako generację pary elektron-dziura. Energię drgań atomu można zwiększyć, dostarczając do struktury krystalicznej dodatkowej energii z zewnątrz, np. w postaci ciepła lub promieniowania elektromagnetycznego.
Rys. 5.9. Interpretacja zjawisk generacji oraz rekombinacji nośników w półprzewodniku na podstawie energetycznego modelu pasmowego
5.3. Półprzewodnik samoistny
131
Warto jeszcze omówić pewne zagadnienie związane z dość chaotycznym czy przypadkowym zachowaniem się nośników, prowadzącym jednak do uporządkowanych wniosków ilościowych. Dosyć potoczne określenie „łatwości zrywania wiązań” w ściślejszym języku fizycznym zastępowane jest „prawdopodobieństwem przejścia elektronu nad przerwą energetyczną półprzewodnika”. Jak można się domyślić, im mniejsza jest szerokość tej przerwy lub im większa energia elektronu, tym większe jest prawdopodobieństwo takiego przejścia, czyli tym większa jest szansa na zerwanie wiązania, a więc tym większa jest liczba wygenerowanych swobodnych nośników. Oczywiście, pojęcie prawdopodobieństwa oznacza, że dany elektron wcale nie musi dokonać przejścia, a jedynie może to zrobić. Oznacza to, że przy tej samej wartości prawdopodobieństwa przejścia (o ile nie jest ona równa zero) niektóre elektrony dokonają tego przejścia, inne natomiast nie, co więcej, po pewnym czasie część elektronów z powrotem utworzy wiązania kowalencyjne, a z kolei inne dokonają przejścia. Można śmiało powiedzieć, że w każdym momencie zachodzi jednocześnie generacja nośników oraz ich rekombinacja. Jak zatem w takim chaosie można dostrzec jakikolwiek porządek prowadzący do ścisłych opisów matematycznych? Okazuje się, że w ogólnym bilansie, uśredniając liczbę dokonanych przejść elektronów w odpowiednio długich (w sensie statystycznym) odcinkach czasu, można zauważyć, że w zasadzie, przy danym prawdopodobieństwie, zawsze tylko określona liczba wiązań jest zerwana. Choć należy mieć świadomość, że za każdym razem mogą to być inne zerwane wiązania, to w sensie statystycznym ich liczba się nie zmienia. A więc w sensie statystycznym wśród nośników „panuje porządek”. Nie rozróżniamy tu konkretnych elektronów, raczej identyfikujemy je całościowo jako zbiór określonych nośników. Tak więc, przy danym prawdopodobieństwie, da się ściśle określić liczbę zerwanych wiązań, a tym samym i liczbę wygenerowanych par elektron-dziura, czyli liczbę nośników w półprzewodniku. Z uwagi na to, że pojęcie „liczby nośników” jest niezbyt praktyczne do stosowania, choćby ze względu na jej zależność od wielkości materiału półprzewodnikowego, co nie pozwala jednoznacznie określić właściwości danego fragmentu materiału, przyjęło się używać innej wielkości, mającej sens gęstości nośników, czyli liczby nośników na jednostkę objętości, a nazywanej koncentracją nośników i będącej wielkością niezależną od rozmiarów materiału. Jej jednostką jest odwrotność centymetra sześciennego, czyli cm–3. Nie używa się tu jednostki metra z przyczyn praktycznych – po prostu nie wytwarza się struktur półprzewodnikowych o rozmiarach liczonych w pojedynczych metrach, poza tym wartości liczbowe koncentracji byłyby wówczas o sześć rzędów wielkości większe. Ponieważ w półprzewodniku występują zarówno elektrony, jak i dziury, to przyjęło się inaczej oznaczać koncentrację każdego rodzaju nośników, a mianowicie przez n (od ang. negative – ujemny) oznacza się koncentrację elektronów, natomiast przez p (od ang. positive – dodatni) oznacza się koncentrację dziur. Z pojęciem generacji samoistnej bezpośrednio związane jest też pojęcie koncentracji samoistnej, oznaczanej w literaturze przez ni oraz pi, odpowiednio dla elektronów i dziur. Określa ona koncentrację par elektron-dziura powstałych w półprzewodniku w wyniku generacji samoistnej. Jako że w półprzewodniku samoistnym nośniki powstają w zasadzie tylko w taki sposób, to koncentracja samoistna określa tu koncentrację wszystkich istniejących par nośników, a ponieważ nośniki powsta-
132
5. Podstawy fizyki półprzewodników
wały parami (elektron z dziurą), to w półprzewodniku samoistnym znajduje się taka sama liczba elektronów, jak i dziur. Innymi słowy, koncentracja elektronów jest równa koncentracji dziur (ni = pi). Tak więc koncentracja samoistna nie określa koncentracji sumy elektronów i dziur, a jedynie koncentrację elektronów, a tym samym i koncentrację dziur, jako że są one sobie przecież równe. Koncentracje dziur i elektronów w półprzewodniku samoistnym będącym w stanie równowagi termodynamicznej (czyli bez dostarczania energii z zewnątrz, bez przykładania napięcia polaryzującego) związane są ze sobą bardzo prostą zależnością n · p = ni 2
(5.1)
według której iloczyn koncentracji elektronów i koncentracji dziur jest równy kwadratowi koncentracji samoistnej. W zasadzie jest to dosyć oczywiste, skoro wszystkie te koncentracje są sobie równe, tzn. n = p = ni. Jest to jednak ważna zależność, gdyż jak się okazuje, spełniona jest również w przypadku półprzewodnika niesamoistnego znajdującego się w stanie równowagi termodynamicznej, w którym koncentracje dziur i elektronów nie są sobie równe. Ale o tym za chwilę. Wpływ temperatury na półprzewodnik samoistny Jak już wspomniano, liczba powstałych nośników, a więc także ich koncentracja zależy od intensywności zachodzenia zjawiska generacji, a ta zależy m.in. od temperatury. Im większa temperatura materiału półprzewodnikowego, tym częściej zachodzi generacja samoistna, a więc tym większa jest też koncentracja nośników samoistnych w półprzewodniku. Jedynie w temperaturze zera bezwzględnego koncentracja nośników teoretycznie jest równa zeru, gdyż energia wszystkich cząstek jest zerowa i nie zachodzą zjawiska generacji nośników. Zależność koncentracji samoistnej od temperatury ma w przybliżeniu charakter wykładniczy (rysunek 5.10), co powoduje, że koncentracja ta rośnie dosyć gwałtownie wraz ze wzrostem temperatury. Oznacza to, że również właściwości elektryczne materiału półprzewodnikowego (np. rezystywność, rezystancja) będą zależały od temperatury, co zwykle nie jest zjawiskiem pożądanym.
Rys. 5.10. Wykres zależności koncentracji samoistnej ni nośników w półprzewodniku od temperatury bezwzględnej T
5.4. Półprzewodnik domieszkowany
133
Przykładowo, w temperaturze pokojowej, czyli w temperaturze 300 K, wartość koncentracji nośników samoistnych w półprzewodniku krzemowym jest rzędu 1010 cm–3, w półprzewodniku germanowym rzędu 1013, a w półprzewodniku wykonanym z arsenku galu rzędu 106. Różnice te wynikają przede wszystkim z różnic w wartości szerokości przerwy energetycznej Wg każdego z półprzewodników.
5.4.
Półprzewodnik domieszkowany W zasadzie półprzewodnik samoistny w swej idealnej postaci w rzeczywistości nie istnieje, zwykle w powstałym bowiem krysztale półprzewodnikowym, nawet mimo zastosowania najdoskonalszych technologii wytwarzania, znajdują się pewne zakłócenia struktury (defekty i nieciągłości), a oprócz atomów półprzewodnika wtrącone są do struktury również atomy obcych pierwiastków (innych niż pierwiastek lub pierwiastki, z których powstaje półprzewodnik), a pochodzące chociażby ze śladowych zanieczyszczeń procesu produkcyjnego. Okazuje się, że defekty i zanieczyszczenia mogą powodować zmiany właściwości elektrycznych półprzewodnika, a więc są istotnym „dodatkowym składnikiem” materiałów półprzewodnikowych. Najważniejszymi, z punktu widzenia działania elementów półprzewodnikowych, czynnikami są właśnie wtrącenia obcych atomów w krysztale. Najbardziej znaczącym efektem tego jest zwiększenie się koncentracji tylko jednego rodzaju nośników, np. elektronów w stosunku do dziur, bądź odwrotnie. Jest to bardzo pożądane zjawisko, gdyż kształtuje ono właściwości elektryczne półprzewodnika, umożliwiając wytwarzanie złożonych elementów półprzewodnikowych. Z tego powodu dokonuje się kontrolowanego umyślnego wprowadzania obcych atomów do półprzewodnika, co nazywane jest domieszkowaniem, a wprowadzane atomy domieszkami. Domieszkowanie przeprowadzane jest najczęściej jeszcze w fazie produkcji, czyli w czasie wzrostu kryształu i w późniejszych fazach, podczas wytwarzania konkretnych struktur czy elementów półprzewodnikowych. Praktyczne znaczenie mają dwa rodzaje domieszek. Jedne z nich powodują powstanie w półprzewodniku dodatkowych elektronów swobodnych, zwiększając w nim całkowitą liczbę elektronów. Wówczas taki półprzewodnik określany jest mianem półprzewodnika typu N, a ponieważ elektronów jest więcej niż dziur, nazywane są one nośnikami większościowymi, dziury natomiast nośnikami mniejszościowymi. Drugie z kolei powodują powstanie w półprzewodniku dodatkowych dziur, zwiększając w nim całkowitą liczbę dziur. Wówczas taki półprzewodnik określany jest mianem półprzewodnika typu P, a ponieważ teraz dziur jest więcej niż elektronów, to one nazywane są nośnikami większościowymi, elektrony natomiast nośnikami mniejszościowymi. W celu odróżnienia koncentracji konkretnych nośników w danym półprzewodniku wprowadza się odpowiednie oznaczenia ich wartości. Jak pamiętamy, wartość koncentracji elektronów określa się przez n, a koncentracji dziur przez p. Oprócz tego wprowadza się indeks n oraz p, dla określenia rodzaju półprzewodnika, którego dotyczy dana wartość koncentracji. A więc koncentrację elektronów w półprzewodniku typu N jako nośników większościowych oznacza się przez nn, a koncentrację elektronów w półprzewodniku typu P jako nośników mniejszościowych oznacza się przez np. Analogicznie, koncentrację
134
5. Podstawy fizyki półprzewodników
dziur w półprzewodniku typu P jako nośników większościowych oznacza się przez pp, natomiast koncentrację dziur w półprzewodniku typu N oznacza się przez pn. W zależności od przewagi jednych nośników nad drugimi mówi się też o przewodnictwie elektronowym półprzewodnika lub o jego przewodnictwie dziurowym. Ale jak w wyniku domieszkowania dochodzi w ogóle do powstania przewagi jednych nośników nad drugimi? Domieszki donorowe Przykładowo, jeśli do półprzewodnika wykonanego z krzemu wprowadzony zostanie atom pierwiastka z piątej grupy układu okresowego (np. fosfor, symbol chemiczny P), to zaburza on strukturę kryształu, lokując się najczęściej w węźle sieci krystalicznej w miejscu atomu krzemu. Tworzy on wówczas, za pomocą czterech ze swoich pięciu elektronów walencyjnych, cztery wiązania kowalencyjne z czterema sąsiednimi atomami krzemu. Natomiast piąty elektron walencyjny, z punktu widzenia wiązań sieci krystalicznej, jest zbędny (jak przysłowiowe „piąte koło u wozu”), ponieważ nie jest w stanie utworzyć już piątego wiązania, a przez to może zostać łatwo oderwany od atomu fosforu, stając się nośnikiem swobodnym o ładunku ujemnym (rysunek 5.11a). „Łatwość” jego oderwania wynika z bardzo małej różnicy między energią elektronu na tej powłoce walencyjnej a pasmem przewodnictwa półprzewodnika. Wystarczy zatem np. niewielkie zwiększenie temperatury, aby ten piąty elektron walencyjny został oderwany od atomu fosforu i stał się nośnikiem swobodnym. W praktyce, następuje to już przy temperaturze powyżej ok. 150 K. Należy jeszcze pamiętać, że oderwanie się tego elektronu od atomu jest niczym innym jak aktem jonizacji atomu fosforu, w wyniku której, jak pamiętamy, pozostaje w atomie jeden nieskompensowany proton nadający całemu atomowi ładunek dodatni. Powstaje zatem jon dodatni, który w odróżnieniu od generacji samoistnej nie
Rys. 5.11. Ilustracja powstawania dodatkowego elektronu swobodnego oraz jonu dodatniego w półprzewodniku krzemowym w wyniku domieszkowania go atomem fosforu. Sytuacja przed oderwaniem piątego elektronu walencyjnego (a) oraz po oderwaniu (b)
5.4. Półprzewodnik domieszkowany
135
Rys. 5.12. Model energetyczny półprzewodnika domieszkowanego donorami. Umiejscowienie poziomu energetycznego domieszki (a) (kółka z plusami symbolizują zjonizowane atomy domieszki donorowej) oraz położenie poziomu Fermiego w półprzewodniku typu N (b)
jest jednak tożsamy z dziurą, bo będąc stabilnie związanym z siecią krystaliczną, jest unieruchomiony, czyli nie może się poruszać po krysztale (rysunek 5.11b). To oderwanie elektronu interpretować też można na modelu pasmowym jako pojawienie się w paśmie zabronionym dozwolonego dyskretnego (bo o jednej wartości energii) poziomu energetycznego. Ponieważ energia jonizacji potrzebna do oderwania elektronu od atomu fosforu jest niewielka (ok. 0,044 eV), to poziom ten (WD) znajduje się w modelu pasmowym półprzewodnika tuż pod dnem pasma przewodnictwa (rysunek 5.12a). Atomy pierwiastków, które po wprowadzeniu do kryształu półprzewodnikowego powodują generację elektronów swobodnych, nazywane są donorami (dawcami) elektronów lub domieszkami donorowymi. Ogólnie, donorem nazywa się cząstkę dostarczającą nie tylko elektron, ale np. proton, jon. Tutaj będziemy używać jedynie krótszego określenia „donor”, pamiętając, że chodzi o donor elektronów. Należy też wspomnieć, że w wyniku zwiększenia się liczby elektronów swobodnych, czyli liczby elektronów w paśmie przewodnictwa, średnia energia elektronu zwiększa się, a więc zmianie ulega poziom Fermiego, przesuwając się w stronę pasma przewodnictwa (rysunek 5.12b). Domieszki akceptorowe Z kolei jeśli do półprzewodnika wykonanego z krzemu wprowadzony zostanie atom pierwiastka z trzeciej grupy układu okresowego (np. bor, symbol chemiczny B), to zaburza on strukturę kryształu, lokując się najczęściej w węźle sieci krystalicznej w miejscu atomu krzemu. Tworzy on wówczas, za pomocą swoich wszystkich trzech elektronów walencyjnych, tylko trzy wiązania kowalencyjne z trzema sąsiednimi atomami krzemu. Natomiast czwarte wiązanie, z braku czwartego elektronu walencyjnego w atomie boru, nie może zostać przez niego utworzone (rysunek 5.13a). Jednak wiązanie takie może zostać łatwo utworzone przez elektron „pożyczony” przez zerwanie któregoś z sąsiednich wiązań kowalencyjnych atomów krzemu, pozostawiając po zerwanym wiązaniu, jak pamiętamy, dziurę, czyli nośnik swobodny o ładunku dodatnim. „Łatwość” utworzenia wiązania
136
5. Podstawy fizyki półprzewodników
Rys. 5.13. Ilustracja powstawania dodatkowej dziury oraz jonu ujemnego domieszki w półprzewodniku krzemowym w wyniku domieszkowania go atomem boru. Sytuacja przed zapełnieniem czwartego wiązania (a) oraz po zapełnieniu przez „pożyczenie” elektronu z sąsiedniego wiązania (b)
z borem, czyli zerwanie wiązania między atomami krzemu wynika, podobnie jak poprzednio, z bardzo małej różnicy między energią elektronu z powłoki walencyjnej atomu boru a pasmem walencyjnym półprzewodnika. Wystarczy ponownie niewielkie zwiększenie temperatury, aby utworzone zostało to czwarte wiązanie z borem kosztem wiązania z krzemem, a co za tym idzie, aby utworzona została dziura. W praktyce następuje to już w temperaturze powyżej ok. 150 K. Należy jeszcze pamiętać, że przyjęcie przez atom boru dodatkowego elektronu jest niczym innym jak aktem ujemnej jonizacji atomu boru. Powstaje zatem jon ujemny, który jest stabilnie związany z siecią krystaliczną i nie może się poruszać w krysztale (rysunek 5.13b). To przyłączenie dodatkowego elektronu i zerwanie sąsiedniego wiązania kowalencyjnego interpretować też można na modelu pasmowym jako pojawienie się w paśmie zabronionym dozwolonego dyskretnego poziomu energetycznego. Ponieważ energia jonizacji potrzebna do oderwania elektronu od atomu krzemu i przyłączenia go do atomu boru jest niewielka (ok. 0,045 eV), to poziom ten (WA) znajduje się w modelu pasmowym półprzewodnika tuż nad wierzchołkiem pasma walencyjnego (rysunek 5.14a). Atomy pierwiastków, które po znalezieniu się w krysztale półprzewodnikowym powodują generację dziur jako nośników swobodnych, nazywane są akceptorami elektronów lub domieszkami akceptorowymi. Ogólnie, akceptorem jest cząstka przyjmująca nie tylko elektron, ale np. proton, jon itp. Tutaj będziemy używać jedynie krótszego określenia „akceptor”, pamiętając, że chodzi o akceptor elektronów. Podobnie jak w przypadku domieszkowania donorami, w wyniku zwiększenia się liczby dziur w paśmie walencyjnym średnia energia elektronu zmniejsza się i zmianie ulega poziom Fermiego, przesuwając się w stronę pasma walencyjnego (rysunek 5.14b).
5.4. Półprzewodnik domieszkowany
137
Rys. 5.14. Model energetyczny półprzewodnika domieszkowanego akceptorami. Umiejscowienie poziomu energetycznego domieszki (a) (kółka z minusami symbolizują zjonizowane atomy domieszki akceptorowej) oraz położenie poziomu Fermiego w półprzewodniku typu P (b)
Tak więc, w procesie domieszkowania, w zależności od rodzaju wprowadzonych domieszek, dochodzi do powstania dodatkowych nośników swobodnych, czy to elektronów, czy to dziur. Należy podkreślić, że powstające nośniki są nośnikami dodatkowymi, ponieważ ich powstawanie zachodzi jednocześnie z powstawaniem nośników swobodnych w wyniku generacji samoistnej. Jednak, mimo powstania dodatkowych nośników, czyli ładunków elektrycznych, cały półprzewodnik nadal pozostaje obojętny elektrycznie. Wynika to z równoczesnego „powstania” czy „odkrycia się”, „uwidocznienia” w atomach domieszki nieruchomych ładunków przeciwnego znaku niż znak ładunku powstałych nośników. Ładunków tych jest tyle samo co dodatkowych nośników, więc ich ładunki kompensują się wzajemnie, dając w rezultacie ładunek równy zero. Podsumowując, w wyniku domieszkowania donorami, otrzymujemy półprzewodnik typu N, w którym doszło do powstania dodatkowych elektronów zwiększających ich liczbową przewagę nad dziurami, a jednocześnie do powstania dodatniego ładunku nieruchomych jonów domieszki donorowej. Natomiast w wyniku domieszkowania akceptorami otrzymujemy półprzewodnik typu P, w którym doszło do powstania dodatkowych dziur zwiększających ich liczbową przewagę nad elektronami, a jednocześnie do powstania ujemnego ładunku nieruchomych jonów domieszki akceptorowej. Warto jeszcze wspomnieć o wzajemnych zależnościach między koncentracjami nośników w półprzewodniku domieszkowanym. Jak pamiętamy, półprzewodnik samoistny charakteryzuje się identyczną koncentracją dziur i elektronów. W półprzewodniku domieszkowanym natomiast w wyniku domieszkowania powstają dodatkowe nośniki. Z dobrym przybliżeniem można założyć, że skoro jeden atom domieszki powoduje powstanie jednego dodatkowego nośnika, przyczyniając się w rezultacie do przewagi jednych nośników nad drugimi, wynikowa liczba nośników większościowych w półprzewodniku jest równa liczbie wprowadzonych domieszek. Można zatem przyjąć, że wartość koncentracji nośników większościowych jest po prostu równa wartości koncentracji domieszek. W takim razie koncentracja dziur w półprzewodniku typu P równa jest koncentracji domieszek akceptorowych, czyli pp = NA, z kolei koncentracja elektronów w półprzewodniku typu N jest równa
138
5. Podstawy fizyki półprzewodników
koncentracji domieszek donorowych, czyli nn = ND. Należy zaznaczyć, że przybliżenie to można zastosować jedynie w przypadku przewagi koncentracji domieszek nad koncentracją nośników samoistnych, tzn. gdy NA >> ni lub odpowiednio, gdy ND >> ni . Ile natomiast wynoszą koncentracje nośników mniejszościowych w półprzewodniku? Wydawać by się mogło, że skoro w wyniku domieszkowania nie powstają żadne dodatkowe nośniki mniejszościowe, to ich liczba, a zatem i koncentracja się nie zmieni i będzie taka sama, jak przed wprowadzeniem domieszek, czyli taka, jak w półprzewodniku samoistnym. Tak jednak nie jest. Okazuje się, że w półprzewodniku w danej temperaturze jest tylko określona „ilość wolnego miejsca”, czy też ściślej mówiąc, określona liczba wolnych poziomów energetycznych w paśmie przewodnictwa i paśmie walencyjnym, potencjalnie możliwych do zajęcia przez nośniki powstające w wyniku generacji samoistnej. Natomiast w wyniku domieszkowania zwiększona koncentracja nośników większościowych powoduje, że w tych samych warunkach temperaturowych w półprzewodniku jest już niejako mniej tego „wolnego miejsca”, a więc intensywność generacji samoistnej zmniejszy się i ogólna liczba nośników wygenerowanych samoistnie w półprzewodniku domieszkowanym będzie mniejsza niż w półprzewodniku samoistnym. Ile zatem ich będzie? Jak pamiętamy, koncentracje nośników są ze sobą związane bardzo prostą zależnością (5.1) obowiązującą również dla półprzewodnika domieszkowanego. Podstawiając za koncentracje nośników większościowych wartości koncentracji odpowiednich domieszek otrzymujemy wyrażenia na koncentracje nośników mniejszościowych dla elektronów np =
ni2 n2 = i pp NA
(5.2a)
pn =
ni2 n2 = i . nn N D
(5.2b)
oraz dla dziur
Na podstawie wyrażenia (5.1) można sformułować bardzo prostą i ogólną zasadę, że jeśli koncentracja nośników większościowych zwiększy się k-krotnie w stosunku do koncentracji samoistnej, to również k-krotnie zmniejszy się koncentracja nośników mniejszościowych. Przykładowo, jeśli do półprzewodnika krzemowego zostaną wprowadzone domieszki donorowe w koncentracji ND = 1018 cm–3, to powstanie półprzewodnik typu N, w którym koncentracja elektronów z wartości samoistnej ni = 1010 cm–3 zwiększy się o osiem rzędów wielkości, czyli do wartości nn = 1018 cm–3, natomiast koncentracja dziur spadnie o osiem rzędów wielkości, czyli do wartości pn = 102 cm–3 (zaledwie sto dziur na centymetr sześcienny!). Wartość ta ukazuje, jak bardzo nielicznymi nośnikami są nośniki mniejszościowe w półprzewodniku – ich koncentracja jest praktycznie znikoma. Wpływ temperatury na półprzewodnik domieszkowany Jak pamiętamy, koncentracja nośników samoistnych silnie zależy od temperatury w całym potencjalnym zakresie pracy elementów półprzewodnikowych, a więc przy
5.4. Półprzewodnik domieszkowany
139
Rys. 5.15. Ilustracja wzajemnego wpływu zależności koncentracji nośników powstałych w wyniku domieszkowania oraz koncentracji samoistnej od temperatury na koncentrację całkowitą nośników w szerokim zakresie temperatur
jakichkolwiek jej zmianach zmieniałaby się również koncentracja nośników w półprzewodniku, co nie pozwalałoby na zapewnienie stabilności określonych właściwości półprzewodnika. Z drugiej strony, w dość szerokim zakresie temperatur wszystkie znajdujące się w półprzewodniku donory lub akceptory są już zjonizowane, czyli wszystkie spowodowały wygenerowanie się odpowiednich nośników. Oznacza to, że koncentracja nośników pochodząca od donorów lub akceptorów jest stała w szerokim zakresie temperatur, a przynajmniej w pożądanym zakresie pracy elementu półprzewodnikowego. Tak więc, aby zmniejszyć efekt zależności koncentracji nośników od temperatury, a przez to częściowo i właściwości elektrycznych półprzewodnika, a także, co nawet bardziej istotne, by móc nadawać półprzewodnikom pożądane właściwości, stosuje się umyślne wprowadzanie do półprzewodnika samoistnego atomów obcych pierwiastków. Przy czym chodzi o wprowadzenie tylu atomów, aby koncentracja wygenerowanych dodatkowych nośników przewyższała koncentrację samoistną nawet o kilka rzędów wielkości, co pozwala uniezależnić całkowitą koncentrację nośników od zmian temperatury w pożądanym zakresie pracy, wpływającą wówczas jedynie na koncentrację samoistną, która w tym zakresie jest jeszcze niewielka w porównaniu z koncentracją całkowitą nośników (rysunek 5.15). Jak widać, w zakresie temperatur do 150 K wzrost koncentracji wynika ze wzrostu intensywności zjawiska generacji nośników pochodzących od jonizujących się domieszek. Powyżej tej temperatury wszystkie domieszki w półprzewodniku są zjonizowane, więc nie może już powstać więcej nowych nośników, dlatego ich koncentracja utrzymuje się dalej na stałym poziomie. Dopiero powyżej temperatury ok. 450 K znaczenia zaczyna nabierać stale wzrastająca koncentracja nośników samoistnych powstających w wyniku generacji samoistnej. Jeśli będzie ona przeważała nad generacją pochodzącą od domieszek, to może dojść do niekontrolowanego wzrostu liczby nośników, co będzie powodować niekorzystne (niezgodne z założeniami) zmiany właściwości elektrycznych struktury półprzewodnikowej, a tym samym wadliwe działanie elementu półprzewodnikowego, mogące w ostateczności doprowadzić do jego trwałego uszkodzenia. Z tego też powodu elementy półprze-
140
5. Podstawy fizyki półprzewodników
wodnikowe pracują prawidłowo jedynie w pewnym, z góry określonym przez projektanta, przedziale temperatur. Rezystywność półprzewodnika domieszkowanego Jeśli chodzi o świadome kształtowanie właściwości materiału półprzewodnikowego w procesie domieszkowania, to należy zwrócić uwagę na jedną z nich, mianowicie na rezystywność półprzewodnika. Im większa jest koncentracja nośników, czyli im większa jest ich liczba w półprzewodniku, tym więcej jest nośników mogących uczestniczyć w przepływie prądu, czyli tym większy mogą tworzyć prąd, tzn. o większym natężeniu, płynący przez półprzewodnik przy zadanym napięciu. Jeśli odwołać się do prawa Ohma, oznacza to, że tym mniejsza jest wówczas rezystancja półprzewodnika. Wynika z tego, że rezystancja półprzewodnika, a właściwie jego rezystywność, bezpośrednio zależy od koncentracji nośników i jest tym mniejsza, im większa jest ta koncentracja. Aby uzyskać większą koncentrację nośników, należy w procesie domieszkowania wprowadzić do półprzewodnika więcej domieszek. Określenia typu „więcej” lub „mniej” zastępowane są tu bardziej technicznym terminem, mianowicie siłą domieszkowania. Jeśli do półprzewodnika wprowadzanych jest bardzo dużo domieszek, np. o kilka rzędów wielkości więcej niż w przypadku normalnego domieszkowania (co jest oczywiście pojęciem względnym, ale chodzi o porównanie dwóch przypadków, o pewien punkt odniesienia), to mówi się, że półprzewodnik został silnie domieszkowany, co sprawia, że jego rezystywność jest mała, przy czym nie ma znaczenia, czy chodzi o domieszki donorowe, czy akceptorowe, czyli czy mamy do czynienia z półprzewodnikiem typu N, czy typu P. W przypadku wprowadzenia domieszek w bardzo małej liczbie mówimy o słabym domieszkowaniu, powodującym z kolei, że rezystywność półprzewodnika jest duża. Na wszelkich rysunkach struktur obszary półprzewodnika o różnej sile domieszkowania są odpowiednio oznaczane. Jeśli mamy do czynienia z półprzewodnikiem np. typu N normalnie domieszkowanym, czyli ani słabo, ani silnie, to stosowane jest po prostu oznaczenie n, natomiast przez n+ oznaczany jest półprzewodnik silnie domieszkowany, a przez n++ bardzo silnie. Oczywiście analogicznie oznacza się półprzewodniki słabo oraz bardzo słabo domieszkowane, odpowiednio n– oraz n– –. W przypadku półprzewodnika typu P będą to z kolei oznaczenia p– –, p–, p, p+, p++. Należy uczulić Czytelnika na to, że znaki „+” oraz „–” oznaczają w tych przypadkach jedynie siłę domieszkowania, a nie znak ładunku nośników. Transport nośników w półprzewodniku Ponieważ elementy półprzewodnikowe omawiane w tym rozdziale są elementami elektrycznymi, czyli takimi, których działanie opiera się na przepływie prądu elektrycznego, będącego niczym innym, jak uporządkowanym ruchem nośników prądu, tutaj dziur i elektronów, to aby swobodnie poruszać się po pozostałych zagadnieniach dotyczących działania różnych elementów półprzewodnikowych, należy wcześniej poznać podstawowe zjawiska ruchu nośników prądu w półprzewodniku. O ile możliwość przemieszczania się elektronu swobodnego jako cząstki fizycznej po całej przestrzeni kryształu półprzewodnikowego jest dosyć oczywista, o tyle ruch dziury jako cząstki sztucznej („wirtualnej”) wymaga już wyjaśnienia.
5.4. Półprzewodnik domieszkowany
141
Dziura jest jedynie brakiem elektronu w określonym miejscu, więc jej ruch musiałby być jednoznaczny z przemieszczaniem się takiego „braku” lub luki po elektronie. I tak faktycznie jest. Jak już zostało wspomniane, w każdej chwili dochodzi w półprzewodniku jednocześnie do zjawisk generacji i rekombinacji. Zdarza się, że luka, która właśnie powstała, za chwilę zostanie jednak zapełniona elektronem, a powstanie ona z kolei w innym miejscu. Istnieje duże prawdopodobieństwo, że luka zostanie uzupełniona elektronem pochodzącym z sąsiedniego wiązania, gdzie wówczas wytworzy się nowa luka, która z kolei może zostać zapełniona jeszcze innym elektronem z kolejnego sąsiedniego wiązania, tworząc równocześnie tam lukę, a ta z kolei zapełniona następnym itd. Zachodzi tu swoiste „przeskakiwanie” elektronów do sąsiednich wiązań kowalencyjnych, które interpretować można jako ruch dziury w kierunku przeciwnym do kierunku przeskoku elektronu. Ponieważ luka dotyczy ciągle innego wiązania, tworzy się za każdym razem fizycznie inna luka, inna dziura. Jednak nie przeszkadza to interpretować tego zjawiska jako przemieszczania się wciąż tej samej dziury. Jeśli takie przeskoki elektronów, pod wpływem jakiejś siły, zostaną ukierunkowane, wówczas mówić można o przepływie prądu elektrycznego, którego nośnikami są dziury (rysunek 5.16). Należy jednak pamiętać, że tak naprawdę jest to ciągle ruch elektronów, a ponieważ każde przemieszczenie się dziury oznacza ruch innego elektronu, to wygodniej jest analizować ruch elektronów jako przeciwny do nich ruch ładunków dodatnich, czyli dziur. Od tej pory dziurę traktować będziemy jako „równoprawny”, obok elektronu, nośnik, z tym że dodatniego ładunku elektrycznego, mogący uczestniczyć w przepływie prądu. Będzie on zatem podlegał, przynajmniej w zakresie naszych rozważań, takim samym zjawiskom i prawom fizycznym jak elektron. Jak pamiętamy, każda cząsteczka, znajdująca się w temperaturze większej od zera bezwzględnego, drga, przy czym są to drgania przypadkowe, chaotyczne (choć z matematycznego punktu widzenia to słowo tu nie pasuje) i powodują przemiesz-
Rys. 5.16. Interpretacja ruchu dziury jako przeciwnego do niej ruchu elektronów. Pokazano sytuacje w kolejnych chwilach
142
5. Podstawy fizyki półprzewodników
czanie się danej cząsteczki. Oczywiście w przypadku atomów tworzących wiązania chemiczne jest to najczęściej przemieszczanie w bardzo ograniczonej przestrzeni. Z kolei w przypadku cząsteczek swobodnych takiego ograniczenia być nie musi, co jednak nie oznacza, że cząsteczki te wędrują po całej dostępnej przestrzeni. Z uwagi na przypadkowy charakter ich ruchu, w każdym momencie doznają one przypadkowych zmian kierunku i prędkości poruszania się, ale jeśli spojrzymy w dłuższym odcinku czasu na średnie położenie każdej takiej cząsteczki, to okaże się, że wszystkie te przypadkowe składowe czy wektory przemieszczenia uśredniają się do zera, co traktujemy jako brak przemieszczenia, brak zmiany położenia cząsteczki. Ruch taki nazywany jest chaotycznym ruchem cieplnym – mimo że cząsteczka porusza się, to jej położenie w sensie średnim się nie zmienia – i dotyczy on zarówno atomów lub jonów, jak też, co ważniejsze, nośników w półprzewodniku, czyli elektronów i dziur. Dzięki temu, że w półprzewodniku nośniki poruszają się chaotycznym ruchem cieplnym, może pojawić się pewna dodatkowa składowa w ich ruchu, powodująca przemieszczanie się nośników w określonym kierunku. Powodem tego jest sposób rozmieszczenia nośników w krysztale. Jeśli w półprzewodniku rozkład koncentracji nośników nie będzie równomierny, tzn. w pewnym jego obszarze koncentracja nośników będzie większa niż w innym obszarze, wówczas, pod wpływem właśnie chaotycznych ruchów cieplnych, nośniki będą dążyły do wyrównania swojej koncentracji w całym obszarze półprzewodnika. Nastąpi przemieszczanie się nośników z obszarów o większej koncentracji w kierunku obszarów o mniejszej koncentracji (rysunek 5.17a). Nie należy jednak sądzić, że jest to spowodowane jakąś „zaszytą” w nośnikach wiedzą na ten temat. Wręcz przeciwnie, jest to proces samorzutny, nośniki dokonują tego spontanicznie, poddane bezwiednie jednej prostej regule matematycznej. Aby to wyjaśnić, rozważmy dla uproszczenia przypadek, gdzie nośniki mogą się poruszać tylko w jednym wymiarze, powiedzmy w lewo i w prawo. Podzielmy przestrzeń, w której są nierównomiernie rozłożone, na dwie części. Wówczas, przy granicy podziału po jej jednej stronie, koncentracja nośników będzie większa niż po jej drugiej stronie. Załóżmy, że po lewej stronie jest ona większa, a po prawej stronie mniejsza (rysunek 5.17b). Z powodu chaotycznego ruchu cieplnego nośników występuje jednakowe prawdopodobieństwo przejścia każdego nośnika z jednej strony granicy podziału na drugą. Ponieważ tuż przy granicy po lewej jej stronie znajduje się więcej nośników (z powodu ich większej koncentracji), to zgodnie ze statystyką, w dowolnym momencie większa ich liczba przejdzie stąd na prawą stronę granicy niż z prawej strony (gdzie jest ich mniej) na lewą. Spowoduje to, że do obszaru po prawej stronie granicy wpłynie więcej nośników, niż z tej strony odpłynęło do obszaru po stronie lewej. Oznacza to, że przeważająca liczba nośników porusza się w jednym kierunku, tutaj z lewej (o większej koncentracji) do prawej (o mniejszej koncentracji), czyli następuje proces wyrównywania się koncentracji nośników. Zjawisko takie będzie zachodzić w każdym momencie do czasu, aż koncentracje nośników wyrównają się, a wówczas taka sama liczba nośników będzie przemieszczać się (chaotycznym ruchem cieplnym) na prawą stronę granicy, jak i na lewą, a więc bilans liczby nośników przechodzących przez granicę będzie równy zero
5.4. Półprzewodnik domieszkowany
143
Rys. 5.17. Nierównomierny rozkład koncentracji nośników w półprzewodniku prowadzący do ich dyfuzji (a) oraz wyjaśnienie powodu dyfuzyjnego przemieszczania się nośników z obszarów o większej koncentracji do obszarów o mniejszej koncentracji na podstawie wycinka obszaru półprzewodnika (b)
i ich ruch, w sensie średnim, ustanie. Opisaną zasadę można rozszerzyć na wszystkie trzy wymiary przestrzeni, w której poruszają się nośniki w półprzewodniku. Istnieje jeszcze inne, prostsze wyjaśnienie zjawiska wyrównywania się koncentracji nośników. Otóż, poruszające się przypadkowo po półprzewodniku nośniki zderzają się ze sobą, zmieniając kierunki ruchów uderzanych nośników. Z powodu nierównomiernej koncentracji z jednej swojej strony otoczone są większą liczbą nośników niż z drugiej. To powoduje, że więcej uderzeń otrzymują ze strony o większej koncentracji nośników (od tej strony inne nośniki „wywierają na nie większe ciśnienie”), a tym samym częściej ich położenie jest zmieniane w kierunku zgodnym z kierunkiem uderzenia, co z kolei powoduje oddalanie się nośników od obszaru o tej większej koncentracji, a zbliżanie się ich do obszaru o mniejszej koncentracji (czyli w stronę, gdzie „mogą się swobodniej przemieścić”). Jak widać, takie zachowanie również powoduje proces wyrównywania się koncentracji nośników, który ustanie, gdy nośniki będą z jednakową intensywnością uderzane z każdej strony, co z kolei sprawi, że w zasadzie w ich ruchu pozostanie tylko, zawsze zresztą obecna, składowa chaotycznego ruchu cieplnego, skutkująca, w sensie średnim, brakiem przemieszczenia nośników. Zjawisko ruchu powodowanego procesem wyrównywania się koncentracji nazywane jest dyfuzją lub ruchem dyfuzyjnym i w półprzewodnikach wywołuje uporządkowany przepływ nośników zwany prądem dyfuzyjnym. Warto może też wspomnieć, że zjawisko dyfuzji powinno być już znane Czytelnikowi, chociażby z życia codziennego, gdzie mamy do czynienia np. z zapachem, rozprzestrzeniającym się w pomieszczeniu, albo z wiatrem jako ruchem ogromnych mas powietrza wywołanym różnicą ciśnień (odpowiednikiem koncentracji) między różnymi miejscami globu. Obok zjawiska dyfuzji istnieje w półprzewodnikach jeszcze jedno zjawisko wprawiające nośniki w uporządkowany ruch, tworzący prąd elektryczny. Jak pamiętamy, każdy nośnik obdarzony jest pewnym ładunkiem elektrycznym, tak więc będzie na niego działać siła kulombowska, jeśli tylko znajdzie się on w polu elektrycznym. W półprzewodnikach może istnieć pole elektryczne i, jak się wkrótce okaże, może mieć różne pochodzenie. Najbardziej oczywiste jest wytworzenie pola elektryczne-
144
5. Podstawy fizyki półprzewodników
go przez przyłożenie napięcia do półprzewodnika. Ponieważ pomiędzy potencjałami dodatnim i ujemnym napięcia istnieje pole elektryczne, to takie pole zaistnieje też w półprzewodniku i będzie działało na znajdujące się tam nośniki. Kierunek działania pola będzie zależał od znaku ładunku nośników. Elektrony, jako nośniki ładunku ujemnego, pod wpływem siły kulombowskiego odpychania od potencjału ujemnego i przyciągania do potencjału dodatniego będą przyspieszane, uzyskując dodatkową składową prędkości w wymienionym kierunku. Dziury natomiast, jako nośniki ładunku dodatniego, będą podlegały odwrotnemu oddziaływaniu. Pod wpływem siły kulombowskiego odpychania od potencjału dodatniego i przyciągania do potencjału ujemnego będą przyspieszane, uzyskując dodatkową składową prędkości w tym właśnie kierunku (rysunek 5.18). Tak więc na nośniki znajdujące się w polu elektrycznym będą działały siły wprawiające je w ruch zgodny z kierunkiem linii sił pola elektrycznego, z tym że elektrony będą poruszały się w tym polu w kierunku przeciwnym do dziur. Ponieważ mówi się, że nośniki są unoszone przez pole elektryczne, zjawisko ich ruchu pod wpływem pola elektrycznego nazwane zostało unoszeniem, a prąd wytworzony w wyniku unoszenia nośników – prądem unoszenia. Jak się wkrótce okaże, pole elektryczne w półprzewodniku może również powstać w nim niejako samoczynnie, bez udziału zewnętrznego źródła napięcia, co również będzie umożliwiało przepływ prądu.
Rys. 5.18. Pole elektryczne w półprzewodniku oddziałujące na nośniki ładunku elektrycznego, dziury i elektrony, wywołujące przepływ prądu unoszenia
6.
Złącze P-N Do tej pory poruszaliśmy zagadnienia dotyczące półprzewodnika, będącego pojedynczą bryłą materiału. Półprzewodnik w takiej postaci nie jest jeszcze elementem elektronicznym, choć da się z niego wykonywać zwykłe rezystory, a nawet, jak się przekonamy przy okazji omawiania elementów optoelektronicznych, rezystory czułe na światło, czyli fotorezystory. Nam jednak chodzi o elementy mogące pełnić złożone funkcje, jak przełączniki lub wzmacniacze. W tym celu należy skonstruować strukturę złożoną nie z jednego rodzaju półprzewodnika, ale przynajmniej z dwóch. W takim elemencie będą zachodziły już bardziej złożone zjawiska, umożliwiające budowanie układów pełniących te pożądane przez nas złożone funkcje.
6.1.
Struktura fizyczna Pierwszym elementem półprzewodnikowym, który poznamy, z powodu jego obecności praktycznie we wszystkich pozostałych elementach, będzie półprzewodnikowe złącze P-N. Jak sama nazwa wskazuje, jest to połączenie dwóch półprzewodników różnych rodzajów, jednego typu P, będącego tu anodą, a drugiego typu N, stanowiącego katodę. Nie będziemy w tym miejscu zajmować się jednak zagadnieniami technologii wykonywania złączy P-N, ale raczej skupimy się na zjawiskach w nich zachodzących i ich właściwościach elektrycznych i fizycznych. Do wyjaśnienia powstania złącza P-N wystarczy eksperyment myślowy, podczas którego połączymy ze sobą dwie bryły półprzewodnika różnego typu. Należy jednak pamiętać, że w rzeczywistości złącze P-N nigdy nie powstaje w ten sposób choćby ze względu na to, że tak jak w poszczególnych jego bryłach, tak i na samym ich styku zachowana musi być ciągłość struktury krystalicznej półprzewodnika. Zwykłe, fizyczne złączenie ze sobą dwóch półprzewodników nigdy nie zapewni tak idealnego połączenia i na ich styku zawsze będą występowały zaburzenia struktury krystalicznej w postaci np. dyslokacji czy luk w sieci. Takie zaburzenia wprowadzają do półprzewodnika niepożądane stany energetyczne, uniemożliwiające wystąpienie w złączu P-N charakterystycznych dla niego zjawisk. Samo złącze P-N powstaje w wyniku zastosowania specjalistycznych procesów technologicznych, jednak dla naszych potrzeb wyjaśnienia jego powstawania taki myślowy model zupełnie wystarcza. Tak więc wyobraźmy sobie, że łączymy ze sobą dwie, obojętne pod względem elektrycznym, bryły półprzewodnikowe typu P oraz typu N, co pokazano na rysunku 6.1a, zakładając jednocześnie, że po zetknięciu utworzyły one idealne połączenie. W półprzewodniku typu P koncentracja dziur jest o wiele większa niż w półprzewodniku typu N, a w tym z kolei koncentracja elektronów jest o wiele większa niż w półprzewodniku typu P, więc z powodu tej różnicy koncentracji w półprze-
146
6. Złącze P-N
wodnikach dojdzie do procesu dyfuzji, czyli wyrównywania się koncentracji nośników między obszarami przeciwnego typu. Wówczas elektrony z półprzewodnika typu N będą się przemieszczały do półprzewodnika typu P, natomiast dziury z półprzewodnika typu P przemieszczać się będą do półprzewodnika typu N. Jak pamiętamy, w półprzewodniku typu N, oprócz nośników, znajdują się również nieruchome, dodatnio zjonizowane atomy domieszek. Teraz, w wyniku odpływu z tego obszaru części elektronów, czyli ładunku ujemnego, zaburzona zostanie obojętność elektryczna tego obszaru i ujawnią swoją obecność ładunki dodatnie domieszek, a więc część obszaru półprzewodnika typu N zostanie niejako naładowana dodatnio (rysunek 6.1b). Podobna sytuacja będzie miała miejsce w półprzewodniku typu P, mającym oprócz nośników również nieruchome, ujemnie zjonizowane atomy domieszek. Tu również, wskutek odpływu z tego obszaru części dziur, czyli ładunku dodatniego, zaburzona zostanie obojętność elektryczna tego obszaru i swoją obecność ujawnią ładunki ujemne domieszek, powodując, że część tego półprzewodnika typu P stanie się naładowana ujemnie. W miarę przepływu dyfuzyjnego nośników coraz większa część ładunku domieszek będzie „odkrywana”. Odkrywanie tych ładunków rozpocznie się od samego styku i postępować będzie w kierunku zewnętrznym obu półprzewodników. W wyniku tego po obu stronach styku znajdować się będą ładunki domieszek o przeciwnych znakach, pomiędzy którymi powstanie pole elektryczne o liniach sił prostopadłych do powierzchni styku. Pole to będzie przeciwdziałać dalszej dyfuzji nośników przez ten obszar, unosząc je w przeciwną stronę. Im więcej nośników przepłynie dyfuzyjnie do przeciwnych obszarów, tym silniejsze będzie pole elektryczne powstające przy styku półprzewodników i tym silniej będzie ono hamowało proces dyfuzji, który z drugiej strony i tak słabnie w miarę wyrównywania się koncentracji nośników. W pewnym momencie oba zjawiska, dyfuzja oraz unoszenie, zrównoważą swoją intensywność i proces przemieszczania się nośników między oboma obszarami ustanie. W zasadzie nie nastąpi całkowite zatrzymanie przepływu nośników. Rozważając indywidualnie pojedyncze nośniki, okaże się, że pod wpływem chaotycznego ruchu cieplnego nośników znajdujących się w bardziej zewnętrznych obszarach, gdzie pole elektryczne nie występuje, zawsze jakieś nośniki „błądzące” przy granicy tego
Rys. 6.1. Myślowy model powstawania złącza P-N. Stan warstw półprzewodnikowych przed połączeniem (a) oraz po połączeniu (b)
6.1. Struktura fizyczna
147
pola wpadną w końcu do niego i zostaną przez nie uniesione na drugą stronę, do obszaru półprzewodnika przeciwnego typu, skąd sprowadził je proces dyfuzji, tworząc tym samym składową prądu unoszenia. To z kolei oznacza, że po tej drugiej stronie koncentracja nośników nieznacznie wzrośnie, co zwiększy różnicę koncentracji w stosunku do tego pierwszego obszaru, a to, jak wiemy, spowoduje ponownie dyfuzję części nośników przez obszar pola elektrycznego. Tak więc, mimo że w skali lokalnej stale zachodzi wymiana nośników między obszarami półprzewodnika typu P i typu N, to obie składowe w sensie średnim równoważą się i w stanie równowagi bilans przepływających nośników jest równy zeru – składowa powstałego prądu dyfuzyjnego dziur jest równoważona przez przeciwną do niej składową prądu unoszenia dziur, natomiast składowa powstałego prądu dyfuzyjnego elektronów jest równoważona przez przeciwną do niej składową prądu unoszenia elektronów. Okazuje się również, że jest to jak najbardziej zgodne z zasadą zachowania energii. Gdyby bowiem, w sensie średnim, ruch nośników nie ustał, oznaczałoby to, że bez dostarczania energii z zewnątrz, tylko w wyniku samego złączenia ze sobą dwóch półprzewodników różnego typu, przez powstałe złącze P-N płynąłby prąd elektryczny, upodabniając tym samym złącze P-N do niewyczerpalnego źródła energii elektrycznej, którym złącze P-N oczywiście nie jest. Tak więc, w wyniku utworzenia złącza P-N, czyli struktury złożonej z dwóch brył półprzewodnika różnego typu, osiągnięcie stanu równowagi oznacza powstanie w nim, w pobliżu styku, obszaru ładunku przestrzennego generującego pole elektryczne. Ładunek ten rozmieszczony jest na kształt dipola (czyli wyraźnie wyodrębnionych ładunków dodatnich i ujemnych), stąd też określa się go mianem ładunku dipolowego. Z kolei obszar, w którym ten ładunek występuje, z uwagi na hamowanie procesu dyfuzji, nazywany jest warstwą zaporową lub rzadziej warstwą zubożoną. Ta druga nazwa związana jest z brakiem w tym obszarze nośników swobodnych. Albowiem, jeśli jakikolwiek nośnik z jakiejkolwiek przyczyny pojawi się w obszarze warstwy zaporowej, zostanie przez jej pole elektryczne natychmiast z niej wymieciony. Z tego też powodu przyjmuje się, że w warstwie zaporowej nośników nie ma, a ich koncentracja jest tam nieokreślona. Ponadto, pomiędzy ładunkami przestrzennymi, znajdującymi się w warstwie zaporowej w obu obszarach półprzewodnika, występuje różnica potencjałów, stanowiąca barierę potencjału dla dyfundujących nośników i jest nazywana potencjałem lub napięciem dyfuzyjnym (gdyż właśnie zjawisko dyfuzji spowodowało wyodrębnienie się ładunków domieszek i powstanie pola elektrycznego), a oznaczanym często przez Ud lub jB. Napięcie to będzie zależało m.in. od rodzaju półprzewodnika, stopnia jego domieszkowania oraz od temperatury. Przykładowo, w temperaturze pokojowej, tj. w ok. 300 K, typowe napięcie dyfuzyjne złącza P-N wykonanego z krzemu zawiera się w zakresie od ok. 0,6 V do ok. 0,8 V, a złącza germanowego od ok. 0,2 V do ok. 0,3 V, natomiast złącza wykonanego z arsenku galu od ok. 1,2 V do ok. 1,4 V. Należy dodać, że obszary złącza P-N przeważnie nie są domieszkowane z jednakową siłą. Obszar słabiej domieszkowany nazywany jest bazą złącza P-N, a obszar silniej domieszkowany – emiterem złącza P-N. Z powodu różnicy w sile domieszkowania obszarów złącza P-N warstwa zaporowa powstająca na styku tych obszarów głębiej wnika (rozwija się) w obszar słabiej domieszkowany. Spowodowane to
148
6. Złącze P-N
jest tym, że w obszarze słabo domieszkowanym koncentracja domieszek, a więc ładunków nieruchomych, jest mała i sprawia, że warstwa zaporowa musi być w tym przypadku szeroka, aby objąć sobą taką samą ilość ładunku, jaką obejmuje sobą cieńsza warstwa zaporowa powstała w obszarze silnie domieszkowanym. W przypadku znacznej różnicy w sile domieszkowania można przyjąć, że na szerokość warstwy zaporowej ma wówczas wpływ jedynie obszar słabiej domieszkowany, czyli baza złącza P-N. Warto jeszcze wspomnieć, że pozostałe obszary złącza P-N, czyli obszary poza warstwą zaporową, pozostają obojętne elektrycznie, gdyż występujące tam nośniki nadal powodują kompensowanie przeciwnych do nich ładunków domieszek. Proces powstawania warstwy zaporowej, czyli dochodzenia do równowagi wpływów dyfuzji i unoszenia nośników, jest procesem przejściowym i zachodzi już w trakcie procesu produkcji, stopniowo, w miarę tworzenia się złącza P-N. Po jego wytworzeniu opisany stan równowagi jest już wówczas permanentnym stanem złącza P-N. Odtąd, mówiąc o złączu P-N, będziemy mieli na myśli w pełni ukształtowaną strukturę P-N z istniejącym w niej obszarem pola elektrycznego warstwy zaporowej. Podobnie jak dla pojedynczego półprzewodnika określonego typu, tak i dla złącza P-N, jako struktury złożonej z dwóch typów półprzewodnika, możliwe jest przedstawienie jego energetycznego modelu pasmowego. Jak pamiętamy, modele pasmowe obu typów półprzewodnika różniły się między sobą jedynie położeniem poziomu Fermiego, oznaczającego wartość średnią energii elektronów (rysunek 6.2a). W półprzewodniku typu N był on położony bliżej pasma przewodnictwa, a w półprzewodniku typu P – bliżej pasma walencyjnego. Ponieważ w stanie równowagi poziom Fermiego w całym złączu P-N jako monolitycznej strukturze powinien być jednakowy, przesunięciu względem siebie między oboma półprzewodnikami ulegają poziomy energetyczne pasm przewodnictwa i pasm walencyjnych (rysunek 6.2b).
Rys. 6.2. Modele energetyczne nieoddziałujących na siebie półprzewodników typu N i typu P (a) oraz model energetyczny złącza P-N (b)
6.1. Struktura fizyczna
149
Przesunięcie to odpowiada barierze potencjału wynikającej z napięcia dyfuzyjnego i określone jest wartością q · jB. Można to zinterpretować następująco. Ponieważ średnia energia elektronów w całym złączu P-N musi być taka sama, a w półprzewodniku typu N jest więcej swobodnych elektronów niż w półprzewodniku typu P, to aby przy większej liczbie elektronów w półprzewodniku typu N zachowana była ta sama średnia energia, energia każdego elektronu musi tam być odpowiednio mniejsza (mniejsza energia pojedynczego elektronu w półprzewodniku typu N przy większej ich liczbie da tę samą energię, co mała liczba elektronów w półprzewodniku typu P przy większej wartości ich energii), stąd pojawia się różnica energii elektronów między półprzewodnikiem typu N a typu P, a więc i zagięcie pasm energetycznych. Analogiczne rozumowanie można przedstawić odnośnie energii dziur, pamiętając jedynie, że energia dziur w energetycznym modelu pasmowym rośnie w dół, czyli odwrotnie niż energia elektronów. W tym miejscu, jako ciekawostkę, warto dodać, że zmiana energii nośników między oboma półprzewodnikami wiąże się ze zmianą temperatury danego półprzewodnika podczas przepływu prądu przez złącze P-N. Zostało to „sprytnie” wykorzystane w bardzo ciekawym urządzeniu półprzewodnikowym, zwanym modułem lub ogniwem Peltiera. Jego specyficzna konstrukcja, złożona z wielu złączy P-N, powoduje, że podczas przepływu prądu przez ten element jedna jego strona pobiera ciepło z otoczenia, druga natomiast to ciepło oddaje, tworząc swoistą pompę ciepła, wymuszającą przepływ ciepła w jedną stronę. Pozwala to wykorzystać ten przyrząd do chłodzenia, jeśli stronę grzejącą zaopatrzymy np. w radiator, który pobrane z drugiej strony ciepło będzie oddawał do otoczenia. W praktyce wygląda to tak, że jedna jego strona jest zawsze chłodniejsza od drugiej, niezależnie od tego, jaka będzie temperatura tej cieplejszej strony. Jak już zostało wspomniane, złącze P-N pojawia się w strukturach niemalże wszystkich elementów półprzewodnikowych i jedynie w diodach występuje w swej pierwotnej postaci jako element samodzielny. Dioda różni się od złącza P-N jedynie tym, że ma odpowiednio ukształtowaną w procesie produkcji strukturę fizyczną oraz ma obudowę chroniącą to złącze przed uszkodzeniami mechanicznymi i wpływami środowiska zewnętrznego, a także tym, że wyposażona jest w dwie elektrody, czyli metalowe wyprowadzenia dołączone do każdego z obszarów półprzewodnika (rysunek 6.3a), pozwalające na doprowadzenie napięcia polaryzującego do złącza po umieszczeniu diody w obwodzie elektrycznym. Elektrodę dołączoną do obszaru typu P nazywa się anodą i oznacza przez A, a elektrodę dołączoną do obszaru typu N – katodą i oznacza przez K. Nie wchodząc w szczegóły zagadnienia wytwarzania takich połączeń, w uproszczeniu można powiedzieć, że tworzony jest specjalny rodzaj połączenia metalowego z półprzewodnikiem zwany złączem metal-półprzewodnik, a w skrócie złączem m-s (ang. metal-semiconductor). Odpowiednio wykonane złącze m-s, kontakt omowy, będzie charakteryzowało się małą rezystancją i, co ważne, liniową charakterystyką prądowo-napięciową. Cechy te są bardzo istotne przy doprowadzaniu napięcia do złącza P-N, ponieważ pozwalają uniknąć wpływu tych kontaktów na właściwą charakterystykę złącza P-N lub przynajmniej ten wpływ zminimalizować. Na schematach obwodów elektrycznych diody reprezentowane są przez odpowiedni symbol gra-
150
6. Złącze P-N
Rys. 6.3. Uproszczony przekrój przez strukturę warstwową diody (a) oraz symbol graficzny diody używany na schematach obwodów elektrycznych (b)
ficzny, przy czym, w zależności od rodzaju diody, symbol ten ulega niewielkim zmianom. Najbardziej podstawowym symbolem przedstawiającym diodę w sensie ogólnym jest symbol widoczny na rysunku 6.3b. Inne symbole będą przedstawione pod koniec rozdziału 6.
6.2.
Ruch nośników w stanie nierównowagi Jak już wiadomo, w półprzewodniku mogą występować dwa mechanizmy przepływu nośników: dyfuzja oraz unoszenie. W złączu P-N działają one równocześnie i niezależnie od siebie. Pamiętamy, że w stanie równowagi termodynamicznej, czyli bez dostarczania do złącza P-N energii z zewnątrz, prąd w sensie globalnym przez złącze P-N nie przepływa – składowe prądu dyfuzji są równoważone przez przeciwnie do nich skierowane składowe prądu unoszenia. Okazuje się, że jeśli równowaga termodynamiczna zostanie zaburzona, to dojść może do przewagi jednej ze składowych nad drugą, co z kolei objawić się może przepływem prądu przez złącze P-N. Zaburzenie równowagi spowodowane może być różnymi czynnikami. Najczęściej występującymi, a raczej wykorzystywanymi, są: oddziaływanie na złącze promieniowaniem elektromagnetycznym, czyli np. jego oświetlenie albo przyłożenie do złącza P-N napięcia. Efektami oświetlania elementów półprzewodnikowych zajmiemy się w rozdziale dotyczącym elementów optoelektronicznych, tu natomiast skupimy się na oddziaływaniu pola elektrycznego na złącze P-N, czyli efektach spolaryzowania go napięciem elektrycznym. W zależności od kierunku przyłożonego napięcia wyróżnić można dwa sposoby spolaryzowania złącza P-N. Jeśli napięcie zewnętrzne przyłożono w taki sposób, że potencjał dodatni źródła podany zostanie (poprzez kontakt omowy) na półprzewodnik typu N, natomiast potencjał ujemny na półprzewodnik typu P, to taką polaryzację nazywa się polaryzacją w kierunku zaporowym lub krótko kierunkiem zaporowym czy polaryzacją zaporową, a przyłożone napięcie – napięciem zaporowym lub napięciem wstecznym. Umownie przyjmuje się też, że znak tego napięcia jest ujemny. Zakłada się, że obszary neutralne złącza P-N, czyli znajdujące się poza warstwą zaporową, charakteryzują się brakiem rezystancji, więc w pierwszym przybliżeniu przyjmuje się, że praktycznie całe przyłożone napięcie zewnętrzne odkłada się na samej tylko warstwie zaporowej. A ponieważ w tym przypadku jest ono zgodne
6.2. Ruch nośników w stanie nierównowagi
151
z kierunkiem napięcia dyfuzyjnego, powinno ono spowodować zwiększenie się napięcia występującego na warstwie zaporowej. Większemu napięciu na warstwie zaporowej musi zatem odpowiadać większy ładunek przestrzenny domieszek. Ładunek domieszek jest jednak ładunkiem nieruchomych jonów i nie może się zwiększyć przez zwykłe przemieszczenie się dodatkowego ładunku domieszek do obszaru warstwy zaporowej. Jego zwiększenie może się odbyć jedynie przez poszerzenie warstwy zaporowej, tak aby objęła ona swym zasięgiem dodatkowy ładunek domieszek (rysunek 6.4a). Dochodzi do tego poprzez częściowy odpływ nośników z obszarów obojętnych elektrycznie w pobliżu warstwy zaporowej po obu jej stronach. Można powiedzieć, że pod wpływem przyłożonego do anody ujemnego potencjału źródła dziury przemieszczają się w kierunku ujemnej elektrody, pozostawiając po sobie w bezpośrednim sąsiedztwie warstwy zaporowej odkryte, nieskompensowane ujemne jony domieszek, będące tym dodatkowym ładunkiem zwiększającym napięcie na warstwie zaporowej oraz jej szerokość. Z kolei, pod wpływem przyłożonego do katody
Rys. 6.4. Rozmieszczenie nośników w złączu P-N przy polaryzacji w kierunku zaporowym (a) i w kierunku przewodzenia (c) i wynikające z tego szerokości warstwy zaporowej oraz związane z nimi energetyczne modele pasmowe (b, d). Porównano szerokości warstwy zaporowej dla stanu równowagi oraz dla dwóch omawianych przypadków
152
6. Złącze P-N
dodatniego potencjału źródła, elektrony przemieszczają się w kierunku dodatniej elektrody, pozostawiając po sobie w bezpośrednim sąsiedztwie warstwy zaporowej odkryte, nieskompensowane dodatnie jony domieszek, również będące dodatkowym ładunkiem zwiększającym napięcie na warstwie zaporowej i tym samym jej szerokość. Jednocześnie, w wyniku zwiększenia się szerokości warstwy zaporowej, czyli zwiększenia się jej ładunku, wzrośnie również natężenie jej pola elektrycznego. Jak pamiętamy, pole to przyczynia się do hamowania procesu dyfuzji nośników przez warstwę zaporową, a wskutek zwiększenia się jego natężenia stanowi ono jeszcze większą barierę dla przepływających dyfuzyjnie dziur i elektronów. Tak więc, w wyniku zwiększania napięcia polaryzacji w kierunku zaporowym, składowe dyfuzyjne prądów płynących przez warstwę zaporową będą malały. Zjawisko to tłumaczy się również zmniejszeniem się prawdopodobieństwa przejścia nośników, niejako pod prąd pola elektrycznego przez wyższą barierę potencjału równą q · (jB + |U |), co skutkuje właśnie zmniejszeniem się składowych dyfuzyjnych (rysunek 6.4b). W rzeczywistości już przy niewielkich wartościach napięcia zaporowego składowe dyfuzyjne zanikają w zasadzie do zera. Co z kolei dzieje się ze składowymi unoszenia w miarę zwiększania napięcia zaporowego? Jak pamiętamy, prąd unoszenia w złączu P-N powstaje w wyniku unoszenia nośników przez pole elektryczne warstwy zaporowej. Nośniki te napływają w jej pobliże z obszarów neutralnych, gdzie poruszają się jedynie chaotycznym ruchem cieplnym. W wyniku tego ruchu niektóre z nich w końcu trafią w obszar pola elektrycznego i zostaną przez to pole uniesione, tworząc prąd unoszenia. Ponieważ w obszarach neutralnych na nośniki nie działa żadna siła, to prawdopodobieństwo trafienia nośników do warstwy zaporowej, czyli intensywność ich dopływu do niej, zależne jest wyłącznie od ich liczby, a ściślej ich koncentracji przy granicach tej warstwy. Koncentracja ta z kolei nie zależy od napięcia polaryzacji, gdyż całe ono odkłada się na warstwie zaporowej. Im więcej jest zatem nośników w obszarach obojętnych, tym większa jest szansa na to, że któryś z nich ruchem chaotycznym wpadnie do pola elektrycznego, a wtedy zostanie uniesiony przez to pole, tworząc prąd unoszenia. Z uwagi na kierunek tego pola, prąd ten dotyczy wyłącznie dziur unoszonych z obszaru typu N do obszaru typu P oraz elektronów unoszonych z obszaru typu P do obszaru typu N, a więc nośników mniejszościowych, których koncentracja w półprzewodniku, jak pamiętamy, jest znikoma. Z tego też względu prąd unoszenia w złączu P-N ma bardzo małą wartość, a brak oddziaływania napięcia polaryzującego na nośniki, które go tworzą, sprawia, że prąd ten jest niezależny od napięcia i ma taką samą wartość jak w stanie równowagi. Warto w tym miejscu przypomnieć, że wartość koncentracji nośników mniejszościowych w półprzewodniku, zgodnie z zależnością (5.2), jest wprost proporcjonalna do kwadratu koncentracji samoistnej ni. Oznacza to, że również wartość prądu unoszenia jest wprost proporcjonalna do jej kwadratu, tzn. IU ~ ni2. Jest to dosyć istotna zależność, gdyż, jak się później okaże, koncentracja nośników mniejszościowych może się zmienić np. pod wpływem temperatury czy promieniowania świetlnego, które wpływają właśnie na koncentrację samoistną lub po prostu po wprowadzeniu
6.2. Ruch nośników w stanie nierównowagi
153
dodatkowych nośników do obszarów półprzewodnika, co w rezultacie może spowodować wzrost prądu unoszenia. Podsumowując, możemy stwierdzić, że przez złącze P-N spolaryzowane w kierunku zaporowym płynie niewielki prąd wsteczny o stałej wartości, niezależnej od wartości napięcia polaryzującego. Zwany on jest prądem nasycenia i zależy w zasadzie jedynie od wymienionej już koncentracji nośników mniejszościowych, która, poprzez zależność od koncentracji samoistnej, zależy od sposobu wykonania złącza oraz od rodzaju użytego półprzewodnika. Na przykład dla złącza P-N wykonanego z germanu prąd ten wynosi nawet kilkadziesiąt mikroamperów i uważa się go za dosyć duży, w odróżnieniu np. od prądu złącza krzemowego, gdzie jest on rzędu ułamka nanoampera, czyli bardzo mały. Drugi sposób spolaryzowania złącza P-N polega na przyłożeniu napięcia w przeciwnym kierunku niż zaporowy, czyli w taki sposób, aby potencjał dodatni źródła podany był na półprzewodnik typu P, natomiast potencjał ujemny na półprzewodnik typu N. Polaryzację taką nazywa się polaryzacją w kierunku przewodzenia, lub krótko kierunkiem przewodzenia, a napięcie z nią związane uważa się za dodatnie. Przy takiej polaryzacji przyłożone napięcie jest przeciwne do kierunku napięcia dyfuzyjnego i po zsumowaniu powinno spowodować zmniejszenie się napięcia występującego na warstwie zaporowej. Podobnie jak w przypadku polaryzacji zaporowej, również i teraz zmianie powinien ulec ładunek przestrzenny domieszek w warstwie zaporowej. Tym razem ładunek ten ulega zmniejszeniu przez zwężenie się warstwy zaporowej (rysunek 6.4c). Dochodzi do tego dzięki dopływowi nośników do zewnętrznych obszarów warstwy zaporowej po obu jej stronach. Można powiedzieć, że pod wpływem przyłożonego do anody dodatniego potencjału źródła dziury, odpychane od niego, przemieszczają się w kierunku warstwy zaporowej, co sprawia, że dziury z otoczenia warstwy zaporowej są niejako do niej „wpychane” przez kolejne dziury napływające z obszarów neutralnych od dodatniego potencjału, powodując tym samym częściowe kompensowanie (niwelowanie) ładunku ujemnych jonów domieszki warstwy zaporowej, co zmniejsza napięcie na warstwie zaporowej oraz jej szerokość. Podobnie, pod wpływem przyłożonego do katody ujemnego potencjału źródła, elektrony, odpychane od niego, przemieszczają się w kierunku warstwy zaporowej, co również sprawia, że elektrony z otoczenia warstwy zaporowej są do niej „wpychane” przez elektrony napływające z obszarów neutralnych od ujemnego potencjału. Powoduje to częściowe niwelowanie ładunku dodatnich jonów domieszki w zewnętrznych częściach warstwy zaporowej, a tym samym zmniejszenie napięcia na warstwie zaporowej oraz zmniejszenie jej szerokości. W wyniku zmniejszenia się szerokości warstwy zaporowej, czyli zmniejszenia się jej ładunku, maleje również natężenie jej pola elektrycznego. W wyniku tego pole to stanowi teraz mniejszą barierę dla przepływających dyfuzyjnie dziur i elektronów. Tak więc składowe dyfuzyjne prądów płynących przez warstwę zaporową wzrosną i będą one tym większe, im większe napięcie w kierunku przewodzenia zostanie do złącza P-N przyłożone. Zjawisko to tłumaczy się zwiększeniem prawdopodobieństwa przejścia nośników, niejako pod prąd pola elektrycznego, przez niższą barierę
154
6. Złącze P-N
potencjału równą q · (jB – |U|), co skutkuje właśnie zwiększeniem się składowych dyfuzyjnych (rysunek 6.4d). Taki przepływ nośników o dużym natężeniu z jednego obszaru do drugiego pod wpływem przyłożonego napięcia w kierunku przewodzenia nazywany jest wstrzykiwaniem nośników. Często też używa się sformułowań wstrzykiwania nośników do warstwy zaporowej lub przez warstwę zaporową do obszarów neutralnych. Należy przy tym nadmienić, że w wyniku wstrzykiwania duży strumień nośników mniejszościowych napływa do obu obszarów złącza P-N. Do obszaru typu P wpływają dodatkowe elektrony, a do obszaru typu N dodatkowe dziury. A ponieważ nośniki te zwiększają ogólną koncentrację nośników mniejszościowych w obu obszarach powyżej koncentracji ze stanu równowagi, nazywa się je nośnikami nadmiarowymi. W przypadku złącza o nierównej sile domieszkowania najwięcej nośników będzie wstrzykiwanych z obszaru silniej domieszkowanego, czyli z emitera, do obszaru przeciwnego, czyli do bazy. Można zatem stwierdzić, że najwięcej nadmiarowych nośników mniejszościowych będzie się gromadziło w obszarze bazy złącza P-N. Powinno to więc zaburzyć neutralność elektryczną tych obszarów. Tak się jednak nie dzieje, gdyż w celu dalszego zachowania obojętności elektrycznej z obwodu zewnętrznego przez oba zaciski złącza P-N napływają do tych obszarów nośniki przeciwnego typu niż nośniki mniejszościowe, które kompensują ładunek wstrzykniętych nośników. Trzeba jednak pamiętać, że dziury w metalach nie istnieją, a więc nie płyną też w metalowych doprowadzeniach obwodu zewnętrznego. Zatem ich napływ z obwodu zewnętrznego należy oczywiście traktować jako przeciwny ruch elektronów, tzn. jako ich odpływ z obszaru półprzewodnika do obwodu zewnętrznego. Zastanówmy się jeszcze, co się stanie, gdy napięcie polaryzujące złącze będzie równe wartości napięcia dyfuzyjnego? W takim przypadku napięcie na warstwie zaporowej zmaleje do zera, a tym samym zaniknie całkowicie warstwa zaporowa wraz z jej polem elektrycznym i nośniki już bez żadnych przeszkód będą mogły przepływać dyfuzyjnie przez złącze P-N. Ostatecznie można stwierdzić, że w złączu spolaryzowanym w kierunku przewodzenia dominującymi składowymi, obok niewielkich prądów unoszenia (nasycenia), są prądy dyfuzyjne dziur i elektronów. Składowe dyfuzyjne rosną wykładniczo w funkcji wzrastającego napięcia, więc prąd płynący przez złącze P-N w kierunku przewodzenia przyjmować może duże wartości dla niewielkich nawet napięć polaryzujących. W zależności od budowy i przeznaczenia diod, prąd przewodzenia może przyjmować wartości od pojedynczych miliamperów dla typowych diod do setek, a nawet tysięcy amperów dla diod wysokiej mocy stosowanych w energetyce. Ponieważ przez złącze P-N spolaryzowane w kierunku zaporowym może płynąć jedynie niewielki prąd nasycenia, złącze w takim przypadku charakteryzuje się bardzo dużą rezystancją. Z kolei, ponieważ przez złącze spolaryzowane w kierunku przewodzenia mogą płynąć już znacznie większe prądy, charakteryzuje się ono małą rezystancją. Z tego też względu często upraszcza się zagadnienie, mówiąc, że złącze spolaryzowane w kierunku zaporowym nie przewodzi prądu, natomiast spolaryzowane w kierunku przewodzenia prąd przewodzi.
155
6.3. Praca statyczna złącza P-N
6.3.
Praca statyczna złącza P-N Pracą statyczną, w odróżnieniu od pracy dynamicznej, nazwane zostało działanie elementów elektrycznych pobudzanych napięciami i/lub prądami stałymi. Ściślej mówiąc, rozpatruje się działanie tych elementów jedynie w takich przedziałach czasu, w których ewentualne procesy przejściowe, wynikające ze zmiany napięć i/lub prądów z jednych wartości na drugie, już się zakończyły, a więc w stanie ustalonym. Do opisu właściwości elektrycznych elementów przy pracy statycznej najczęściej wykorzystuje się ich graficzne przedstawienie w postaci zależności prądu od napięcia lub czasem odwrotnie napięcia od prądu, zwane charakterystyką prądowo-napięciową, uzupełnione ewentualnie charakterystycznymi parametrami statycznymi elementu, których wartości można wskazać na takiej charakterystyce. Z tego też względu właściwości złącza P-N, jak również i pozostałych elementów, związane z pracą statyczną, będziemy obrazować za pomocą jego statycznych charakterystyk prądowo-napięciowych. Opisane poprzednio zjawiska zachodzące w złączu P-N uogólniliśmy ostatecznie do stwierdzenia, że prąd płynący przez złącze P-N złożony jest z dwóch składowych: prądu unoszenia, zwanego też prądem nasycenia, o bardzo małej wartości, niezależnej od wartości napięcia polaryzującego oraz, przeciwnie do niego skierowanego, prądu dyfuzyjnego ściśle zależnego od napięcia polaryzującego, co przedstawić można jako następujące wyrażenie: I = ID – IU ,
(6.1)
gdzie ID jest prądem dyfuzyjnym, IU – prądem unoszenia, a I – całkowitym prądem płynącym przez złącze P-N. Jeżeli prąd unoszenia, jako prąd nasycenia, oznaczymy przez IS (ang. saturation), a prąd dyfuzyjny, bez wgłębiania się w ścisłe wyprowadzenia fizyczne, wyrazimy jego wykładniczą zależnością od napięcia, a mianowicie ID(U) = IS · exp(U/UT), to powyższy wzór na całkowity prąd I złącza P-N dla napięcia polaryzującego U przyjmie postać: U I (U ) = I S ⋅ exp − IS UT
(6.2.a)
a ostatecznie po wyciągnięciu IS przed nawias: U I (U ) = I S ⋅ exp − 1 , UT
(6.2.b)
przy czym UT = kT/q, gdzie k jest stałą Boltzmanna wyrażoną w [J/K], T – temperaturą złącza P-N wyrażoną w [K], a q – ładunkiem elementarnym w [C], czyli ładunkiem elektronu. Wielkość UT, oznaczana też przez jT, nazywana jest potencjałem termokinetycznym lub potencjałem elektrokinetycznym, a czasem po prostu potencjałem termicznym i w temperaturze pokojowej, czyli przy ok. 300 K, przyjmuje wartość równą ok. 26 mV.
156
6. Złącze P-N
W celu pokazania zachowania się każdej ze składowych prądu złącza P-N, opisanych powyższymi wzorami oraz wyniku ich zsumowania, na rysunku 6.5 zamieszczono fragment charakterystyki prądowo-napięciowej przykładowego złącza P-N wraz z obiema składowymi. Zakładamy, że złącze to znajduje się w temperaturze T = 300 K i charakteryzuje się prądem nasycenia IS = 1 pA. Jak pamiętamy, składowa prądu unoszenia jest niezależna od napięcia, co przedstawione jest na wykresie linią równoległą do osi napięciowej, a ponieważ prąd ten jest przeciwny do prądu dyfuzyjnego, to jego wartość przyjmowana jest jako ujemna, w odróżnieniu od dodatniej wartości składowej dyfuzyjnej. Ta z kolei, jak widać, silnie zależy od napięcia i zmienia się w sposób wykładniczy. Bardzo gwałtownie maleje wraz ze zmniejszaniem napięcia, ale równie gwałtownie rośnie wraz z jego wzrostem. Dla ujemnych napięć zanika ona praktycznie do zera już dla niewielkich jego wartości, natomiast dla niewielkich wartości dodatnich osiąga bardzo duże wartości. W wyniku zsumowania obu składowych otrzymujemy typowy kształt charakterystyki prądowo-napięciowej złącza P-N, tzn. w kierunku zaporowym płynie niewielki prąd nasycenia (I = IS), a w kierunku przewodzenia prąd rośnie wykładniczo wraz ze wzrostem napięcia. Jak widać, charakterystyka ta przechodzi przez środek układu współrzędnych, co oznacza, że przy napięciu polaryzacji równym zeru prąd przez złącze P-N nie płynie, co wynika z opisanych wcześniej zjawisk dla stanu równowagi, gdzie płynące niezależnie od siebie składowe prądów unoszenia i dyfuzji znoszą się wzajemnie. Należy zauważyć, że zakres napięć oraz prądów objętych przez przedstawiony wykres specjalnie dobrano tak wąsko, aby wyeksponować na wykresie opisane różnice między składową unoszenia a składową dyfuzyjną. Przedstawienie takie może jednak sugerować, że znaczny prąd może już płynąć przez złącze P-N przy dowolnie małych wartościach dodatnich napięcia polaryzacji. Wynika to jednak tylko z zastosowanej skali wykresu. Jak widać, war-
Rys. 6.5. Wykres przykładowej charakterystyki prądowo-napięciowej idealnego złącza P-N (linia czarna) oraz dwóch składowych prądów dyfuzyjnego (linia zielona) i unoszenia (linia czerwona) ukazanej w wąskim zakresie prądów eksponującym prąd unoszenia
6.3. Praca statyczna złącza P-N
157
tość maksymalna prądu jest w tym zakresie tylko pięciokrotnie większa od wartości prądu nasycenia. Tak mały prąd przewodzenia w typowych zastosowaniach diod nie jest jeszcze prądem użytecznym, który, jak już wspomniano, może być np. rzędu miliamperów. Dla pełniejszego zobrazowania charakterystyki prądowo-napięciowej złącza P-N na rysunku 6.6 pokazano charakterystykę w szerszym zakresie napięć, takim, aby maksymalny prąd przewodzenia wynosił tym razem przynajmniej 10 mA. Widać wówczas, że z praktycznego punktu widzenia złącze P-N dla napięć ujemnych, czyli w zakresie zaporowym, aż do pewnego napięcia w kierunku przewodzenia w zasadzie prądu nie przewodzi (charakterystyka w tym zakresie, przynajmniej wizualnie, pokrywa się z osią napięciową), zaczyna natomiast przewodzić dopiero powyżej tego napięcia i jak widać, jest to dosyć „gwałtowne przewodzenie”, przypominamy, spowodowane wykładniczą zależnością od napięcia. Napięcie, przy którym można uznać, że złącze P-N przewodzi prąd, ma wartość bardzo zbliżoną do wartości napięcia dyfuzyjnego, co w zasadzie nie powinno dziwić, jak już bowiem pokazano, przy napięciu zewnętrznym równym napięciu dyfuzyjnemu zanika całkowicie warstwa zaporowa hamująca zjawisko dyfuzji i prąd dyfuzyjny już bez przeszkód może płynąć przez złącze P-N. A ponieważ zanikanie warstwy zaporowej zachodzi stopniowo, w miarę zwiększania napięcia, stąd też stopniowy wzrost prądu na początku zakresu przewodzenia. Jednak brak warstwy zaporowej oznacza również brak na niej napięcia, a to z kolei wymuszałoby zerową wartość napięcia na zaciskach złącza P-N (zakładając przyjęte wcześniej założenia idealizujące o znikomej rezystancji obszarów poza warstwą zaporową), co wyraźnie kłóci się z warunkami pracy złącza, które polaryzowane jest jednak niezerowym napięciem, powodującym właśnie zanik warstwy zaporowej. Problem ten rozwiązuje się, przyjmując, że charakterystyka idealnego złącza P-N w kierunku przewodzenia ograniczona jest napięciem dyfuzyjnym. Krótko mówiąc, złącza idealnego nie można polaryzować napięciem równym lub większym od napięcia dyfuzyjnego, mimo że
Rys. 6.6. Wykres przykładowej charakterystyki prądowo-napięciowej idealnego złącza P-N ukazanej w szerokim zakresie prądów (do 10 mA). Widać znikomość prądu nasycenia oraz gwałtowność wzrostu prądu dyfuzyjnego
158
6. Złącze P-N
Rys. 6.7. Wykres przykładowej charakterystyki prądowo-napięciowej idealnego złącza P-N przedstawiony dla wygody z zastosowaniem różnych skal dla kierunku zaporowego i kierunku przewodzenia
funkcja wykładnicza, opisująca prąd, ograniczenia takiego nie ma. Jednak, jak się wkrótce okaże, ograniczenie to, jako że dotyczy wyłącznie złącza idealnego, nie jest aż tak istotnym ograniczeniem, gdyż nie występuje w złączach rzeczywistych. Wspominamy tu o tym ograniczeniu w zasadzie tylko dla jasności opisu. Przy dalszym omawianiu właściwości złącza P-N posługiwać się będziemy jednak przedstawieniami charakterystyk w nieco zmienionej formie, w której skale na półosiach dodatnich oraz ujemnych, zarówno napięcia, jak i prądu, nie będą jednakowe. Zdeformuje to nieco charakterystykę, ale pozwoli na wyeksponowanie na jednym wykresie pewnych ważnych właściwości złącza P-N (rysunek 6.7). A mianowicie, charakterystyka w kierunku zaporowym będzie wyraźnie ukazywała płynący prąd nasycenia, pomimo że jest on znikomy w porównaniu z prądem przewodzenia, a charakterystyka w kierunku przewodzenia nie będzie rosła aż tak gwałtownie, przypominając prawie pionową linię prostą. Różnice między idealnym a rzeczywistym złączem P-N Poznana przez nas do tej pory zasada działania złącza P-N nie uwzględniała pewnych dodatkowych zjawisk występujących w rzeczywistych złączach. Z uwagi na przyjęte wcześniej milcząco założenia upraszczające, wymienione dopiero poniżej, przedstawiony model zjawisk zachodzących w złączu P-N jest modelem wyidealizowanym, który w rzeczywistości nie istnieje. Jest on jednak bardzo dobrym punktem wyjścia do omówienia zjawisk zachodzących w rzeczywistym złączu P-N, kształtujących jego właściwości, a przez to również właściwości pozostałych rzeczywistych elementów półprzewodnikowych. Z tego też względu przedstawiona wcześniej charakterystyka złącza P-N dotyczy wyłącznie złącza idealnego, co wyraźnie przejawia się np. we wspomnianym już ograniczeniu napięcia przewodzenia złącza P-N. Występujące w rzeczywistych złączach P-N zjawiska mają wpływ na jego działanie, a przez to również na kształt jego rzeczywistej charakterystyki prądowo-napięciowej. Nie będziemy w tym miejscu mówić o wszystkich możliwych zjawiskach, ale skupimy się jedynie na najistotniejszych, najwyraźniej wpływających na charakterystykę złącza P-N.
6.3. Praca statyczna złącza P-N
159
W idealnym modelu zjawisk zachodzących w złączu P-N pominęliśmy takie zjawiska jak: – generacja i rekombinacja nośników w warstwie zaporowej, – rezystancje obszarów poza warstwą zaporową – jak już wspomniano, przyjęcie ich jako zerowych oznacza tym samym brak pola elektrycznego w tych obszarach – nośniki poruszają się w nich jedynie wskutek chaotycznego ruchu cieplnego lub wskutek dyfuzji, – rezystancje kontaktów omowych oraz metalowych doprowadzeń czy styków, – przebicia złącza P-N, założyliśmy również, że poziom wstrzykiwania nośników jest na tyle niski, że nie zaburza to neutralności elektrycznej obszarów poza warstwą zaporową. Zjawiska generacji i rekombinacji w złączu P-N W pierwszej kolejności przyjrzyjmy się, jak zjawiska generacji i rekombinacji wpływają na pracę złącza P-N. Tak jak w obszarach obojętnych elektrycznie, tak i w warstwie zaporowej możliwa jest generacja i rekombinacja nośników. Nośniki, elektrony i dziury, wygenerowane parami w warstwie zaporowej, zostają, pod wpływem pola elektrycznego, natychmiast z niej wymiecione w przeciwne strony, tworząc tym samym strumień prądu, zwany prądem generacji. Ponieważ nośniki wymiatane są przez tę samą siłę, jaka działa na nośniki płynące prądem nasycenia, to kierunek prądu generacji jest zgodny z kierunkiem prądu nasycenia. Z kolei zjawisko rekombinacji nośników w warstwie zaporowej powoduje zmniejszenie się w tym obszarze koncentracji nośników, a tym samym zwiększenie różnicy koncentracji nośników między warstwą zaporową a obszarami poza nią, a ściślej elektronów w stosunku do obszaru typu N, a dziur w stosunku do obszaru typu P. Wywołuje to zachwianie równowagi i wymusza dyfuzyjny napływ dodatkowych nośników z obszarów neutralnych, tworząc tym samym strumień prądu zwany prądem rekombinacji. Ponieważ nośniki napływają do warstwy zaporowej z obszarów neutralnych dzięki dyfuzji, to kierunek prądu rekombinacji jest zgodny z kierunkiem prądu dyfuzyjnego płynącego przez złącze. Jak pamiętamy, w stanie równowagi, czyli w złączu niespolaryzowanym, zjawiska generacji i rekombinacji pozostają w równowadze, tzn. zachodzą z identyczną intensywnością, co powoduje, że prądy z nimi związane, mając przeciwne kierunki, znoszą się wzajemnie (zupełnie tak samo jak prąd dyfuzji z prądem unoszenia). W przypadku spolaryzowania złącza napięciem zewnętrznym można się spodziewać zakłócenia równowagi zjawisk generacji i rekombinacji, co spowoduje, że jedno z nich przeważy nad drugim, wpływając na wartość prądu płynącego przez rzeczywiste złącze P-N w stosunku do złącza idealnego. W przypadku polaryzacji w kierunku zaporowym, z uwagi na silne pole elektryczne w warstwie zaporowej, wymiatające wszelkie nośniki, koncentracja nośników jest tam bardzo mała. Sprawia to, że większe jest prawdopodobieństwo zajścia zjawiska generacji nowych par elektron-dziura niż zajścia zjawiska rekombinacji istniejących już nośników. Tak więc, w kierunku polaryzacji zaporowej generacja przeważa nad rekombinacją. A ponieważ kierunek prądu generacji, jak pamiętamy, jest zgodny
160
6. Złącze P-N
z kierunkiem prądu nasycenia, to prądy te dodają się do siebie, przyczyniając się do zwiększenia całkowitego prądu wstecznego złącza P-N. Tak więc, całkowity prąd wsteczny płynący przez rzeczywiste złącze P-N jest większy od prądu wstecznego złącza idealnego. Ponadto większemu napięciu wstecznemu odpowiada większa szerokość warstwy zaporowej, w wyniku czego przybywa więcej miejsc generacji nośników, co dodatkowo powoduje wzrost prądu generacji w miarę zwiększania napięcia wstecznego (czyli w kierunku bardziej ujemnych wartości). To z kolei przejawia się jako dodatkowy wzrost całkowitego prądu wstecznego w funkcji napięcia zaporowego, co pokazano w sposób porównawczy na charakterystykach z rysunku 6.8a. Należy w tym miejscu podkreślić, że wpływ zjawiska generacji nie jest jednakowy w każdym złączu P-N. Ponownie, bez wnikania w szczegółowe wyprowadzenia fizyczne, okazuje się, że wpływ ten najsilniej zależy od koncentracji samoistnej ni półprzewodnika, z którego wykonane jest złącze P-N i jest on tym silniejszy, im mniejsza jest ta koncentracja. Przykładowo, w złączu germanowym, z powodu dużej koncentracji samoistnej nośników w germanie (związanej z małą wartością przerwy energetycznej Wg), wpływu zjawiska generacji w zasadzie się nie obserwuje i w prądzie wstecznym dominuje jedynie składowa nasycenia, co przejawia się w tym złączu w kierunku zaporowym charakterystyką praktycznie równoległą do osi napięciowej. Z kolei w złączach wykonanych z krzemu czy z arsenku galu, charakteryzujących się ogólnie o wiele mniejszymi koncentracjami samoistnymi niż german, prąd generacji będzie już odgrywał w nich istotną rolę, stając się nawet prądem dominującym. Powoduje to, że charakterystyka prądowo-napięciowa w kierunku zaporowym przyjmie dla tych złączy przedstawiony już kształt zbliżony do funkcji parabolicznej, przy czym I ~ U . W przypadku polaryzacji w kierunku przewodzenia, z uwagi na wstrzykiwanie nośników do warstwy zaporowej, przepływa przez nią więcej nośników, a więc ich koncentracja jest tam większa niż w stanie równowagi. Sprawia to, że większe jest tym razem prawdopodobieństwo zajścia zjawiska rekombinacji nośników niż ich generacji, co oznacza, że w kierunku przewodzenia rekombinacja przeważa nad ge-
Rys. 6.8. Ilustracja wpływu zjawisk generacji (a) oraz rekombinacji (b) w warstwie zaporowej na kształt charakterystyki prądowo-napięciowej rzeczywistego złącza P-N. Linia przerywana – charakterystyka idealna, linia ciągła – charakterystyka rzeczywista
6.3. Praca statyczna złącza P-N
161
neracją. A ponieważ kierunek prądu rekombinacji jest zgodny z kierunkiem prądu dyfuzyjnego, to prądy te dodają się do siebie, przyczyniając się do zwiększenia całkowitego prądu przewodzenia złącza P-N. Tak więc całkowity prąd przewodzenia płynący przez rzeczywiste złącze P-N jest większy od prądu przewodzenia złącza idealnego. Ponadto, w miarę zwiększania napięcia przewodzenia zmniejsza się szerokość warstwy zaporowej, w wyniku czego redukuje się obszar, w którym dochodzi do rekombinacji nośników, co powoduje zmniejszenie się jej intensywności, a to z kolei zmniejszenie się strumienia prądu rekombinacji. Jednocześnie ze wzrostem napięcia coraz bardziej wzrasta udział składowej dyfuzyjnej, co ostatecznie prowadzi do zaniku wpływu prądu rekombinacji na tle dominującego prądu dyfuzyjnego. Ostatecznie można stwierdzić, że w kierunku przewodzenia, przy niewielkich napięciach polaryzujących, prąd rekombinacji przeważa nad prądem dyfuzyjnym, co objawia się większą wartością prądu w porównaniu ze złączem idealnym, jednak dla większych napięć polaryzacji przewagę osiąga w końcu prąd dyfuzyjny, co zbliża charakterystykę złącza rzeczywistego z powrotem do charakterystyki złącza idealnego. Porównanie charakterystyk idealnego i rzeczywistego złącza P-N spolaryzowanego w kierunku przewodzenia przedstawiono na rysunku 6.8b. Podobnie jak w przypadku zjawiska generacji, tak i tym razem wpływ zjawiska rekombinacji nie jest jednakowy w każdym złączu P-N. Ponownie koncentracja samoistna ni półprzewodnika najsilniej wpływa na to zjawisko. Im jest ona większa, tym słabszy jest wpływ rekombinacji na pracę złącza P-N. Przykładowo, w złączu germanowym, z powodu dużej koncentracji samoistnej nośników, wpływu zjawiska rekombinacji w zasadzie się nie obserwuje, a więc w całym zakresie napięć przewodzenia dominuje prąd dyfuzyjny. Z kolei w złączach wykonanych z krzemu czy z arsenku galu, charakteryzujących się ogólnie o wiele mniejszymi koncentracjami samoistnymi niż german, prąd rekombinacji będzie na początku odgrywał w nich istotną rolę, aby następnie, dla większych napięć, zostać zdominowanym przez prąd dyfuzyjny. Zjawisko przebicia w złączu P-N W rzeczywistym złączu P-N, po przekroczeniu odpowiednio wysokiego napięcia polaryzacji zaporowej, dojdzie do zjawiska, które pod wpływem niewielkich zmian napięcia w tym zakresie spowoduje bardzo duże, gwałtowne zmiany prądu, co na charakterystyce prądowo-napięciowej w kierunku zaporowym objawi się w postaci linii o bardzo stromym nachyleniu. Zjawisko takie nazywane jest przebiciem złącza P-N, a napięcie Up, przy którym ono zachodzi – napięciem przebicia. Z reguły nie jest to zjawisko niszczące złącze P-N, o ile prąd płynący przez złącze podczas przebicia zostanie ograniczony, np. za pomocą rezystora o odpowiedniej wartości. Złącze może wówczas pracować dowolnie długo w zakresie przebicia. Jeśli natomiast w obwodzie nie ma ograniczenia wartości prądu, to jego duże natężenie może spowodować wydzielenie się zbyt dużej mocy w postaci ciepła, które uszkodzi fizycznie strukturę złącza P-N. Takie zjawisko nazywane jest z kolei przebiciem termicznym i jest szkodliwe. Zjawisko przebicia, w zależności od przeznaczenia diody, może być zjawiskiem niepożądanym lub pożądanym. W przypadku diod prostowniczych zjawisko to jest
162
6. Złącze P-N
niepożądane. Jednak, dzięki odpowiedniej konstrukcji diody, zachodzi ono dopiero przy dużych napięciach, przy których diody takie zwykle nie pracują. Typowo jest to kilkadziesiąt lub kilkaset woltów, a w przypadku niektórych diod nawet tysiące woltów. Z kolei, w przypadku diod stabilizacyjnych, w których zjawisko przebicia jest wykorzystywane praktycznie, napięcie przebicia ma określoną wartość, którą można nadać złączu w fazie produkcji przez odpowiednie domieszkowanie półprzewodników. Im silniej domieszkowane jest złącze P-N, tym mniejsze jest napięcie przebicia. Z powodu stromości charakterystyki w zakresie przebicia, charakterystyka złącza P-N przypomina charakterystykę idealnego źródła napięciowego (płynący prąd może się zmieniać w szerokim zakresie, a napięcie na diodzie utrzymuje się praktycznie na stałym poziomie), co wykorzystuje się do stabilizowania napięcia np. w układach zasilania lub w układach wytwarzających napięcie referencyjne (napięcie odniesienia). W zależności od wartości napięcia przebicia wyróżnić można dwa zjawiska fizyczne powodujące przebicie złącza P-N. Jedno z nich, nazywane jonizacją elektrostatyczną, zachodzi w bardzo cienkich warstwach zaporowych, czyli w złączach silnie domieszkowanych. W cienkiej warstwie zaporowej natężenie istniejącego tam pola elektrycznego, przy odpowiednio wysokim napięciu zaporowym, może przyjąć tak dużą wartość, że spowoduje „wyrwanie” elektronu z wiązania kowalencyjnego w strukturze kryształu, co prowadzi do generacji pary nośników, elektronu i dziury, a następnie „wymiecenie” ich z warstwy zaporowej w przeciwne strony, przyczyniając się tym samym do zwiększenia składowej prądu unoszenia. W zakresie przebicia wystarczy niewielkie zwiększenie napięcia, aby jonizacja elektrostatyczna zaczęła zachodzić masowo, powodując ogromny wzrost prądu unoszenia. Przebicie złącza wywołane tym zjawiskiem nazywane jest przebiciem Zenera i zachodzi zwykle dla niewielkich napięć zaporowych – w przypadku złącza krzemowego do 5 V. Zjawisko tego przebicia tłumaczy się również, posługując się energetycznym modelem pasmowym złącza P-N. Jak pamiętamy, im większe jest napięcie zaporowe, tym większe jest zagięcie pasm energetycznych, czyli różnica energii między odpowiadającymi sobie pasmami w obu półprzewodnikach. Przy napięciu przebicia zagięcie pasm jest na tyle silne, że część pasma walencyjnego półprzewodnika typu P znajduje się na tym samym poziomie co część pasma przewodnictwa półprzewodnika typu N (rysunek 6.9). Powoduje to, że elektrony z pasma walencyjnego
Rys. 6.9. Model energetyczny ilustrujący zjawisko generowania nośników w wyniku tunelowania elektronów przez warstwę zaporową z pasma walencyjnego obszaru typu P do pasma przewodnictwa obszaru typu N w przypadku silnego zagięcia pasm energetycznych w złączu P-N
6.3. Praca statyczna złącza P-N
163
półprzewodnika typu P, przenikając przez cienką warstwę zaporową do wolnych poziomów energetycznych pasma przewodnictwa półprzewodnika typu N, pokonują pasmo zabronione bez zmiany swojej energii. Takie przejście nazywa się przejściem tunelowym lub po prostu tunelowaniem nośników i związane jest z kwantową naturą cząsteczek, jakimi są elektrony. Drugim zjawiskiem powodującym przebicie złącza P-N jest jonizacja zderzeniowa. Zachodzi ona w szerokich warstwach zaporowych, czyli w złączach słabiej domieszkowanych niż w przypadku jonizacji elektrostatycznej. Przy odpowiednio wysokim napięciu zaporowym elektron, znajdujący się w warstwie zaporowej, może zostać przez jej pole elektryczne rozpędzony do takiej prędkości, że jeśli podczas ruchu napotka na swojej drodze atom sieci krystalicznej, to przy zderzeniu się z nim spowoduje wybicie innego elektronu z wiązania kowalencyjnego tego atomu, a przez to wygenerowanie pary nośników, elektronu i dziury. Wybity elektron oraz elektron, który spowodował wybicie, będą ponownie rozpędzane w polu elektrycznym warstwy zaporowej i jeśli nabiorą odpowiedniej prędkości i każdy z nich uderzy w kolejne atomy sieci krystalicznej, to ich energia kinetyczna spowoduje wybicie kolejnych elektronów, te z kolei, wraz z poprzednimi, w identyczny sposób mogą doprowadzić do wybicia jeszcze następnych itd. (rysunek 6.10). Jak widać, zjawisko to powoduje powielanie się liczby nośników w warstwie zaporowej. W odpowiednich warunkach, tzn. jeśli średnia droga swobodna nośników, czyli droga pomiędzy kolejnymi zderzeniami nośników podczas ich przemieszczania się, będzie odpowiednio długa (szeroka warstwa zaporowa), a przyspieszenie nośników odpowiednio duże (wysoka wartość napięcia), jonizacja zderzeniowa będzie zachodziła lawinowo, powodując ogromny przyrost prądu wstecznego przy niewielkich przyrostach napięcia polaryzacji zaporowej. Z powodu swojego lawinowego charakteru przebicie wywołane tym zjawiskiem nosi nazwę przebicia lawinowego. Zachodzi ono dla większych napięć niż przebicie Zenera – w złączach krzemowych od 7 V, przy czym przyjmuje się, że w zakresie napięć od 5 do 7 V zachodzą oba rodzaje przebić, tzn. Zenera i lawinowe.
Rys. 6.10. Ilustracja zjawiska powielania liczby nośników w warstwie zaporowej złącza P-N w wyniku zderzeń rozpędzanych polem elektrycznym nośników z atomami sieci krystalicznej powodujących wybijanie kolejnych nośników
164
6. Złącze P-N
Do tej pory mówiliśmy jedynie o tych zjawiskach wpływających na kształt charakterystyki prądowo-napięciowej złącza P-N, które zachodziły w warstwie zaporowej. Jednak pomijane do tej pory obszary neutralne warstw P i N oraz kontakty omowe i ich doprowadzenia mają w rzeczywistości również wpływ na właściwości złącza P-N. Ich rezystancje, choć faktycznie niewielkie, będą wpływały na kształt charakterystyki prądowo-napięciowej. Zanim jednak zaczniemy uwzględniać te dodatkowe zjawiska, konieczne jest wprowadzenie elektrycznego schematu zastępczego złącza P-N. Pozwoli nam to łatwiej zrozumieć wpływ tych zjawisk na charakterystykę rzeczywistą. Elektryczny schemat zastępczy złącza P-N Elektryczny schemat zastępczy jest to po prostu obwód elektryczny złożony z podstawowych elementów elektrycznych, takich jak rezystancje, pojemności, indukcyjności lub źródła napięciowe i prądowe. Ponieważ złącze P-N jest elementem elektrycznym, to schemat taki ma za zadanie odwzorować właściwości i działanie złącza P-N, opisane do tej pory zjawiskami fizycznymi, w postaci obwodu elektrycznego, charakteryzującego się identycznym działaniem, czyli zależnościami prądowo-napięciowymi, jak zastępowany element, w tym przypadku złącze P-N. Przedstawienie złącza P-N, jak również innych elementów, za pomocą ich elektrycznych schematów zastępczych jest bardzo wygodne, gdyż poza wyjaśnieniem niektórych zjawisk zachodzących w tych elementach pozwala również na projektowanie i analizowanie obwodu złożonego z takich elementów, co jest w zasadzie celem dziedziny, jaką jest elektronika. Zamiast analizować zjawiska fizyczne określające działanie elementów, co byłoby wysiłkiem ponad miarę i niepotrzebnie komplikowałoby opis działania, korzysta się z ich modeli zastępczych i analizuje się je wyłącznie pod względem elektrycznym, metodami teorii obwodów, mającymi solidne podstawy matematyczne. Ponieważ złącze P-N ma dwa metalowe wyprowadzenia służące do podłączenia napięcia polaryzującego, to z punktu widzenia teorii obwodów jest ono po prostu dwójnikiem. Najprostszym dwójnikiem jest na przykład rezystor, czyli fragment materiału o pewnej rezystancji. Okazuje się, że pod względem elektrycznym złącze P-N w pierwszym podejściu można by zastąpić właśnie rezystorem. Jednak rezystor, jak pamiętamy, to element o liniowej charakterystyce prądowo-napięciowej, a złącze P-N z kolei takiej charakterystyki nie ma. Jest ona silnie nieliniowa i w dodatku niesymetryczna względem środka układu współrzędnych. Jedynym elementem elektrycznym, którym można by zastąpić złącze P-N, jest więc rezystor nieliniowy, przedstawiony na rysunku 6.11a za pomocą zwykłego rezystora z linią łamaną oznaczającą nieliniowość jego charakterystyki. Oczywiście rezystancja takiego nieliniowego rezystora, tak jak i prąd złącza P-N, będzie zależała od napięcia polaryzującego, co opisać można następującym wzorem R=
U = I
U U I S ⋅ exp UT
− 1
,
(6.3)
gdzie U jest napięciem polaryzującym złącze P-N, a I – prądem przez nie płynącym.
6.3. Praca statyczna złącza P-N
165
Rys. 6.11. Najprostsze schematy zastępcze złącza P-N w postaci pojedynczych elementów: nieliniowego rezystora (a) oraz sterowanego napięciowo źródła prądowego (b)
Najczęściej jednak, zamiast rezystora nieliniowego, stosuje się jako element zastępczy sterowane napięciowo źródło prądowe o nieliniowej wydajności. Dlaczego sterowane źródło prądowe? Zastanówmy się, czym jest zwykły rezystor o rezystancji równej R. Ponieważ można go opisać w postaci zależności prądu I przez niego przepływającego od napięcia U istniejącego na jego zaciskach, z takiego punktu widzenia jest on po prostu sterowanym napięciowo źródłem prądowym, o wydajności I(U) = U/R. To nic, że jest on sterowany własnym napięciem, można go traktować jako takie właśnie źródło prądowe! Podobne rozumowanie można przeprowadzić w przypadku złącza P-N i zastąpić je także sterowanym napięciowo źródłem prądowym (rysunek 6.11b), przy czym jego wydajność będzie nieliniowo zależała od napięcia na nim występującego. Łatwo już się domyślić, że wydajność ta wyrażać się będzie identycznym wzorem jak wzór (6.2) na zależność prądu od napięcia złącza P-N. Ponieważ ta nieliniowa zależność ma swoje źródło we właściwościach warstwy zaporowej, przyjmuje się, że w takim schemacie zastępczym złącza P-N źródło to zastępuje po prostu zachodzące w warstwie zaporowej zjawiska, kształtujące jego nieliniową charakterystykę prądowo-napięciową, a więc poznane przez nas dotychczas zjawiska dyfuzji, unoszenia, generacji i rekombinacji w warstwie zaporowej, a także przebicia. W tym miejscu konieczna jest niewielka dygresja odnośnie do użytego symbolu graficznego sterowanego źródła prądowego. Ogólnie przyjętą w elektrotechnice zasadą jest, aby źródła sterowane oznaczać innymi symbolami graficznymi niż źródła niezależne. W przypadku źródeł niezależnych stosuje się symbole w kształcie okręgu, natomiast źródła sterowane oznaczane są symbolem w kształcie rombu, przy czym dla źródła napięciowego jest to pojedynczy romb, a dla źródła prądowego podwójny (jeden w drugim). Tu odchodzimy od tej zasady i sterowane źródło prądowe oznaczamy identycznie jak źródło niezależne, a rozróżnienie między sterowanym a niezależnym elementem wynika z opisu jego wydajności prądowej, np. I(U) lub I1(I2) czy bezpośrednio g · U lub a · I2. Rezystancja szeregowa złącza P-N Teraz przyjrzymy się pozostałym obszarom złącza P-N, wspomnianym już obszarom neutralnym warstw P i N, kontaktom omowym oraz ich doprowadzeniom. Każdy z nich będzie się cechował trochę innymi właściwościami fizycznymi, jednak z elektrycznego punktu widzenia można je z dobrym przybliżeniem traktować jako zwykłe rezystory liniowe, przy czym każdy o innej rezystancji (rysunek 6.12). A ponieważ, jak widać, prąd płynący przez złącze P-N przepływa kolejno przez każdy z tych obszarów, to pod względem elektrycznym są one połączone w sposób szeregowy zarówno ze sobą, jak i z warstwą zaporową, co na schemacie zastęp-
166
6. Złącze P-N
Rys. 6.12. Wydzielenie rezystancji poszczególnych części złącza P-N składających się na rezystancję szeregową: rezystancje zacisków RZP i RZN, rezystancje kontaktów m-s RKP i RKN oraz rezystancje obszarów obojętnych elektrycznie ROP i RON
Rys. 6.13. Dokładniejszy schemat zastępczy rzeczywistego złącza P-N uwzględniający rezystancje wchodzące w skład rezystancji szeregowej RSZ przedstawione osobno (a) oraz w postaci ich sumy (b)
czym przedstawić można w taki właśnie sposób przez odpowiednie rezystancje RZP, RKP, ROP, RON, RKN i RZN (rysunek 6.13a). W praktyce wszystkie te rezystancje zastępuje się jedną wspólną rezystancją RSZ, będącą ich sumą (rysunek 6.13b), która ze względu na szeregowy sposób połączenia zwana jest rezystancją szeregową. W rzeczywistych złączach rezystancja ta jest na ogół bardzo mała, rzędu pojedynczych lub dziesiątków omów i z tego powodu jej obecność przejawia się jedynie przy pracy złącza w kierunku przewodzenia. Jak widać na schemacie zastępczym, powoduje ona zwiększenie się całkowitej rezystancji złącza P-N, a przez to zmniej-
Rys. 6.14. Ilustracja wpływu rezystancji szeregowej RSZ na kształt charakterystyki prądowo-napięciowej w zakresie przewodzenia rzeczywistego złącza P-N (linia ciągła) w odniesieniu do złącza idealnego (linia przerywana)
6.3. Praca statyczna złącza P-N
167
szenie się płynącego prądu w stosunku do prądu złącza idealnego przy tym samym napięciu polaryzacji, co na charakterystyce prądowo-napięciowej objawia się pochyleniem się charakterystyki w kierunku osi napięciowej (rysunek 6.14). Jej obecność powoduje również, że charakterystyka przyjmuje bardziej liniowy charakter, co nazywane jest linearyzacją charakterystyki. Wymienione efekty tym silniej się objawiają, im większą wartość ma rezystancja szeregowa. Rezystancja upływu złącza P-N Kolejnym, niopisanym dotąd zjawiskiem, jest zjawisko spowodowane niedoskonałościami struktury krystalicznej złącza P-N, występującymi szczególnie w obszarze warstwy zaporowej przy powierzchni półprzewodnika. Niedoskonałości te, w postaci zerwanych wiązań kowalencyjnych, zwane także stanami powierzchniowymi, powodują, że nośniki łatwo zapełniają związane z nimi poziomy energetyczne, wywołując tym samym przepływ bardzo niewielkiego prądu. Nośniki tworzące ten prąd płyną przez złącze P-N na nieco innych zasadach niż obowiązujące w warstwie zaporowej, niejako inną drogą, w pobliżu powierzchni półprzewodnika, można wręcz powiedzieć, że „bokiem”, pomijając w zasadzie obszar warstwy zaporowej. Z tego też względu prąd ten nazywany jest prądem upływu i traktowany jest jako prąd płynący ścieżką równoległą do obszaru warstwy zaporowej. Na schemacie zastępczym złącza P-N (rysunek 6.15) zjawisko przepływu tego prądu reprezentowane jest przez rezystancję upływu RU dołączoną równolegle do elementu zastępczego warstwy zaporowej, czyli do źródła prądowego I(U) oraz do rezystancji szeregowej.
Rys. 6.15. Dokładniejszy schemat zastępczy rzeczywistego złącza P-N uwzględniający dodatkowo rezystancję upływu RU
Z powodu bardzo małej wartości prądu upływu przyjmuje się, że wartość tej rezystancji jest bardzo duża, a jej obecność przejawia się jedynie przy pracy złącza P-N w kierunku zaporowym. Jak widać na schemacie zastępczym, w takiej konfiguracji powoduje ona zmniejszenie się całkowitej rezystancji złącza, a przez to zwiększenie się płynącego prądu w stosunku do prądu złącza idealnego przy tym samym napięciu polaryzacji, co na charakterystyce prądowo-napięciowej objawia się odchyleniem charakterystyki od osi napięciowej (rysunek 6.16). Jej wpływ na charakterystykę jest tym większy, im mniejszą wartość ma ta rezystancja, a więc im więcej niedoskonałości występuje w strukturze krystalicznej złącza P-N. Obecnie, dzięki procesowi pasywowania, czyli pokrywania powierzchni półprzewodnika warstwą ochronną, np. w postaci odpowiedniego tlenku, prąd upływu jest pomijalnie mały. W idealnym przypadku, przy zupełnym braku niedoskonałości struktury prąd upływu wynosiłby zero, a wówczas rezystancja upływu byłaby
168
6. Złącze P-N
Rys. 6.16. Ilustracja wpływu rezystancji upływu RU na kształt charakterystyki prądowo-napięciowej w zakresie zaporowym rzeczywistego złącza P-N (linia ciągła) w odniesieniu do złącza z nieuwzględnioną rezystancją upływu (linia przerywana)
nieskończenie duża i nie występowałaby na schemacie zastępczym złącza P-N, bo traktować ją można by wówczas jako przerwę w tej gałęzi obwodu. Należy wspomnieć o jeszcze jednym zjawisku wpływającym na pracę rzeczywistego złącza P-N, a mianowicie o wysokim poziomie wstrzykiwania nośników. Ponieważ jest to zagadnienie trudne w analizie, zostanie tu tylko wspomniane. Mamy z nim do czynienia przy dużych wartościach prądu płynącego przez złącze w kierunku przewodzenia. Wówczas koncentracja nośników mniejszościowych wstrzykiwanych do obszaru bazy złącza może być nawet większa od koncentracji nośników większościowych w tym obszarze. Powoduje to, że w obszarze bazy, do tej pory uznawanym za neutralny elektrycznie, tzn. niemającym pola elektrycznego, tak naprawdę to pole występuje, co powoduje dodatkowy, oprócz chaotycznego ruchu cieplnego i dyfuzji, wpływ na ruch nośników. Na charakterystyce w zakresie dużych prądów objawia się to nieco mniejszym nachyleniem, czyli mniejszym prą-
Rys. 6.17. Ilustracja wpływu zjawisk generacji i rekombinacji nośników w warstwie zaporowej złącza P-N oraz rezystancji szeregowej RSZ, rezystancji upływu RU i zjawiska przebicia na kształt charakterystyki prądowo-napięciowej rzeczywistego złącza P-N (linia ciągła) w odniesieniu do złącza idealnego (linia przerywana)
6.3. Praca statyczna złącza P-N
169
dem w porównaniu z charakterystyką otrzymaną bez uwzględniania efektu dużego poziomu wstrzykiwania. Warto jeszcze podkreślić, że ograniczenie narzucone na maksymalną wartość napięcia polaryzacji złącza idealnego nie istnieje dla złącza rzeczywistego. Spadek napięcia na takim złączu może przekraczać wartość napięcia dyfuzyjnego, a ewentualna jego nadwyżka czy nawet całkowita wartość, w przypadku zupełnego zaniku warstwy zaporowej, odłoży się na istniejącej rezystancji szeregowej. Podsumowując, na charakterystykę rzeczywistą złącza P-N wpływa kilka zjawisk powodujących, że jej kształt różni się od kształtu charakterystyki złącza idealnego. Na rysunku 6.17 przedstawiono porównanie obu charakterystyk, uwzględniając wyżej wymienione zjawiska zachodzące w rzeczywistym złączu P-N. Wpływ temperatury na charakterystykę złącza P-N Wpływ temperatury na pracę złącza P-N przejawia się przede wszystkim przez zależność koncentracji samoistnej ni od temperatury. Przypomnijmy, że wraz ze wzrostem temperatury, z powodu zwiększania się amplitudy drgań atomów sieci krystalicznej, rośnie prawdopodobieństwo zajścia zjawiska generacji samoistnej nośników, prowadzące bezpośrednio do wzrostu koncentracji samoistnej ni w złączu P-N. Jak pamiętamy, koncentracja ta ma wpływ na wartość prądu nasycenia IU oraz wartość prądu generacji IG, tworzących prąd wsteczny złącza P-N. Wzrost temperatury, przyczyniając się do wzrostu koncentracji samoistnej, powoduje równocześnie wzrost składowych nasycenia i generacji, a tym samym wzrost całkowitego prądu wstecznego złącza P-N przy tym samym napięciu polaryzacji zaporowej, co przedstawiono na charakterystykach z rysunku 6.18. Z powodu innej siły wpływu temperatury na prąd nasycenia, a innej na prąd generacji, złącza wykonane z różnych materiałów będą nieznacznie różnie reagowały na zmiany temperatury. Przykładowo, w temperaturze pokojowej, tzn. przy ok. 300 K, szacunkowe wyliczenia wskazują, że prąd wsteczny złącza germanowego, w którym dominuje składowa nasycenia, wzrasta dwukrotnie na każde 8 stopni wzrostu temperatury, a z kolei prąd wsteczny złącza krzemowego, w którym dominuje składowa generacji, wzrasta dwukrotnie na każde 10 stopni wzrostu temperatury.
Rys. 6.18. Ilustracja wpływu temperatury na charakterystykę złącza P-N spolaryzowanego w kierunku zaporowym. Wzrost temperatury powoduje zwiększenie się prądu przy ustalonym napięciu
170
6. Złącze P-N
Natomiast przy polaryzacji w kierunku przewodzenia, jak wynika z wyrażenia (6.2b), oprócz wpływu na prąd nasycenia, temperatura ma również wpływ na wykładniczy czynnik tego wyrażenia, opisujący składową prądu dyfuzyjnego. Jak już pokazaliśmy, wraz ze wzrostem temperatury wzrasta wartość prądu nasycenia, ale jednocześnie maleje argument funkcji wykładniczej qU/kT, co powoduje zmniejszenie się czynnika wykładniczego w prądzie złącza P-N. W kierunku przewodzenia przejawiają się więc dwa wpływy, które częściowo się kompensują, dając w wyniku nieco słabsze oddziaływanie, przy czym wpływ temperatury na prąd nasycenia przeważa nad jej wpływem na czynnik wykładniczy. W rezultacie tego można powiedzieć, że przy stałym napięciu polaryzacji w kierunku przewodzenia wraz ze wzrostem temperatury wzrasta wartość prądu złącza P-N albo, zakładając stałą wartość prądu, obserwuje się zmniejszanie się wartości napięcia na złączu, co przedstawiono na charakterystykach z rysunku 6.19.
Rys. 6.19. Ilustracja wpływu temperatury na charakterystykę złącza P-N spolaryzowanego w kierunku przewodzenia. Wzrost temperatury powoduje zwiększenie się prądu przy ustalonym napięciu lub zmniejszenie się napięcia przy ustalonym prądzie
W tym przypadku również można podać typowe wartości zmian prądu lub napięcia dla przyrostów temperatury, otrzymane z szacunkowych wyliczeń. Dla złącza krzemowego, w temperaturze pokojowej, przy stałej wartości napięcia wynoszącej ok. 0,7 V prąd wzrasta dwukrotnie przy wzroście temperatury o 12 stopni, natomiast przy ustalonej wartości prądu napięcie maleje o ok. 2 mV na każdy stopień wzrostu temperatury. Wpływ temperatury będzie się również przejawiał w zjawisku przebicia złącza P-N. Przy czym każde z dwóch przebić będzie inaczej reagowało na te same zmiany temperatury. W przypadku przebicia Zenera, czyli zjawiska jonizacji elektrostatycznej, w wyniku wzrostu temperatury łatwiej będzie dochodziło do wyrywania elektronów z wiązań kowalencyjnych, a zatem już przy mniejszym napięciu, czyli przy mniejszym natężeniu pola elektrycznego warstwy zaporowej, będzie dochodziło do jonizacji elektrostatycznej, czyli do generacji nowych nośników, powodujących gwałtowny wzrost prądu. Można więc powiedzieć, że wzrost temperatury powoduje zmniejszenie się napięcia przebicia Zenera, co zilustrowano na rysunku 6.20a. Z kolei, w przypadku przebicia lawinowego, czyli zjawiska jonizacji zderzeniowej, wzrost temperatury, zwiększając amplitudę drgań atomów sieci krystalicznej, powoduje, że atomy będą zajmowały niejako więcej miejsca w krysztale, co z kolei
6.4. Praca dynamiczna złącza P-N
171
Rys. 6.20. Ilustracja wpływu temperatury na zjawisko przebicia Zenera (a) oraz na zjawisko przebicia lawinowego (b). Wzrost temperatury powoduje zmniejszenie się napięcia przebicia Zenera, a wzrost napięcia przebicia lawinowego
sprawi, że rozpędzane w polu elektrycznym nośniki będą częściej, a więc i wcześniej zderzały się z tymi atomami, jeszcze przed uzyskaniem dostatecznej prędkości (energii kinetycznej) wystarczającej do wybicia nowych nośników z wiązań kowalencyjnych. Mówi się, że maleje wtedy droga swobodna nośników, a więc potrzebne jest wówczas większe napięcie, aby na tej krótszej drodze rozpędzić nośniki do wymaganej prędkości, umożliwiającej jonizację zderzeniową. Tak więc wzrost temperatury powoduje zwiększenie się napięcia przebicia lawinowego, co zilustrowano na rysunku 6.20b.
6.4.
Praca dynamiczna złącza P-N Pracą dynamiczną nazwane zostało działanie elementów elektrycznych pobudzanych napięciami i/lub prądami zmiennymi. W zależności od wartości parametrów tych sygnałów wyróżnić można kilka rodzajów pracy dynamicznej. Ze względu na wartość amplitudy dzieli się pracę dynamiczną na pracę małosygnałową oraz na pracę wielkosygnałową. Z kolei, ze względu na wartość częstotliwości, wyróżnia się pracę dynamiczną przy małych, przy średnich oraz przy dużych częstotliwościach, przy czym określenia te są zgrubne i względne, zależne od rodzaju elementu lub układu, którego dotyczą, a związane są z koniecznością lub brakiem konieczności uwzględnienia w pracy danego elementu stanów przejściowych (nieustalonych). W bardzo ogólnym przypadku praca dynamiczna dotyczyć może sygnałów o wartości chwilowej dowolnie zmieniającej się w czasie. Z jednej strony mogą to być najbardziej podstawowe sygnały, mianowicie sygnały harmoniczne, dalej bardziej złożone, np. trójkątne czy piłokształtne, a z drugiej strony sygnały prostokątne czy impulsowe, tzn. o skokowo zmiennej wartości oraz sygnały typu przypadkowego, czyli szumy. Ponieważ każdy rodzaj sygnału można w zasadzie rozłożyć (dzięki twierdzeniom Fouriera) na składowe harmoniczne, to przy omawianiu pracy dynamicznej dotyczącej złącza P-N czy pozostałych elementów półprzewodnikowych posługiwać się będziemy sygnałami czysto harmonicznymi, aczkolwiek w przypadku pobudzania złącza P-N i tranzystora bipolarnego sygnałem prostokątnym zrobimy wyjątek i omówimy ten rodzaj pracy odrębnie.
172
6. Złącze P-N
W przypadku typowej pracy dynamicznej mamy zazwyczaj do czynienia z dwoma rodzajami sygnałów napięciowych i prądowych – stałymi oraz zmiennymi. Rolą składowych stałych jest zasilenie i spolaryzowanie danego elementu lub układu do odpowiedniego stanu lub zakresu pracy, czyli, inaczej mówiąc, ustalenie odpowiedniego punktu pracy. Składowe zmienne pełnią zaś funkcję sygnałów sterujących, przeważnie niosących jakąś informację (np. sygnał mowy, muzyki, obraz czy sygnał z jakiegokolwiek innego procesu) i podlegających przetworzeniu przez dany element lub układ. Należy mieć świadomość, że dany element lub układ inaczej przetwarza czy oddziałuje na składowe stałe, a inaczej na składowe zmienne. Składowe stałe powiązane są ze sobą zawsze za pomocą wielkości zwanej rezystancją statyczną, czasem też przedstawianą w postaci jej odwrotności, czyli konduktancji statycznej. Natomiast składowe zmienne typu harmonicznego, będąc bardziej złożonymi sygnałami o ogólnej postaci s(t) = Sm · sin(2π f t + ψ), charakteryzowanymi za pomocą trzech parametrów: amplitudy Sm, częstotliwości f oraz fazy ψ, czyli przesunięcia kątowego, podlegać już mogą bardziej złożonym zależnościom. Elementy lub układy elektryczne wpływać mogą nie tylko na amplitudy sygnałów, ale również na ich fazę, a nawet częstotliwość. W tej części zajmiemy się najprostszym przypadkiem, czyli wyłącznie wpływem na amplitudy napięć i prądów oraz zależnościami między nimi, a dopiero w dalszej części książki Czytelnik zapozna się z wpływem obwodów elektrycznych na pozostałe dwa parametry sygnałów harmonicznych. Rezystancja dynamiczna O ile w przypadku napięć i prądów stałych ich wzajemną zależność określa rezystancja statyczna, o tyle w przypadku sygnałów zmiennych wzajemnej zależności podlegają amplitudy tych sygnałów poprzez wielkość zwaną rezystancją dynamiczną, oznaczaną przez rd, lub rezystancją różniczkową, oznaczaną przez rr. Można powiedzieć, że rezystancja dynamiczna ma taki sam sens dla sygnałów zmiennych, wiążąc ze sobą ich amplitudy, jak rezystancja statyczna dla sygnałów stałych, wiążąc ze sobą wartości prądu i napięcia. A więc, podobnie jak rezystancja statyczna, będąca stosunkiem wartości napięcia stałego do wartości prądu stałego, tak i rezystancja dynamiczna wyrażana jest jako stosunek, ale w tym przypadku amplitudy napięcia Um do amplitudy prądu Im, czyli rd = rr =
Um . Im
(6.4)
Równie dobrze, zamiast amplitud tych wielkości, użyć można wartości skutecznych lub wartości międzyszczytowych, które, będąc wprost proporcjonalnymi do amplitud, dają ten sam stosunek napięcia do prądu. Warto się dokładniej przyjrzeć, w jaki sposób sygnały zmienne przetwarzane są przez elementy lub układy elektryczne. W przypadku pobudzania elementu czy układu napięciem zmieniającym się sinusoidalnie w czasie należy się oczywiście spodziewać, że prąd płynący przez ten element lub odpowiedni prąd w układzie wymuszony tym napięciem również będzie miał postać sinusoidalną (rysunek 6.21). Okazuje się, że zależność między ich amplitudami jest ściśle związana z kształtem charakterystyki prądowo-napięciowej danego elementu lub układu. W najprostszym
6.4. Praca dynamiczna złącza P-N
173
Rys. 6.21. Ilustracja wyznaczania metodą graficzną odpowiedzi prądowej na wymuszenie napięciowe na podstawie charakterystyki prądowo-napięciowej. Odpowiedzią na pobudzenie sygnałem harmonicznym jest również sygnał harmoniczny
przypadku charakterystyki liniowej, jak widać na rysunku 6.22, jeśli amplituda napięcia na danym elemencie wzrośnie np. dwukrotnie w stosunku do jakiejś wcześniejszej wartości, to również dwukrotnie wzrośnie amplituda prądu płynącego przez ten element. Jeśli natomiast amplituda napięcia zmniejszy się np. trzykrotnie, to również trzykrotnie zmniejszy się amplituda prądu. Wynika z tego, że w przypadku charakterystyki liniowej zależność między amplitudą prądu a amplitudą napięcia jest stała, niezależna od wartości amplitudy napięcia,
Rys. 6.22. Ilustracja proporcjonalności amplitud napięcia i prądu w przypadku charakterystyki liniowej
174
6. Złącze P-N
Rys. 6.23. Ilustracja proporcjonalności amplitud napięcia i prądu w przypadku charakterystyki w postaci linii prostej nieprzechodzącej przez środek układu współrzędnych. Formalnie nie przedstawia ona rezystancji liniowej, gdyż rezystancja statyczna z niej wynikająca nie jest stała. Jednak amplitudy sygnałów zmiennych napięcia i prądu są nadal do siebie proporcjonalne
a więc rezystancja dynamiczna wynikająca z tych amplitud jest również stała i niezależna od amplitudy napięcia czy prądu. Można jednak sądzić, że spowodowane jest to tym, że również rezystancja statyczna wynikająca z tej charakterystyki jest stała. Spójrzmy zatem na kolejny przykład, gdzie charakterystyka liniowa nie rozpoczyna się w początku układu współrzędnych, a więc nie przedstawia rezystancji statycznej o stałej wartości (rysunek 6.23). Tu również zależność amplitud między sobą jest identyczna, niezależna od amplitudy napięcia.
Rys. 6.24. Ilustracja wpływu nachylenia charakterystyki na stosunek proporcjonalności amplitud prądu i napięcia zmiennego. W przypadku większego nachylenia dla tej samej amplitudy napięcia wymuszającego amplituda prądu będzie większa niż w przypadku mniejszego nachylenia charakterystyki
6.4. Praca dynamiczna złącza P-N
175
Rys. 6.25. Ilustracja ścisłego związku rezystancji dynamicznej z nachyleniem charakterystyki prądowo-napięciowej
Jak się okazuje, zależna jest ona jedynie od kąta nachylenia charakterystyki prądowo-napięciowej, co przedstawione jest w kolejnym przykładzie na rysunku 6.24, gdzie mamy dane dwie charakterystyki o różnym nachyleniu. Widać, że mimo tej samej amplitudy napięcia, prądy wymuszone tym napięciem w każdym z przypadków mają teraz inną amplitudę. W przypadku charakterystyki o większym nachyleniu (bardziej stromej) amplituda prądu jest większa niż w przypadku mniejszego nachylenia charakterystyki. Tak więc widać wyraźnie, że zależność między amplitudami prądu i napięcia zależy wyłącznie od nachylenia charakterystyki, a nie od jej położenia względem środka układu współrzędnych. Im większe jest to nachylenie, czyli kąt między charakterystyką a osią napięcia, tym mniejsza jest wartość rezystancji dynamicznej. I odwrotnie, im to nachylenie do osi napięcia jest mniejsze, tym większa jest wartość rezystancji dynamicznej. Ścisły związek wartości rezystancji dynamicznej z nachyleniem charakterystyki można pokazać, posługując się trójkątem prostokątnym i prostą zależnością trygonometryczną dotyczącą takiego trójkąta. W tym celu na charakterystyce konstruujemy trójkąt prostokątny (rysunek 6.25) w taki sposób, aby jego przeciwprostokątna zawierała się we fragmencie charakterystyki obejmowanym przez zadane sygnały zmienne prądu i napięcia, natomiast obie przyprostokątne, wynikające z wartości szczytowych (maksymalnych i minimalnych) prądu i napięcia, były równoległe do odpowiednich osi układu współrzędnych i miały długości równe wartościom międzyszczytowym Upp oraz Ipp. Wówczas kąt a nachylenia charakterystyki do osi napięciowej można wskazać również w powstałym trójkącie. A ponieważ, według znanej zależności trygonometrycznej, kotangens tego kąta równy jest stosunkowi przyprostokątnych Upp do Ipp trójkąta, będących w zasadzie podwojonymi wartościami amplitudy, po prostych przekształceniach otrzymujemy
176
6. Złącze P-N
bezpośredni związek kąta nachylenia charakterystyki z wartością rezystancji dynamicznej: ctg α =
U pp I pp
=
2 ⋅U m U m = = rr . 2 ⋅ Im Im
(6.5)
Jak widać, związek ten potwierdza wcześniejsze stwierdzenie o tym, że rezystancja dynamiczna jest zależna od nachylenia charakterystyki prądowo-napięciowej danego elementu lub układu. Często mówi się też, że to rezystancja dynamiczna określa nachylenie charakterystyki. Jest to jednak niezbyt właściwe określenie, bo sugeruje, że rezystancja dynamiczna ma wpływ na kształt, a konkretnie na nachylenie charakterystyki. A ponieważ charakterystyka jest pojęciem pierwotnym, na bazie którego została dopiero zbudowana taka wielkość jak rezystancja dynamiczna, to raczej właśnie nachylenie charakterystyki określa wartość rezystancji dynamicznej, a nie odwrotnie. Z drugiej jednak strony, znając zawczasu wartość rezystancji dynamicznej (np. w wyniku jej pomiaru), można na jej podstawie wnioskować o kształcie czy nachyleniu charakterystyki prądowo-napięciowej. Widać zatem, że w przypadku charakterystyki w postaci linii prostej wartość rezystancji dynamicznej zależy wyłącznie od jej nachylenia i przy danym nachyleniu jest niezależna od wartości amplitudy sygnału. Niezależnie od tego, jaka będzie wartość amplitudy napięcia, wartość amplitudy prądu będzie proporcjonalnie większa lub mniejsza ze współczynnikiem proporcjonalności równym właśnie wartości rezystancji dynamicznej. Problem pojawia się w przypadku charakterystyki nieliniowej, której nachylenie jest różne w różnych jej częściach. Jeśli ich amplitudy są na tyle małe, że sygnały mieszczą się na liniowej części charakterystyki, zależność ich amplitud pozostaje stała i określona jest, jak już powiedzieliśmy, wartością nachylenia charakterystyki (rysunek 6.26a). Jeśli natomiast amplitudy sygnałów są na tyle duże, że sygnały te zaczynają obejmować sobą fragmenty charakterystyki o różnych jej nachyleniach lub, inaczej mówiąc, gdy zaczynają obejmować sobą nieliniowy jej fragment, jak
Rys. 6.26. Ilustracja wpływu wartości amplitudy sygnału wymuszającego na możliwość wystąpienia zniekształceń w sygnale odpowiedzi w przypadku charakterystyki nieliniowej (odcinkami liniowej). Brak zniekształceń przy małych amplitudach (a) oraz zniekształcenie sygnału odpowiedzi przy dużych amplitudach (b)
6.4. Praca dynamiczna złącza P-N
177
na rysunku 6.26b, wówczas pojawiają się zniekształcenia sygnału przetworzonego przez taki element, co zakłóca liniową zależność amplitud. W przedstawionym przykładzie zmienne napięcie sinusoidalne o dużej amplitudzie wymusza przepływ prądu zmiennego, którego kształt nie jest już typową sinusoidą. Jest to zniekształcona sinusoida, zachowująca co prawda częstotliwość napięcia wymuszającego, ale której część wartości chwilowych z dolnych jej połówek jest zniekształcona w stosunku do połówek górnych. Zniekształcenie to spowodowane jest przetworzeniem tych dolnych części sygnału napięcia na sygnał prądu według innej zależności, tzn. charakterystyką o innym nachyleniu. W takim przypadku określenie amplitudy sygnału jako typowej sinusoidy jest już niemożliwe, a więc też pojęcie rezystancji dynamicznej przestaje mieć tu sens. Ale choćby nawet uznać amplitudę takiego zniekształconego sygnału za połowę wartości międzyszczytowej, to i tak zależność między tak określoną amplitudą prądu a amplitudą napięcia nie byłaby liniowa, a więc wartość rezystancji dynamicznej, nie byłaby stała, jak do tej pory, ale zmieniałaby się wraz ze zmianą amplitudy napięcia. W tym momencie dochodzimy do wspomnianego już podziału rodzaju pracy dynamicznej elementów lub układów ze względu na wartości amplitud sygnałów. Pracę dynamiczną elementu elektrycznego o nieliniowej charakterystyce nazywamy pracą małosygnałową lub pracą liniową, jeśli amplitudy sygnałów zmiennych, przy których ten element pracuje, są na tyle małe, że obejmują one sobą jedynie liniowy fragment charakterystyki. Wówczas zależności amplitud sygnałów są ze sobą związane stałą wartością zwaną, jak już wiemy, rezystancją dynamiczną. Natomiast pracę dynamiczną nazywamy pracą wielkosygnałową lub pracą nieliniową, jeśli amplitudy sygnałów zmiennych, przy których pracuje element nieliniowy, są na tyle duże, że obejmują fragmenty nieliniowe charakterystyki. Wówczas zależności amplitud sygnałów nie są ze sobą związane stałą wartością i pojęcie rezystancji dynamicznej przy takim rodzaju pracy już nie obowiązuje. Do tej pory omawialiśmy charakterystyki nieliniowe w postaci odcinków prostych o różnym nachyleniu. W rzeczywistości jednak, większość charakterystyk nieliniowych elementów półprzewodnikowych nie ma odcinków liniowych, ale jest w całości nieliniowa, np. w postaci funkcji wykładniczej lub kwadratowej. Czy w takim razie, skoro nie składają się one z odcinków liniowych, nie można w stosunku do nich mówić o pracy dynamicznej małosygnałowej? Okazuje się, że jednak można. W takim przypadku o pracy małosygnałowej można mówić wówczas, gdy amplitudy sygnałów są na tyle małe, że nieliniowy fragment charakterystyki objęty tymi sygnałami można w przybliżeniu uznać za odcinek liniowy. Ale co to znaczy „w przybliżeniu”? Otóż, warunek ten jest względny i zależny od potrzeb i zastosowań danego elementu czy układu nieliniowego. W jednym przypadku ten sam nieliniowy fragment charakterystyki będzie z zadowalającym skutkiem naśladował odcinek prosty, a w innym przypadku będzie wprowadzał zbyt duże zniekształcenia nieliniowe sygnałów. Jak widać na rysunku 6.27a, dla odpowiednio małych wartości amplitudy napięcia fragment charakterystyki objęty tym sygnałem, w tej skali, praktycznie nie odbiega od odcinka liniowego, co widać jako niewielką tylko odchyłkę od umieszczonej na wykresie pomocniczej linii prostej. W tym przypadku sygnał prądu w takim zakresie swoich zmian będzie praktycznie niezniekształcony,
178
6. Złącze P-N
Rys. 6.27. Ilustracja wpływu wartości amplitudy sygnału wymuszającego na występowanie zniekształceń w sygnale odpowiedzi w przypadku typowej charakterystyki nieliniowej. Praktycznie brak zniekształceń przy małych amplitudach (a) oraz wyraźne zniekształcenie sygnału odpowiedzi przy większych amplitudach (b). Można stwierdzić, że im większa jest amplituda sygnału, tym większe są zniekształcenia nieliniowe w sygnale odpowiedzi, gdyż tym większa jest odchyłka charakterystyki od linii prostej. Kolorem szarym zaznaczono fragment charakterystyki obejmowany napięciowym sygnałem wymuszającym
a wzajemna zależność zmian amplitud prądu i napięcia będzie stała i określona wartością rezystancji dynamicznej. Natomiast w przypadku większych amplitud fragment charakterystyki objęty takim sygnałem w dużym już stopniu odbiega od odcinka liniowego, co widać jako sporą odchyłkę od pomocniczej linii prostej (rysunek 6.27b). W tym przypadku sygnał prądu w takim zakresie amplitud będzie wyraźnie zniekształcony, a wzajemne zmiany amplitud prądu i napięcia nie będą mogły być już związane ze sobą stałą zależnością w postaci rezystancji dynamicznej. Za przykład dobitnie ukazujący i tłumaczący ten problem niech posłuży Ziemia. Jak powszechnie wiadomo, ma ona kształt zbliżony do kuli. Dlaczego zatem, stojąc na jej powierzchni, nie zauważamy jej zakrzywienia i wydaje nam się ona płaska, i w praktyce tak też ją traktujemy, choć doskonale wiemy, że tak nie jest? Podobnie jak i przypadek charakterystyki nieliniowej oraz małych amplitud sygnału, wynika to z tego, że stojąc na powierzchni Ziemi, naszym wzrokiem obejmujemy tak niewielki jej fragment, że w stosunku do wielkości całej kuli ziemskiej jego zakrzywienie jest dla nas niezauważalne i jest do pominięcia. Natomiast jeśli spojrzymy na kulę ziemską z innej perspektywy, z większej odległości od jej powierzchni, np. z kosmosu, to nasz wzrok obejmie wówczas na tyle duży jej wycinek, że jego zakrzywienie w stosunku do całej Ziemi będzie już znaczne i wyraźnie widoczne, a więc będzie musiało być uwzględnione, jak to np. dzieje się przy wytyczaniu tras przelotu samolotów na odległościach międzykontynentalnych. Identycznie jest w przypadku na tyle dużych amplitud sygnału, że obejmują one sobą tak duży fragment charakterystyki nieliniowej, że jego nieliniowość wpływa już zauważalnie na sygnały i jest nie do pominięcia. Z drugiej jednak strony, w pewnych sytuacjach, np. w przypadku bardzo precyzyjnych przyrządów pomiarowych mierzących odległości na powierzchni Ziemi, nawet mały wycinek kuli ziemskiej widoczny z jej powierzchni może być na tyle zakrzywiony, że jego krzywizna z punktu widzenia
6.4. Praca dynamiczna złącza P-N
179
precyzji przyrządu będzie już zauważalna. To daje nam pewne pojęcie o istnieniu problemu dokładności przy przybliżaniu fragmentu charakterystyki odcinkiem prostym. Tak czy inaczej, warunki pracy małosygnałowej elementów nieliniowych zawsze mogą zostać określone i w odniesieniu do nich możemy również mówić o rezystancji dynamicznej. Jak jednak w przypadku charakterystyki nieliniowej, niemającej odcinków liniowych, zdefiniować wartość rezystancji dynamicznej? Jak już zostało wyjaśnione, wartość rezystancji dynamicznej jest ściśle związana z nachyleniem charakterystyki prądowo-napięciowej. W przypadku linii krzywej jej nachylenia nie można oczywiście scharakteryzować jedną wartością, gdyż zmienia się ono wzdłuż tej krzywej, tzn. w każdym punkcie krzywej nachylenie jest inne. Nachylenie to natomiast, jak pamiętamy z matematyki, określane jest na podstawie nachylenia linii prostej, będącej styczną poprowadzoną do tej krzywej w punkcie, w którym chcemy to nachylenie wyznaczyć, czyli w punkcie pracy, gdy mówimy o charakterystyce prądowo-napięciowej. Nachylenie stycznej jako linii prostej, a zatem i wartość rezystancji dynamicznej można wyznaczyć kilkoma metodami. Jedną, wcześniej już zresztą przedstawioną metodą jest skorzystanie z prostej zależności trygonometrycznej, opisanej wzorem (6.5). Wzór ten stosuje się, gdy mamy daną charakterystykę prądowo-napięciową elementu w postaci graficznej, wówczas określenie odpowiedniego kąta, choć nie zawsze dokładne i zwykle niepraktyczne, pozwala na oszacowanie wartości rezystancji dynamicznej w danym punkcie charakterystyki. Wzór ten można jednak wykorzystać do wyprowadzenia wyrażenia praktycznego, stosowanego przy wyznaczaniu wartości rezystancji dynamicznej rzeczywistych elementów bez konieczności znajomości przebiegu ich charakterystyk prądowo-napięciowych. W tym celu należy przedstawić funkcję trygonometryczną kotangensa jako stosunek odpowiednich boków trójkąta prostokątnego przystającego do stycznej, którego jeden z kątów ma wartość równą a, czyli ctga = a/b (rysunek 6.28a). Niestety, w praktyce nie da się określić długości boków a oraz b wynikających z nachylenia przeciwprostokątnej, ponieważ leży ona na prostej, której położenie jest w rzeczywistości nieznane (tu narysowane jedynie na podstawie znajomości charakterystyki). Pamiętając jednak o idei pracy małosygnałowej, przeciwprosto-
Rys. 6.28. Ilustracja sposobu wyznaczenia nachylenia nieliniowej charakterystyki za pomocą dwóch punktów: na podstawie stycznej – wartość idealna (a) oraz na podstawie charakterystyki – wartość przybliżona (b)
180
6. Złącze P-N
kątną tego trójkąta można, jak widać na rysunku 6.28b, przybliżyć fragmentem charakterystyki, co prawda nieliniowym, ale przy założeniu odpowiedniej skończonej dokładności, wystarczającym do tego, aby na jego podstawie określić długości boków a oraz b. Długości te będą wówczas wyznaczone przez dwa punkty P1 i P2 leżące na danej charakterystyce, zamiast na stycznej. Ich położenie da się z kolei łatwo określić za pomocą wartości dwóch napięć stałych U1 i U2 oraz odpowiadających im dwóch prądów stałych I1 i I2. Odpowiednie boki a i b trójkąta określa się wówczas jako różnice odpowiednio napięć oraz prądów, a wzór praktyczny przyjmuje ostatecznie następującą postać rr =
a U 2 − U1 ∆U = = . b I 2 − I1 ∆I
(6.6)
W praktyce, w celu zmierzenia wartości rezystancji dynamicznej elementu nieliniowego, wystarczy określić wartości dwóch napięć stałych w pobliżu danego punktu pracy i przykładając je kolejno do danego elementu, zmierzyć odpowiadające im wartości prądów, a następnie wyznaczyć ich różnice (przyrosty) i odpowiednio podzielić przez siebie. Tak wyznaczona wartość jest wartością rezystancji dynamicznej określonej w danym punkcie pracy charakterystyki prądowo-napięciowej. Przy czym pamiętać należy, że tym dokładniej będzie ona określona, im mniejsze będą wartości przyrostów, co wynika oczywiście z tego, że większe przyrosty napięcia i prądu obejmują sobą większe fragmenty charakterystyki, których kształt coraz bardziej odbiega od odcinka prostego, powodując większy błąd pomiaru rezystancji dynamicznej. Pewną modyfikacją tego sposobu pomiaru rezystancji dynamicznej, choć bardziej złożoną w realizacji, ale przydatną z punktu widzenia automatyzacji jej pomiaru, jest pobudzenie danego elementu napięciem zmiennym o odpowiednio małej amplitudzie i zmierzenie odpowiadającej temu wymuszeniu amplitudy prądu. Amplitudy, a w zasadzie albo wartości międzyszczytowe napięcia i prądu, albo częściej wartości skuteczne traktowane są tu jako odpowiednie przyrosty i podstawione do wyrażenia (6.6) dają w wyniku wartość rezystancji dynamicznej. Ten sam wzór (6.6) prowadzi również do jeszcze jednej metody określenia wartości rezystancji dynamicznej. A mianowicie, wiadomo, że dla coraz mniejszych przyrostów napięcia ∆U otrzymuje się coraz mniejsze przyrosty prądu ∆I. W granicznym przypadku, gdy ∆U dąży do zera (∆U → 0), czyli gdy jest nieskończenie małe, również przyrost prądu wywołany takim przyrostem napięcia będzie nieskończenie mały, czyli dążył będzie do zera (∆I → 0). Taka relacja w zasadzie bezpośrednio wiąże się z definicyjnym określeniem wielkości będącej pochodną funkcji, czyli wielkością w najbardziej ogólnym sensie określającą nachylenie charakterystyki, a więc i wartość rezystancji dynamicznej. W tym przypadku można ją przedstawić jako granicę określoną wyrażeniem ∆U
dU
, = lim dI ∆U →0 ∆I ∆I →0
(6.7)
181
6.4. Praca dynamiczna złącza P-N
a zatem rezystancję dynamiczną wyrazić jako pochodną napięcia po prądzie, a ściślej pochodną funkcji U(I) opisującej zależność napięcia istniejącego na danym elemencie od prądu płynącego przez ten element rd = rr =
dU . dI
(6.8)
Tak więc, w przypadku elementów o dowolnych kształtach charakterystyk prądowo-napięciowych rezystancja dynamiczna określona jest z definicji jako pochodna napięcia po prądzie wyznaczona z charakterystyki prądowo-napięciowej danego elementu. A ponieważ zwykle charakterystyka określona jest zależnością odwrotną, tzn. zależnością prądu od napięcia I(U), to obok rezystancji dynamicznej definiuje się również konduktancję dynamiczną lub różniczkową jako pochodną prądu po napięciu, oznaczaną przez gd lub gr gd = gr =
1 dI = . rr d U
(6.9)
Definicja rezystancji dynamicznej za pomocą pochodnej jako operatora różniczkowania wyjaśnia przy okazji jej drugą nazwę, a mianowicie określenie jako rezystancji różniczkowej. Warto dodać, że choć jest to prosta definicja, jednak wprowadzając ją w takiej postaci już na wstępie, moglibyśmy się narazić na trudności w zrozumieniu jej sensu i związku z sygnałami zmiennymi przy pracy dynamicznej. Stąd wynikło omówienie na początku przypadków charakterystyk typowo liniowych, gdzie związek taki jest łatwo dostrzegalny. Do czego jednak może w praktyce posłużyć znajomość rezystancji dynamicznej danego elementu, a w naszym przypadku złącza P-N? Jak już wspomnieliśmy wcześniej, przy pracy dynamicznej małosygnałowej, mimo że wiąże się ona z istnieniem w sygnałach oprócz składowych zmiennych, również składowych stałych, istotne są tak naprawdę wyłącznie zależności między składowymi zmiennymi tych sygnałów. A ponieważ, jak pamiętamy, przy pracy małosygnałowej zależności te są liniowe, to zamiast analizować złożone zachowanie się nieliniowego elementu lub układu jako całości, można go traktować w odniesieniu do składowych zmiennych jako element czy układ typowo liniowy, co znacznie upraszcza analizę. Zagadnienie to wiąże się bezpośrednio z problematyką elektrycznych modeli zastępczych. W zależności od wielkości napięć działających na element jego model może być sklasyfikowany, podobnie jak praca, której podlega, jako wielkosygnałowy lub małosygnałowy. Model wielkosygnałowy przeznaczony jest do symulowania działania elementu w pełnym zakresie zmiany napięć i prądów, czyli jest modelem bardzo ogólnym, a więc i skomplikowanym. Natomiast model małosygnałowy przeznaczony jest do dokładnego odwzorowania jedynie zależności między składowymi zmiennymi sygnałów w pewnym niewielkim obszarze ich działania, które to zależności, jak już pokazaliśmy, są liniowe. Tak więc cechą szczególną modelu małosygnałowego jest zastosowanie w nim jedynie elementów liniowych, co znacznie skraca czas obliczeń, które sprowadzają się wówczas do obliczeń układu liniowego. Model małosygnałowy, przybliżający właściwości elementu w bliskim sąsiedztwie punktu pracy, może być interpretowany jako powstały z przesunięcia
182
6. Złącze P-N
początku układu współrzędnych do tego punktu po założeniu, że charakterystyki w tym obszarze są w pełni liniowe i określone przez nachylenia odpowiednich charakterystyk modelu wielkosygnałowego (nieliniowego). Przemiana nieliniowego modelu czy schematu zastępczego dla pracy wielkosygnałowej w liniowy schemat dla pracy małosygnałowej nazywana jest linearyzacją modelu nieliniowego i polega na zastąpieniu wszystkich elementów nieliniowych występujących w schemacie zastępczym przez ich odpowiedniki liniowe, takie jak rezystancje, pojemności, indukcyjności, źródła prądowe lub źródła napięciowe, uzyskane w wyniku wyznaczenia ich wartości dynamicznych za pomocą pochodnych odpowiednich charakterystyk. Jak pamiętamy, charakterystyka prądowo-napięciowa złącza P-N jest typową charakterystyką nieliniową. Nieliniowość ta wynika w zasadzie jedynie z nieliniowego charakteru zależności właściwości elektrycznych warstwy zaporowej od napięcia polaryzującego. W poznanym już przez nas na rysunku 6.15 schemacie zastępczym złącza P-N dla pracy statycznej nieliniowość warstwy zaporowej reprezentowana była przez źródło prądowe o nieliniowej zależności wydajności od napięcia. Jak już stwierdzono, schemat ten jest dosyć ogólnym schematem, bo dobrze opisuje złącze P-N pobudzane zarówno dużymi, jak i małymi sygnałami stałymi oraz zmiennymi. A ponieważ przy pracy dynamicznej małosygnałowej charakterystyki nieliniowe w niewielkim otoczeniu punktu pracy można zastąpić charakterystykami liniowymi, to w przypadku złącza P-N linearyzacji podlega jedynie nieliniowe źródło prądowe reprezentujące warstwę zaporową. W wyniku linearyzacji źródło prądowe zastępowane jest zwykłą, liniową rezystancją dynamiczną, która nadal charakteryzuje właściwości warstwy zaporowej, ale jedynie dla niewielkich zmian sygnałów w pobliżu danego punktu pracy. W wyniku linearyzacji elektryczny schemat zastępczy złącza P-N dla pracy dynamicznej małosygnałowej przyjmuje postać z rysunku 6.29. Należy pamiętać, że schemat ten obowiązuje wyłącznie dla składowych zmiennych napięć i prądów, dlatego też składowych stałych nie należy już tu uwzględniać, gdyż zostały one uwzględnione w procesie linearyzacji elementów nieliniowych.
Rys. 6.29. Zlinearyzowany schemat zastępczy rzeczywistego złącza P-N dla pracy dynamicznej małosygnałowej (liniowej). Występująca tu liniowa rezystancja różniczkowa rr zastępuje nieliniowe źródło prądowe reprezentujące warstwę zaporową
W przypadku złącza idealnego wartość rezystancji dynamicznej może być wyznaczona dokładnie na podstawie definicji, czyli pochodnej charakterystyki prądowo-napięciowej. A ponieważ charakterystyka ta opisana jest zależnością prądu od napięcia (6.2b), zamiast rezystancji wygodniej jest wyznaczyć konduktancję dynamiczną gr jako pochodną tej zależności, co prowadzi do wyrażenia gr =
dI d U 1 U = − 1 = I S exp . I S exp UT U d U dU U T T
(6.10)
183
6.4. Praca dynamiczna złącza P-N
Wyrażenie to można znacznie uprościć, zauważając, że we wzorze (6.2b) na wartość prądu I płynącego przez złącze P-N, dla odpowiednio dużych napięć U, wartość funkcji wykładniczej jest o wiele większa od jedności, którą z tego powodu można w tym wzorze pominąć, upraszczając go do postaci I = I S exp
U . UT
(6.11)
Jak widać, wyrażenie to występuje również w otrzymanym wzorze na konduktancję dynamiczną i jeśli zostanie tu zastąpione wartością prądu I, pozwoli otrzymać ostateczną uproszczoną postać konduktancji dynamicznej idealnego złącza P-N gr =
I , UT
(6.12)
a zatem również rezystancji dynamicznej rr =
UT . I
(6.13)
Wynika z tego, że do określenia wartości rezystancji dynamicznej wystarczy wyłącznie znajomość wartości prądu stałego I płynącego przez złącze P-N. Ta prosta zależność ukazuje wyraźnie również istotną właściwość złącza P-N pracującego w kierunku przewodzenia. Mianowicie taką, że wraz ze wzrostem wartości płynącego prądu maleje wartość rezystancji dynamicznej złącza P-N, co wynika wprost ze wzrostu nachylenia jego charakterystyki prądowo-napięciowej dla większych wartości prądu. Zastanówmy się jeszcze nad warunkiem pozwalającym skorzystać z takiego uproszczenia. Dla jakiej wartości napięcia U wartość funkcji wykładniczej będzie o wiele większa od jedności? Można założyć, że o wiele większą od jedności wartością jest już wartość równa 10. Należy więc rozwiązać bardzo prostą nierówność exp(x) ≥ 10. Jej rozwiązaniem jest x ≥ ln(10) ≈ 2,3, co oznacza, że dla argumentów większych od ok. 2,3 wartość funkcji wykładniczej jest już większa od 10. Ponieważ w tym przypadku argumentem funkcji wykładniczej jest iloraz U/UT, to w temperaturze pokojowej, tzn. przy UT ≈ 26 mV, iloraz U/UT ≥ 2,3, jeśli U ≥ 2,3 · UT ≈ 60 mV. Tak więc, w kierunku przewodzenia już dla napięć większych od ok. 60 mV rezystancję dynamiczną złącza idealnego można wyznaczyć za pomocą bardzo prostego wyrażenia (6.13). Należy jednak pamiętać, że powyższe wyrażenie dotyczy wyłącznie złącza idealnego i dla złącza rzeczywistego, którego charakterystyka, jak zostało już pokazane, może wyraźnie odbiegać od charakterystyki idealnej, nie musi dawać poprawnych wartości. Natomiast sam fakt zmniejszania się wartości rezystancji dynamicznej wraz ze wzrostem płynącego prądu obowiązuje również dla złączy rzeczywistych. Pojemność złącza P-N We wstępie do tego punktu wspomnieliśmy, że praca dynamiczna może wymagać uwzględnienia w pracy danego elementu stanów przejściowych. Stany te wynikają najczęściej z przepływu dodatkowych prądów, tworzonych przez nośniki usuwające
184
6. Złącze P-N
lub uzupełniające ładunki w różnych obszarach elementu. Jak pamiętamy, w złączu P-N w obszarze warstwy zaporowej występuje ładunek nieskompensowanych jonów domieszek, a w bazie przy polaryzacji przewodzenia występuje ładunek nadmiarowych nośników mniejszościowych wstrzykiwanych tam przez warstwę zaporową. Oba rodzaje ładunków będą ulegały zmianom pod wpływem zmian napięcia polaryzującego złącze P-N, co z fizycznego punktu widzenia interpretować można jako istnienie pojemności. Ich wartości określone są z definicji prostą zależnością różniczkową, którą, podobnie jak w przypadku rezystancji dynamicznej, można przybliżyć stosunkiem niewielkich przyrostów: C=
dQ ∆Q . ≈ dU ∆U
(6.14)
W zależności od tego, który ładunek będzie ulegał zmianie, wyróżnić można w złączu P-N dwie pojemności. Pojemność złączowa Jeśli do złącza P-N przyłożone zostanie napięcie zmienne w czasie, to jak pamiętamy, jego zmiany powodować będą zmiany szerokości warstwy zaporowej, a tym samym zmiany ładunku jonów w tej warstwie. Pojemność wynikająca z takiego zjawiska nazywana jest pojemnością złączową lub pojemnością warstwy zaporowej i oznaczana przez Cj (ang. junction, czyli złącze), przy czym Cj =
dQ j dU
≈
∆Q j ∆U
,
(6.15)
gdzie Qj jest ładunkiem jonów w warstwie zaporowej. Zmiana tego ładunku, jak w przypadku typowej pojemności, wiąże się z chwilowym przepływem dodatkowego prądu, zwanego prądem ładowania. W złączu P-N prąd ten tworzą nośniki, które w przypadku zmniejszania się szerokości warstwy zaporowej napływają do jej zewnętrznych obszarów, natomiast przy powiększaniu się jej szerokości odpływają z obszarów z nią sąsiadujących, co zostało już opisane w podrozdziale 6.2. Wyrażając wartość ładunku Qj w funkcji napięcia U, można wykazać [13, 18], że pojemność ta ma taki sam sens jak pojemność kondensatora płaskiego. Jak pamiętamy, kondensator płaski zbudowany jest z dwóch metalowych okładek o powierzchni A, stanowiących jednocześnie jego elektrody, które oddalone są od siebie na pewną odległość d i rozdzielone materiałem dielektrycznym, o przenikalności elektrycznej oznaczanej przez e. Pojemność takiego kondensatora jest wprost proporcjonalna do powierzchni okładek i przenikalności elektrycznej dielektryka, a odwrotnie proporcjonalna do odległości między tymi okładkami. Porównując pojemność złączową złącza P-N do kondensatora płaskiego, przyjmuje się, że jego okładkami są obszary obojętne elektrycznie sąsiadujące z warstwą zaporową o przekroju poprzecznym A, a dielektrykiem sama warstwa zaporowa, której szerokość, jako odległość między okładkami, oznaczona jest przez ld, przenikalność elektryczna zaś przez es. Wówczas wartość pojemności złączowej Cj może być przedstawiona analogicznym wzorem jak wzór na wartość pojemności kondensatora płaskiego, a mianowicie: A⋅εs . (6.16) Cj = ld
185
6.4. Praca dynamiczna złącza P-N
Rys. 6.30. Wykres zależności pojemności złączowej od napięcia polaryzującego złącze P-N
Wynika z niego, że im mniejsza jest szerokość warstwy zaporowej, tym większa jest pojemność złączowa, która w granicznym przypadku, przy zaniku warstwy zaporowej, osiąga wartość nieskończoną. A ponieważ szerokość warstwy zaporowej zależy od napięcia polaryzującego, to również wartość pojemności złączowej jest od niego zależna, co zilustrowano na wykresie z rysunku 6.30. Zależność pojemności złączowej od napięcia polaryzującego wykorzystywana jest w praktyce w takich elementach jak warikapy. Służą one za pojemności, których wartość, w odróżnieniu od typowych kondensatorów, może być zmieniana w czasie pracy elementu za pomocą napięcia polaryzującego. Stosuje się je przede wszystkim w generatorach przestrajanych napięciem oraz do przestrajania obwodów rezonansowych. Z uwagi jednak na to, że dobra pojemność powinna się charakteryzować bardzo małą upływnością ładunku, czyli bardzo dużą rezystancją dielektryka, zastosowanie złącza P-N do tych celów ogranicza się wyłącznie do jego pracy w zakresie zaporowym, w którym rezystancja warstwy zaporowej, jako dielektryka, jest bardzo duża. Choć w kierunku przewodzenia zmiany pojemności złączowej obejmują o wiele szerszy zakres wartości niż w kierunku zaporowym, złącze takie, jako pojemność, z powodu przepływu przez nie prądu o znaczących wartościach charakteryzowałoby się bardzo małą dobrocią, co dyskwalifikowałoby je jako kondensator. Pojemność dyfuzyjna Drugi rodzaj pojemności, związany ze zmianami ładunku nadmiarowych nośników mniejszościowych w bazie złącza P-N pod wpływem zmian napięcia polaryzującego, nazywany jest pojemnością dyfuzyjną i oznaczany przez Cd, przy czym Cd =
dQB ∆QB , ≈ dU ∆U
(6.17)
gdzie QB jest wspomnianym ładunkiem bazy. Związek tej pojemności ze zmianami ładunku bazy pod wpływem zmian napięcia polaryzacji jest trudniejszy do wyjaśnienia [13, 18]. Jak pamiętamy (podrozdział 6.2), nośniki nadmiarowe występują w złączu P-N pracującym przy polaryzacji przewodzenia. Wówczas nośniki większościowe z obszaru emitera złącza P-N wstrzykiwane są do obszaru bazy, stając
186
6. Złącze P-N
się tam nadmiarowymi nośnikami mniejszościowymi, a ich napływ w postaci prądu przewodzenia zwiększa ilość ładunku nadmiarowego w bazie. Zatem każda zmiana tego prądu wywołana zmianą napięcia polaryzacji pociąga za sobą również zmianę ładunku bazy. Widać więc związek zmiany ładunku bazy ze zmianą napięcia polaryzacji, co interpretowane jest jako pojemność. Wyrażając wartość ładunku QB w funkcji napięcia polaryzacji U, wykazać można jego ścisły związek z prądem płynącym przez złącze P-N, co prowadzi do następującego wyrażenia na wartość pojemności dyfuzyjnej Cd =
I ⋅τ , UT
(6.18)
gdzie t jest czasem życia nośników, określającym średni czas między generacją nośnika a jego rekombinacją. Z wyrażenia tego wynika, że pojemność dyfuzyjna jest wprost proporcjonalna do prądu płynącego przez złącze P-N, a jej związek z ładunkiem nadmiarowym powoduje, że przejawia ona swoją obecność jedynie w kierunku polaryzacji przewodzenia. Jak wszystkie pojemności, również i te występujące w złączu P-N będą miały wpływ na jego pracę przy pobudzaniu go sygnałami zmiennymi. Jak pamiętamy, prąd ładowania pojemności wynikający ze zmiany napięcia jest proporcjonalny do szybkości jego zmiany oraz do wartości tej pojemności, co zapisujemy jako: iC = C ⋅
du . dt
(6.19)
Wynika z tego, że przy odpowiednio małych szybkościach zmian napięcia, czyli przy odpowiednio małych częstotliwościach pracy, wartość prądu ładowania może być pomijalnie mała i wówczas można przyjąć, że wpływ obu pojemności na pracę złącza P-N jest do zaniedbania. Ponieważ wartości tych częstotliwości nie są jednoznacznie określone i zależą od kilku czynników, przyjęło się je określać zgrubnie jako małe częstotliwości. Analogicznie, średnimi częstotliwościami określane są takie wartości częstotliwości, przy których wpływu pojemności na pracę złączy P-N pominąć już nie można. Z tego też względu w każdym zakresie częstotliwości obowiązuje nieco inny elektryczny schemat zastępczy złącza P-N dla pracy dynamicznej. W przypadku małych częstotliwości, z powodu pominięcia pojemności złączowej i dyfuzyjnej, przyjmuje on postać, jaką do tej pory poznaliśmy dla pracy małosygnałowej (rysunek 6.31a). Z kolei, w przypadku średnich częstotliwości, z konieczności uwzględnienia w pracy złącza P-N pojemności złączowej i/lub dyfuzyjnej, pojemności te pojawiają się w jego schemacie zastępczym i dołączone są równolegle do rezystancji dynamicznej reprezentującej warstwę zaporową (rysunek 6.31b). Jak wcześniej już wspomniano, dla pracy złącza P-N określa się jeszcze jeden zakres częstotliwości, wielkich lub dużych częstotliwości, przy których wartość pojemności dyfuzyjnej nie może być już opisana w tak prostej postaci, jak to zostało przedstawione i występujące przy tych częstotliwościach dodatkowe zjawiska powodują zmniejszanie się wartości tej pojemności wraz ze wzrostem częstotliwości. Podobnie zresztą zachowuje się w tym zakresie częstotliwości rezystancja dynamiczna złącza P-N, malejąca
6.4. Praca dynamiczna złącza P-N
187
Rys. 6.31. Schematy zastępcze złącza P-N dla pracy dynamicznej małosygnałowej przy małych (a), średnich (b) oraz dużych częstotliwościach (c)
wraz z jej wzrostem. W związku z tym, w schemacie zastępczym złącza P-N obowiązującym dla tego zakresu częstotliwości przy opisie pojemności dyfuzyjnej oraz rezystancji dynamicznej pojawia się zależność od pulsacji w (rysunek 6.31c). Należy w tym miejscu zaznaczyć, że zdefiniowane wyżej pojęcia zakresów częstotliwości pracy złącza P-N odnoszą się również do wszystkich pozostałych elementów półprzewodnikowych i w taki właśnie sposób będą rozumiane w tej części książki. W odróżnieniu od tego, w kolejnej części, dotyczącej układów analogowych, pojęcie dolnych częstotliwości traktowane będzie nieco inaczej, ponieważ tam ważny będzie również wpływ elementów reaktancyjnych, znajdujących się w obwodzie zewnętrznym, w którym pracuje element półprzewodnikowy. I tak, zakresem małych częstotliwości nazwany zostanie zakres, w którym uwzględnia się wpływ zewnętrznych elementów reaktancyjnych, a zakresem średnich częstotliwości – zakres, gdzie ten wpływ jest już do pominięcia. Z kolei zakres dużych częstotliwości to zakres, w którym wpływ objawiają elementy reaktancyjne istniejące w elementach półprzewodnikowych. Praca impulsowa złącza P-N Praca impulsowa jest pracą wielkosygnałową i związana jest z pobudzaniem złącza P-N sygnałem prostokątnym, a więc sygnałem o nagłych zmianach wartości i w takim zakresie, że powodują one całkowitą zmianę stanu pracy złącza P-N. Z punktu widzenia sposobu zmiany sygnału wyróżnia się cztery możliwe fazy pracy: włączanie – gdy złącze P-N ze stanu równowagi polaryzowane jest do kierunku przewodzenia, wyłączanie – gdy złącze P-N z kierunku przewodzenia przechodzi do stanu równowagi oraz przełączanie w przód, gdy polaryzacja złącza P-N zmieniana jest z zaporowej na przewodzenia, bądź przełączanie w tył, gdy zmienia się z przewodzenia na zaporową. Przy czym, ze względu na sposób sterowania, wyróżnia się sterowanie prądowe za pomocą źródła o stałej wydajności prądowej oraz sterowanie napięciowe za pomocą źródła o stałej wydajności napięciowej. Zjawiska, zachodzące przy nagłych zmianach napięć lub prądów, związane są, podobnie jak przy pracy liniowej, z koniecznością zmian ładunków w określonych obszarach złącza P-N, co, jak pamiętamy, przejawia się istnieniem znanych nam już pojemności: złączowej oraz dyfuzyjnej. Procesy przeładowywania pojemności powodować będą opóźnienia we włączaniu, wyłączaniu i przełączaniu złącza P-N, a przez to będą ograniczać maksymalną częstotliwość pracy impulsowej. Przy czym przez pojęcie
188
6. Złącze P-N
opóźnienia należy rozumieć czas, jaki potrzebny jest na to, aby zanikły wszelkie procesy przejściowe i osiągnięty został stan ustalony. W przypadku dużych częstotliwości opóźnienia te związane są też z czasem potrzebnym nośnikom na propagację przez określone obszary złącza P-N. Podczas włączania napięciowego napięcie na złączu P-N ulega nagłej zmianie na kierunek przewodzenia. Powoduje to, że równie nagle zmniejsza się napięcie na warstwie zaporowej i złącze zaczyna pracować w przewodzeniu, wstrzykując nośniki do bazy. W rezultacie tego na krawędzi warstwy zaporowej pojawia się duża liczba nadmiarowych nośników mniejszościowych, zwiększająca w tym miejscu swoją koncentrację. Ponieważ nośniki te nie zdążyły jeszcze przepłynąć do pozostałych obszarów bazy, ich koncentracja tam jest bardzo mała, czyli taka jak w stanie równowagi. Występuje więc duża różnica koncentracji między tymi obszarami bazy, co, jak pamiętamy, wywołuje przepływ prądu dyfuzyjnego. Nośniki nadmiarowe zaczynają przepływać dyfuzyjnie od krawędzi warstwy zaporowej przez obszar bazy do zacisku wyprowadzenia, tworząc prąd w obwodzie zewnętrznym (rysunek 6.32a). Ze względu na to, że tuż po przyłożeniu napięcia różnica koncentracji nośników mniejszościowych w bazie jest duża, prąd płynący przez bazę, a więc i prąd w obwodzie zewnętrznym, jest w początkowej fazie włączania również duży (rysunek 6.32b). Wzrost napięcia jest natychmiastowy (zakładając, że odbywa się on w nieskończenie krótkim czasie), co teoretycznie oznacza nieskończenie duży przyrost prądu w momencie włączenia. Jednak w rzeczywistości skok napięcia nigdy nie jest idealnie prostokątny, a w obwodzie zawsze istnieje jakaś rezystancja, np. rezystancja bazy (część rezystancji szeregowej), co sprawia, że skok prądu w chwili t0 jest skończony. W miarę dyfuzyjnego przepływu nośników przez bazę różnica ich koncentracji maleje, powodując zmniejszanie się prądu i po pewnym czasie różnica ta ustala się na stałym poziomie (rysunek 6.32c). Oznacza to zakończenie procesów przejściowych w złączu P-N i osiągnięcie stanu ustalonego, objawiającego się
Rys. 6.32. Włączanie napięciowe złącza P-N. Rozkład koncentracji nośników nadmiarowych wzdłuż bazy w momencie włączenia (czas t0) (a), przebiegi czasowe napięcia i prądu (b) oraz rozkład koncentracji nośników nadmiarowych wzdłuż bazy w stanie ustalonym (czas t1) (c)
6.4. Praca dynamiczna złącza P-N
189
Rys. 6.33. Włączanie prądowe złącza P-N. Rozkład koncentracji nośników nadmiarowych wzdłuż bazy w momencie włączenia (czas t0) (a), przebiegi czasowe prądu i napięcia (b) oraz rozkład koncentracji nośników nadmiarowych wzdłuż bazy w stanie ustalonym (czas t1) (c)
przepływem przez złącze P-N prądu o stałej wartości, wynikającej z wartości przyłożonego napięcia w kierunku przewodzenia. Z kolei, podczas włączania prądowego mamy do czynienia z przepływem prądu o stałej wartości w całej fazie włączania. W takim przypadku różnica koncentracji między krawędzią bazy przy warstwie zaporowej a pozostałym obszarem bazy również pozostaje stała. A ponieważ wymuszenie prądu o kierunku dodatnim oznacza wstrzykiwanie nośników do bazy, w wyniku tego w obszarze bazy pojawia się coraz więcej nośników nadmiarowych i ich koncentracja w bazie rośnie (rysunek 6.33a). Jednak wzrost koncentracji nośników w bazie oznaczałby zmniejszenie się różnicy ich koncentracji. A ponieważ różnica ta ma pozostać stała, wzrosnąć musi też wartość koncentracji na krawędzi bazy. To z kolei oznacza zwiększenie poziomu wstrzykiwania nośników przez warstwę zaporową, do czego może dojść jedynie przy wzroście napięcia na złączu P-N. I tak też się dzieje. Tak więc, w wyniku przepływu prądu o stałej wartości, wzrasta napięcie na złączu P-N (rysunek 6.33b). Wzrasta ono do momentu, aż koncentracja nośników nadmiarowych w bazie wzrośnie do takiego poziomu, że zrównoważy się intensywność ich wypływania z bazy do obwodu zewnętrznego z intensywnością ich wstrzykiwania do bazy przez warstwę zaporową. W tym momencie ustalają się warunki pracy przewodzenia i złącze osiąga stan ustalony. Jak widać, za opóźnienie we włączaniu złącza P-N odpowiedzialny jest proces zwiększania się koncentracji nośników nadmiarowych w obszarze bazy, a jak pamiętamy, zmiana ładunku w tym obszarze interpretowana jest jako pojemność dyfuzyjna. Można więc stwierdzić, że opóźnienie we włączaniu złącza P-N spowodowane jest koniecznością naładowania jego pojemności dyfuzyjnej. Należy jeszcze wspomnieć, że w zależności od wartości prądu włączającego wzrost napięcia może przebiegać w różny sposób (rysunek 6.34). Dla małych wartości prądu złącze zachowuje się jak element pojemnościowy (przebieg nr 1), natomiast przy dużych wartościach prądu pojawia się zjawisko zmniejszania się rezystancji
190
6. Złącze P-N
Rys. 6.34. Wykresy przebiegów prądu i napięcia podczas włączania prądowego dla różnych wartości prądu włączającego
obszaru bazy, czyli rezystancji szeregowej złącza P-N, w wyniku zwiększania się koncentracji nośników w bazie. Uwzględnienie istnienia rezystancji szeregowej powoduje, że przy dużej wartości prądu płynącego przez dużą początkowo rezystancję bazy odkłada się na niej duże napięcie, a więc całkowite napięcie na złączu P-N również przyjmuje początkowo dużą wartość. W miarę zmniejszania się rezystancji bazy wpływ spadku napięcia na niej jest coraz mniejszy, a zatem spada też napięcie na złączu P-N (przebieg nr 2). Przy średniej wartości prądu, oba czynniki, tzn. czynnik pojemnościowy oraz modulacja rezystancji bazy, są porównywalne, co sprawia, że wzrost napięcia przyjmuje np. taki kształt jak przebieg nr 3. Podczas wyłączania napięciowego mamy sytuację odwrotną do tej, jaka istniała podczas włączania napięciowego, tzn. teraz nagła zmiana napięcia do wartości równej zeru oznacza w praktyce zwarcie zacisków złącza. To powoduje przerwanie procesu wstrzykiwania nośników przez warstwę zaporową, a więc w bazie, na krawędzi warstwy zaporowej, koncentracja nadmiarowych nośników mniejszościowych natychmiast zmniejsza się do zera. To wywołuje dużą różnicę koncentracji nośników na krawędzi bazy w stosunku do pozostałego jej obszaru, gdzie nośniki nadmiarowe jeszcze się znajdują. Jednak tym razem różnica ta będzie odwrotna niż w przypadku włączania i również spowoduje przepływ prądu dyfuzyjnego, ale w kierunku przeciwnym niż przy polaryzacji przewodzenia. Dyfuzja nośników nadmiarowych będzie je kierowała ku warstwie zaporowej, przez którą zaczną być przechwytywane i unoszone na jej drugą stronę, tworząc prąd zilustrowany na rysunku 6.35a. W obwodzie zewnętrznym objawia się to nagłą zmianą wartości prądu z dodatniej na ujemną, która, przy założeniu idealnego skoku napięcia, powinna przyjąć wartość nieskończoną. Jednak w rzeczywistości z powodu niedoskonałości realizacji zwarcia zawsze istnieje jakaś rezystancja w obwodzie, np. rezystancja bazy, która ogranicza płynący prąd, tak więc w początkowej fazie wyłączania (w chwili t0)
6.4. Praca dynamiczna złącza P-N
191
Rys. 6.35. Wyłączanie napięciowe złącza P-N. Rozkład koncentracji nośników nadmiarowych wzdłuż bazy w momencie wyłączenia (czas t0) (a), przebiegi czasowe napięcia i prądu (b) oraz rozkład koncentracji nośników nadmiarowych wzdłuż bazy w stanie ustalonym (czas t1) (c)
przyjmuje on pewną skończoną wartość ujemną (rysunek 6.35b), w dodatku tym większą, im mniejsza jest „rezystancja zwarcia” i im większy był prąd przewodzenia. Należy zauważyć, że prąd płynący teraz przez złącze P-N jest tak naprawdę prądem unoszenia, ale jego wartość jest duża, ponieważ w bazie znajduje się jeszcze dużo nośników nadmiarowych. W miarę upływu czasu nagromadzone wcześniej w bazie nośniki nadmiarowe, przepływając dyfuzyjnie do warstwy zaporowej, opuszczają obszar bazy, przez co zmniejsza się tam ich koncentracja, a zatem i jej różnica wzdłuż bazy, co powoduje zmniejszanie się prądu. Różnica koncentracji maleje do momentu wyrównania się koncentracji w całym obszarze bazy, przez co zanika dyfuzja dostarczająca nośniki nadmiarowe do warstwy zaporowej, a więc zanika również ich unoszenie. Zatem w złączu ustala się stan równowagi i przez złącze P-N nie przepływa żaden prąd (rysunek 6.35c). Odtąd złącze P-N uznać można za wyłączone. Jak widać, za opóźnienie w wyłączaniu złącza P-N odpowiada proces usuwania nadmiarowych nośników mniejszościowych zgromadzonych w obszarze bazy w czasie, gdy złącze to pracowało w kierunku przewodzenia. Zatem ponownie mamy do czynienia z pojemnością dyfuzyjną. Można zatem stwierdzić, że opóźnienie w wyłączeniu złącza P-N spowodowane jest koniecznością rozładowania jego pojemności dyfuzyjnej, która została naładowana, gdy złącze pracowało w przewodzeniu. W przypadku wyłączania prądowego mamy do czynienia z nagłą zmianą prądu z pewnej wartości w kierunku przewodzenia do wartości równej zeru, co w praktyce oznacza rozwarcie obwodu, w którym pracuje złącze P-N. Tuż przed momentem wyłączenia złącze P-N spolaryzowane jest w kierunku przewodzenia, podczas którego, jak pamiętamy, do bazy wstrzykiwana jest duża liczba mniejszościowych nośników nadmiarowych. W momencie wyłączenia wstrzyknięte nośniki znajdujące się w bazie w znacznej liczbie nie mogą z bazy wypłynąć, gdyż rozwarty został obwód zewnętrzny. W takim razie ich ładunek tworzy w bazie pewien „nadmiaro-
192
6. Złącze P-N
Rys. 6.36. Wyłączanie prądowe złącza P-N. Rozkład koncentracji nośników nadmiarowych wzdłuż bazy w momencie wyłączenia (czas t0) (a), przebiegi czasowe prądu i napięcia (b) oraz rozkład koncentracji nośników nadmiarowych wzdłuż bazy w stanie ustalonym (czas t1) (c)
wy potencjał”, który będzie wytwarzał napięcie na zaciskach złącza P-N – napięcie poiniekcyjne (rysunek 6.36a). Oczywiście sytuacja taka nie będzie się utrzymywała stale. W wyniku zachodzącej w bazie rekombinacji ładunek nośników nadmiarowych będzie malał, a wraz z nim potencjał w bazie, a zatem i napięcie na zaciskach złącza P-N (rysunek 6.36b). Jednak w momencie wyłączenia, w pierwszej kolejności, z powodu braku przepływu prądu, zmniejszeniu do zera ulega napięcie na rezystancji szeregowej, co objawia się nagłym spadkiem całkowitego napięcia na złączu P-N o wartość napięcia na rezystancji szeregowej, wynikającego z wcześniejszej polaryzacji w kierunku przewodzenia. W chwili, gdy wszystkie nośniki nadmiarowe w bazie zrekombinują, napięcie zanika do zera i w złączu P-N ustala się stan równowagi (rysunek 6.36c). W tym przypadku również można stwierdzić, że opóźnienie wyłączenia spowodowane jest koniecznością rozładowania pojemności dyfuzyjnej. Można dodać, że konieczność ta wynika z tego, że gdyby nie doszło do usunięcia ładunku nadmiarowego z bazy, na złączu P-N stale utrzymywałoby się napięcie poiniekcyjne, a wówczas nie można by uznać złącza P-N za wyłączone. Tak więc, aby napięcie spadło do zera, musi zostać usunięty ładunek z bazy, co interpretujemy jako rozładowanie pojemności dyfuzyjnej. Podczas przełączania napięciowego złącza P-N zachodzące zjawiska oraz przebiegi czasowe w zasadzie nie różnią się od tych podanych dla włączania i wyłączania napięciowego (rysunek 6.37), z tą różnicą że podczas przełączania w tył, w złączu P-N nie ustala się stan równowagi, ale stan polaryzacji zaporowej i wówczas płynie przez złącze P-N niewielki prąd nasycenia. W procesach przełączania prądowego sytuacja jest nieco inna, tu, oprócz zjawisk zachodzących podczas włączania i wyłączania prądowego, będą występowały jeszcze dodatkowe zjawiska. Zakłada się przy tym, że przełączanie prądowe złącza P-N realizowane jest w obwodzie, pokazanym na rysunku 6.38, w którym wartość prądu zostaje ograniczona przez elementy obwodu.
6.4. Praca dynamiczna złącza P-N
193
Rys. 6.37. Wykresy przebiegów czasowych napięcia oraz prądu podczas przełączania napięciowego złącza P-N
Przełączenie przełącznika P do pozycji górnej spowoduje zamknięcie obwodu, w którym źródło napięcia EF będzie polaryzowało złącze P-N w kierunku przewodzenia, co wywoła natychmiastowy przepływ prądu, a duża wartość rezystancji R, w porównaniu z rezystancją złącza P-N zapewni praktycznie stałą wartość prądu w obwodzie, ograniczając go do wartości EF /R. Z kolei przełączenie przełącznika P do pozycji dolnej spowoduje dołączenie źródła ER polaryzującego złącze P-N w kierunku zaporowym, a element obwodu R ograniczy maksymalną wartość prądu do wartości ER /R. W przypadku przełączania w przód, poza zjawiskami występującymi przy włączaniu, należy ponadto uwzględnić zjawisko zmiany ładunku warstwy zaporowej, czyli zjawisko przeładowania pojemności złączowej. Należy w tym miejscu przypo-
Rys. 6.38. Schemat poglądowy obwodu elektrycznego realizującego przełączanie prądowe złącza P-N
194
6. Złącze P-N
mnieć, że ładunek warstwy zaporowej jest nieruchomym ładunkiem zjonizowanych atomów domieszek, a jego wartość zależy od szerokości warstwy zaporowej, a ta z kolei od napięcia polaryzacji. Pamiętamy też, że w kierunku zaporowym napięcie polaryzacji, poprzez częściowy odpływ nośników, powoduje powiększenie się szerokości warstwy zaporowej, a więc i obejmowanego przez nią ładunku domieszek. Z kolei przy polaryzacji w kierunku przewodzenia odwrotnie, poprzez częściowe wpłynięcie nośników do obszarów warstwy zaporowej, jej szerokość, a tym samym ładunek przez nią obejmowany, ulega zmniejszeniu. Można zatem stwierdzić, że podczas zmiany szerokości warstwy zaporowej przez złącze P-N przepływa pewien prąd, utworzony przez nośniki wpływające do warstwy zaporowej lub wypływające z niej powodując zmianę jej szerokości. Takie zjawisko można traktować jako ładowanie lub rozładowywanie, czy jednym słowem, przeładowywanie pojemności złączowej. Można przy tym stwierdzić, że tak jak napięcie na złączu P-N ustala ilość ładunku w warstwie zaporowej, tak też i odwrotnie, wielkość ładunku warstwy zaporowej będzie wymuszała określone napięcie na złączu P-N. Teraz można wyjaśnić, co się dzieje w trakcie przełączania prądowego złącza P-N. Tuż przed przełączeniem w przód złącze P-N znajduje się w stanie zaporowym, co powoduje, że na złączu odkłada się pewne napięcie wsteczne, a warstwa zaporowa ma dużą szerokość, obejmując sobą dużo nieruchomego ładunku domieszek. W momencie przełączenia złącze P-N zaczyna być polaryzowane w kierunku przewodzenia, co oznacza, że napięcie na złączu powinno się zmienić z zaporowego na przewodzenia. Jednak zmiana ta nie następuje natychmiastowo, ponieważ w momencie przełączenia ładunek szerokiej warstwy zaporowej utrzymuje taką wartość napięcia, jaka do tej pory istniała na złączu. Przypomnijmy, że zmiana zwrotu napięcia na zwrot w kierunku przewodzenia może nastąpić jedynie w wyniku zmniejszenia się ładunku warstwy zaporowej, czyli w wyniku zmniejszenia się jej szerokości, co może się odbyć jedynie przez wpłynięcie nośników do zewnętrznych warstw złącza P-N (por. podrozdział 6.2). To przemieszczanie się nośników wywoła w obwodzie zewnętrznym natychmiastowy przepływ prądu, który można określić mianem prądu przeładowującego (rysunek 6.39). A ponieważ jego wartość jest ograniczona do wartości EF /R, zmiana ładunku warstwy zaporowej nie nastąpi natychmiastowo, ale zajmie pewien czas. W związku z tym również napięcie na złączu P-N nie zmieni się natychmiastowo, ale będzie rosło w miarę przeładowywania ładunku warstwy zaporowej. Czas, w jakim napięcie na złączu z kierunku zaporowego zmniejsza swoją wartość do zera, nazywany jest czasem opóźnienia i zwykle oznaczany przez td (ang. delay). Po czasie opóźnienia stan złącza P-N zmienia się z zaporowego na stan przewodzenia i dalszy wzrost napięcia wynika już ze zjawisk występujących podczas włączania prądowego złącza P-N. Podsumowując proces przełączania w przód, można stwierdzić, że wyraźnie widoczne opóźnienie zmiany napięcia złącza P-N do kierunku przewodzenia wynika z konieczności przeładowania ładunku warstwy zaporowej czy inaczej przeładowania pojemności złączowej i wywołuje w złączu natychmiastowy przepływ prądu przeładowania. Natomiast czas trwania tego procesu uzależniony jest od ilości ładunku w warstwie zaporowej, a więc od wartości napięcia wstecznego (im większe, tym szersza warstwa zaporowa, a tym samym większy ładunek warstwy zaporowej i czas td dłuższy) oraz od wartości prądu rozładowującego, czyli w tym przypadku
6.4. Praca dynamiczna złącza P-N
195
Rys. 6.39. Wykresy przebiegów czasowych w obwodzie przełączania prądowego złącza P-N
od wartości rezystancji R i napięcia źródła EF. Im prąd jest większy, tym czas td krótszy (oczywiście prąd jest tym większy, im mniejsze jest R i im większe jest EF). W przypadku przełączania w tył, spolaryzowane początkowo w kierunku przewodzenia złącze P-N musi przejść do stanu zaporowego. Aby się to odbyło, podobnie jak w przypadku wyłączania musi zostać usunięty ładunek nadmiarowy zgromadzony do tej pory w bazie, czyli rozładowaniu ulec musi pojemność dyfuzyjna złącza P-N. Jak pamiętamy, zgromadzony w bazie ładunek nadmiarowy powoduje występowanie na złączu napięcia poiniekcyjnego, zależnego od ilości tego ładunku. A ponieważ w tym przypadku obwód, w którym znajduje się złącze nie jest rozwarty, jak przy wyłączaniu, ale zamknięty, proces rozładowywania ładunku sprawi, że przez złącze P-N zacznie natychmiast przepływać prąd w kierunku wstecznym,
196
6. Złącze P-N
przy czym jego wartość będzie ograniczona do wartości ER /R (rysunek 6.39). Tak więc rozładowywanie pojemności dyfuzyjnej odbywać się będzie szybciej niż przy wyłączaniu, bo w wyniku rekombinacji nośników w bazie i poprzez prąd wsteczny, co na wykresie przebiegu prądowego objawi się jako „półka” o stałej wartości prądu, natomiast napięcie poiniekcyjne będzie malało wraz ze zmniejszaniem się ładunku w bazie, aż do wartości równej zero, co odbywa się w czasie nazywanym czasem magazynowania, oznaczanym przez ts (ang. storage). W momencie, gdy po czasie ts napięcie osiągnie wartość równą zeru, złącze przechodzi ze stanu przewodzenia do stanu zaporowego, a wówczas znak napięcia na złączu zmienia się na ujemny i napięcie to zaczyna rosnąć (w kierunku ujemnym) do wartości napięcia wstecznego. A ponieważ ze zmianą napięcia w kierunku zaporowym wiąże się wzrost szerokości warstwy zaporowej, a zatem i wzrost jej ładunku domieszek, to w tym czasie przez złącze P-N płynie prąd przeładowujący pojemność złączową, a wynikający, jak pamiętamy, z konieczności odpłynięcia nośników z obszarów sąsiadujących z warstwą zaporową, umożliwiający tym samym jej poszerzenie. W miarę rozszerzania się warstwy zaporowej kolejne przyrosty jej szerokości są coraz mniejsze (najintensywniej zachodziło to w momencie zmiany napięcia z przewodzenia na zaporowe), co powoduje, że coraz mniej ładunku odpływa z jej granic, a więc coraz mniejszy prąd wsteczny płynie przez złącze P-N, co obserwujemy na przebiegu prądu jako jego spadek w kierunku wartości zerowej (rysunek 6.39). W chwili, gdy warstwa zaporowa osiągnie odpowiednią szerokość, wynikającą z polaryzacji zaporowej złącza, przepływ prądu ustali się na wartości prądu nasycenia i proces przełączania złącza P-N zakończy się. Czas, w którym dochodzi do osiągnięcia stanu ustalonego, nazywany jest czasem opadania i oznaczany przez tf (ang. fall). Należy wspomnieć, że całkowity czas potrzebny do przełączenia złącza P-N ze stanu przewodzenia do stanu zaporowego jest sumą czasów ts oraz tf i nazywany jest czasem przełączania, a oznaczany przez trr. Ponadto, na podstawie przebiegu prądowego
Rys. 6.40. Ilustracja sposobu oszacowania ładunku Qrr nadmiarowych nośników mniejszościowych zgromadzonych w bazie złącza P-N podczas jego pracy w kierunku przewodzenia. Ładunek ten jest polem powierzchni ograniczonej przebiegiem prądu i osią czasową w zakresie czasów od momentu przełączenia w tył do chwili, w której zmniejszający się prąd ustali się
6.5. Rodzaje diod oraz ich parametry statyczne i dynamiczne
197
można oszacować ładunek nadmiarowych nośników mniejszościowych zgromadzonych w bazie złącza P-N, gdy pracowało ono w kierunku przewodzenia. Dokonuje się tego, wyznaczając pole powierzchni ograniczone przebiegiem czasowym prądu oraz osią czasową w zakresie czasów od momentu przełączenia w tył do chwili, w której opadający prąd ustali się na wartości prądu wstecznego, a w praktyce, gdy opadnie do 10% wartości maksymalnej IR (rysunek 6.40). Pole tej powierzchni będzie miało wymiar kulomba [C], ponieważ w tym układzie współrzędnych określone jest ono jako iloczyn prądu i oraz czasu t, a więc wyrażone jednostką „amper razy sekunda” [A · s], co na podstawie definicji ampera daje miarę ładunku. Ładunek ten nazywa się ładunkiem przełączania i jest oznaczany przez Qrr. Podsumowując proces przełączania w tył, należy stwierdzić, że czas trwania tego procesu zależy przede wszystkim od dwóch czynników. W początkowej fazie opóźnienie w przełączeniu związane jest z koniecznością rozładowania pojemności dyfuzyjnej, a w końcowej fazie z koniecznością przeładowania pojemności złączowej. Przy czym czas fazy pierwszej (czas magazynowania) zależy od wielkości zgromadzonego w bazie ładunku, od wartości prądu go rozładowującego oraz od intensywności rekombinacji nośników w bazie, czyli od właściwości złącza P-N. Za ilość ładunku w bazie odpowiada wartość prądu płynącego w kierunku przewodzenia przed momentem przełączenia, ograniczona do wartości EF /R przez elementy obwodu zewnętrznego, podobnie za wartość prądu rozładowującego odpowiadają elementy obwodu zewnętrznego ograniczające prąd do wartości ER /R. Z kolei czas drugiej fazy, czyli czas opadania, zależy, jak poprzednio, od właściwości złącza P-N oraz od wartości maksymalnej prądu wstecznego, czyli od prądu płynącego w czasie magazynowania. Ma to znaczenie, ponieważ z tej wartości prąd musi zmaleć prawie do zera. Tak więc im większa jest wartość początkowa tego prądu, tym dłuższy jest czas opadania, a zatem zależy on również od wartości elementów obwodu zewnętrznego ER i R.
6.5.
Rodzaje diod oraz ich parametry statyczne i dynamiczne Do tej pory, podczas omawiania zjawisk decydujących o działaniu złącza P-N, nie braliśmy pod uwagę żadnej konkretnej realizacji fizycznej. A okazuje się, że sposób działania złącza, a zatem i jego parametry silnie zależą od konstrukcji, która może przyjmować różne warianty. Stąd wynika duża rozmaitość istniejących diod jako elementów w pełni funkcjonalnych, różniących się między sobą zarówno charakterystykami prądowo-napięciowymi, jak i parametrami statycznymi i dynamicznymi. W tym punkcie przedstawimy krótko charakterystykę i właściwości najważniejszych diod [2, 13, 18]. Diody prostownicze Diody prostownicze przeznaczone są do prostowania prądu przemiennego, przy czym przyjmuje się, że w ich przypadku chodzi o prostowanie prądu o małej częstotliwości, ale przy wydzielanych średnich lub dużych mocach w obciążeniu.
198
6. Złącze P-N
Przez pojęcie prostowania prądu zmiennego należy tu rozumieć „przepuszczanie” go tylko w jednym kierunku, tak aby miał tylko wartość dodatnią lub tylko wartość ujemną. Do tego celu doskonale nadają się diody, ponieważ spolaryzowane w kierunku przewodzenia prąd przewodzą, a w kierunku zaporowym nie. Z tego powodu diody prostownicze powinny charakteryzować się możliwością przewodzenia prądów o dużych wartościach jednocześnie przy małej wartości odkładającego się na nich napięcia przewodzenia. Z drugiej strony powinny też charakteryzować się dużą wartością napięcia przebicia, aby nie dochodziło do niego przy blokowaniu napięć o dużych wartościach w kierunku zaporowym. Zatem do najważniejszych parametrów tych diod należą: – napięcie przewodzenia UF, mierzone przy określonym prądzie przewodzenia IF, – szczytowe (dla sygnału zmiennego) napięcie wsteczne URWM, przy którym nie dochodzi jeszcze do przebicia, – powtarzalne szczytowe napięcie wsteczne URRM, – niepowtarzalne szczytowe napięcie wsteczne URSM, – prąd wsteczny IR przy maksymalnym napięciu wstecznym URWM, – maksymalny prąd średni I0 lub znamionowy prąd w kierunku przewodzenia IFM, – powtarzalny szczytowy prąd przewodzenia IFRM, – niepowtarzalny szczytowy prąd przewodzenia IFSM, – maksymalna (dopuszczalna) moc strat Pmax lub Pa, czyli największa możliwa moc, która może się wydzielić w diodzie przy danym rodzaju chłodzenia, nie powodując jej uszkodzenia. Charakterystyka typowej diody prostowniczej wygląda identycznie jak poznana przez nas do tej pory charakterystyka złącza P-N, co pokazano na rysunku 6.41.
Rys. 6.41. Wykres charakterystyki typowej diody prostowniczej. Jest on również zgodny z charakterystyką większości pozostałych diod, np. uniwersalnej, stabilizacyjnej, impulsowej czy pojemnościowej
6.5. Rodzaje diod oraz ich parametry statyczne i dynamiczne
199
Diody uniwersalne Diody uniwersalne, podobnie jak diody prostownicze, wykorzystywane są w prostownikach, ale również w detektorach i ogranicznikach do kształtowania charakterystyk układów. W odróżnieniu jednak od diod prostowniczych ich przeznaczenie ogranicza się do małych mocy. Z tego względu maksymalne napięcia wsteczne tych diod na ogół nie przekraczają 100 V, a maksymalne prądy przewodzenia 100 mA. Do podstawowych parametrów tych diod należy zaliczyć: – napięcie przewodzenia UF, mierzone przy określonej wartości prądu przewodzenia IF, – prąd wsteczny IR, mierzony przy określonej wartości napięcia wstecznego UR, – maksymalny stały prąd przewodzenia IFmax, – maksymalne stałe napięcie wsteczne UR max, – maksymalny szczytowy prąd przewodzenia IFMmax, – maksymalne szczytowe napięcie wsteczne URMmax, – maksymalną dopuszczalną temperaturę złącza Tj, – pojemność diody, mierzoną przy określonej częstotliwości i określonym napięciu wstecznym, – sprawność detekcji h, podawaną dla diod przeznaczonych do detekcji, a określoną jako stosunek mocy sygnału zdemodulowanego do mocy sygnału wejściowego wielkiej częstotliwości. Diody stabilizacyjne Diody stabilizacyjne, zwane też stabilitronami lub diodami Zenera, przeznaczone są przede wszystkim do stabilizacji lub ograniczania napięć w układach oraz jako źródła napięć odniesienia. Do tej roli wykorzystywane jest zjawisko przebicia, zachodzące przy polaryzacji zaporowej, a charakteryzujące się, jak pamiętamy, dużymi zmianami prądu wstecznego przy niewielkich zmianach napięcia polaryzacji. Należy przy tym pamiętać, że choć nazwa tych diod wskazuje na zjawisko Zenera, to diody tego typu, w zależności od wartości napięcia przebicia, oparte mogą być zarówno na zjawisku przebicia Zenera, jak i na zjawisku przebicia lawinowego. Najistotniejszymi parametrami tych diod są: – napięcie przewodzenia UF, mierzone przy określonej wartości prądu przewodzenia IF, – prąd wsteczny IR, mierzony przy określonej wartości napięcia wstecznego UR, – napięcie stabilizacji UZ, zwane też napięciem Zenera, mierzone przy określonej wartości prądu stabilizacji IZ, – prąd stabilizacji IZ, – temperaturowy współczynnik zmiany napięcia stabilizacji TKUZ, określony jako stosunek względnej zmiany napięcia stabilizacji do bezwzględnej zmiany temperatury otoczenia przy określonym prądzie stabilizacji, wyrażony wzorem TKU Z = αUZ =
1 dU Z , U Z dT
(6.20)
200
6. Złącze P-N
– zakres zmian napięcia stabilizowanego UZmin i UZmax, – rezystancja statyczna w zakresie przebicia rZstat, określona jako rZ stat =
UZ , IZ
(6.21)
– rezystancja dynamiczna w zakresie przebicia rZ, określona jako rZ =
∆U Z , ∆I Z
(6.22)
– maksymalny stały prąd przewodzenia IFmax, – maksymalny szczytowy prąd przewodzenia IFMmax, – maksymalny prąd stabilizacji IZmax, określony jako stosunek maksymalnej mocy strat do napięcia stabilizacji, – maksymalna moc strat Pmax, określona dla temperatury otoczenia równej 25°C, – maksymalna temperatura złącza Tj. Diody impulsowe Diody impulsowe, nazywane też przełącznikowymi, stosuje się w układach impulsowych, gdzie pracują jako klucze przepuszczające impulsy w jednym tylko kierunku oraz w układach kształtujących strome zbocza impulsów prostokątnych. W związku z tym diody te powinny charakteryzować się przede wszystkim dużą szybkością działania, aby nie wprowadzały w sygnale zbędnych opóźnień oraz zniekształceń, ale jednocześnie małą rezystancją w kierunku przewodzenia oraz dużą rezystancją w kierunku zaporowym. Do najważniejszych ich parametrów zalicza się: – napięcie przewodzenia UF, mierzone przy określonej wartości prądu przewodzenia IF, – prąd wsteczny IR, mierzony przy określonej wartości napięcia wstecznego UR, – czas przełączania trr , mierzony przy określonych warunkach pracy diody, przy czym czasem podaje się zamiast niego ładunek przełączania Qrr, – czas magazynowania ts, mierzony od momentu zmiany polaryzacji źródła napięcia zasilającego z kierunku przewodzenia na kierunek zaporowy do momentu, gdy prąd diody zmaleje do wartości 90% wartości maksymalnej występującej tuż po przełączeniu (prąd „półki”), – czas opadania tf , mierzony jako czas, gdy prąd maleje z 90% do 10% wartości maksymalnej prądu zaporowego, – pojemność diody CR, mierzoną przy określonej częstotliwości i napięciu wstecznym, – maksymalny stały prąd przewodzenia IFmax, – maksymalne stałe napięcie wsteczne URmax, – maksymalny szczytowy prąd przewodzenia IFMmax,
6.5. Rodzaje diod oraz ich parametry statyczne i dynamiczne
201
– maksymalne szczytowe napięcie wsteczne URMmax, – maksymalną temperaturę złącza Tj. Diody pojemnościowe W diodach pojemnościowych wykorzystuje się, znane nam już, zjawisko zależności pojemności złączowej Cj od napięcia polaryzującego (rysunek 6.42), dzięki czemu można je stosować jako zmienne lub regulowane napięciem pojemności, zwane warikapami (ang. variable capacitance) lub jako zmienne reaktancje, zwane waraktorami (ang. variable reactor). Przy czym, ze względu na dobroć takiego typu pojemności, mogą one pracować wyłącznie w zakresie zaporowym, gdzie ich rezystancja jest duża (jak wiadomo dobroć pojemności określona jest np. przez rezystancję warstwy izolatora, którą w złączu P-N jest warstwa zaporowa – im większa ta rezystancja, tym większa dobroć pojemności). Warikapy stosuje się najczęściej w układach automatycznego przestrajania obwodów rezonansowych oraz generatorach przebiegów okresowych. Z kolei waraktory znajdują zastosowanie we wzmacniaczach parametrycznych oraz w parametrycznych powielaczach częstotliwości, gdzie pełnią funkcję elementów czynnych.
Rys. 6.42. Wykres zależności pojemności złączowej Cj złącza P-N od napięcia polaryzującego U. Zaznaczono parametry charakterystyczne dla diod pojemnościowych
Warto dodać, że ze względu na wspomnianą zależność pojemności od napięcia, w zasadzie każda dioda mogłaby pracować jako dioda pojemnościowa, jednak diody te mają konstrukcję specjalnie optymalizowaną pod kątem uzyskania określonych parametrów pojemnościowych. Podstawowymi parametrami warikapów są: – maksymalna pojemność złącza Cjmax, mierzona przy określonej częstotliwości i określonym napięciu wstecznym (najczęściej równym zeru), – minimalna pojemność złącza Cjmin, mierzona przy określonej częstotliwości i maksymalnym napięciu wstecznym, – stosunek pojemności Cjmax do Cjmin,
202
6. Złącze P-N
– rezystancja szeregowa Rs lub dobroć Q, mierzone przy określonej częstotliwości i określonym napięciu wstecznym, – maksymalny stały prąd przewodzenia IFmax, – maksymalne stałe napięcie wsteczne URmax, – maksymalne szczytowe napięcie wsteczne URMmax, – maksymalna temperatura złącza Tj. Z kolei wśród najistotniejszych parametrów waraktorów wyróżnia się: – maksymalną pojemność złącza Cj, mierzoną przy określonej częstotliwości i określonym napięciu wstecznym (najczęściej równym zeru), – minimalną pojemność złącza Cj, mierzoną przy określonej częstotliwości i maksymalnym napięciu wstecznym, – stosunek pojemności Cmax do Cmin, – prąd wsteczny IR, mierzony przy określonym napięciu wstecznym UR, – maksymalną częstotliwość, mierzoną przy określonym napięciu wstecznym UR, – wartości parametrów pasożytniczych, indukcyjności szeregowej doprowadzeń Ls oraz pojemności oprawki Cp, – maksymalne stałe napięcie wsteczne URmax, – maksymalną moc rozpraszaną Pmax, – maksymalną temperaturą złącza Tj lub maksymalną temperaturą otoczenia Ta. Diody tunelowe Diody tunelowe są diodami wykonanymi z silnie domieszkowanych obszarów półprzewodnikowych tworzących strukturę p+ – n+. Konstrukcja taka nadaje im pewne specyficzne właściwości, które wyjaśnić można, posługując się energetycznym modelem pasmowym tych diod. Gdy obszary złącza P-N są odpowiednio silnie domieszkowane, wówczas w stanie równowagi zagięcie pasm w modelu energetycznym jest tak silne, że powoduje częściowe nakładanie się (w sensie posiadania tych samych energii) szczytu pasma walencyjnego i dna pasma przewodnictwa (rysunek 6.43a), co powoduje, że charakterystyka prądowo-napięciowa takiej diody przyjmuje kształt jak na rysunku 6.43b. Specyficzną jej cechą jest obecność odcinka o ujemnym nachyleniu kątowym, co sprawia, że rezystancja dynamiczna na tym odcinku charakterystyki również przyjmuje wartość ujemną. Tę cechę wykorzystuje się do generowania bardzo szybkich i stromych impulsów prostokątnych oraz do wytwarzania sygnałów sinusoidalnych w generatorach o bardzo prostej budowie, a także do odtłumiania obwodów rezonansowych. Ze względu na ich właściwości dynamiczne predysponuje to je do zastosowań w zakresie bardzo dużych częstotliwości (mikrofalowym). Do najważniejszych parametrów diod tunelowych zalicza się: – prąd szczytu Ip, – prąd doliny Iv, – napięcie szczytu Up,
6.5. Rodzaje diod oraz ich parametry statyczne i dynamiczne
203
– napięcie doliny Uv, – średnią lub minimalną rezystancję dynamiczną rr, mierzoną na odcinku charakterystyki o ujemnym nachyleniu, – pojemność złączową Cj, – rezystancję szeregową rs, – maksymalną częstotliwość odtłumiania fr, – pasożytniczą indukcyjność doprowadzeń Ls, – pasożytniczą pojemność oprawki Cp, – maksymalny prąd przewodzenia IF, – maksymalny prąd wsteczny IR, – maksymalną temperaturę złącza Tj.
Rys. 6.43. Ilustracja zagięcia pasm przewodnictwa i walencyjnego energetycznego modelu pasmowego w silnie domieszkowanym złączu P-N sprzyjającego tunelowaniu nośników już w stanie równowagi (a) oraz wykres charakterystyki prądowo-napięciowej diody tunelowej, czyli diody ze złączem silnie domieszkowanym (b)
204
6. Złącze P-N
Diody mikrofalowe Diody mikrofalowe są przede wszystkim stosowane w zakresie bardzo dużych (mikrofalowych) częstotliwości, co nakłada na ich konstrukcję szczególne uwarunkowania. Część wymienionych już diod klasyfikuje się też jako diody mikrofalowe, ponieważ mogą pracować w tak wysokim zakresie częstotliwości. Diody te dzieli się głównie na cztery grupy: – warystory (ang. variable resistor) – zmienne rezystancje, czyli elementy o nieliniowej charakterystyce prądowo-napięciowej; jak pamiętamy, każda dioda ma charakterystykę nieliniową, a zatem jest warystorem; jednak warystory do zastosowań mikrofalowych muszą charakteryzować się dużymi szybkościami działania; z tego względu stosuje się najczęściej diody ostrzowe, Schottky’ego i zwrotne, zwane też wstecznymi; ich przeznaczenie to układy detekcji i mieszacze – stąd też nazwy tych diod – detekcyjne i mieszające, – waraktory – były już przedstawione w grupie diod pojemnościowych, – sterowane impedancje – są to diody typu p-i-n lub PIN, stosowane w mikrofalowych przełącznikach, bezpiecznikach, modulatorach i dzielnikach, – ujemne rezystancje – używane, jak już wiemy, do kształtowania zboczy impulsów prostokątnych oraz w generatorach; w tej grupie znajdują się diody tunelowe oraz generacyjne, czyli lawinowo-przelotowe i diody Gunna. Wspomnimy tu krótko jedynie o czterech diodach: ostrzowej, Schottky’ego, zwrotnej i diodzie p-i-n. Dioda ostrzowa powstaje w wyniku dociśnięcia igły metalowej (np. wolframowej lub fosforobrązowej) do bryły półprzewodnika (typu N lub P). Na styku tych dwóch materiałów powstaje złącze P-N, które dzięki małej powierzchni styku charakteryzuje się bardzo małą pojemnością, co predysponuje ją do zastosowań mikrofalowych (częstotliwości do 2000 GHz). Wadą tej diody jest natomiast dość duża wartość rezystancji szeregowej, wynikająca z tak małej powierzchni styku. Diody Schottky’ego powstają z kolei na styku płaskiej elektrody metalowej i półprzewodnika. Ich działanie opiera się na nośnikach większościowych, dlatego odznaczają się bardzo krótkimi czasami przełączania, co pozwala je stosować w zakresie częstotliwości do kilkuset gigaherców. Ich zaletą, w odróżnieniu od diody ostrzowej, jest mała rezystancja szeregowa. Diody zwrotne, zwane też wstecznymi, powstają, podobnie jak diody tunelowe, w wyniku silnego domieszkowania półprzewodników je tworzących, przy czym siła domieszkowania jest tak dobrana, aby jedynie krawędzie pasma walencyjnego i pasma przewodnictwa zrównały się ze sobą (rysunek 6.44a). Wówczas uzyskamy diodę, którą można nazwać „nieudaną” diodą tunelową, gdyż jej charakterystyka w kierunku przewodzenia charakteryzuje się w dużym zakresie napięć bardzo małym nachyleniem, co powoduje, że w tym zakresie praktycznie nie przewodzi prądu (rysunek 6.44b), za to w zakresie zaporowym w zasadzie już od napięcia równego zero zachodzi tunelowanie nośników, czyli przebicie złącza P-N, objawiające się dużymi zmianami prądu. Widać więc, że nazwa diody zwrotnej jest jak najbardziej adekwatna – w zakresie przewodzenia prądu nie przewodzi, natomiast w zakresie zaporowym prąd przewodzi. Jak wiemy, w złączu spolaryzowanym do
6.5. Rodzaje diod oraz ich parametry statyczne i dynamiczne
205
Rys. 6.44. Energetyczny model pasmowy diody zwrotnej (a) oraz wykres jej charakterystyki prądowo-napięciowej (b)
zakresu zaporowego nie dochodzi do gromadzenia się mniejszościowych ładunków nadmiarowych w bazie złącza, co ma miejsce w kierunku przewodzenia. Tak więc mała pojemność, a zarazem bardzo dobre zdolności przewodzenia prądu w zakresie zaporowym predysponują te diody do pracy w zakresie częstotliwości mikrofalowych (do kilkuset GHz). Diody p-i-n wzięły nazwę od swojej budowy warstwowej. Literka „i” w ich nazwie oznacza warstwę półprzewodnika samoistnego (ang. intrinsic), która znajduje się pomiędzy dwiema warstwami półprzewodników domieszkowanych (typu N oraz P). Taka budowa sprawia, że świetnie sprawdzają się w zakresie częstotliwości mikrofalowych w roli zmiennych impedancji sterowanych napięciem stałym lub napięciem zmiennym małej częstotliwości. Umieszczenie warstwy półprzewodnika samoistnego w tych diodach sprawia, że już dla niewielkich napięć wstecznych cała ta warstwa jest opróżniona z nośników, a więc spełnia funkcję warstwy zaporowej, której rezystancja jest bardzo duża. W dodatku w miarę zwiększania napięcia wstecznego warstwa zaporowa nie rozszerza się dalej, co powoduje, że pojemność tej diody zależy wyłącznie od grubości warstwy i, a więc może być bardzo mała. Z kolei w kierunku polaryzacji zaporowej do warstwy i wstrzykiwane są nośniki z warstw półprzewodników silnie domieszkowanych, a więc warstwa ta jest wręcz „zalewana” nośnikami, co powoduje zmniejszenie się jej impedancji, umożliwiając przepływ prądu przewodzenia.
206
6. Złącze P-N
Na podstawie tej krótkiej charakterystyki widać, że różnorodność wytwarzanych diod jest duża. W celu ich rozróżnienia na schematach obwodów elektrycznych niemal dla każdej grupy diod stosuje się odmienne symbole graficzne. Najpopularniejsze z nich zamieszczono na rysunku 6.45.
Rys. 6.45. Symbole graficzne wybranych diod półprzewodnikowych stosowane na schematach obwodów elektrycznych
7.
Tranzystor bipolarny Tranzystory, jak się wkrótce przekonamy, są elementami bardziej złożonymi od złączy P-N. Dzięki temu realizowane przez nie funkcje mogą być bogatsze. Do najważniejszych zastosowań tranzystorów zalicza się: wzmacnianie sygnałów (napięciowych, prądowych lub mocy), generowanie sygnałów, a także ich przełączanie lub inaczej kluczowanie. Pierwotnie mianem tranzystora [13, 18] określono przyrząd wzmacniający moc, tzn. taki, który pozwala na sterowanie większą mocą za pomocą mocy mniejszej. Do tego, aby zaszło wzmocnienie mocy, niezbędne jest źródło energii, która ma podlegać wzmocnieniu lub sterowaniu oraz przyrząd realizujący tę funkcję. Z tego względu wzmacniaczem nie jest np. dźwignia mechaniczna albo transformator elektryczny, bo w tym sensie nie zwiększają one mocy. Za to najprostszym wzmacniaczem jest np. przełącznik elektryczny, dzięki któremu, po włączeniu go w obwód dużej mocy, potrafimy niewielką mocą naszego palca sterować (włączać lub wyłączać) dużą moc obwodu wyjściowego, np. potężną pompę wodną. Podobnie wzmacniaczem można nazwać układ wspomagania kierownicy w pojazdach samochodowych, pozwalający bezwysiłkowym ruchem ręki skręcić kołami np. ciężkiego samochodu typu TIR. Ogólna idea procesu wzmacniania narzuca na przyrząd wzmacniający pewną typową konfigurację. Wzmacniacz powinien mieć wejście dla sygnału wzmacnianego lub sterującego oraz wyjście, na którym pojawi się sygnał wzmocniony. W tym rozdziale przedstawimy jedne z dwóch typów tranzystorów, mianowicie tranzystory zwane bipolarnymi. Ich nazwa kojarzona jest z nośnikami o dwojakim ładunku, tzn. elektronami i dziurami, których jednoczesna obecność i transport w tranzystorze ma istotne znaczenie dla jego działania. W odróżnieniu od tranzystorów bipolarnych, drugim typem są tranzystory unipolarne, których działanie, jak łatwo się domyślić, zależne jest od jednego tylko rodzaju nośników: albo dziur, albo elektronów. Konkretne rozwiązania wzmacniaczy oraz innych funkcji tranzystorów zostaną Czytelnikowi przedstawione w następnej części książki, tu natomiast Czytelnik pozna podstawowe zjawiska występujące w tranzystorach bipolarnych, zasadę ich działania oraz właściwości. Ma to na celu przygotowanie Czytelnika do swobodnego zgłębiania zagadnień dotyczących tych konkretnych zastosowań tranzystorów.
7.1.
Idea działania Koncepcja działania tranzystora jako wzmacniacza opiera się na założeniu, że w celu uzyskania jak największego wzmocnienia napięcia w obwodzie wyjściowym, tranzystor powinien spełniać funkcję idealnego sterowanego źródła prądowego [13, 18].
208
7. Tranzystor bipolarny
Jeśli źródło takie obciążone zostanie dużą rezystancją, to nawet niewielkie zmiany prądu tego źródła, wywołane niewielkimi zmianami sterującego sygnału wejściowego, spowodują duże zmiany napięcia na tej rezystancji. Jak pamiętamy z rozdziału 6, złącze P-N spolaryzowane w kierunku zaporowym ma właściwości źródła prądowego, gdyż wartość płynącego wówczas prądu nasycenia IS jest stała, niezależna od napięcia (rysunek 7.1a), a więc będzie również niezależna od wartości rezystancji obciążenia. Jak zatem zmienić prąd nasycenia? Pamiętamy, że prąd nasycenia w złączu P-N utworzony jest przez nośniki mniejszościowe i zależy wyłącznie od ich koncentracji w obszarach neutralnych złącza. Aby zatem zwiększyć prąd nasycenia, należy zwiększyć koncentrację nośników mniejszościowych. Przy omawianiu złącza P-N wspomnieliśmy, że dokonać tego można na kilka sposobów, np. poprzez oświetlenie obszarów złącza P-N światłem. Można tego też dokonać, wprowadzając, czy też inaczej mówiąc, wstrzykując dodatkowe nośniki z zewnątrz do obszarów złącza P-N. Takie właściwości wstrzykujące ma z kolei złącze P-N spolaryzowane w kierunku przewodzenia. W przypadku różnej siły domieszkowania obszarów złącza P-N obszar bazy jest wręcz zalewany nośnikami mniejszościowymi (rysunek 7.1b). Jeśli te nośniki byłyby nośnikami mniejszościowymi złącza P-N spolaryzowanego zaporowo, to przyczyniłyby się do wzrostu jego prądu nasycenia IS, o co od początku nam chodziło. W jaki zatem sposób wprowadzić nośniki mniejszościowe z jednego złącza P-N do drugiego? Ideą jest, aby w jednej strukturze półprzewodnikowej zawrzeć dwa złącza P-N, z których jedno, zwane złączem emiterowym, spolaryzowane w kierunku przewodzenia, będzie wstrzykiwało nośniki mniejszościowe do obszaru bazy, zwiększając tam ich koncentrację, a drugie, zwane złączem kolektorowym, spolaryzowane
Rys. 7.1. Ilustracja idei pracy elementów składowych tranzystora bipolarnego oraz ich współpracy w wyniku połączenia w jednej strukturze. Złącze P-N spolaryzowane w kierunku zaporowym jako źródło prądowe (a), złącze P-N spolaryzowane w kierunku przewodzenia jako „źródło nośników” wstrzykiwanych do obszaru bazy (b) oraz wynik ich połączenia w jednej strukturze – źródło prądowe sterowane napięciowo (lub prądowo) (c)
7.2. Struktura fizyczna
209
zaporowo, będzie te nośniki niejako odbierało, co przyczyni się do wzrostu prądu nasycenia tego złącza. By móc wprowadzać nośniki z jednego złącza do drugiego, złącza te wykonuje się tak, aby współdzieliły one między sobą jeden obszar, którym jest obszar bazy (rysunek 7.1c). Taka konstrukcja sprawia, że tranzystor bipolarny może spełniać funkcję źródła prądowego sterowanego napięciowo lub prądowo. Można również wykazać [13, 18], że dla sygnałów zmiennych w elemencie takim, z powodu dużej rezystancji dynamicznej wyjścia oraz małej rezystancji dynamicznej wejścia, zachodzi wzmocnienie mocy wydzielanej w obwodzie wyjściowym w stosunku do mocy wydzielanej w obwodzie wejściowym, co dowodzi, że odpowiednio spolaryzowany tranzystor bipolarny jest wzmacniaczem mocy.
7.2.
Struktura fizyczna Jak opisano powyżej, tranzystor bipolarny składa się z dwóch, niejako przenikających się złączy P-N, których obszarem wspólnym są obszary baz (rysunek 7.2). W sumie, w tranzystorze wyróżnić można trzy obszary, z których dwa nazwane są zgodnie z nazwami obszarów złącza P-N, tzn. emiter (obszar zewnętrzny) oraz baza (obszar wewnętrzny), a trzeci, z uwagi na swoją rolę w tranzystorze, nazwany został kolektorem. Do obszarów tych stosuje się też skrótowe oznaczenia za pomocą wielkich liter, będących pierwszymi literami nazw tych obszarów, a mianowicie emiter E, baza B oraz kolektor C (z ang. collector), a pełne nazwy złączy P-N składających się na tranzystor brzmią: złącze emiter-baza, w skrócie oznaczane przez E-B oraz złącze baza-kolektor, w skrócie oznaczane przez B-C. Od nich również swoje nazwy i oznaczenia wzięły zaciski tranzystora, czyli metalowe wyprowadzenia każdego obszaru, tzw. elektrody, o czym warto pamiętać i mieć świadomość tego, że często jednym określeniem, np. baza, odnosimy się zarówno do obszaru bazy, jak i do jej elektrody. Ponieważ tranzystor jest elementem trójkońcówkowym, zdefiniować w nim można trzy prądy związane z zaciskami oraz trzy napięcia zaciskowe, a mianowicie: prąd emitera IE, prąd bazy IB, prąd kolektora IC, napięcie między zaciskami emitera i bazy, w skrócie napięcie emiter-baza UEB lub baza-emiter UBE, napięcie kolektor-baza UCB lub baza-kolektor UBC oraz napięcie emiter-kolektor UEC lub kolektor-emiter UCE, będące w zasadzie różnicą napięć UEB i UCB. W tym miejscu należy się mała dygresja na temat konwencji oznaczania napięć. Jak pamiętamy, napięcie jest różnicą dwóch potencjałów, tzn. UAB = VA – VB. Kolejność indeksów literowych w oznaczeniach napięć jest zgodna ze zwrotem napięcia, który
Rys. 7.2. Model struktury warstwowej tranzystora bipolarnego typu P-N-P. Oznaczenia: E – emiter, B – baza, C – kolektor
210
7. Tranzystor bipolarny
dla napięć dodatnich przyjęło się określać w kierunku od potencjału niższego do potencjału wyższego. Tak więc, pierwszy indeks A oznacza tu potencjał wyższy, a drugi indeks B potencjał niższy, a często też potencjał odniesienia. Jeśli wartość napięcia jest ujemna, oznacza to po prostu, że przy powyższym założeniu jednak pierwszy potencjał jest niższy od drugiego, czyli UAB = –UBA. Warto o tych konwencjach pamiętać, gdyż w wielu przypadkach, nie tylko odnośnie do tranzystora, będziemy stosować właśnie takie dwojakie oznaczenia napięć między tymi samymi zaciskami. W związku z tym jasne staje się, dlaczego przykładowo napięcie UEC = UEB – UCB, a UCE = UBE + UCB. Należy zwrócić uwagę na to, że w zależności od tego, który z obszarów złącza P-N jest bazą, obszar typu N czy obszar typu P, wyróżnić można dwa typy tranzystorów bipolarnych. Jeśli mamy do czynienia ze strukturą, w której baza jest typu P, a pozostałe obszary typu N, to tranzystor taki określany jest mianem typu N-P-N (rysunek 7.3a), jeśli zaś baza jest typu N, a reszta obszarów typu P, to tranzystor taki określany jest jako typu P-N-P (rysunek 7.3b). W związku z tym również elektryczne symbole graficzne reprezentujące tranzystory w schematach obwodów mają dwie główne postacie. Dla łatwiejszego zapamiętania nazw końcówek tych symboli warto skojarzyć sobie elektrodę oznaczoną strzałką z procesem emitowania, a odnoszącą się do elektrody emitera, co, jak się przekonaliśmy, ma dużo wspólnego z rzeczywistością. Z kolei elektroda bazy, jako obszaru wewnętrznego (środkowego), jest dosyć jednoznacznie przedstawiona na symbolu tranzystora, natomiast elektroda kolektora jest trzecią, pozostałą elektrodą, którą łatwo określić drogą eliminacji dwóch pierwszych wymienionych elektrod.
Rys. 7.3. Model struktury warstwowej i symbol graficzny tranzystora typu N-P-N (a) oraz tranzystora typu P-N-P (b)
7.3.
Ruch nośników (rozpływ prądów) Jak już powiedziano, tranzystor odgrywa rolę wzmacniacza, gdy jego złącze emiterowe spolaryzowane jest w kierunku przewodzenia, zaś złącze kolektorowe w kierunku zaporowym. Przyjrzyjmy się dokładniej, co się wówczas dzieje w tranzystorze oraz jak i jakie nośniki przepływają przez jego obszary. Przy czym przedstawiony obraz może być bardzo przybliżony, wręcz idealny, nieuwzględniający niektórych
7.3. Ruch nośników (rozpływ prądów)
211
zjawisk zachodzących w rzeczywistych strukturach, albo pełniejszy, dokładniejszy, uwzględniający te zjawiska. Na początek zajmiemy się najbardziej uproszczonym obrazem zjawisk występujących w tranzystorze. Obraz ten, co prawda, już wstępnie omówiono na początku tego rozdziału, teraz jedynie nieznacznie go uzupełnimy. Na rysunku 7.4 przedstawiono najprostszy rozpływ prądów w tranzystorze na przykładzie tranzystora typu P-N-P. Zakładamy tu, że mamy do czynienia z idealnymi złączami P-N, w których, jak pamiętamy, napięcia przyłożone do każdego ze złączy odkładają się wyłącznie na ich warstwach zaporowych. Napięcie UEB polaryzujące złącze emiter-baza w kierunku przewodzenia powoduje, że z obszaru emitera wstrzykiwane są dziury do obszaru bazy. Dziury te w obszarze bazy są nadmiarowym ładunkiem mniejszościowym, który w zależności od budowy obszaru bazy przepływa przez nią w stronę warstwy zaporowej złącza baza-kolektor na dwa sposoby. Jeśli baza jest niejednorodna, tzn. nierównomiernie domieszkowana w ten sposób, że koncentracja domieszki donorowej maleje w kierunku od emitera do kolektora, to powstałe w wyniku takiego domieszkowania wbudowane pole elektryczne w bazie będzie powodowało unoszenie dziur przez bazę w kierunku kolektora. Mamy wówczas do czynienia z tranzystorem dryftowym. Jeśli zaś baza jest jednorodna, tzn. domieszki w bazie są równomiernie rozmieszczone, to pole elektryczne w bazie nie istnieje i dziury przepływają przez bazę w stronę kolektora wyłącznie na zasadzie dyfuzji (ich koncentracja jest większa przy granicy warstwy zaporowej złącza emiterowego niż po drugiej stronie bazy, co wywołuje przepływ dyfuzyjny w stronę kolektora). Taki tranzystor nazywany jest wówczas tranzystorem bezdryftowym. Dziury, które przepłynęły przez bazę do jej granicy z warstwą zaporową złącza baza-kolektor spolaryzowanego zaporowo napięciem UCB , wpadają następnie do tej warstwy i przez jej pole elektryczne są przeciągane na jej drugą stronę do obszaru kolektora, tworząc w ten sposób prąd nasycenia. Ponieważ wartość tego prądu zależy od koncentracji nośników mniejszościowych przy granicach warstwy zaporowej, to ta zwiększając się w bazie wraz z napływającymi z emitera dziurami powoduje, że prąd nasycenia również zwiększa swoją wartość. Strumień dziur wstrzykiwanych z emitera do bazy tworzy zatem prąd emitera płynący w obwodzie zewnętrznym, a strumień dziur unoszonych polem elektrycznym warstwy
Rys. 7.4. Rozpływ prądów w tranzystorze bipolarnym typu P-N-P w stanie polaryzacji normalnej – przybliżenie pierwszego stopnia – uwzględniono jedynie wstrzykiwanie nośników do bazy przez złącze emiterowe oraz ich unoszenie przez warstwę zaporową złącza kolektorowego
212
7. Tranzystor bipolarny
zaporowej z bazy do kolektora tworzy prąd kolektora, również płynący w obwodzie zewnętrznym. Zakładając dla uproszczenia, że wszystkie nośniki wstrzyknięte do obszaru bazy przepływają przez nią i są dalej unoszone do kolektora, stwierdzamy, że prąd kolektora jest równy prądowi emitera, a więc nie zależy od napięcia UCB, a jedynie od napięcia UEB (które ma wpływ właśnie na prąd emitera). Należy również wspomnieć, że jednocześnie ze wstrzykiwaniem dziur z emitera do bazy, zachodzi również wstrzykiwanie elektronów z bazy do emitera. Jednak z powodu znikomej koncentracji elektronów w bazie, jako obszarze słabo domieszkowanym, strumień tych nośników jest pomijalnie mały. Podobnie, jednocześnie z unoszeniem dziur z bazy do kolektora, zachodzi unoszenie elektronów z kolektora do bazy, jednak również z powodu ich niewielkiej koncentracji, jako nośników mniejszościowych w obszarze silnie domieszkowanym, strumień tych nośników, w tym najprostszym modelu zjawisk, jest do zaniedbania. W przypadku tranzystora przeciwnego typu, czyli N-P-N, zjawiska zachodzące w tranzystorze są praktycznie identyczne, z tą różnicą że tym razem głównymi nośnikami płynącymi z emitera do kolektora są elektrony, a napięcia UEB i UCB polaryzujące złącza mają jedynie przeciwne zwroty, ale również polaryzują złącze emiterowe w kierunku przewodzenia, a kolektorowe w kierunku zaporowym. Dokładniejszy obraz zjawisk zachodzących w tranzystorze uzyskujemy, uwzględniając zjawisko rekombinacji nośników w obszarze bazy. Jeśli przyjmiemy, że część dziur wstrzykniętych z emitera do bazy zrekombinuje w bazie z elektronami, to po pierwsze (rysunek 7.5) mniej wstrzykniętych dziur przepłynie na drugi koniec bazy, a więc również mniej nośników zostanie uniesionych przez pole elektryczne warstwy zaporowej do obszaru kolektora, co spowoduje, że prąd kolektora będzie nieco mniejszy, niż w przypadku nieuwzględnienia zjawiska rekombinacji w bazie. Po drugie, usunięcie w wyniku rekombinacji w bazie części ładunku elektronów spowodowałoby zakłócenie obojętności elektrycznej bazy, której ponowne przywrócenie wymaga, aby do obszaru bazy przez jej zacisk wpłynęła z obwodu zewnętrznego odpowiednia liczba elektronów uzupełniająca usunięty w wyniku rekombinacji ładunek. W wyniku rekombinacji mamy więc do czynienia z przepływem dodatkowego prądu IrB, będącego prądem bazy, którego wartość, przy założeniu niewielkiej
Rys. 7.5. Rozpływ prądów w tranzystorze bipolarnym typu P-N-P w stanie polaryzacji normalnej – przybliżenie drugiego stopnia – uwzględniono dodatkowo rekombinację nośników w bazie prowadzącą do przepływu prądu bazy
7.3. Ruch nośników (rozpływ prądów)
213
intensywności rekombinacji, jest również niewielka. Przyjmując przykładowo, że na 100 wstrzykniętych do bazy dziur, tylko jedna z nich rekombinuje w bazie z jednym elektronem, reszta, czyli 99 dziur, przepływa dalej do kolektora, a ten jeden „zrekombinowany” elektron zostaje uzupełniony przez zacisk bazy, tworząc prąd bazy. Stosunek prądu bazy do prądu emitera lub kolektora jest, jak widać w tym przypadku, równy zaledwie jednej setnej. W rzeczywistych tranzystorach stosunek ten jest nawet mniejszy, sięgający niekiedy wartości dwóch tysięcznych. Oczywiście, im mniejszy jest prąd bazy, tym lepsze właściwości wzmacniające ma tranzystor. W idealnym przypadku, jak to wcześniej opisaliśmy, przy braku rekombinacji w bazie, prąd bazy równy był zeru. W związku z przepływem prądu bazy można napisać zależność między wszystkimi trzema prądami w tranzystorze, a mianowicie IE = IB + IC.
(7.1)
Powyższe wyrażenie określane jest też mianem bilansu prądów w tranzystorze i w oczywisty sposób wynika z zasady niegromadzenia się ładunku w tranzystorze. Cały ładunek, który wpłynął do tranzystora, musi również z niego wypłynąć. Podsumowując, po uwzględnieniu zjawiska rekombinacji w tranzystorze zaczyna płynąć niewielki prąd bazy, który powoduje, że prąd kolektora jest nieco mniejszy od prądu emitera. Prąd emitera jest więc największym prądem w tranzystorze. Jeszcze pełniejszy obraz zjawisk zachodzących w tranzystorze otrzymamy po uwzględnieniu dodatkowych składowych prądów emitera, bazy i kolektora (rysunek 7.6), wynikających z rekombinacji oraz generacji nośników w pozostałych obszarach tranzystora. Mianowicie, przepływ prądu InE dyfuzji elektronów z obszaru bazy do obszaru emitera, gdzie następuje rekombinacja elektronów z przepływającymi przez emiter dziurami, powoduje zmniejszenie strumienia dziur wstrzykiwanych z emitera do bazy. Dodatkowo, prąd IrEB, związany z rekombinacją zachodzącą w warstwie zaporowej złącza emiter-baza, powodującą dalsze zmniejszenie strumienia dziur wstrzykiwanych z warstwy zaporowej do bazy. Ponadto, prąd ICBO, związany z generacją nośników w warstwie zaporowej złącza baza-kolektor. Wygenerowane w tym obszarze elektrony i dziury są natychmiast z niego wymia-
Rys. 7.6. Rozpływ prądów w tranzystorze bipolarnym typu P-N-P w stanie polaryzacji normalnej – przybliżenie kolejnego stopnia – uwzględniono dodatkowo rekombinację nośników w emiterze, rekombinację nośników w warstwie zaporowej złącza emiterowego oraz generację nośników w warstwie zaporowej złącza kolektorowego
214
7. Tranzystor bipolarny
tane przez pole elektryczne – dziury do obszaru kolektora, a elektrony do obszaru bazy. Strumień wymiatanych dziur ma kierunek zgodny z kierunkiem strumienia unoszonych już z bazy dziur, a więc dodaje się do niego, zwiększając prąd kolektora o wartość ICBO. Jednocześnie strumień wymiatanych elektronów wypływa przez zacisk bazy do obwodu zewnętrznego, powodując zmniejszenie prądu bazy o wartość ICBO. Mimo że składowa ICBO zwiększa nieco wartość prądu kolektora, to nie jest jednak zjawiskiem korzystnym. Prąd ten nie jest prądem użytecznym, bo nie zależy od napięcia sterującego UEB i powoduje ciągły przepływ dodatkowego, choć niewielkiego prądu przez kolektor. Podsumowując, można stwierdzić, że uwzględnienie dodatkowych zjawisk zachodzących w rzeczywistym tranzystorze wywołuje przepływ prądu bazy, a tym samym zmniejszenie się prądu kolektora. Na całkowitą wartość prądu bazy składają się wszystkie wymienione składowe, co można zapisać w następujący sposób: IB = IrB + IrEB + InE – ICBO.
7.4.
(7.2)
Praca statyczna Zakresy pracy Do tej pory opisywaliśmy pracę tranzystora bipolarnego związaną z taką polaryzacją złączy, gdzie złącze emiter-baza spolaryzowane było w kierunku przewodzenia, a złącze baza-kolektor w kierunku zaporowym. Nic jednak nie stoi na przeszkodzie, aby złącza te spolaryzować w inny sposób. Czy wówczas tranzystor będzie pracował tak samo czy może inaczej? Czy jego właściwości się zmienią? Za chwilę to wyjaśnimy, teraz natomiast określmy, w jaki jeszcze sposób można spolaryzować tranzystor. Ponieważ składa się on z dwóch złączy P-N, a każde z nich można spolaryzować niezależnie na dwa sposoby, łączna liczba możliwości polaryzacji wynosi cztery. Stąd też wynikają cztery zakresy pracy tranzystora, zwane też stanami pracy. Wyróżniamy więc: – zakres pracy aktywnej normalnej, gdy złącze E-B spolaryzowane jest w kierunku przewodzenia, a złącze B-C w kierunku zaporowym; – zakres pracy aktywnej inwersyjnej, gdy złącze E-B spolaryzowane jest w kierunku zaporowym, a złącze B-C w kierunku przewodzenia; – zakres odcięcia, inaczej też zatkania, gdy oba złącza, zarówno E-B, jak i B-C, spolaryzowane są w kierunku zaporowym; – zakres nasycenia, gdy oba złącza, zarówno E-B, jak i B-C, spolaryzowane są w kierunku przewodzenia, co przedstawiono schematycznie na rysunku 7.7. Jak widać, poznany już wcześniej przez nas rodzaj pracy tranzystora nazywany jest zakresem pracy aktywnej normalnej. Tranzystor w tym zakresie pełni funkcję elementu aktywnego wzmacniacza, czyli swoją pierwotną funkcję, stąd też zakres ten przyjęło się określać mianem zakresu normalnego lub zakresu roboczego.
7.4. Praca statyczna
215
Rys. 7.7. Ilustracja zakresów pracy tranzystora bipolarnego w zależności od kierunków polaryzacji jego złączy P-N
Przyglądając się strukturze warstwowej tranzystora, można odnieść wrażenie, że z powodu jej symetryczności względem obszaru bazy, zamienić można by rolę zacisków emitera i kolektora oraz spolaryzować tranzystor całkiem odwrotnie, czyli do zakresu aktywnego inwersyjnego, tak żeby złącze B-C wstrzykiwało nośniki do bazy, a złącze E-B unosiło je do emitera, co jest odwróceniem roli obu złączy, i oczekiwać, że tranzystor nadal będzie spełniał swoją podstawową funkcję. Okazuje się, że tak nie jest. Rzeczywista struktura warstwowa tranzystora nie jest jednak symetryczna (rysunek 7.8). Każde ze złączy tranzystora jest tak skonstruowane, aby najlepiej spełniało swoją funkcję. Stąd obszar emitera złącza E-B jest silnie domieszkowany, aby miało ono dobre właściwości wstrzykujące nośniki do bazy, a nie odwrotnie, natomiast kolektor ma dużą powierzchnię, aby skutecznie odbierać nośniki unoszone z bazy przez pole elektryczne warstwy zaporowej złącza B-C, w dodatku, jak pamiętamy, w bazie występuje wbudowane pole elektryczne ułatwiające transport wstrzykniętych nośników w kierunku kolektora. Odwrócenie roli obu złączy powoduje, że złącze B-C nieefektywnie wstrzykuje nośniki do obszaru bazy, a w wyniku prze-
Rys. 7.8. Model rzeczywistej struktury warstwowej tranzystora bipolarnego typu N-P-N. Widać asymetrię struktury, która nie pozwala na zamianę roli obszarów emitera i kolektora
216
7. Tranzystor bipolarny
ciwnego kierunku jej pola elektrycznego, transport nośników przez bazę jest bardzo niesprawny, co z kolei nie pozwala złączu E-B skutecznie odbierać nośniki. Zatem działanie tranzystora przy tak spolaryzowanych złączach jest mało efektywne, stąd różni się od pracy tranzystora w zakresie aktywnym normalnym. W pozostałych dwóch zakresach pracy tranzystor w ogóle nie pełni funkcji wzmacniacza, gdyż nie zachodzi w nim opisany wcześniej normalny transport nośników. W zakresie odcięcia, gdy oba złącza są spolaryzowane w kierunku zaporowym, płyną przez nie jedynie niewielkie prądy nasycenia, w zasadzie nieistotne z praktycznego punktu widzenia, a w dodatku, jak pamiętamy, są one niezależne od wartości przyłożonych napięć, a więc powodują, że w tym zakresie tranzystor wykazuje się nieczułością na zmiany sygnałów sterujących. Z kolei, w zakresie nasycenia, gdy oba złącza spolaryzowane są w kierunku przewodzenia, następuje wstrzykiwanie nośników do bazy z obu jej stron, zarówno przez złącze emiterowe, jak i przez złącze kolektorowe oraz dodatkowo unoszenie ich przez obie warstwy zaporowe. W takim przypadku normalny przepływ nośników jest również zakłócony. Nie należy jednak sądzić, że te dwa stany pracy tranzystora są zupełnie bezużyteczne. Ponieważ w zakresie odcięcia przez tranzystor płyną znikome prądy, przyjmuje się, że przedstawia on sobą bardzo dużą rezystancję, zarówno od strony złącza emiterowego, jak i kolektorowego. Natomiast w stanie nasycenia, z powodu polaryzacji przewodzenia obu złączy, tranzystor przedstawia sobą bardzo małą rezystancję. Takie nieliniowe zachowanie się tranzystora predysponuje go do zastosowań w roli sterowanego klucza elektronicznego, gdzie napięcie sterujące w zależności od swojej wartości wprowadza go do jednego z tych dwóch skrajnych stanów. Ale o tym będziemy mówić nieco dalej. Schematy zastępcze nieliniowe Przedstawione zachowanie się tranzystora z punktu widzenia zacisków można opisać prostymi zależnościami, a na ich podstawie skonstruować jego elektryczny schemat zastępczy. Tranzystor składa się z dwóch złączy P-N połączonych przeciwstawnie, więc wydawałoby się, że można go przedstawić jako takie właśnie połączenie dwóch złączy P-N (rysunek 7.9a). Jak pamiętamy, przez złącze P-N płynie prąd opisany zależnością (6.2). Zatem prądy zaciskowe tranzystora opisać by można następującym zestawem zależności: U I dE (U EB ) = I ES ⋅ exp EB − 1 , UT U I dC (U CB ) = I CS ⋅ exp CB − 1 , UT
(7.3)
gdzie IdE oraz IdC są prądami złączy, odpowiednio, emiterowego i kolektorowego, wynikającymi z nieliniowych właściwości ich warstw zaporowych, natomiast IES oraz ICS to ich prądy nasycenia. Z opisu tego wynika bezpośrednio elektryczny schemat zastępczy, zamieszczony na rysunku 7.9b, będący po prostu połącze-
7.4. Praca statyczna
217
niem dwóch nieliniowych schematów zastępczych złącza P-N, przedstawionych już w rozdziale 6 na rysunku 6.11b. Jednak schemat taki jest uzasadniony tylko wówczas, gdy oba złącza nie oddziałują na siebie, co ma miejsce wyłącznie w stanie odcięcia. Jak pamiętamy, w tranzystorze pracującym w zakresie normalnym występuje zależność między prądem złącza emiterowego a prądem złącza kolektorowego, co powoduje, że przez złącze kolektorowe, oprócz prądu nasycenia ICS, płynie również prąd unoszenia nośników wstrzykiwanych do bazy przez złącze emiterowe, przy czym wartość tego prądu jest oczywiście pomniejszona (w wyniku rekombinacji) w stosunku do prądu emitera o prąd bazy, co uwzględnia się za pomocą współczynnika aN, wyrażającego stosunek prądu kolektora do prądu emitera. Ten dodatkowy prąd ma wówczas wartość aN · IdE i przedstawia się go na schemacie zastępczym jako źródło prądowe o tej wydajności połączone równolegle ze źródłem reprezentującym złącze B-C (rysunek 7.9c). Schemat ten obowiązuje zatem zarówno w zakresie pracy normalnej, jak i w zakresie odcięcia, jednak nie w dwóch pozostałych. W zakresie pracy inwersyjnej oraz w zakresie nasycenia również złącze kolektorowe wstrzykuje nośniki, które są odbierane przez złącze E-B, powodując przepływ dodatkowego, oprócz IdE, prądu unoszenia tych nośników. Jego wartość, ze względu na małą sprawność transportu nośników przez bazę w tym kierunku, jest o wiele mniejsza niż w kierunku normalnym, dlatego określa się go współczynnikiem aI < aN, podobnie jako aI · IdC i w schemacie uwzględnia w postaci źródła prądowego podłączonego równolegle do źródła reprezentującego złącze E-B
Rys. 7.9. Ilustracja genezy nieliniowego elektrycznego modelu Ebersa-Molla tranzystora bipolarnego w postaci dwóch złączy P-N połączonych przeciwstawnie (a) oraz w postaci ich najprostszych schematów zastępczych (źródeł prądowych) (b). Dokładniejsze modele zastępcze Ebersa-Molla obowiązujące dla zakresu pracy normalnej (c) oraz dla wszystkich zakresów pracy (d)
218
7. Tranzystor bipolarny
(rysunek 7.9d). Schemat ten nazywany jest iniekcyjnym modelem Ebersa-Molla i opisano go następującymi wyrażeniami: I E (U EB , U CB ) = I dE − α I ⋅ I dC ,
I C (U EB , U CB ) = − I dC + α N ⋅ I dE ,
(7.4)
I B = I E − IC , które po uwzględnieniu wyrażeń (7.3) przyjmują ostatecznie postać: U I E (U EB , U CB ) = I ES ⋅ exp EB UT U I C (U EB , U CB ) = − I CS ⋅ exp CB UT
− 1 − α I ⋅ I CS
U ⋅ exp CB UT
− 1 + α N ⋅ I ES
− 1 ,
U ⋅ exp EB UT
− 1
(7.5a)
(7.5b)
lub następującą: U I E (U EB , U CB ) = I EO ⋅ exp EB − 1 − α I ⋅ I C , UT U I C (U EB , U CB ) = − I CO ⋅ exp CB UT
− 1 + α N ⋅ I E ,
(7.6a)
(7.6b)
przy czym IEO = IES · (1 – aI · aN) oraz ICO = ICS · (1 – aI · aN). Schemat ten przedstawia działanie tranzystora w całym jego zakresie pracy, a więc jest jego najbardziej ogólnym modelem. Oczywiście można go jeszcze rozbudować, uwzględniając, podobnie jak w przypadku modelu złącza P-N, rezystancje szeregowe obu złączy, którymi są obszary emitera i kolektora oraz, wspólny dla obu złączy, obszar bazy. Baza jako obszar słabo domieszkowany odznacza się największą z wymienionych obszarów rezystancją (nieprzekraczającą jednak kilkunastu omów), a więc przynajmniej ona powinna być uwzględniona na schemacie zastępczym. Pozostałe rezystancje, z powodu silnego domieszkowania obszarów emitera
Rys. 7.10. Dokładny model Ebersa-Molla tranzystora bipolarnego uwzględniający rezystancje obszarów obojętnych elektrycznie – emitera, kolektora i bazy
7.4. Praca statyczna
219
Rys. 7.11. Ilustracja sensu fizycznego rezystancji rozproszonej bazy. Problem z jej przedstawieniem jako zwykłej (skupionej) rezystancji (a) oraz jej rzeczywisty charakter jako rezystancji rozłożonej (b)
i kolektora (a więc i znikomej rezystancji – zwykle kilka lub ułamek oma), mogą być w zasadzie pominięte. Gdybyśmy je jednak również uwzględnili, to schemat zastępczy przyjąłby postać taką jak na rysunku 7.10, gdzie RBB' jest rezystancją bazy, REE' rezystancją emitera, a RCC' rezystancją kolektora. Warto w tym miejscu wspomnieć kilka słów o rezystancji bazy RBB'. Nie jest to typowa rezystancja, której wartość określa się po prostu na podstawie napięcia na jej zaciskach oraz prądu płynącego przez zaciski. Ponieważ przez obszar bazy prąd przepływa kilkoma ścieżkami, tzn. od obszaru emitera do obszaru kolektora, ale również od obszaru emitera do zacisku bazy i podobnie, od obszaru kolektora do zacisku bazy, to wartości tej rezystancji nie da się określić w podany wcześniej konwencjonalny sposób. Rezystancja ta musiałaby mieć nie dwa, ale trzy zaciski (od strony emitera, od strony kolektora oraz zacisk samej bazy), a wówczas nie byłaby rezystancją, ale trójnikiem, co wprowadzałoby do analizy niepotrzebną komplikację (rysunek 7.11a). Ponadto, obszar bazy ma pewne rozmiary, co powoduje, że prądy płynące w tym samym kierunku płyną ścieżkami o różnej długości, a jak pamiętamy, rezystancja przewodnika zależy m.in. od jego długości, tak więc różne części bazy będą charakteryzowały się różnymi rezystancjami cząstkowymi (rysunek 7.11b), co sprawia, że rezystancja bazy ma bardziej cechy rezystancji rozłożonej niż skupionej. Taka postać rezystancji obszaru bazy utrudnia jej wyznaczenie oraz komplikuje analizę. Dlatego też, w celu jej zdefiniowania jako dwójnika o charakterze skupionym, przyjmuje się, że rezystancja bazy jest dołączona z jednej strony do pewnego „wirtualnego” punktu B' w obszarze bazy, w którym „zbiegają się” prądy z emitera i kolektora, a z drugiej strony do właściwego zewnętrznego zacisku bazy. W ten sposób na schemacie zastępczym na rysunku 7.10 rezystancja obszaru bazy reprezentowana jest przez rezystancję skupioną, ale ze względu na jej rzeczywisty charakter zwaną rezystancją rozproszoną bazy. Układy połączeń W celu zastosowania tranzystora, a w zasadzie nie tylko jego, jako elementu elektrycznego, wygodnie jest go opisać nie z punktu widzenia zjawisk zachodzących w jego strukturze, ale z punktu widzenia jego wielkości zaciskowych, tzn. prądów
220
7. Tranzystor bipolarny
oraz napięć na nim określonych. Tranzystor bipolarny z takiego punktu widzenia jest trójnikiem i analiza działania takiego elementu, ze względu na wiele wielkości zależnych, jest niewygodna i nie pozwalałaby na wyciągnięcie jasnych i obrazowych wniosków. Bardzo dobrze zaś do tego celu nadają się czwórniki. Ich opis działania, a więc zależności między wielkościami mają solidne podstawy matematyczne i dają się ściśle wyrazić, a wnioski z analizy tych zależności mają jasne interpretacje elektrotechniczne. Ponadto, czwórniki doskonale nadają się do opisu takich elementów jak wzmacniacze, gdyż, podobnie do nich, wyróżnia się w nich zaciski wejściowe oraz zaciski wyjściowe. Jak pamiętamy, tranzystor również może pełnić funkcję wzmacniacza, dlatego jego analizy, z punktu widzenia zaciskowego, bardzo wygodnie jest dokonać właśnie w postaci czwórnika. W jaki jednak sposób element trójzaciskowy można traktować jako element czterozaciskowy? W bardzo prosty. Wystarczy jeden z zacisków tranzystora uczynić zaciskiem wspólnym zarówno dla wejścia czwórnika, jak i dla jego wyjścia, a pozostałe dwa zaciski tranzystora rozdzielić pomiędzy pozostałe zaciski wejściowe oraz wyjściowe czwórnika. Ponieważ tranzystor ma trzy zaciski, z których każdy można uczynić wspólnym, pozostawiając wówczas jeszcze dwie możliwości rozdzielenia pozostałych zacisków pomiędzy wejście i wyjście czwórnika, więc łatwo policzyć, że wszystkich w sumie możliwych konfiguracji połączeń tranzystora do postaci czwórnika jest sześć. Ze względu jednak na to, że tranzystor dobrze pełni funkcję rolę wzmacniacza jedynie wówczas, gdy jednym z zacisków wejściowych jest baza, a jednym z zacisków wyjściowych kolektor, liczba sensownych konfiguracji spada do trzech. Wyróżnia się wówczas następujące konfiguracje połączeń, przedstawione też na rysunku 7.12: – układ wspólnej bazy, oznaczany przez WB lub OB, gdzie baza jest zaciskiem wspólnym, a wówczas zaciski emitera i bazy są zaciskami wejściowymi, a zaciski kolektora i bazy zaciskami wyjściowymi; – układ wspólnego emitera, oznaczany przez WE lub OE, gdzie emiter jest zaciskiem wspólnym, a wówczas zaciski bazy i emitera są zaciskami wejściowymi, a zaciski kolektora i emitera zaciskami wyjściowymi; – układ wspólnego kolektora, oznaczany przez WC lub OC, gdzie kolektor jest zaciskiem wspólnym, a wówczas zaciski bazy i kolektora są zaciskami wejściowymi, a zaciski emitera i kolektora zaciskami wyjściowymi. Zacisk wspólny jest wówczas zaciskiem odniesienia, więc dla każdego układu połączeń definiuje się odpowiednio wielkości wejściowe i wyjściowe, i tak: – w układzie OB prądem i napięciem wejściowym są odpowiednio prąd IE oraz napięcie UEB, natomiast prądem i napięciem wyjściowym są odpowiednio prąd IC oraz napięcie UCB; – w układzie OE prądem i napięciem wejściowym są odpowiednio prąd IB oraz napięcie UBE, natomiast prądem i napięciem wyjściowym są odpowiednio prąd IC oraz napięcie UCE; – w układzie OC prądem i napięciem wejściowym są odpowiednio prąd IB oraz napięcie UBC, natomiast prądem i napięciem wyjściowym są odpowiednio prąd IE oraz napięcie UEC.
221
7.4. Praca statyczna
Rys. 7.12. Podstawowe konfiguracje układów połączeń tranzystora bipolarnego. Oznaczenia: OB – wspólna baza, OE – wspólny emiter, OC – wspólny kolektor
Należy pamiętać, że niezależnie od zastosowanego układu połączeń zjawiska zachodzące wewnątrz tranzystora w danym zakresie pracy są identyczne i przebiegają tak samo, czyli, np. w zakresie pracy aktywnej normalnej zarówno w układzie OE, jak i OB czy też OC, złącze E-B jest spolaryzowane w kierunku przewodzenia, a złącze B-C w kierunku zaporowym i nośniki z obszaru kolektora wstrzykiwane są do obszaru bazy, a stamtąd unoszone przez pole elektryczne warstwy zaporowej złącza B-C do obszaru kolektora, a różnice, które obserwuje się w zależnościach między wielkościami wejściowymi i wyjściowymi w każdym z układów połączeń, wynikają wyłącznie z zastosowanego innego punktu widzenia lub punktu odniesienia. W tranzystorze widzianym jako czwórnik definiuje się m.in. wzmocnienie prądowe. Dla czwórnika wzmocnienie to zdefiniowane jest jako stosunek prądu wyjściowego do prądu wejściowego, który dla tranzystora w każdym z układów połączeń przyjmuje nieco inną postać. W układzie OB definiuje się współczynnik a, natomiast w układzie OE współczynnik b i wyraża się je następującymi wzorami:
α=
IC , IE
(7.7a)
β=
IC , IB
(7.7b)
przy czym jeden współczynnik można wyrazić za pomocą drugiego:
α=
β , 1+ β
(7.8a)
β=
α . 1−α
(7.8b)
Ze względu na występowanie różnic między działaniem tranzystora pracującego w stanie aktywnym normalnym a pracującego w stanie aktywnym inwersyjnym, również współczynniki wzmocnień prądowych a i b przyjmują dla tego samego tranzystora inne wartości w każdym z tych stanów pracy. W celu rozróżnienia, dla którego stanu określony jest dany współczynnik, wprowadza się różne ich ozna-
222
7. Tranzystor bipolarny
czenia. Przez aN i bN określa się współczynniki wzmocnień prądowych dla zakresu pracy aktywnej normalnej (jak pamiętamy, tylko wówczas tranzystor dobrze wzmacnia). Pamiętając, że w zakresie tym prąd kolektora jest nieznacznie tylko mniejszy od prądu emitera, natomiast prąd bazy jest o wiele mniejszy od tych dwóch prądów, łatwo można oszacować rzędy wielkości tych współczynników. W przypadku współczynnika aN stosunek ten będzie prawie równy jedności, ale zawsze od niej trochę mniejszy. Typowa jego wartość w rzeczywistych tranzystorach wynosi ok. 0,995. Z kolei, w przypadku współczynnika bN, będą to już wartości znacznie przekraczające jedność. Typowe wartości tego współczynnika zawierają się w granicach od kilkudziesięciu do kilkuset, np. dla niektórych tranzystorów nawet ok. 500. Należy pamiętać, że współczynniki te są bezwymiarowe lub ewentualnie wyrażone jako [A/A], co jest równoznaczne z brakiem jednostki, określają wszak jedynie proporcjonalność między dwoma prądami. Z kolei przez aI oraz bI określa się współczynniki wzmocnień prądowych tranzystora dla zakresu pracy aktywnej inwersyjnej. Ze względu na małą sprawność wstrzykiwania nośników przez złącze kolektorowe oraz transportu tych nośników przez bazę w stronę emitera, współczynniki te są o wiele mniejsze niż dla zakresu pracy normalnej. Przykładowo, typowa wartość wzmocnienia prądowego aI = 0,8 (ze względu na wymienioną małą sprawność tranzystora), wówczas wartość współczynnika bI = 4. Rodziny charakterystyk statycznych W odróżnieniu od złącza P-N, dla którego zdefiniowany jest tylko jeden rodzaj charakterystyki, dla tranzystora, jako czwórnika, zdefiniowane są aż cztery, przy czym, w zależności od zastosowanego opisu wzajemnych zależności między wielkościami zaciskowymi czwórnika, charakterystyki te przedstawiać mogą różne związki. W przypadku tranzystora bipolarnego najczęściej wykorzystywane są charakterystyki wynikające z opisu tranzystora za pomocą zestawu równań mieszanych, zwanych też hybrydowymi. Jeśli indeksem dolnym 1 oznaczymy wielkości wejściowe, a indeksem 2 wielkości wyjściowe czwórnika, wówczas z równań tych wynikają następujące rodzaje charakterystyk: – charakterystyki wejściowe jako zależność U1(I1) przy ustalonym U2, choć w praktyce przyjmuje się zależność I1(U1), – charakterystyki wyjściowe jako zależność I2(U2) przy ustalonym I1, – charakterystyki zwrotne jako zależność U1(U2) przy ustalonym I1, – charakterystyki przejściowe jako zależność I2(I1) przy ustalonym U2. Każdą z tych charakterystyk można przedstawić graficznie w postaci zbioru pojedynczych wykresów, zwanego rodziną charakterystyk. W jej skład wchodzi kilka oddzielnych charakterystyk przedstawionych we wspólnym układzie współrzędnych, opisujących zależność tych samych dwóch wielkości, np. I1(U1), ale w funkcji zmieniającej się wielkości trzeciej, np. U2, zwanej parametrem charakterystyk, przy czym wielkość ta jest stała dla indywidualnego wykresu, ale inna dla każdego kolejnego. Jak już przedstawiono, wielkości prądów i napięć wejściowych oraz wyjściowych odnoszące się do czwórnika są w każdym układzie połączeń tranzystora określone
223
7.4. Praca statyczna
przez inne jego wielkości. Zatem, w każdym z układów połączeń wymienione wyżej charakterystyki będą również określone innymi zależnościami, wciąż wynikającymi oczywiście z wyrażeń (7.4), (7.5) czy (7.6). W układzie OB rodziny charakterystyk statycznych określone są następującymi zależnościami, przedstawionymi graficznie na rysunkach 7.13, 7.19, 7.20, 7.21 na przykładzie tranzystora typu P-N-P: – wejściowe
– I E (U EB )
– wyjściowe – I C (U CB ) – przejściowe – I C ( I E ) – zwrotne
, U CB = const , I B = const ,
U CB = const
– U EB (U CB )
. I E = const
W przypadku charakterystyk wejściowych widać, że przy napięciu UCB = 0 charakterystyka ta przypomina swoim kształtem charakterystykę złącza P-N. Wynika to z tego, że prąd IE jest wówczas w zasadzie jedynie prądem złącza E-B spolaryzowanego napięciem UEB w kierunku przewodzenia. Z kolei, jak widać, dla napięć UCB ≠ 0 mimo braku polaryzacji złącza E-B, czyli przy UEB = 0, prąd emitera płynie przez tranzystor. Spowodowane to jest tym, że spolaryzowane zaporowo złącze C-B przewodzi prąd, który płynąc w obwodzie kolektora, przepływa też przez rezystancję rozproszoną bazy (na rysunku 7.14 wyodrębnioną dla wyrazistości), wymuszając na niej spadek napięcia. Napięcie to polaryzuje z kolei w kierunku przewodzenia złącze E-B, które mimo braku zewnętrznego napięcia polaryzującego UEB zaczyna przewodzić prąd emitera, rosnący w miarę zwiększania napięcia UCB.
Rys. 7.13. Wykres rodziny przykładowych charakterystyk wejściowych tranzystora bipolarnego typu P-N-P w układzie wspólnej bazy
224
7. Tranzystor bipolarny
Rys. 7.14. Ilustracja wpływu rezystancji bazy na polaryzację złącza E-B w kierunku przewodzenia przez prąd bazy płynący przy polaryzacji zaporowej złącza B-C
Natomiast pozostałe zmiany charakterystyki wejściowej wraz ze zmianą napięcia UCB dla napięć UEB ≠ 0 wywołane są zjawiskiem modulacji efektywnej szerokości bazy, zwanej też zjawiskiem Early’ego. Zjawisko to polega na zmianie efektywnej (użytecznej) szerokości obszaru bazy wywołanej zmianami szerokości warstwy zaporowej złącza C-B (wnikającej w obszar bazy) w wyniku zmian napięcia UCB. Przy wzroście tego napięcia w kierunku zaporowym wzrastająca szerokość warstwy zaporowej złącza C-B powoduje pochłanianie obszaru bazy, przez co jej szerokość efektywna, czyli ta, którą muszą pokonać nośniki mniejszościowe, ulega skróceniu. To wywołuje dwojakie zmiany odnoszące się do złącza E-B. Zanim je jednak przedstawimy, należy poznać rozkład przestrzenny koncentracji nadmiarowych nośników mniejszościowych w bazie podczas pracy normalnej tranzystora. Jak pamiętamy w wyniku wstrzykiwania nośników przez złącze E-B duża ich liczba pojawia się w bazie po stronie sąsiadującej z emiterem. Nośniki te następnie przepływając przez bazę, docierają do jej przeciwległej strony sąsiadującej z kolektorem, a stamtąd przez pole elektryczne warstwy zaporowej złącza C-B są natychmiast odbierane i unoszone do kolektora, co powoduje, że w zasadzie ich koncentracja przy tej krawędzi bazy jest równa zeru. Tak więc można powiedzieć, że koncentracja wstrzykniętych nadmiarowych nośników mniejszościowych w bazie jest największa przy emiterze i maleje wzdłuż bazy, osiągając przy krawędzi kolektora wartość równą zero. Można wykazać [13, 18], że w tranzystorach bezdryftowych, z powodu dyfuzyjnego transportu nośników przez bazę, rozkład tej koncentracji ma kształt liniowy malejący do zera, a w tranzystorach dryftowych, gdzie nośniki są transportowane dodatkowo przez pole elektryczne bazy, jest on prawie stały, malejący gwałtownie do zera dopiero przy krawędzi kolektora (rysunek 7.15). Należy też wiedzieć, że im większe jest napięcie polaryzacji złącza E-B, tym większa jest koncentracja początkowa (przy krawędzi emitera) tego rozkładu i zależy wykładniczo od tego napięcia. Z kolei im większy jest prąd emitera, tym większy jest też prąd dyfuzyjny nośników w bazie, a więc większa jest różnica koncentracji między dwoma miejscami w obszarze bazy, a zatem większe jest też nachylenie początkowe rozkładu koncentracji (rysunek 7.16).
7.4. Praca statyczna
225
Rys. 7.15. Wykresy rozkładów koncentracji nadmiarowych nośników mniejszościowych w bazie tranzystora dryftowego i bezdryftowego
Rys. 7.16. Ilustracja zależności parametrów rozkładu koncentracji nadmiarowych nośników mniejszościowych w bazie tranzystora bipolarnego. Kąt nachylenia rozkładu dla x = 0 jest proporcjonalny do prądu emitera IE, natomiast poziom koncentracji dla x = 0 jest wykładniczo proporcjonalny do napięcia UEB na złączu emiter-baza
Rozumiejąc te zależności w rozkładzie nośników w bazie, można dokonać analizy wpływu szerokości bazy na prąd i napięcie złącza emiterowego. Rozważmy na początek przypadek tranzystora bezdryftowego. Załóżmy, że napięcie UCB wzrasta z wartości UCB1 do wartości UCB2, wówczas powiększeniu ulegnie szerokość warstwy zaporowej, a to spowoduje, że szerokość efektywna bazy zmniejszy się z wartości WB1 do wartości WB2. Jeśli teraz złącze E-B będzie sterowane w taki sposób, że napięcie UEB będzie miało stałą wartość (przy wzroście napięcia UCB), to koncentracja wstrzykniętych nośników mniejszościowych na krawędzi bazy przy emiterze nie ulegnie zmianie (rysunek 7.17a), a więc nie zmieni się również punkt zaczepienia P odcinka liniowego reprezentującego rozkład koncentracji tych nośników. Za to, w wyniku zmniejszenia się efektywnej szerokości bazy, zmianie ulegnie położenie punktu, w którym koncentracja nośników maleje do zera. Tak więc, koncentracja nośników musi teraz zmaleć do zera na krótszym odcinku, co powoduje, że maleje ona gwałtowniej, dając bardziej strome nachylenie jej rozkładu. Jak pamiętamy, większe nachylenie rozkładu koncentracji związane jest z większą wartością prądu emitera. I faktycznie, jeśli przyjrzeć się charakterystykom wejściowym
226
7. Tranzystor bipolarny
Rys. 7.17. Ilustracja wpływu napięcia UCB na złączu kolektor-baza spolaryzowanym zaporowo na rozkłady koncentracji nadmiarowych nośników mniejszościowych w bazie bipolarnego tranzystora bezdryftowego w przypadku ustalonej wartości napięcia UEB na złączu emiter-baza (a) oraz w przypadku ustalonej wartości prądu emitera IE (b)
z rysunku 7.13, zauważymy, że przy ustalonej wartości napięcia UEB prąd emitera IE rośnie w miarę wzrostu napięcia UCB. Jeśli z kolei złącze E-B będzie sterowane tak, że to prąd emitera będzie miał ustaloną wartość (przy wzroście napięcia UCB), to przy zmniejszeniu się efektywnej szerokości bazy, nachylenie rozkładu koncentracji będzie musiało mimo to pozostać stałe (rysunek 7.17b), a to oznacza, że zmianie tym razem ulegnie położenie punktu P (do pozycji P') określającego wartość koncentracji nośników mniejszościowych na krawędzi bazy przy emiterze, która w tym przypadku ulegnie zmniejszeniu. Mniejsza wartość koncentracji, jak powiedzieliśmy, oznacza mniejszą wartość napięcia na złączu E-B. I rzeczywiście, na charakterystykach wejściowych z rysunku 7.13 wyraźnie widać, że przy stałej wartości prądu emitera IE napięcie UEB maleje w miarę wzrostu napięcia UCB. Ponieważ zjawisko modulacji efektywnej szerokości bazy ma ścisły związek z dyfuzyjnym charakterem przepływu nośników przez bazę, to w tranzystorach dryftowych, gdzie dzięki wbudowanemu polu elektrycznemu składowa dyfuzyjna tego transportu jest w zasadzie do pominięcia, wpływ tego zjawiska jest o wiele słabszy niż w tranzystorach bezdryftowych. Ukazują to zmiany rozkładu koncentracji nośników mniejszościowych przedstawione na rysunku 7.18. Z powodu kształtu tego rozkładu przy zmianach napięcia UCB praktycznie nie ulega on zmianie na krawędzi bazy przy emiterze, a więc nie wpływa na wielkości prądu i napięcia na złączu emiterowym. Ze względu na to, że zjawisko Early’ego powoduje wpływ złącza kolektorowego na złącze emiterowe, czyli wywołuje propagację pewnego sygnału w odwrotnym kierunku, niż przyjęty za normalny, zjawisko to nazywane jest też oddziaływaniem wstecznym lub oddziaływaniem zwrotnym.
7.4. Praca statyczna
227
Rys. 7.18. Ilustracja wpływu napięcia UCB na złączu kolektor-baza spolaryzowanym zaporowo na rozkłady koncentracji nadmiarowych nośników mniejszościowych w bazie bipolarnego tranzystora dryftowego w przypadku ustalonej wartości napięcia UEB na złączu emiter-baza (a) oraz w przypadku ustalonej wartości prądu emitera IE (b). Zmiany te są o wiele słabsze niż w przypadku tranzystora bezdryftowego
W przypadku charakterystyk wyjściowych dla napięć UCB polaryzujących zaporowo złącze B-C (I ćwiartka układu współrzędnych) obserwujemy praktycznie brak zmiany prądu wyjściowego IC. Wynika to z tego, że prąd ten, jak pamiętamy, jest prądem nasycenia złącza B-C, a więc jest niezależny od przyłożonego napięcia. W rzeczywistości jednak prąd kolektora nieznacznie rośnie wraz ze wzrostem napięcia UCB, co spowodowane jest modulacją efektywnej szerokości bazy. Większe napięcie UCB powoduje zmniejszanie się szerokości obszaru bazy, a w krótszej bazie mniej nośników rekombinuje, a więc większa ich liczba przepływa dalej do kolektora, co objawia się niewielkim wzrostem prądu kolektora IC w miarę wzrostu napięcia UCB. Z kolei przy ustalonej wartości napięcia UCB prąd kolektora rośnie wraz ze wzrostem prądu emitera, co jest znaną już zależnością wynikającą z normalnego transportu nośników przez tranzystor, przy czym zależność ta jest liniowa, tzn. IC = aN · IE. Warto też zauważyć, że przy wartości UCB = 0 prąd kolektora IC ≠ 0. Spowodowane to jest tym, że mimo braku polaryzacji złącza B-C jego warstwa zaporowa nadal odbiera wstrzykiwane przez emiter do bazy nośniki (pola elektryczne stale w niej istnieją). W dodatku prąd IC jest tym większy, im więcej nośników jest wstrzykiwanych do bazy, a więc zależy od prądu emitera.
Rys. 7.19. Wykres rodziny przykładowych charakterystyk wyjściowych tranzystora bipolarnego typu P-N-P w układzie wspólnej bazy
228
7. Tranzystor bipolarny
Rys. 7.20. Wykres rodziny przykładowych charakterystyk przejściowych tranzystora bipolarnego typu P-N-P w układzie wspólnej bazy
Rys. 7.21. Wykres rodziny przykładowych charakterystyk zwrotnych tranzystora bipolarnego typu P-N-P w układzie wspólnej bazy
Z kolei dla napięć UCB polaryzujących złącze C-B w kierunku przewodzenia (II ćwiartka układu współrzędnych) obserwuje się spadek i to dosyć gwałtowny prądu kolektora IC. Złącze C-B spolaryzowane w kierunku przewodzenia, oprócz unoszenia nośników z bazy do kolektora, zaczyna również wstrzykiwać (przepływ dyfuzyjny) te same nośniki w przeciwnym kierunku, czyli do obszaru bazy. Obie składowe odejmują się od siebie, powodując zmniejszenie się prądu kolektora. W miarę dalszego wzrostu napięcia UCB w kierunku przewodzenia, przy pewnej jego wartości, składowa dyfuzyjna zrównuje się w końcu ze składową unoszenia, dając w rezultacie wyzerowanie się prądu kolektora. Warto zaznaczyć, że wówczas prąd bazy osiąga taką samą wartość jak prąd emitera. W przypadku charakterystyk przejściowych ich wykres przedstawia zależność liniową prądu kolektora od prądu emitera, ponieważ, jak wiadomo, w zakresie normalnym zależność ta jest związana współczynnikiem wzmocnienia prądowego aN, tzn. IC = aN · IE. Jednak tu, również w miarę wzrostu napięcia UCB, zmniejszenie się efektywnej szerokości bazy, poprzez mniejszą liczbę rekombinujących nośników, przyczynia się do zwiększenia sprawności transportu nośników przez bazę, co oznacza zwiększenie wartości współczynnika aN, a więc i wzrost nachylenia charakterystyk przejściowych. Natomiast kształt charakterystyk zwrotnych powinien mieć postać linii równoległych do osi napięcia UCB, oznaczający brak wpływu napięcia UCB na napięcie UEB. Jednak, jak wiadomo, istniejące w tranzystorze zjawisko oddziaływania wstecznego powoduje nieznaczne zmiany napięcia złącza emiterowego wywołane zmianami napięcia złącza kolektorowego, co przy wzroście napięcia UCB objawia się na charakterystykach niewielkim pochyleniem charakterystyk w kierunku mniejszych wartości napięcia UEB. W układzie OE rodziny charakterystyk statycznych określone są następującymi zależnościami, przedstawionymi graficznie na rysunkach 7.22, 7.23, 7.25, 7.26: wejściowe
–
I B (U BE )
, U CE = const
229
7.4. Praca statyczna
wyjściowe przejściowe
zwrotne
– –
–
I C (U CE ) IC ( I B )
, I B = const ,
U CE = const
U BE (U CE )
. I B = const
Charakterystyki wejściowe w tym układzie połączeń są bardzo podobne do charakterystyk wejściowych w układzie OB, ponieważ prąd bazy IB jest ściśle związany z prądem emitera IE poprzez liniową zależność IB = IE · aN /bN = IE /(1 + bN), wynikającą z definicji (7.7) i (7.8) współczynników prądowych aN i bN. Z kolei zmiany tej charakterystyki wraz ze zmianami napięcia UCE wyjaśnia się zjawiskiem modulacji efektywnej szerokości bazy. W tym przypadku wzrost napięcia UCE polaryzującego oba złącza również powoduje wzrost zaporowej polaryzacji złącza B-C, a więc i zmniejszenie się efektywnej szerokości bazy, co oznacza, że mniej nośników rekombinuje w bazie. A zatem, przy ustalonym napięciu UBE, prąd bazy IB będzie mniejszy (jako prąd powstały, jak pamiętamy, w wyniku istnienia rekombinacji w bazie). Natomiast, aby wyjaśnić kształt charakterystyk wyjściowych, należy pamiętać, że napięcie UCE polaryzuje naraz oba złącza tranzystora. Przy napięciu UCE = 0 złącze E-B polaryzowane jest niezależnie ze źródła napięcia UBE, co sprawia, że przy zwarciu zacisków C oraz E napięcie na złączu B-C będzie miało taką samą wartość jak napięcie na złączu E-B, a to oznacza jego polaryzację w kierunku przewodzenia (rysunek 7.24). W takim przypadku tranzystor znajduje się w stanie nasycenia, a więc oba złącza wstrzykują nośniki do bazy. Rekombinacja tych nośników w bazie z dostarczonymi przez zacisk bazy nośnikami przeciwnego typu będzie w zasadzie ustalać wartość
Rys. 7.22. Wykres rodziny przykładowych charakterystyk wejściowych tranzystora bipolarnego typu P-N-P w układzie wspólnego emitera
Rys. 7.23. Wykres rodziny przykładowych charakterystyk wyjściowych tranzystora bipolarnego typu P-N-P w układzie wspólnego emitera
230
7. Tranzystor bipolarny
Rys. 7.24. Ilustracja zjawiska polaryzowania obu złączy tranzystora bipolarnego w układzie OE do kierunku przewodzenia przez napięcie wejściowe UBE w przypadku UCE = 0. Dla wyraźnego ukazania zjawiska pokazano tę samą konfigurację połączeń przy innym rozmieszczeniu przewodów łączących zaciski tranzystora
prądu emitera i kolektora. Ich wartości będą bardzo małe, gdyż przy niewielkim prądzie bazy niewiele jest dostarczanych do bazy nośników, które mogą wówczas zrekombinować z niewieloma tylko nośnikami wstrzykniętymi przez oba złącza. Tak więc prądy emitera i kolektora są bardzo małe i jako suma równe prądowi bazy, tzn. IB = IE + IC. W praktyce można przyjąć, że prąd kolektora jest równy zeru. Dopiero w miarę zwiększania napięcia UCE zmniejsza się napięcie polaryzujące w kierunku przewodzenia złącze B-C, które zaczyna teraz słabiej wstrzykiwać nośniki, powodując, że znaczenia zaczyna nabierać prąd unoszenia nośników przez warstwę zaporową złącza B-C, co oznacza wzrost prądu kolektora. Dlatego też, im większe jest napięcie UCE, tym większy prąd IC płynie przez tranzystor. Dopiero gdy UCE osiągnie wartość napięcia UBE, napięcie na złączu kolektorowym osiąga wartość równą zero i tranzystor wychodzi ze stanu nasycenia. Dalszy wzrost napięcia UCE przyczynia się do polaryzacji złącza B-C w kierunku zaporowym i tranzystor wchodzi do stanu aktywnego normalnego, gdzie jak wiemy, prąd kolektora IC jest zależny tylko od prądu emitera IE, a więc i od prądu IB, natomiast niezależny od napięcia polaryzacji UCB, czyli również od napięcia UCE. Dlatego dla napięć UCE większych od UBE prąd kolektora IC powinien być praktycznie stały, a zależny tylko
Rys. 7.25. Wykres rodziny przykładowych charakterystyk przejściowych tranzystora bipolarnego typu P-N-P w układzie wspólnego emitera
7.4. Praca statyczna
231
Rys. 7.26. Wykres rodziny przykładowych charakterystyk zwrotnych tranzystora bipolarnego typu P-N-P w układzie wspólnego emitera
od prądu IB. Faktycznie taka zależność istnieje i jest w dodatku liniowa, ponieważ jest określona przez współczynnik wzmocnienia prądowego bN w znany nam już sposób: IC = bN · IB. W rzeczywistości obserwuje się jednak wzrost prądu kolektora w miarę wzrostu napięcia UCE. Efekt ten wynika ponownie ze zjawiska modulacji efektywnej szerokości bazy i jest nawet silniejszy w porównaniu z tym oddziaływaniem na charakterystykę wyjściową w układzie OB, ponieważ dodatkowo, wraz ze wzrostem napięcia UCE, wzrasta również poziom wstrzykiwania nośników przez złącze emiterowe, które jest tym napięciem coraz silniej polaryzowane w kierunku przewodzenia, co prowadzi do wzrostu prądu unoszenia przez kolektor, a więc do wzrostu samego prądu IC. Kształt charakterystyk przejściowych w postaci linii prostych o różnych nachyleniach wynika z tych samych zjawisk, co w przypadku układu połączeń OB, przy czym obowiązuje tu zależność: IC = bN · IB. Podobnie jak w przypadku układu OB, charakterystyki zwrotne w układzie OE powinny przedstawiać brak zależności napięcia UBE od napięcia UCE. To samo zjawisko, które w przypadku układu OB powodowało pochylenie się charakterystyk zwrotnych, również i teraz powoduje pochylenie się charakterystyk przy stałej wartości prądu bazy IB, przy czym tym razem w kierunku większych wartości napięcia UBE. Można to wyjaśnić tym, że przy mniejszej szerokości efektywnej bazy mniej nośników oczywiście w niej rekombinuje, co powodowałoby mniejszą wartość prądu bazy. Aby jednak ta wartość pozostała stała (ponieważ tu IB = const), musi się zwiększyć poziom wstrzykiwania nośników przez złącze emiterowe, stąd wzrost napięcia UBE przy zmniejszaniu się szerokości efektywnej bazy, czyli przy wzroście napięcia UCE. Należy pamiętać, że przedstawione wyżej rodziny charakterystyk zarówno dla układu połączeń OB, jak i OE, ze względu na przyjęte znaki napięć, dotyczą wyłącznie tranzystora typu P-N-P. W przypadku tranzystora N-P-N kształt charakterystyk jest identyczny z przedstawionymi, a jedynej zmianie ulegają znaki napięć na przeciwne. Uczulamy Czytelników pragnących dogłębnie zrozumieć pochodzenie przedstawionych wyżej przebiegów charakterystyk tranzystora bipolarnego, aby z uwagą przeczytali tę część rozdziału nawet kilkakrotnie.
232
7. Tranzystor bipolarny
Parametry statyczne Właściwości tranzystora bipolarnego dla pracy statycznej, podobnie jak poprzednio złącza P-N, określa się za pomocą kilku parametrów statycznych [2, 13, 18]. Dla każdego układu połączeń będzie to nieco inny zbiór parametrów, jednak wartości większości z nich ukazać można na wykresach charakterystyk wyjściowych w postaci ograniczeń narzuconych na minimalne i maksymalne wartości zarówno napięć, jak i prądów (rysunek 7.27). Jednym z ważnych ograniczeń jest maksymalna dopuszczalna moc wydzielana w tranzystorze, moc admisyjna oznaczana przez Padm. Jest to wartość mocy, która może się bezpiecznie wydzielać w tranzystorze (jako elemencie jednak stratnym) w sposób długotrwały, niepowodujący jego uszkodzenia. Parametr ten przedstawia się na charakterystykach prądowo-napięciowych w postaci hiperboli, ograniczającej dozwolony obszar pracy tranzystora, a wynikającej z iloczynu prądu i napięcia: Padm = I · U.
Rys. 7.27. Ilustracja ograniczeń pola charakterystyk wyjściowych tranzystora bipolarnego w układach wspólnej bazy (a) oraz wspólnego emitera (b)
7.4. Praca statyczna
233
Punkty na charakterystyce leżące poniżej tej hiperboli oznaczają takie wartości napięcia i prądu, przy których moc wydzielana w tranzystorze wynikająca z ich iloczynu jest nie większa od mocy admisyjnej, natomiast punkty leżące powyżej tej hiperboli oznaczają takie wartości napięcia i prądu, przy których moc wydzielana w tranzystorze przekracza moc admisyjną, co może doprowadzić do jego uszkodzenia. Innym parametrem ograniczającym dozwolony obszar pracy tranzystora jest maksymalny prąd kolektora IC max. Zazwyczaj nie wynika on z ograniczenia na maksymalną moc wydzielaną w tranzystorze, ale ze zmian współczynników wzmocnień prądowych a i b, które wraz ze wzrostem prądu emitera, czyli również ze wzrostem prądu kolektora, maleją, burząc liniową zależność między prądami, co w przypadku wzmacniacza objawia się zniekształceniami nieliniowymi wzmacnianego sygnału. Ograniczeniu podlega również maksymalne napięcie kolektora, przy czym, w zależności od układu połączeń będzie to oczywiście inne napięcie. W układzie OB napięciem tym będzie napięcie UCB, a w układzie OE napięcie UCE. Ich ograniczenie wynika z możliwości przebicia złączy tranzystora spolaryzowanych zbyt dużym napięciem zaporowym. W przypadku pracy inwersyjnej, gdzie złącze E-B jest spolaryzowane zaporowo, dochodzi do przebicia Zenera. Przy pracy normalnej natomiast przebiciu ulega złącze B-C, przy czym najczęściej jest to przebicie lawinowe. W tranzystorach bipolarnych dochodzi też do trzeciego rodzaju przebicia, zwanego przebiciem skrośnym lub przekłuciem, a związanego z obszarem bazy. Jak pamiętamy, zwiększając napięcie na złączu kolektorowym spolaryzowanym zaporowo, powoduje się rozszerzanie warstwy zaporowej tego złącza, a więc zmniejszanie efektywnej szerokości obszaru bazy. Przy odpowiednio dużym napięciu UCB lub UCE dojść może do całkowitego pochłonięcia obszaru bazy przez poszerzoną warstwę zaporową złącza B-C, co sprawi, że nośniki płynące z emitera bez przeszkód będą przepływały do kolektora, powodując gwałtowny wzrost prądu kolektora. Przy braku ograniczenia tego prądu w obwodzie zewnętrznym dojść może, jak przy każdym innym przebiciu, do uszkodzenia tranzystora. We współczesnych tranzystorach dryftowych, w których obszar bazy jest niejednorodnie domieszkowany, przebicie skrośne jest w zasadzie wyeliminowane, ponieważ poszerzająca się warstwa zaporowa wnika w coraz silniej domieszkowany obszar bazy, co powoduje, że coraz mniejsze są przyrosty jej szerokości i w rezultacie zanim nastąpi całkowite wchłonięcie bazy przez warstwę zaporową i przebicie skrośne, wcześniej nastąpi przebicie lawinowe złącza B-C. W zależności od konfiguracji połączeń tranzystora wyróżnić można kilka maksymalnych napięć kolektora, związanych z przebiciami złączy i oznaczanych dla odróżnienia w różny sposób, np. w układzie OB przy rozwartym obwodzie emitera określone jest napięcie UCBO max, z kolei w układzie OE przy rozwartym obwodzie bazy – napięcie UCEO max. Przy innych konfiguracjach definiuje się jeszcze inne napięcia maksymalne, np. przy włączonej w obwód baza-emiter rezystancji RBE zdefiniowane jest napięcie maksymalne UCER max, przy zwarciu obwodu B-E, czyli przy napięciu UBE = 0 – napięcie maksymalne UCES max, natomiast przy włączonym w obwód B-E źródle polaryzacji zaporowej – napięcie maksymalne UCEX max.
234
7. Tranzystor bipolarny
Każda z tych konfiguracji wpływa na wartość napięcia przebicia, więc napięcia te mają różne wartości nawet dla tego samego tranzystora. W tranzystorze istnieją również ograniczenia na minimalne wartości prądu oraz napięcia. Minimalne wartości prądów ograniczające pole charakterystyk wyjściowych wynikają z polaryzacji zaporowej odpowiednich złączy przy podłączeniu tranzystora jako dwójnika, podczas której płyną przez tranzystor prądy zerowe, niebędące prądami użytecznymi, albowiem nie wynikają one z normalnej pracy tranzystora, nie zależą od sygnałów wejściowych, a więc nie niosą użytecznej informacji o sygnale wejściowym i powodują, co prawda niewielkie, ale jednak istniejące straty energii w postaci wydzielanego w tranzystorze ciepła. Ponieważ prądy te związane są z polaryzacjami zaporowymi odpowiednich złączy, to na charakterystykach wyjściowych objawiają się jako ograniczenia ich pola zakresem odcięcia. Dlaczego tak się dzieje? Załóżmy, że w przypadku układu OB, przy pewnej wartości napięcia UCB, chcemy osiągnąć wartość prądu kolektora równą zeru. Należałoby więc zmniejszyć prąd emitera, bo jak wynika z charakterystyk wyjściowych, prąd kolektora wyraźnie od niego zależy, zresztą wiemy to też z analizy działania tranzystora w zakresie pracy normalnej. Okazuje się, że zmniejszenie prądu emitera nawet do zera nie spowoduje zaniku prądu kolektora. Jak pamiętamy, przy zerowym prądzie emitera, czyli przy braku wstrzykiwania nośników do bazy, w obwodzie B-C mimo to płynie przynajmniej prąd nasycenia tego złącza wywołany właśnie niezerową polaryzacją zaporową napięciem UCB, którego wartości w zakresie pracy normalnej zmniejszyć się już nie da, można go co najwyżej zwiększyć, inicjując wstrzykiwanie nośników do bazy przez złącze emiterowe. Aby jednak zmniejszyć ten prąd, należałoby złącze E-B przepolaryzować do kierunku zaporowego i wówczas prąd kolektora uległby faktycznie dalszemu zmniejszeniu. Jednak polaryzacja taka oznacza wejście tranzystora w zakres odcięcia, gdzie nie pełni on już funkcji wzmacniacza. Tak więc prąd nasycenia złącza B-C ogranicza pole obszaru pracy aktywnej na charakterystyce wyjściowej zakresem odcięcia od strony minimalnych prądów kolektora. Podobnie wyjaśnić można ograniczenie minimalnej wartości prądu kolektora w układzie OE. W sumie, w tranzystorze, w zależności od układu połączeń definiuje się kilka różnych prądów zerowych. W układzie OB definiuje się prąd ICBO, będący prądem spolaryzowanego zaporowo złącza B-C przy rozwartym obwodzie B-E. W układzie OE natomiast definiuje się prąd ICEO, będący prądem kolektora w obwodzie C-E przy polaryzacji zaporowej złącza B-C i przy rozwarciu obwodu B-E. Z kolei, przy włączeniu w obwód bazy rezystora o wartości R, definiuje się ten sam prąd jako ICER, a przy zwarciu zacisków B-E jako prąd ICES. Dodatkowo, przy pracy inwersyjnej tranzystora definiuje się jeszcze prąd IEBO, będący prądem złącza E-B spolaryzowanego zaporowo przy rozwartych zaciskach B-C. Wymienione warianty konfiguracji pokazane są na rysunku 7.28 wraz z określeniem podanych prądów. Warto wspomnieć o konwencji oznaczeń tych prądów. Każdy z nich rozróżniany jest na podstawie trzech indeksów literowych. Dwa pierwsze oznaczają obwód zaporowo polaryzowany napięciem, przy czym pierwszy oznacza zacisk, którego dotyczy dany prąd zerowy, a drugi oznacza zacisk wspólny w danym układzie połą-
7.4. Praca statyczna
235
Rys. 7.28. Definicje prądów zerowych i warunków ich pomiaru dla tranzystora bipolarnego w układach połączeń wspólnej bazy (a) oraz wspólnego emitera (b)
czeń, trzeci natomiast indeks oznacza stan drugiego obwodu tranzystora. I tak: litera „O” oznacza rozwarcie obwodu (ang. open), litera „R” oznacza włączenie w obwód rezystora, a litera „S” oznacza zwarcie obwodu (ang. short). Identyczna konwencja obowiązuje dla maksymalnych napięć kolektora przedstawionych wcześniej. Podobnie jak napięcia maksymalne, tak i wymienione prądy zerowe przyjmują różne wartości w zależności od konfiguracji połączeń. Ostatnim istotnym ograniczeniem zakresu pracy normalnej tranzystora jest zakres nasycenia. Jak pamiętamy, w zakresie tym, podobnie jak w zakresie odcięcia, tranzystor również nie pełni funkcji wzmacniacza. W układzie OB granicę między zakresem pracy normalnej a zakresem nasycenia w sposób naturalny wyznacza napięcie wyjściowe UCB = 0, czyli oś prądu IC na charakterystyce wyjściowej. W zakresie pracy normalnej napięcie UCB polaryzuje zaporowo złącze B-C, a w stanie nasycenia, mając przeciwny znak, polaryzuje to złącze w kierunku przewodzenia. W układzie OE z kolei, granicy w postaci napięcia UCB = 0 nie widać bezpośrednio na polu charakterystyk wyjściowych, ponieważ na osi napięciowej znajdują się wartości napięcia UCE, które są sumą wartości napięć UBE oraz UCB. Gdyby jednak na charakterystyce zaznaczyć punkty związane z takimi napięciami UCE, dla których napięcie UCB = 0, to okazałoby się, że układają się one wzdłuż paraboli, wyznaczając granicę między zakresem pracy normalnej a zakresem nasycenia. Okazuje się, że podobnie jak prąd zerowy, tak i napięcie na zaciskach C-E nie może spaść poniżej pewnej charakterystycznej wartości, nazywanej napięciem nasycenia i oznaczanej przez UCE sat (ang. saturation). Ktoś mógłby jednak stwierdzić, że przecież można by wymusić napięcie UCE = 0, np. przez zwarcie obu zacisków. Owszem, można to uzyskać, jeśli rozważa się tranzystor jako element samodzielny. Sens napięcia nasycenia jest jednak ściśle związany z obwodem zewnętrznym, w którym pracuje tranzystor.
236
7. Tranzystor bipolarny
Z powodu ograniczeń, czy raczej zależności między wielkościami prądu i napięcia, które wprowadza obwód zewnętrzny, napięcie UCE nie może przyjmować dowolnie małych ani dowolnie dużych wartości, podobnie zresztą jak prąd IC, co bezpośrednio wynika z ich wzajemnego związku wymuszonego przez obwód zewnętrzny. Uczynimy w tym miejscu małą dygresję na temat punktu pracy tranzystora pracującego w określonym obwodzie. W wyjściowym obwodzie zewnętrznym tranzystora (rysunek 7.29a), oprócz zacisków kolektora i emitera, generalnie wyróżnia się również element obciążający wyjście, tu w postaci rezystancji obciążenia RL oraz źródło zasilania obwodu wyjściowego, tu napięcie UCC. Zależność prądu IC i napięcia UCE w takim obwodzie opisana jest równaniem UCC = UCE + IC · RL
(7.9)
wynikającym z II prawa Kirchhoffa dla oczka napięciowego i ma postać zależności liniowej, którą w polu charakterystyk prądowo-napięciowych przedstawia się jako prostą obciążenia (por. rysunek 1.9). Obwód zewnętrzny wprowadza w ten sposób ograniczenie na możliwe wartości prądu i napięcia, które jeśli muszą się zmienić, mogą to zrobić jedynie według takiej liniowej zależności. Inaczej mówiąc, punkt pracy tranzystora, określony przez napięcie UCE i prąd IC, będzie się zawsze znajdował na prostej obciążenia. Do wyznaczenia położenia tej prostej niepotrzebna jest znajomość charakterystyk tranzystora, gdyż, jak wynika z powyższej zależności, określone ono jest jedynie przez wartości elementów zewnętrznych. Wykreślając tę prostą w polu charakterystyk wyjściowych tranzystora, można zauważyć, że przechodzi ona przez dwa charakterystyczne punkty leżące na osiach układu współrzędnych. Ich położenie ma prostą interpretację elektrotechniczną. Jeden z tych punktów, leżący na osi prądowej, określa wartość prądu płynącego w tym obwodzie przy zerowym napięciu UCE. Jego wartość otrzymujemy, podstawiając do powyższej zależności napięcie UCE = 0. Otrzymujemy wówczas prąd o wartości IC = UCC /RL, która jest teoretycznie największą możliwą wartością prądu w tym obwodzie. Drugi z tych punktów, leżący na osi napięciowej, określa wartość napięcia na zaciskach
Rys. 7.29. Obwód pracy statycznej tranzystora bipolarnego (a) oraz prosta obciążenia na tle charakterystyk wyjściowych (b)
7.4. Praca statyczna
237
C-E przy zerowej wartości prądu kolektora IC. Ponieważ przy IC = 0 prąd w obwodzie nie płynie, więc również żadne napięcie nie odłoży się na rezystancji RL, a wówczas napięcie między zaciskami C-E będzie maksymalne i równe napięciu zasilania, tzn. UCE = UCC. Jak już wspomniano, prosta obciążenia wyznacza możliwe wartości prądu IC oraz napięcia UCE w tym obwodzie. Określone położenie punktu pracy na prostej obciążenia wyznaczane jest przez punkt przecięcia się tej prostej z daną charakterystyką wyjściową tranzystora. Ponieważ w danej chwili prąd bazy IB przyjmuje tylko jedną wartość, jednoznacznie wyznacza on jedną charakterystykę wyjściową z całej ich rodziny. Jej punkt przecięcia się z prostą obciążenia jest punktem pracy tranzystora (rysunek 7.29b) (por. metodą przecięcia charakterystyk z punktu 3.2). Jeśli teraz z jakiegoś powodu, np. w wyniku zmiany prądu bazy, zmianie musiałby ulec prąd IC, to zgodnie z prostą obciążenia odpowiedniej zmianie musiałoby również ulec napięcie UCE. Tak więc każda zmiana jednej z wielkości pociąga za sobą określoną zmianę drugiej wielkości – zawsze zgodnie z prostą obciążenia. W takim razie łatwo teraz będzie zrozumieć, dlaczego napięcie nasycenia określa najmniejsze możliwe napięcie na zaciskach C-E tranzystora. W miarę wzrostu prądu bazy punkt pracy tranzystora przemieszcza się po prostej obciążenia w stronę większych prądów IC i mniejszych napięć UCE. Dla pewnej wartości prądu bazy (tu – IB = 12 µA) punkt pracy tranzystora znajduje się na paraboli wyznaczającej granicę między zakresem pracy normalnej a zakresem nasycenia (punkt A), co oznacza, że tranzystor w tym przypadku również znajduje się na granicy tych dwóch stanów (napięcie UCB = 0). Zwiększenie prądu bazy (np. do 15 µA) wprowadza tranzystor w stan nasycenia (UCB w kierunku przewodzenia), w którym to stanie zmiany prądu kolektora w funkcji prądu bazy nie są już liniowe, co powoduje niewielki tylko wzrost prądu kolektora i jednocześnie niewielkie zmniejszenie napięcia UCE (punkt B). Kolejne zwiększenie prądu bazy (np. do 20 µA) spowoduje pogłębienie się stanu nasycenia i podobnie, nieznaczne zwiększenie prądu kolektora i zmniejszenie napięcia UCE (punkt C). Jak widać, dla tej wartości prądu bazy napięcie UCE przyjmuje najmniejszą wartość, która mimo dalszego zwiększania prądu bazy (np. do 25 µA) nie powoduje już zmian napięcia UCE ani zmian prądu kolektora (kolejne charakterystyki nakładają się na siebie w tym punkcie, nie wywołując zmiany położenia punktu pracy). To minimalne napięcie UCE jest właśnie napięciem nasycenia UCE sat. Często też definiuje się napięcie UCE sat', które oznacza takie napięcie UCE przy danym prądzie bazy, przy którym tranzystor znajduje się na granicy zakresu pracy normalnej i zakresu nasycenia (np. punkt A dla IB = 12 µA), czyli przy UCB = 0, tzn. przy UCE = UBE. Wartości napięcia nasycenia oraz prądu zerowego tranzystora mają duże znaczenie dla pracy tranzystora w roli klucza elektronicznego. Jak wiadomo, dobry klucz powinien charakteryzować się zerowym spadkiem napięcia na jego zaciskach w stanie zamknięcia oraz brakiem przepływu przez niego prądu w stanie otwarcia. Tranzystor niestety nie spełnia tak rygorystycznie tych wymagań. W stanie zamknięcia, czyli w nasyceniu, minimalne napięcie na zaciskach klucza tranzystorowego wynosi co najmniej UCE sat, natomiast w stanie otwarcia, czyli w zakresie odcięcia, przez klucz tranzystorowy będzie jednak płynął prąd zerowy, np. ICEO.
238
7.5.
7. Tranzystor bipolarny
Praca dynamiczna Podobnie jak w przypadku złącza P-N, również tranzystor bipolarny może pracować dynamicznie, zarówno nieliniowo, jak i liniowo. Praca nieliniowa tranzystora wiąże się w zasadzie przede wszystkim z pracą w roli klucza elektronicznego, który za pomocą sygnału sterującego może być włączany lub wyłączany, tzn. może przechodzić w stan przewodzenia, w którym charakteryzuje się małą rezystancją oraz w stan nieprzewodzenia, w którym charakteryzuje się z kolei dużą rezystancją. Jest to więc w zasadzie praca dwustanowa, która przysłużyła się budowie coraz mniejszych i bardziej złożonych układów logicznych. Z takim jego zastosowaniem, na którym opiera się cała dziedzina elektroniki cyfrowej, Czytelnik zapozna się w ostatniej części książki. Tu zostaną wyjaśnione zjawiska związane z pracą dwustanową tranzystora. Z kolei praca liniowa (małosygnałowa) dotyczy pracy tranzystora jako wzmacniacza sygnałów zarówno stałych, jak i zmiennych. O tej roli tranzystora wspomnieliśmy już wcześniej, a szerszą wiedzę na ten temat zdobędzie Czytelnik w następnej części książki. Tutaj podamy jedynie zasady pracy małosygnałowej tranzystora oraz związane z nią elektryczne modele zastępcze i parametry. Praca dynamiczna nieliniowa (impulsowa) Wspomniana dwustanowa praca tranzystora wiąże się z przełączaniem tranzystora między dwoma wspomnianymi stanami. Stanem nieprzewodzenia będzie stan zatkania tranzystora, gdyż wówczas oba złącza spolaryzowane są zaporowo i przedstawiają sobą dużą rezystancję. Z kolei stanem przewodzenia będzie stan nasycenia, gdyż w stanie tym, jak pamiętamy, oba złącza są spolaryzowane w kierunku przewodzenia i przedstawiają sobą małą rezystancję. Zatem taka dwustanowa praca będzie polegała na pobudzaniu tranzystora sygnałami o nagłych zmianach i w takim zakresie ich wartości, że zmianie ulegać będzie stan pracy tranzystora, inaczej mówiąc, tranzystor będzie przełączany między dwoma zakresami pracy. Ze względu na tak duże zmiany sygnałów pracę tę określamy mianem pracy wielkosygnałowej, czyli nieliniowej, a z powodu nagłych zmian sygnałów definiujemy ją jako pracę impulsową. Z takim rodzajem pracy zapoznaliśmy się już w przypadku złącza P-N i wiemy, że wiąże się ona z procesami przejściowymi wynikającymi ze zmian ładunków w odpowiednich obszarach złącza P-N. A ponieważ, jak pokazaliśmy, tranzystor składa się z dwóch złączy P-N, to zjawiska, które zachodzą wówczas w tranzystorze, będą praktycznie takie same jak w przypadku przełączania złącza P-N. Opiszemy tu proces przełączania tranzystora działającego w konkretnym obwodzie elektrycznym. Przyjmijmy, że tranzystor typu N-P-N, pracujący w układzie wspólnego emitera, będzie pobudzany z generatora napięcia prostokątnego eg, podłączonego w obwodzie wejściowym między bazę a emiter przez rezystor RB, przy czym wartości szczytowe napięcia generatora to –ER oraz +EF. Z kolei obwód wyjściowy zasilany będzie ze źródła napięcia stałego +UCC poprzez dołączoną do kolektora rezystancję obciążenia RL, która spełniać będzie funkcję odbiornika mocy lub sygnału wyjściowego (rysunek 7.30).
7.5. Praca dynamiczna
239
Rys. 7.30. Obwód realizujący przełączanie tranzystora bipolarnego
W takiej konfiguracji ujemna wartość –ER napięcia eg generatora oznacza, że tranzystor będzie spolaryzowany do stanu zatkania, gdyż na zaciski bazy i emitera podane będzie napięcie ujemne, co przy tym typie tranzystora oznacza polaryzację zaporową jego złącza E-B, natomiast napięcie UCC ma taki kierunek, że również polaryzuje złącze B-C w kierunku zaporowym. Z kolei przy odpowiednio dużej dodatniej wartości +EF napięcia generatora tranzystor zostanie wprowadzony w stan nasycenia, gdyż oba jego złącza spolaryzowane będą w kierunku przewodzenia. Wynika z tego, że przełączenie tranzystora z jednego stanu do drugiego wiąże się ze zmianą polaryzacji jego obu złączy. Jakie zjawiska wówczas zachodzą oraz jak to kształtuje przebiegi czasowe napięć i prądów, wyjaśniamy poniżej. Należy przy tym zauważyć, że z powodu dużej wartości rezystancji RB w porównaniu z rezystancją złącza E-B spolaryzowanego w kierunku przewodzenia maksymalny prąd bazy iB jest ograniczony od dołu do wartości –ER /RB, a od góry do wartości +EF /RB. Sprawia to, że tak jak w przypadku złącza P-N procesy podczas nagłych zmian napięcia generatora można traktować jako przełączanie prądowe złącza E-B (por. podrozdział 6.4). Załóżmy teraz, że tranzystor znajduje się w stanie ustalonym przy napięciu generatora równym –ER. Oznacza to, że tranzystor znajduje się w zakresie zatkania i jest wyłączony. Niech w pewnej chwili t0 napięcie generatora zmieni się w sposób skokowy z wartości –ER na +EF. Jak wspomnieliśmy, ma to wprowadzić tranzystor w stan nasycenia, czyli włączyć go, polaryzując oba jego złącza w kierunku przewodzenia. Ze względu na spełnienie warunku sterowania prądowego, w chwili t0 prąd bazy zmienia się skokowo z niewielkiej wartości ujemnej na wartość dodatnią +EF /RB (rysunek 7.31a). Zmiana napięcia uBE na kierunek przewodzenia nie następuje jednak natychmiastowo, gdyż, jak pamiętamy, wiąże się to z koniecznością częściowego rozładowania pojemności złączowej, czyli ze zmianą ładunku warstwy zaporowej złącza E-B. A ponieważ prąd bazy rozładowujący ten ładunek jest ograniczony, to upłynąć musi pewien czas, zanim napięcie uBE zmaleje z wartości zaporowej do zera, wyprowadzając tranzystor ze stanu zatkania na granicę stanu aktywnego normalnego (chwila t1), co wyjaśnić też można jako przejście punktu pracy tranzystora z obszaru zatkania do obszaru pracy normalnej (rysunek 7.31b). Czas, w którym się to odbywa, nazywany jest czasem opóźnienia i oznaczany przez td. Po tym czasie dalszy niewielki już wzrost napięcia uBE w kierunku przewodzenia odbywa się na zasadzie opisanej dla przypadku włączania prądowego złącza P-N.
240
7. Tranzystor bipolarny
Rys. 7.31. Wykresy przebiegów czasowych (a) oraz ilustracja przemieszczania się punktu pracy po prostej obciążenia (b) w obwodzie przełączania tranzystora bipolarnego w układzie wspólnego emitera
Jak pamiętamy, spolaryzowane w kierunku przewodzenia złącze E-B powoduje wstrzykiwanie dużej liczby elektronów z obszaru emitera do obszaru bazy, gdzie stają się one nadmiarowym ładunkiem mniejszościowym. Dyfundując przez bazę, elektrony dopływają do warstwy zaporowej złącza B-C i wpadając do niej, są unoszone przez pole elektryczne tej warstwy do obszaru kolektora. Dalej, wypływając z kolektora przez jego zacisk, tworzą w obwodzie wyjściowym tranzystora prąd kolektora iC. Ponieważ do bazy napływa coraz więcej nośników, ich koncentracja w bazie rośnie, zmienia się też ładunek nośników nadmiarowych bazy, co określamy jako ładowanie pojemności dyfuzyjnej tranzystora. Większa koncentracja nośników mniejszościowych w bazie powoduje jednocześnie wzrost prądu unoszenia elektronów przez warstwę zaporową złącza B-C, a więc i wzrost prądu kolektora. Jak widać na schemacie z rysunku 7.30, coraz większy prąd kolektora, przepływając przez rezystancję obciążenia, powoduje odkładanie się na niej coraz większego
241
7.5. Praca dynamiczna
napięcia. A ponieważ zgodnie z prostą obciążenia napięcie wyjściowe uCE tranzystora jest zależne od prądu kolektora iC według zależności uCE = UCC – iC · RL ,
(7.10)
to, jak widać na rysunku 7.31b, w miarę wzrostu prądu iC wartość napięcia uCE maleje i punkt pracy tranzystora przemieszcza się przez obszar pracy normalnej w stronę obszaru nasycenia. A ponieważ napięcie uCE jest sumą napięć uBE oraz uCB, więc przy założeniu stałego już praktycznie napięcia uBE, zmniejszanie się napięcia uCE pociąga za sobą zmniejszanie się napięcia uCB. Zatem w miarę wzrostu prądu kolektora iC napięcie na spolaryzowanym zaporowo złączu B-C maleje i po pewnym czasie osiąga wartość równą zeru, wyprowadzając tranzystor z zakresu pracy normalnej na granicę zakresu nasycenia (chwila t 2). Już w tym momencie tranzystor można traktować jako włączony, choć prąd kolektora jeszcze nieznacznie wzrośnie, wprowadzając tranzystor w stan nasycenia. W stanie tym zarówno złącze E-B, jak i złącze C-B są spolaryzowane w kierunku przewodzenia i powodują wstrzykiwanie elektronów do bazy równocześnie z emitera i z kolektora, co skutkuje gromadzeniem się tam dodatkowego ładunku nadmiarowego, nazywanego ładunkiem przesterowania. Dopiero w chwili t3 tranzystor osiąga stan ustalony i proces jego włączania można uznać za zakończony. Prąd kolektora przyjmuje wtedy wartość maksymalną wynikającą z prostej obciążenia, a napięcie wyjściowe uCE wartość minimalną, równą wartości napięcia nasycenia UCE sat. Ponieważ napięcie uCE jest sumą napięć na obu złączach, ich przeciwne kierunki powodują, że napięcie uCE, będąc ich różnicą, jest dosyć małe. Typowe wartości dla tranzystora krzemowego to ok. 0,2 V. Czas, w którym tranzystor znajduje się w stanie aktywnym normalnym, czyli czas od chwili t1 do chwili t2, nazywany jest czasem narastania i oznaczany jest przez tr (ang. rise). Całkowity czas włączania tranzystora określany jest sumą czasów td oraz tr i oznaczany przez tON. W przypadku wyłączania tranzystora można powiedzieć, że wszystkie procesy zachodzą odwrotnie niż w trakcie jego włączania. Tranzystor ze stanu włączenia, czyli nasycenia, ma przejść do stanu wyłączenia, czyli stanu zatkania. Tym razem zmianie ulec muszą polaryzacje obu złączy tranzystora z zakresu przewodzenia na zakres zaporowy. Przyjmijmy, że w chwili t4 nagłej zmianie ulega napięcie generatora eg z wartości +EF do wartości –ER. Wówczas, podobnie jak poprzednio, z warunku sterowania prądowego wynika, że prąd bazy iB zmienia gwałtownie swoją wartość z +EF /RB na –ER /RB. To powoduje, że ładunek bazy zaczyna być usuwany przez złącze emiterowe (por. przełączanie prądowe złącza P-N) oraz częściowo przez złącze kolektorowe (wciąż zachodzi tam unoszenie nośników z bazy do kolektora przez pole elektryczne warstwy zaporowej złącza B-C). Dopóki ładunek przesterowania nie zostanie całkowicie usunięty, złącze B-C będzie wciąż spolaryzowane w kierunku przewodzenia, a prąd kolektora będzie utrzymywał się na swoim maksymalnym poziomie. Dopiero gdy wszystkie ładunki przesterowania zostaną z bazy usunięte, czyli częściowo rozładowana zostanie pojemność dyfuzyjna (chwila t5), napięcie na złączu B-C spada do zera i tranzystor wychodzi ze stanu nasycenia. Czas, w jakim się to odbywa, nazywany jest czasem magazynowania i oznaczany przez ts.
242
7. Tranzystor bipolarny
W miarę dalszego usuwania pozostałych nośników nadmiarowych z bazy (dalszego rozładowywania pojemności dyfuzyjnej) zarówno przez złącze E-B, jak i przez złącze B-C (ciągle unoszące nośniki przez warstwę zaporową) zmniejsza się koncentracja tych nośników w bazie, a przez to też ich intensywność unoszenia przez warstwę zaporową złącza B-C, sprawiając, że prąd kolektora zaczyna maleć. Zmniejszanie się koncentracji nośników nadmiarowych w bazie powoduje również zmniejszanie się napięcia na złączu E-B, które w chwili t6 osiąga wartość równą zero, wprowadzając tranzystor w stan zatkania, w którym można traktować go jako wyłączony. Czas, w jakim tranzystor przebywał w stanie aktywnym normalnym, czyli czas między chwilami t5 i t6, nazywany jest czasem opadania i oznaczany jest przez tf , a całkowity czas wyłączania tranzystora określony jest jako suma czasów ts oraz tf i oznaczany przez tOFF. W końcowej fazie wyłączania prąd bazy zaczyna maleć, powodując jedynie ponownie naładowanie się pojemności złączowej złącza E-B, umożliwiające ustalenie się warunków pracy zaporowej tego złącza, co następuje w chwili t7. Jak widać, procesy przeładowywania pojemności tranzystora wiążą się z opóźnieniami w reakcji napięć i prądów na sygnały sterujące. Sprawia to, że tranzystor nie przełącza się natychmiastowo, co ogranicza szybkość, a tym samym i częstotliwość jego pracy w roli klucza elektronicznego. Warto wspomnieć, że czas włączania tON, jako związany z procesem przeładowywania odpowiednich pojemności w tranzystorze, zależeć będzie od prądu ładowania. Prądem tym jest prąd bazy, więc to jego wartość decyduje o czasie włączania. Można się oczywiście domyślić, że im większy jest ten prąd, tym szybciej tranzystor się włączy. Z drugiej strony, czas wyłączania tOFF zależy również od czasu przeładowywania pojemności tranzystora, czyli od prądu bazy w fazie wyłączania oraz od ilości ładunku zgromadzonego w bazie tranzystora, gdy pracował w stanie nasycenia. Podobnie jak poprzednio, im większy jest prąd rozładowania pojemności, tym krótszy będzie czas wyłączania. Jeśli zaś chodzi o zależność czasu wyłączania od ilości ładunku nadmiarowego w bazie, to należy pamiętać, że na ilość tę wpływa wartość prądu bazy płynącego w stanie włączenia, przy czym im mniejszy będzie wówczas prąd bazy, tym mniej ładunku będzie zgromadzonego w bazie, a więc tym szybciej będzie on usunięty z bazy podczas wyłączania, ale zarazem im mniejszy jest prąd bazy, czyli prąd ładowania, tym wolniej następuje włączanie tranzystora. Niestety, z kolei zwiększenie prądu bazy podczas włączania spowoduje oczywiście szybsze włączenie się tranzystora, ale również zgromadzenie większej ilości ładunku w bazie, co spowolni później proces jego wyłączania. Należy zaznaczyć, że jeśli podczas włączania tranzystora nie wejdzie on do stanu nasycenia, to w bazie nie zgromadzi się ładunek przesterowania, a więc faza magazynowania oznaczona czasem ts, która jest związana z jego usuwaniem, nie będzie istniała, co sprawi, że tranzystor wyłączy się szybciej. Podsumowując dynamiczną pracę nieliniową, należy stwierdzić, że za zjawiska opóźnienia występujące podczas takiej pracy w tranzystorze odpowiadają w zasadzie procesy zmiany ładunków w konkretnych obszarach złącza P-N, co tłumaczymy występowaniem pojemności dyfuzyjnych oraz złączowych.
7.5. Praca dynamiczna
243
Rys. 7.32. Elektryczny schemat zastępczy Ebersa-Molla tranzystora bipolarnego dla nieliniowej pracy dynamicznej
W tym miejscu można zaproponować elektryczny schemat zastępczy tranzystora dla pracy dynamicznej nieliniowej w postaci znanego nam już modelu Ebersa-Molla (rysunek 7.9d) uzupełnionego jedynie odpowiednimi pojemnościami odpowiadającymi za zachodzące zjawiska. Schemat taki z uwzględnieniem pojemności złączowej Cje oraz dyfuzyjnej Cde złącza E-B, a także pojemności złączowej Cjc oraz dyfuzyjnej Cdc złącza B-C, przedstawiony jest na rysunku 7.32. W razie potrzeb można go jeszcze uzupełnić pominiętymi tu rezystancjami RBB ', REE ' oraz RCC '. Praca dynamiczna liniowa (małosygnałowa) Jak pamiętamy z rozdziału 6 dotyczącego złącza P-N, praca liniowa związana jest z pracą, w której element jest pobudzany na tyle małymi sygnałami, że charakterystyki nieliniowe tego elementu w odpowiednio małych zakresach zmian sygnałów uznać można za liniowe, a co za tym idzie element taki też można traktować jako liniowy. Założenie to znakomicie upraszcza analizę obwodów elektrycznych złożonych z nieliniowych elementów, gdyż pozwala zastosować dobrze opracowane metody analizy obwodów liniowych. Wspomnieliśmy również o tym, że w przypadku pracy tranzystora w roli wzmacniacza wygodnie jest analizować jego działanie oraz parametry, przedstawiając go w postaci modelu czwórnikowego. Należy przy tym pamiętać, że opis czwórnikowy jest wyłącznie opisem końcówkowym, który nie odnosi się do konkretnych struktur czy obszarów w tranzystorze, ale przedstawia go wyłącznie z punktu widzenia napięć i prądów na końcówkach czy zaciskach (czyli nie wnikając w to, co znajduje się wewnątrz tranzystora i z jakich zjawisk to wynika). Jest to zgoła odmienne podejście od modelowania fizycznego, które odwzorowuje zjawiska i struktury występujące w tranzystorze. Tranzystor jako wzmacniacz pracujący małosygnałowo jest opisywany za pomocą czwórnika liniowego (por. punkt 2.7). Jak wspomnieliśmy, z punktu widzenia
244
7. Tranzystor bipolarny
Rys. 7.33. Schematyczne przedstawienie czwórnika liniowego
końcówkowego interesować nas będą wzajemne zależności między wielkościami wejściowymi u1 i i1 oraz wyjściowymi u2 i i2 (rysunek 7.33). Jak pamiętamy z poprzedniej części książki, w czwórnikach liniowych wielkości te związane są ze sobą zależnościami liniowymi. Ogólna teoria czwórników liniowych podaje kilka możliwych opisów takich zależności. W praktyce korzysta się przeważnie z trzech z nich, zapisanych w postaci układów równań – równania impedancyjne
u1 = z11 ⋅ i1 + z12 ⋅ i2 u2 = z21 ⋅ i1 + z22 ⋅ i2
– równania admitancyjne
i1 = y11 ⋅ u1 + y12 ⋅ u2 i2 = y21 ⋅ u1 + y22 ⋅ u2
– równania mieszane (hybrydowe)
u1 = h11 ⋅ i1 + h12 ⋅ u2 i2 = h21 ⋅ i1 + h22 ⋅ u2
lub odpowiadających im równań macierzowych – równania impedancyjne
u1 z11 u = z 2 21
z12 i1 ⋅ z22 i2
– równania admitancyjne
i1 y11 i = y 2 21
y12 u1 ⋅ y22 u2
– równania mieszane (hybrydowe)
u1 h11 i = h 2 21
h12 i1 ⋅ h22 u2
Widać zatem, że właściwości tranzystora pracującego liniowo mogą zostać określone za pomocą jedynie czterech parametrów macierzowych: impedancyjnych z, admitancyjnych y lub mieszanych h. Należy wyraźnie przypomnieć, że wielkości u1, i1, u2 oraz i2 wyrażają wyłącznie wartości składowych zmiennych napięć i prądów o małych amplitudach, które podczas pracy małosygnałowej „nałożone” są na składowe stałe służące ustaleniu punktu pracy tranzystora. Jak widać z powyższych równań, niemożliwe jest niezależne wyznaczenie wszystkich czterech parametrów danej macierzy, gdyż każdy z nich zależy od jednego z pozostałych. Przykładowo, pierwsze równanie układu równań impedancyjnych, czyli u1 = z11 · i1 + z12 · i2
245
7.5. Praca dynamiczna
wiąże ze sobą dwa parametry, z11 oraz z12. Jeśli postanowimy wyznaczyć z tego równania np. parametr z11, to będzie on zależny od parametru z12 w następujący sposób u − z ⋅i z11 = 1 12 2 . i1 Wynika z tego, że do wyznaczenia parametru z11 potrzebna jest znajomość parametru z12, z kolei analogicznie, do wyznaczenia parametru z12, potrzebna jest znajomość parametru z11. W celu wyznaczenia tych parametrów przyjmuje się, że jedna z wielkości (prąd i lub napięcie u), przez które mnożony jest dany parametr, jest równa zeru, a wówczas odpowiedni składnik wyrażenia ulega wyzerowaniu i nie wpływa już na wartość wyznaczanego parametru. W naszym przykładzie, jeśli założymy, że wyznaczenia parametru z11 dokonujemy przy zerowej wartości prądu i2, to składnik z12 · i2 = 0 i wyrażenie na z11 sprowadza się do postaci z11 =
u1 . i1
Analogiczne założenia przyjmuje się w celu wyznaczenia pozostałych parametrów każdego rodzaju macierzy. Najczęściej wykorzystywanymi zestawami parametrów opisującymi tranzystory są parametry admitancyjne i mieszane, a to ze względu na łatwość praktycznej realizacji warunków pomiarowych w postaci wyzerowania odpowiednich napięć i prądów. W przypadku tranzystora bipolarnego wykorzystuje się zestaw parametrów macierzy mieszanej h. Poszczególne parametry tej macierzy zdefiniowane są następująco h11 =
u1 i1 u = 0 2
h12 =
u1 u2 i = 0 1
h 21 =
i2 i1 u = 0 2
h 22 =
i2 . u2 i = 0 1
Każdy z tych parametrów ma swoją określoną nazwę, przy czym, ze względu na realizację warunków i = 0 oraz u = 0, wśród nich wyróżnia się parametry rozwarciowe oraz parametry zwarciowe. I tak: – h11 jest to zwarciowa impedancja wejściowa, wyrażana w [Ω], – h12 jest to rozwarciowy współczynnik oddziaływania zwrotnego, wyrażany w [V/V], – h21 jest to zwarciowy współczynnik wzmocnienia prądowego, wyrażany w [A/A], – h22 jest to rozwarciowa admitancja wyjściowa, wyrażana w [S]. Poszczególne układy równań można przedstawić za pomocą równoważnych im obwodów elektrycznych. Na rysunku 7.34 zamieszczono schemat elektryczny opisywany układem równań mieszanych. W przypadku opisu tranzystora za pomocą równań mieszanych należy uwzględnić różnice wynikające z odmiennych układów połączeń tranzystora (OE, OB, OC). Wówczas w każdym z układów połączeń inne wielkości są wielkościami wejściowymi, a inne wyjściowymi. W przypadku tranzystora pracującego w układzie
246
7. Tranzystor bipolarny
Rys. 7.34. Elektryczny schemat zastępczy czwórnika liniowego równoważny zestawowi równań mieszanych
wspólnego emitera napięcie wejściowe u1 = ube, prąd wejściowy i1 = ib, napięcie wyjściowe u2 = uce, a prąd wyjściowy i2 = ic. Z tego względu parametry mieszane wyrażają się następującymi wzorami h11e =
ube u i i h12e = be h 21e = c h 22e = c , ib u = 0 uce i = 0 ib u = 0 uce i = 0 b b ce ce
(7.11)
a schemat zastępczy opisany nimi przedstawiono na rysunku 7.35a. Z kolei w przypadku tranzystora pracującego w układzie wspólnej bazy napięcie wejściowe u1 = ueb, prąd wejściowy i1 = ie, napięcie wyjściowe u2 = ucb, a prąd wyjściowy i2 = ic. Z tego względu parametry mieszane wyrażają się następująco h11b =
ueb u i i . h12b = eb h 21b = c h 22b = c ie u = 0 ucb i = 0 ie u = 0 ucb i = 0 e e cb cb
(7.12)
Schemat zastępczy opisany tymi parametrami pokazano na rysunku 7.35b. Analogicznie przedstawiają się wzory dla tranzystora w układzie wspólnego kolektora, dlatego nie będą już tutaj podawane. Warto wspomnieć, że parametry h21b i h21e są odpowiednikami stałoprądowych parametrów a i b poznanych wcześniej przy okazji omawiania pracy statycznej tranzystora. Tak więc h21b ≈ 0,99, a h21e >> 1.
Rys. 7.35. Elektryczne schematy zastępcze tranzystora bipolarnego równoważne zestawom równań mieszanych dla układu wspólnego emitera (a) oraz układu wspólnej bazy (b)
247
7.5. Praca dynamiczna
Warto również wspomnieć, że istnieją związki między wartościami poszczególnych parametrów macierzowych h. A ponieważ najbardziej popularnym układem połączeń jest układ wspólnego emitera, to często podaje się jedynie wartości parametrów macierzy h w tym układzie połączeń, a wartości parametrów pozostałych macierzy h wyznacza się na podstawie odpowiednich związków podanych w tabeli 7.1. Tab. 7.1. Związki między parametrami macierzy mieszanych w układach połączeń WB i WC, a przetwornikami w układzie WE WE
WB h 11b =
h11
h11e
h12
h12e
h21
h21e
h 21 b = −
h22
h22e
h 22 b =
h 12 b =
WC h 11e
1+ h 21e
h 11e h 22 e 1 + h 21e
− h 12 e
h 21e 1 + h 21e h 22 e
1 + h 21e
h 11c = h 11e h 12 c = 1 − h 12 e
(
h 21c = − 1 + h 21e
)
h 22 c = h 22 e
Przykładowo, dla popularnego tranzystora BC107 producent w danych katalogowych podaje: h11e = 3 Ωk, h12e = 0,9 · 10–4 V/V, h21e = 200 A/A oraz h22e = 30 µS. Korzystając z przedstawionych wzorów, można z kolei wyznaczyć wartości parametrów h dla układu wspólnej bazy, otrzymując: h11b = 15 Ω, h12b = 3,5 · 10–4 V/V, h21b = –0,995 A/A oraz h22b = 0,15 µS. Szerszego wyjaśnienia wymaga jeszcze sposób praktycznej realizacji warunków zwarciowych oraz rozwarciowych przy pomiarze odpowiednich parametrów. Sens określenia „zwarciowy” lub „rozwarciowy” oznacza, że musimy zapewnić takie warunki pracy na wejściu i wyjściu czwórnika, aby spowodować, że odpowiednie składowe zmienne zostaną wyzerowane (wytłumione). Jak tego dokonać w rzeczywistym układzie pomiarowym? Posłużymy się tu przykładem tranzystora pracującego w układzie wspólnego emitera (rysunek 7.36a). Warunek uce = 0 oznacza wyzerowanie napięcia uce. Wydaje się, że najprostszym sposobem zrealizowania tego warunku jest zwykłe zwarcie zacisków emitera i kolektora tranzystora. Jednak nie należy zapominać, że wszelkie napięcia i prądy w obwodzie elementu pracującego pracą małosygnałową składają się z dwóch rodzajów składowych – ze składowych stałych polaryzujących tranzystor do zadanego punktu pracy oraz ze składowych zmiennych o niewielkich amplitudach będących sygnałami wzmacnianymi (sterującymi lub niosącymi informację). Zwykłe zwarcie zacisków tranzystora spowoduje, poza pożądanym przez nas wyzerowaniem z całkowitego napięcia uCE składowej zmiennej uce, również niepożądane wyzerowanie składowej stałej UCE. Innymi słowy, tranzystor przestanie być zasilany ze źródła napięcia UCC i jego punkt pracy zupełnie nie będzie odpowiadał zadanemu. Jak zatem sprawić, aby wyzerowaniu uległa jedynie składowa zmienna, a składowa stała pozostała niezmieniona? W tym celu do zacisków kolektora i emitera należy
248
7. Tranzystor bipolarny
Rys. 7.36. Schemat układu do pomiaru parametrów mieszanych tranzystora bipolarnego pracującego w układzie wspólnego emitera (a), sposób realizacji warunku zwarcia na wyjściu (b) oraz sposób realizacji warunku rozwarcia na wejściu (c)
podłączyć kondensator o odpowiednio dużej pojemności (rysunek 7.36b). Jak pamiętamy z części pierwszej, impedancja kondensatora jest zależna od częstotliwości w następujący sposób ZC =
1 , ωC
z czego wynika, że dla sygnałów stałych, czyli dla w = 0, impedancja ZC kondensatora jest nieskończenie duża, natomiast dla sygnałów zmiennych w zależności od w i C może być stosunkowo mała. Jeśli dobierze się tak częstotliwość sygnałów pomiarowych i pojemność kondensatora, że impedancja kondensatora dla sygnałów pomiarowych będzie przynajmniej o rząd wielkości mniejsza od impedancji wyjściowej tranzystora, to okaże się, że z punktu widzenia wyjścia tranzystora kondensator stanowi prawie doskonałe zwarcie dla składowej zmiennej napięcia uce, natomiast dla składowej stałej UCE stanowi rozwarcie, innymi słowy, spowoduje wygaszenie składowej zmiennej bez modyfikowania składowej stałej. W ten sposób zrealizowany zostanie warunek zwarcia na wyjściu dla sygnałów zmiennych. Analogiczne rozumowanie można przeprowadzić w przypadku warunku rozwarciowego, który zakłada, że ib = 0, co oznacza rozwarcie w obwodzie wejściowym, powodujące, że składowa zmienna prądu bazy nie będzie płynęła. Ponownie, nie można realizować klasycznego rozwarcia obwodu bazy, gdyż spowoduje to również odcięcie składowej stałej IB polaryzującej tranzystor do odpowiedniego punktu pracy. Aby uzyskać selektywne rozwarcie, należy w obwód bazy, szeregowo ze źródłem napięcia zmiennego, wstawić cewkę o odpowiedniej indukcyjności (rysunek 7.36c). Jak pamiętamy impedancja cewki wynosi ZL = wL
7.5. Praca dynamiczna
249
co oznacza, że dla sygnałów stałych impedancja cewki wynosi zero, czyli że cewka stanowi zwarcie (jest po prostu przewodnikiem), natomiast dla sygnałów zmiennych może stanowić tak dużą impedancją, że może być traktowana jako rozwarcie. Wówczas włączona w obwód wejściowy cewka spowoduje odcięcie składowej zmiennej prądu bazy ib, bo będzie dla niej dużą impedancją, za to pozwoli na przepływ składowej stałej IB polaryzującej tranzystor, gdyż jest dla niej zwarciem (przewodnikiem). W ten sposób zrealizowany zostanie warunek rozwarcia na wejściu dla sygnałów zmiennych (również prawie idealnego). Opisane do tej pory modele zastępcze tranzystora bipolarnego były modelami końcówkowymi. Obecnie przedstawimy opis tranzystora bipolarnego za pomocą modeli fizycznych. Modele takie przedstawione już zostały dla pracy statycznej oraz dla nieliniowej pracy dynamicznej tranzystora. Wiadomo, że dla pracy dynamicznej małosygnałowej model taki powstaje poprzez linearyzację modelu wielkosygnałowego w określonym punkcie pracy. Uczynimy jednak wyjątek i model taki skonstruujemy w inny sposób, taki, który pozwoli na lepsze zrozumienie sensu fizycznego każdego elementu tego modelu. Wyjdziemy ze znanego nam już najprostszego przedstawienia tranzystora bipolarnego w postaci połączonych ze sobą dwóch złączy P-N w konfiguracji wspólnej bazy (rysunek 7.37a). Jeśli teraz każde ze złączy zastąpimy odpowiadającym mu poznanym już przez nas elektrycznym schematem zastępczym dla pracy małosygnałowej przy średnich częstotliwościach, to otrzymamy bardzo uproszczony schemat (rysunek 7.37b).
Rys. 7.37. Geneza modelu zastępczego typu hybryd π tranzystora bipolarnego dla małosygnałowej pracy dynamicznej przy średnich częstotliwościach. Przedstawienie struktury jako połączenia dwóch złączy P-N (a) oraz wynikający z tego elektryczny schemat zastępczy (b)
W schemacie tym możemy wyróżnić rezystancję różniczkową rre reprezentującą rezystancję warstwy zaporowej złącza emiterowego, podobnie rezystancję różniczkową rrc reprezentującą rezystancję warstwy zaporowej złącza kolektorowego, rezystancje szeregowe obszaru typu P złącza emiterowego Rspe, obszaru typu N złą-
250
7. Tranzystor bipolarny
Rys. 7.38. Geneza modelu zastępczego typu hybryd p tranzystora bipolarnego w układzie wspólnej bazy dla pracy małosygnałowej przy średnich częstotliwościach – dalsze rozwinięcie modelu z rysunku 7.37b. Obrócenie elementów rre, rrc, Cje, Cde, Cjc i Cdc (a), przedstawienie pojemności złączowych i dyfuzyjnych jako ich sumy Ceb' i Ccb', a rezystancji szeregowych bazy jako jednej rezystancji rbb' (b), pominięcie rezystancji szeregowych obszarów emitera i kolektora (c), oraz ostateczna postać modelu uwzględniająca normalny wpływ złącza emiterowego na złącze kolektorowe w postaci sterowanego źródła prądowego, a także wpływ złącza kolektorowego na złącze emiterowe w postaci konduktancji sprzężenia zwrotnego gec (d)
7.5. Praca dynamiczna
251
cza emiterowego Rsne, obszaru typu N złącza kolektorowego Rsnc i obszaru typu P złącza kolektorowego Rsne, a także pojemności złączową Cje i dyfuzyjną Cde złącza emiterowego oraz złączową Cjc i dyfuzyjną Cdc złącza kolektorowego. Choć model ten obowiązuje jedynie dla zakresu zatkania, gdy oba złącza na siebie nie oddziałują, jest to jednak dobry punkt wyjścia do stworzenia pełnego modelu zastępczego. W tym celu nieznacznie przekonfigurujmy położenie elementów tego schematu, tak jak na rysunku 7.38a. Następnie zauważmy, że rezystancje szeregowe Rsne oraz Rsnc są w zasadzie rezystancjami tego samego obszaru w strukturze tranzystora, a mianowicie bazy. Pamiętamy, że rezystancja bazy jest dosyć nietypową rezystancją, mającą charakter rozłożony, a mimo to, na schemacie dla pracy statycznej, przedstawiona została w postaci jednego elementu skupionego, przy założeniu, że jeden z jej zacisków dołączony jest do pewnego wirtualnego punktu b' wewnątrz bazy. Teraz uczyńmy to samo i tę rozłożoną rezystancję bazy, w skład której wchodzą Rsne i Rsnc, potraktujmy jako jedną rezystancję i oznaczmy przez rbb' (rysunek 7.38b). Ponadto przedstawmy pojemności złączową oraz dyfuzyjną dla każdego złącza w postaci jednej pojemności będącej ich sumą, tzn. Ceb' = Cje + Cde oraz Ccb’ = Cjc + Cdc, a oznaczenia rezystancji rre oraz rrc zamieńmy odpowiednio na oznaczenia konduktancji geb' oraz gcb'. Widać poza tym, że rezystancje Rsne oraz Rsnc odpowiadają za rezystancje szeregowe obszarów obojętnych emitera i kolektora, a ponieważ obszary te są silniej domieszkowane niż obszar bazy, więc rezystancje te mają dużo mniejsze wartości od rezystancji bazy, dlatego można je w pierwszym przybliżeniu w zasadzie pominąć. Otrzymujemy zatem schemat z rysunku 7.38c. Oczywiście schemat ten nadal jest poprawny jedynie dla zakresu odcięcia. Aby miał on również sens dla zakresu pracy aktywnej normalnej, w którym to zakresie tranzystor jest wzmacniaczem, należy uwzględnić jeszcze zjawisko wpływu napięcia wejściowego, czyli ueb’ na prąd wyjściowy ic. Realizuje się to za pomocą sterowanego napięciowo źródła prądowego podłączonego między punkty e oraz b' o wydajności gm · ueb’. Ostatnim krokiem jest uwzględnienie zjawiska modulacji efektywnej szerokości bazy, nazywanego też oddziaływaniem wstecznym, które powoduje, że napięcie wyjściowe ucb' wpływa na prąd wejściowy ie oraz napięcie wejściowe ueb'. Wpływ taki realizuje konduktancja gec dołączona między zaciski emitera i kolektora (rysunek 7.38d). W ten sposób uzyskujemy w pełni funkcjonalny elektryczny schemat zastępczy tranzystora bipolarnego, zwany schematem zastępczym typu „hybryd p”, dla pracy dynamicznej małosygnałowej dla średnich częstotliwości. Oczywiście w przypadku pracy przy małych częstotliwościach na schemacie pomija się pojemności, które przy tych częstotliwościach nie objawiają jeszcze swojego wpływu. Z kolei przy dużych częstotliwościach dochodzi wpływ częstotliwości na pojemności dyfuzyjne oraz rezystancje różniczkowe (tu konduktancje) reprezentujące warstwę zaporową obu złączy. Na koniec podamy nazwy elementów tego schematu oraz definicje pomiarowe niektórych z nich. I tak: – geb' jest konduktancją wejściową z definicji określaną jako pochodna prądu emitera IE po napięciu na złączu emiter-baza UEB', czyli interpretowaną jako nachylenie charakterystyki wejściowej lub, praktycznie, stosunek przyrostu prądu
252
7. Tranzystor bipolarny
–
–
–
– – –
emitera ∆IE do przyrostu napięcia na złączu emiter-baza ∆UEB' przy ustalonej wartości (wygaszonej składowej zmiennej) napięcia wyjściowego UCB'; gcb' jest konduktancją wyjściową z definicji określaną jako pochodna prądu kolektora IC po napięciu na złączu kolektor-baza UCB', czyli interpretowaną jako nachylenie charakterystyki wyjściowej lub, praktycznie, stosunek przyrostu prądu kolektora ∆IC do przyrostu napięcia na złączu kolektor-baza ∆UCB' przy ustalonej wartości (wygaszonej składowej zmiennej) napięcia wejściowego UEB'; gm jest transkonduktancją z definicji określaną jako pochodna prądu kolektora IC (prądu wyjściowego) po napięciu na złączu emiter-baza UEB' (napięciu wejściowym) lub, praktycznie, jako stosunek przyrostu prądu kolektora ∆IC do przyrostu napięcia na złączu emiter-baza ∆UEB' przy ustalonej wartości (wygaszonej składowej zmiennej) napięcia wyjściowego UCB'; gec jest konduktancją sprzężenia zwrotnego z definicji określaną jako pochodna prądu emitera IE (prądu wejściowego) po napięciu na złączu kolektor-baza UCB' (napięciu wyjściowym) lub, praktycznie, jako stosunek przyrostu prądu emitera ∆IE do przyrostu napięcia na złączu kolektor-baza ∆UCB' przy ustalonej wartości (wygaszonej składowej zmiennej) napięcia wejściowego UEB'; Ceb' jest pojemnością wejściową, Ccb' jest pojemnością wyjściową, rbb' jest rezystancją rozproszoną bazy.
Bardzo podobny schemat zastępczy istnieje również dla tranzystora w układzie połączeń wspólnego emitera (rysunek 7.39). Elementy tego schematu mają podobny sens fizyczny jak w schemacie dla układu wspólnej bazy: – gb'e jest konduktancją wejściową z definicji określaną jako pochodna prądu bazy IB po napięciu na złączu emiter-baza UB 'E, czyli interpretowaną jako nachylenie charakterystyki wejściowej lub, praktycznie, stosunek przyrostu prądu bazy ∆IB do przyrostu napięcia na złączu emiter-baza ∆UB 'E przy ustalonej wartości (wygaszonej składowej zmiennej) napięcia wyjściowego UCE, – gce jest konduktancją wyjściową z definicji określaną jako pochodna prądu kolektora IC po napięciu na zaciskach kolektora i emitera UCE, czyli interpretowaną jako nachylenie charakterystyki wyjściowej lub, praktycznie, stosunek przyrostu prądu kolektora ∆IC do przyrostu napięcia na zaciskach kolektora i emitera ∆UCE
Rys. 7.39. Elektryczny schemat zastępczy typu hybryd π tranzystora bipolarnego dla pracy małosygnałowej przy średnich częstotliwościach w układzie wspólnego emitera
253
7.5. Praca dynamiczna
przy ustalonej wartości (wygaszonej składowej zmiennej) napięcia wejściowego UB 'E, – gm jest transkonduktancją z definicji określaną jako pochodna prądu kolektora IC po napięciu na złączu emiter-baza UB 'E (napięciu wejściowym) lub, praktycznie, jako stosunek przyrostu prądu kolektora ∆IC do przyrostu napięcia na złączu emiter-baza ∆UB 'E przy ustalonej wartości napięcia wyjściowego UCE, – gb'c jest konduktancją sprzężenia zwrotnego z definicji określaną jako pochodna prądu bazy IB po napięciu na zaciskach kolektora i emitera UCE (napięciu wyjściowym) lub, praktycznie, jako stosunek przyrostu prądu bazy ∆IB do przyrostu napięcia na zaciskach kolektora i emitera ∆UCE przy ustalonej wartości napięcia wejściowego UB 'E. – Cb'e jest pojemnością wejściową, – Cb'c jest pojemnością wyjściową, – rbb' jest rezystancją rozproszoną bazy. Model hybryd π tranzystora bipolarnego charakteryzuje się dużą dokładnością przy niewielkiej złożoności, łatwością pomiaru parametrów, sporą niezależnością elementów składowych modelu od częstotliwości oraz łatwością wzajemnych przekształceń parametrów schematu zastępczego i parametrów macierzowych czwórnika liniowego. Zakres częstotliwości, w którym omawiany model zachowuje ważność, sięga dziesiątek i setek megaherców. Oczywiście, wraz ze wzrostem częstotliwości dokładność modelu hybryd π maleje, a ustalenie dokładnego zakresu jego stosowalności uzależnione jest od parametrów konkretnego tranzystora. Podobnie jak w przypadku modelu opisanego równaniami mieszanymi i parametrami macierzy h, najczęściej stosuje się model hybryd π tranzystora w układzie wspólnego emitera. Okazuje się, że parametry gm, gb'e, gb'c i gce wchodzące w skład tego modelu można wyznaczyć na podstawie wartości elementów modelu opisanego macierzą he za pomocą następujących zależności: gb ' e = gb ' c =
gm =
g ce = h 22e −
1 − h12e h11e − rbb ' h12e h11e − rbb '
h 21e + h12e h11e − rbb '
1
≈
h11e h12e
≈
≈
h11e h 21e h11e
,
, (7.13) ,
(1 + h 21e − 2h12e ) ⋅ h12e ≈ h h11e − rbb '
22e .
W praktyce często korzysta się z podanych wyżej przybliżeń. Bardzo upraszcza to obliczenia, nie powodując przy tym istotnych błędów. Przybliżenia wynikają z fak-
254
7. Tranzystor bipolarny
tu, że rbb' ma wartość nieprzekraczającą kilkunastu omów i w porównaniu z h11e (rzędu kiloomów) jest praktycznie do pominięcia. Podobnie można pomijać h12e, które ma wartość rzędu 10 – 4 V/V. Między parametrami rezystancyjnymi modelu hybryd π a parametrami macierzy he zachodzą również związki odwrotne: h11e = rbb ' +
gb ' c
h12e = h 21e =
1 1 1 , ≈ rbb ' + ≈ + gb ' e gb ' e gb ' e gb ' c ≈ 0, gb ' c + gb ' e
g g m − gb ' c ≈ m , gb ' e + gb ' c gb ' e
h 22e = g ce +
1 + g m ⋅ rb ' e rb ' e + rb ' c
≈ g ce .
(7.14)
8.
Tranzystor unipolarny (polowy) Tranzystory unipolarne [2, 13, 18] są koncepcyjnie prostszymi elementami niż tranzystory bipolarne. Choć również mogą odgrywać rolę zarówno wzmacniacza, jak i klucza elektronicznego, to ich działanie opiera się na nieco innej zasadzie. W odróżnieniu od tranzystorów bipolarnych, gdzie udział w przepływie prądu biorą oba rodzaje nośników, tzn. większościowe i mniejszościowe, w przepływie prądu w tranzystorach unipolarnych istotne są wyłącznie nośniki jednego rodzaju – większościowe – stąd ich nazwa. A ponieważ w ich przypadku sterowanie prądem wyjściowym odbywa się za pomocą pola elektrycznego, nazywa się je również tranzystorami polowymi i często określa ogólnie skrótem FET (ang. Field-Effect Transistor).
8.1.
Idea działania tranzystorów polowych Idea działania tranzystorów polowych opiera się na bardzo prostej zasadzie, do wyjaśnienia której wystarczy znajomość prawa Ohma oraz podstawowych zasad elektrostatyki. W najprostszym ujęciu tranzystor polowy można traktować jako rezystor nieliniowy o rezystancji regulowanej (modulowanej) za pomocą napięcia zewnętrznego Us (rysunek 8.1a). Wyobraźmy sobie, że do pewnego fragmentu przewodnika, np. w postaci prostopadłościanu, przykładamy napięcie polaryzujące U (rysunek 8.1b). Napięcie to wymusi przepływ pewnego prądu I, którego wartość, zgodnie z prawem Ohma, będzie zależała od wartości rezystancji R tego przewodnika. Jeśli mielibyśmy możliwość zmiany tej rezystancji, to mielibyśmy również możliwość zmiany prądu I płynącego przez ten przewodnik bez konieczności zmiany samego napięcia wymuszającego U. Z pierwszej części pamiętamy, że rezystancja przewodnika zależy od trzech charakteryzujących go wielkości, a mianowicie re-
Rys. 8.1. Tranzystor polowy jako rezystor o rezystancji regulowanej za pomocą napięcia zewnętrznego – symboliczne przedstawienie idei działania (a) oraz parametry wpływające na prąd w obwodzie (b)
256
8. Tranzystor unipolarny (polowy)
zystywności r oraz rozmiarów fizycznych, tzn. długości L oraz pola S przekroju poprzecznego do strumienia przepływającego prądu i wyrażona jest następująco
ρ⋅L . (8.1) S Jak widać, im większa jest rezystywność przewodnika oraz jego długość, tym większa jest jego rezystancja, natomiast im większy jest przekrój przewodnika, tym jego rezystancja jest mniejsza. Zmiana rezystancji przewodnika sprowadza się więc do zmiany jednego bądź kilku jego wymienionych parametrów. Jedną z możliwości jest zmiana rozmiarów przewodnika. O ile fizycznych jego rozmiarów L oraz S nie można już zmienić, o tyle można ograniczyć obszar, którym prąd może płynąć. Jeśli uda nam się zmienić właściwości pewnej części przewodnika tak, aby wytworzył się w niej obszar, którym prąd „niechętnie” będzie płynął, to tak, jakby zmniejszyła się efektywna grubość przewodnika, a więc pole S jego przekroju poprzecznego, a to oczywiście spowoduje wzrost jego rezystancji i tym samym zmniejszenie prądu I przez niego płynącego. Można tego dokonać za pomocą metalowej płytki naładowanej ujemnie i zbliżonej na pewną odległość do przewodnika, ale odizolowanej od niego (rysunek 8.2a). Ładunek ujemny tej płytki sprawi, że elektrony płynące w przewodniku będą przez niego wypychane z górnej części w głąb przewodnika. W wyniku tego przy powierzchni wytworzy się obszar ubogi w elektrony, a więc obszar, którym nośniki te „niechętnie” płyną, co, jak wspomnieliśmy, traktować można jako zwężenie obszaru przewodnika, zmniejszające efektywne pole przekroju poprzecznego S. Ponieważ metalowa płytka ma być naładowana ujemnie w stosunku do potencjału przewodnika, to oczywiste jest, że jej ujemny ładunek zapewni podłączenie źródła napięcia US między przewodnikiem a metalową płytką w ten sposób, aby potencjał dodatni tego napięcia znajdował się na przewodniku, a ujemny na metalowej płytce. Zmieniając wówczas napięcie między metalową płytką a przewodnikiem, sprawiamy, że płytka w większym lub mniejszym stopniu wypycha elektrony z górnego R=
Rys. 8.2. Ilustracja idei modulacji rezystancji przewodnika za pomocą oddziałującego na niego pola elektrycznego – ujemna polaryzacja metalowej płytki powoduje odepchnięcie elektronów i zwężenie przekroju przewodnika (a), a dodatnia polaryzacja metalowej płytki powoduje przyciągnięcie większej liczby elektronów i zmniejszenie rezystywności (b)
8.2. Podział tranzystorów polowych
257
obszaru przewodnika, powodując zmianę efektywnego pola przekroju S, a więc i prądu I płynącego przez przewodnik. Należy podkreślić, że prąd między metalową płytką a przewodnikiem w takim przypadku nie przepływa, ponieważ obwód ten nie jest obwodem zamkniętym (płytka nie styka się bezpośrednio z przewodnikiem, jest od niego odizolowana). Mamy więc do czynienia ze sterowaniem prądu I wyłącznie za pomocą pola elektrycznego wytworzonego przez napięcie US niezwiązane z napięciem U wymuszającym ten prąd. W praktycznych rozwiązaniach prąd sterowany I płynie w obwodzie wyjściowym i sterowany jest za pomocą napięcia US w obwodzie wejściowym, wytwarzającego potencjał ujemny na metalowej elektrodzie sterującej. Drugą możliwością zmiany rezystancji przewodnika jest zmiana jego rezystywności. Ponieważ w szczególnym przypadku przewodnikiem może być również materiał półprzewodnikowy, to jak pamiętamy, jego rezystywność jest ściśle związana z wartością koncentracji jego nośników. Okazuje się, że wartość tę również można zmieniać za pomocą pola elektrycznego wytworzonego między metalową płytką a przewodnikiem (półprzewodnikiem). W tym celu wystarczy zmienić polaryzację napięcia sterującego US na przeciwną, tak aby spolaryzowana metalowa płytka naładowana była tym razem dodatnio (rysunek 8.2b). Wówczas ładunek dodatni płytki spowoduje przyciągnięcie dużej liczby nośników (tu elektronów) do górnej powierzchni płytki, co wpłynie na wzrost koncentracji nośników, a tym samym na zmniejszenie się rezystywności r, co z kolei sprawi, że prąd w przewodniku wzrośnie. Ponownie mamy do czynienia ze sterowaniem prądu za pomocą napięcia (pola elektrycznego), przy czym zmianie ulega tym razem inna wielkość wpływająca na wartość rezystancji.
8.2.
Podział tranzystorów polowych Przedstawioną ogólną ideę sterowania prądu można zrealizować w materiale półprzewodnikowym na kilka sposobów, w zależności od sposobu sterowania oraz technicznego wykonania. Stąd też tranzystory polowe dzieli się przede wszystkim na dwie grupy: – tranzystory złączowe (JFET – ang. Junction Field-Effect Transistor) oraz – tranzystory z izolowaną bramką (IGFET – ang. Insulated Gate Field-Effect Transistor), które różnią się między sobą przebiegiem charakterystyk prądowo-napięciowych oraz niektórymi właściwościami. Tranzystory złączowe w swojej strukturze mogą zawierać złącze P-N, wówczas w skrócie określa się je jako PNFET lub złącze m-s, a wtedy otrzymują określenie MESFET (ang. MEtal-Semiconductor Field-Effect Transistor). Warto też wspomnieć, że tranzystory złączowe wytwarza się wyłącznie z półprzewodnika monokrystalicznego. Z kolei druga grupa tranzystorów, tranzystory z izolowaną bramką, może być wykonana albo z półprzewodnika monokrystalicznego, albo z półprzewodnika polikrystalicznego. Choć w obu przypadkach podstawowa struktura składa się z trzech warstw – metalu, izolatora oraz półprzewodnika – tylko tranzystory
258
8. Tranzystor unipolarny (polowy)
wykonane z monokrystalicznego półprzewodnika określane są mianem tranzystorów typu MIS (ang. Metal-Insulator-Semiconductor) lub MISFET, przy czym dla konkretnego rozwiązania izolatora, często w postaci warstwy tlenku krzemu SiO2, przyjmują określenie tranzystorów typu MOS (ang. Metal-Oxide-Semiconductor) lub MOSFET. Natomiast te, wykonane z półprzewodnika polikrystalicznego, z uwagi na wykonanie ich w postaci bardzo cienkich warstw półprzewodnikowych umieszczonych na podłożu nieprzewodzącym, określa się mianem tranzystorów cienkowarstwowych, skrótowo TFT (ang. Thin Film Transistor). Oczywiście w obecnej dobie bardzo szybkiego rozwoju mikro-, a nawet nanoelektroniki powstaje wiele odmian tych podstawowych struktur tranzystorów polowych, które znajdują swoje miejsce w przeróżnych zastosowaniach, od czysto elektrotechnicznych, poprzez biologiczne, medyczne, chemiczne, po ściśle specjalistyczne, służące nawet wyjaśnieniu natury podstawowych własności fizycznych materii. Z powodu ograniczenia objętościowego tej książki nie będziemy przedstawiać wszystkich, a jedynie wymienimy niektóre z nich. Natomiast szczegółowo omówione tu zostaną jedynie dwa rodzaje tranzystorów polowych w swoich oryginalnych strukturach, mianowicie PNFET oraz MISFET, a zjawiska w nich zachodzące będą również podstawą do zrozumienia działania pozostałych ich odmian.
8.3.
Tranzystor złączowy PNFET Struktura fizyczna Jak już wspomniano, tranzystor złączowy typu PNFET w swojej strukturze zawiera złącze P-N. Podstawowa struktura tego tranzystora (rysunek 8.3), w dużym uproszczeniu, powstaje w ten sposób, że na silnie domieszkowane podłoże półprzewodnikowe typu P lub typu N, zwane bramką, nanosi się warstwę półprzewodnika przeciwnego typu, stanowiącą kanał, w której z kolei wykonuje się ponownie obszar silnie domieszkowany półprzewodnika takiego samego typu jak podłoże, stanowiącego obszar drugiej bramki. W tak wykonanej strukturze powstają dwa złącza P-N, które określa się mianem złączy bramka-kanał. Na koniec procesu wykonuje się kontakty metalowe do obu obszarów bramki oraz dwa kontakty do obszaru kanału, będące elektrodami tych obszarów. Elektrody bramek oznacza się przez G1 i G2 (ang. Gate) i często zwiera razem wewnątrz struktury tranzystora, wyprowadzając tylko jedną elektrodę bramki G, elektrody kanału natomiast oznacza się przez S (ang. Source) oraz D (ang. Drain) i nazywa odpowiednio źródłem i drenem. Obszar kanału można traktować jako rezystor wykonany z materiału o rezystywności r, długości L, szerokości 2a oraz głębokości Z, przez który między elektrodami źródła i drenu płynąć będzie prąd podlegający sterowaniu, przy czym obszary bramek, a raczej ich elektroda (czy elektrody) jest elektrodą sterującą. Tranzystor złączowy jest zatem elementem trójkońcówkowym (czterokońcówkowym w przypadku oddzielnych elektrod bramek). Z tego też względu, w tranzystorze takim określa się w zasadzie tylko dwa napięcia, mianowicie napięcie UDS między elektrodami źródła i drenu, którego zadaniem jest
8.3. Tranzystor złączowy PNFET
259
Rys. 8.3. Struktura warstwowa tranzystora złączowego. Widać utworzone dwa złącza P-N
wymuszenie przepływu prądu przez kanał oraz napięcie UGS, polaryzujące złącza bramka-kanał poprzez elektrodę źródła, spełniające funkcję napięcia sterującego. Zasady polaryzacji W przeciwieństwie do tranzystorów bipolarnych, struktura tranzystorów złączowych jest w zasadzie symetryczna w tym sensie, że dozwolona jest zamiana zacisku źródła S z zaciskiem drenu D. Tranzystor w obu przypadkach pracuje w identyczny sposób. Tak więc określenie, która elektroda jest elektrodą źródła, a która elektrodą drenu, wynika wyłącznie ze sposobu spolaryzowania tranzystora. Ponieważ nazwy elektrod związane są z funkcją, jaką pełnią w tranzystorze, to łatwo jest je zidentyfikować, pamiętając o prostej zasadzie polaryzowania tranzystorów polowych. Elektroda źródła ma odgrywać rolę źródła nośników, które są przez nią wstrzykiwane z obwodu zewnętrznego do obszaru kanału, natomiast elektroda drenu ma spełniać funkcję drenu czy drenażu (w sensie medycznym lub hydrotechnicznym), wyprowadzając nośniki z powrotem do obwodu zewnętrznego. Takie funkcje obu elektrod narzucają kierunek przepływu nośników w kanale. Jak pamiętamy, w tranzystorach unipolarnych nośnikami prądu są wyłącznie nośniki większościowe. Po spolaryzowaniu kanału napięciem UDS nośniki te powinny zatem płynąć przez kanał w kierunku od elektrody źródła do elektrody drenu. A ponieważ możliwe jest wykonanie tranzystora złączowego w dwóch wariantach, różniących się typem obszaru stanowiącego kanał tranzystora, to w każdym przypadku napięcie UDS będzie miało inny kierunek. Wyjaśnijmy dlaczego. W tranzystorze z kanałem typu N nośnikami większościowymi są elektrony. Aby więc mogły one płynąć przez kanał od źródła do drenu, źródło musi mieć niższy potencjał niż dren. Można przyjąć, że wówczas ujemny potencjał źródła będzie powodował odpychanie elektronów znajdujących się w kanale w kierunku drenu, a dodatni (względem źródła) potencjał drenu będzie dodatkowo przyciągał elektro-
260
8. Tranzystor unipolarny (polowy)
ny ku sobie, wymuszając ich ruch w kierunku od elektrody źródła do elektrody drenu. Oczywiście kierunek taki wynika faktycznie z kierunku przepływu dyfuzyjnego nośników, gdzie duża koncentracja nośników przy źródle, a mniejsza przy drenie powoduje przemieszczanie się nośników w celu wyrównania ich koncentracji. Nie nastąpi to jednak nigdy, gdyż nośniki są stale wyprowadzane przez dren, a wprowadzane z powrotem przez źródło. W takim przypadku źródłem nazwana jest elektroda mająca mniejszy potencjał niż druga elektroda zwana wówczas drenem i napięcie UDS, według przyjętej konwencji, jest wtedy większe od zera. Z kolei w tranzystorze z kanałem typu P nośnikami większościowymi są dziury i jako nośniki dodatnie będą płynęły przez kanał od źródła do drenu na identycznej zasadzie, czyli wówczas, gdy na źródło podany zostanie potencjał dodatni napięcia UDS, a na dren potencjał ujemny. Podobnie jak poprzednio, można przyjąć, że dodatni potencjał źródła będzie dziury odpychał w kierunku drenu, a ujemny potencjał drenu będzie je dodatkowo przyciągał, powodując ich przepływ w kierunku od elektrody źródła do elektrody drenu. W tym przypadku źródłem będzie elektroda spolaryzowana dodatnio w stosunku do drugiej elektrody, spolaryzowanej ujemnie, będącej wówczas drenem. Wynika z tego, że napięcie UDS ma wtedy wartość ujemną. Jak już wcześniej wspomniano, w strukturze tranzystora złączowego wyróżnić można dwa złącza P-N (bramka-kanał). Ich zadaniem, jak się wkrótce przekonamy, jest modulacja rezystancji kanału, czego dokonuje się w tych tranzystorach w zasadzie wyłącznie przy zaporowej polaryzacji obu złączy. W związku z tym kierunek napięcia polaryzującego te złącza, podobnie jak kierunek napięcia UDS na kanale, będzie zależał od typu kanału. W tranzystorze z kanałem typu N obszarem bramki jest obszar typu P, a więc polaryzację zaporową jego złączy uzyskuje się w wyniku przyłożenia do bramek potencjału ujemnego, a do kanału potencjału dodatniego, a wówczas tak skierowane napięcie bramka-kanał określane jest jako ujemne. Z kolei w tranzystorze z kanałem typu P obszarem bramki jest obszar typu N, a więc polaryzację zaporową jego złączy uzyskuje się po przyłożeniu do bramek potencjału dodatniego, a do kanału potencjału ujemnego. W tym przypadku napięcie bramka-kanał jest napięciem dodatnim. W tym miejscu należy wspomnieć o układach połączeń, w których mogą pracować tranzystory złączowe. Ze względu na liczbę końcówek, tranzystory te, podobnie jak tranzystory bipolarne, podłączyć można na trzy sposoby, różniące się wspólnym zaciskiem. Wyróżniamy więc układ ze wspólnym źródłem, oznaczany przez WS, ze wspólnym drenem – WD oraz ze wspólną bramką – WG. W każdym z układów połączeń wejście oraz wyjście tranzystora stanowią inne zaciski, a w związku z tym tranzystor ten w każdym z układów połączeń ma nieco inne właściwości. Różnice przejawiać się będą np. w wartości rezystancji wejściowej, rezystancji wyjściowej lub w wartości wzmocnienia. A ponieważ najpopularniejszym układem połączeń jest układ ze wspólnym źródłem, gdzie wejście stanowią zaciski G-S, a wyjście zaciski D-S, na przykładzie tego właśnie układu będziemy dalej omawiać działanie tranzystora.
261
8.3. Tranzystor złączowy PNFET
W takim razie tak zwaną polaryzację normalną tranzystora złączowego uzyskuje się przy odpowiedniej polaryzacji napięć wejściowego UGS oraz wyjściowego UDS: – dla tranzystora z kanałem typu N UGS < 0, a UDS > 0, – dla tranzystora z kanałem typu P UGS > 0, a UDS < 0. Ponieważ zjawiska, które zachodzą w tranzystorach złączowych są identyczne, niezależnie od ich typów, w dalszej analizie przedstawiać je będziemy wyłącznie na przykładzie tranzystora z kanałem typu N, a różnice w stosunku do tranzystora z kanałem typu P sprowadzają się wyłącznie do różnic w kierunkach napięć oraz prądów. Rodziny charakterystyk statycznych Ze względu na to, że najistotniejsze zjawiska zachodzą w części obszaru kanału, sąsiadującej z obszarem krótszej bramki (niebędącym podłożem), działanie tranzystora PNFET rozpatrywać będziemy, posługując się jego uproszczoną, wyidealizowaną strukturą przedstawioną na rysunku 8.4. Interesują nas zależności występujące między wartościami prądu wyjściowego płynącego przez kanał, a konkretnie prądu elektrody drenu, czyli ID, a wartościami napięć: wejściowego UGS (na złączu bramka-kanał) oraz wyjściowego UDS (na kanale). W przypadku tranzystorów polowych wyróżnia się ogólnie tylko dwie zależności: – charakterystykę przejściową, czyli zależność I D (U GS ) – charakterystykę wyjściową, czyli zależność I D (U DS )
oraz U DS = const .
U GS = const
Rys. 8.4. Uproszczona, wyidealizowana struktura tranzystora złączowego
262
8. Tranzystor unipolarny (polowy)
W przypadku charakterystyki przejściowej załóżmy na początek, że napięcie UDS jest bardzo małe, prawie bliskie zeru. Wówczas, przy braku polaryzacji bramki, tzn. przy UGS = 0, warstwa zaporowa złącza bramka-kanał wnika na pewną niewielką odległość w jego obszary, przy czym, z powodu silnego domieszkowania obszarów bramki, szerokość tej warstwy w tych obszarach jest na tyle niewielka, że można pominąć w nich jej wpływ. Ponieważ warstwy zaporowe są obszarami o znikomej koncentracji nośników, a więc obszarami o dużej rezystywności, to wnikając w kanał, ograniczają one efektywny obszar kanału, którym płynąć może prąd (rysunek 8.5a). W miarę zwiększania napięcia polaryzacji zaporowej złączy bramka-kanał rośnie szerokość ich warstw zaporowych, powodując zmniejszanie się efektywnej szerokości kanału (rysunek 8.5b), co, jak pamiętamy, prowadzi do zmniejszania się przekroju kanału, a więc do wzrostu jego rezystancji, co w efekcie przyczynia się do zmniejszania się prądu drenu ID. Dalsze zwiększanie napięcia UGS sprawi, że rozszerzające się warstwy zaporowe w końcu zetkną się ze sobą, zamykając całkowicie kanał, czyli drogę prądu między źródłem a drenem (rysunek 8.5c). W takim przypadku rezystancja kanału osiąga bardzo dużą wartość i prąd drenu praktycznie nie płynie. Napięcie, przy którym dochodzi do tego zjawiska, jest nazywane napięciem odcięcia lub napięciem zatkania i oznaczane
Rys. 8.5. Ilustracja zjawiska zwężania kanału przez rozszerzające się warstwy zaporowe złączy bramka-kanał w miarę zwiększania ich polaryzacji zaporowej – przypadki, gdy napięcie UGS = 0 (a), 0 < |UGS| < |Up| (b) oraz gdy |UGS| ≥ |Up| (c)
8.3. Tranzystor złączowy PNFET
263
jest przez Up, a stan, w którym wówczas znajduje się tranzystor, jest nazywany stanem odcięcia lub stanem zatkania. Dalsze zwiększanie napięcia UGS nie powoduje już w zasadzie żadnych zmian, warstwy zaporowe nadal stykają się ze sobą i prąd drenu ma wartość równą zeru, co najwyżej wystąpić może przebicie złącza bramka-kanał, ale zjawiska tego nie będziemy tu rozpatrywać, gdyż przy typowej pracy tranzystora nie wykorzystuje się go. Wróćmy jednak do przypadku, gdy |UGS | < |Up|, czyli gdy kanał istnieje i płynie przez niego prąd. Ponieważ przyjmuje się, że napięcie UDS, przy małych jego wartościach, nie wpływa na szerokość kanału, to z punktu widzenia napięcia UDS kanał traktować można jako rezystor liniowy – niewielkie zmiany napięcia UDS powodować będą proporcjonalne zmiany prądu ID. Podsumowując przebiegi charakterystyk przejściowych wynikające z powyższych zależności i przedstawione na rysunku 8.6, można stwierdzić, że największą wartość prąd drenu uzyskuje, gdy kanał jest najszerszy, czyli przy napięciu UGS = 0, a w miarę zwiększania wartości tego napięcia prąd drenu maleje i przy napięciu UGS = Up osiąga wartość równą zeru, przy czym im większa jest wartość napięcia UDS , tym większa jest początkowa (tzn. przy UGS = 0) wartość prądu drenu. A ponieważ zależność szerokości warstwy zaporowej złącza bramka-kanał od napięcia UGS jest nieliniowa ~ U , również nieliniowy jest kształt charakterystyk przejściowych.
(
)
Jak stwierdziliśmy wcześniej, tranzystor PNFET pracuje przy polaryzacji zaporowej złączy bramka-kanał. Warto się jednak zastanowić, jak zachowywałby się tranzystor, gdyby spolaryzować te złącza odwrotnie, czyli w kierunku przewodzenia. Przy takiej polaryzacji, jak wiadomo, warstwy zaporowe mają jeszcze mniejszą szerokość niż w przypadku braku polaryzacji. A to powoduje, że ewentualne zmiany tej szerokości w porównaniu do i tak szerokiego kanału będą na tyle nieznaczne, że w rzeczywistości nie będą miały praktycznego znaczenia. Zysk wzrostu prądu przy niewiele szerszym kanale byłby niezauważalny. Poza tym, przy polaryzacji przewodzenia złącza bramka-kanał tracimy ważną właściwość tranzystora polowego,
Rys. 8.6. Wykres przykładowych charakterystyk przejściowych tranzystora złączowego z kanałem typu N
264
8. Tranzystor unipolarny (polowy)
Rys. 8.7. Przedstawienie rezystancji kanału w postaci szeregowego połączenia wielu elementarnych rezystancji. Powoduje to, że potencjał napięcia UDS zmienia się jednostajnie wzdłuż kanału od źródła do drenu, sprawiając, że coraz większa jest różnica potencjałów między bramką a danym punktem kanału, co zwiększa polaryzację zaporową złączy bramka-kanał
a mianowicie jego dużą rezystancję wejściową, tzn. rezystancję widzianą między zaciskami bramki i źródła. Jak wiadomo, przez złącze spolaryzowane w kierunku przewodzenia płynie duży prąd, co powoduje, że rezystancja tego złącza jest niewielka. W kierunku zaporowym natomiast płynie pomijalnie mały prąd zaporowy, co sprawia, że rezystancja wejściowa tranzystora jest bardzo duża. Tak więc, choć w zasadzie tranzystor PNFET mógłby pracować również przy polaryzacji przewodzenia złączy bramka-kanał, praca taka byłaby bardzo nieefektywna. W przypadku charakterystyki wyjściowej załóżmy na początek, że napięcie UGS = 0. Wówczas, w miarę zwiększania napięcia UDS, prąd drenu również zaczyna rosnąć, przy czym, dla niewielkich napięć UDS, kanał ma właściwości rezystora liniowego, a więc jest to wzrost liniowy. Z kolei dla większych wartości napięcia UDS należy uwzględnić rozkład potencjału wzdłuż kanału. Ponieważ kanał ma pewną długość, to dzieląc go na wiele krótszych odcinków, jego rezystancję można przedstawić jako szeregowe połączenie wielu elementarnych rezystorów (rysunek 8.7). Napięcie UDS przyłożone między elektrody drenu i źródła musi się rozłożyć przestrzennie na każdym z tych rezystorów tak, że potencjał na zaciskach każdego kolejnego rezystora będzie większy w kierunku od źródła do drenu. W ten sposób rośnie również różnica potencjałów między poszczególnymi rezystorami a obszarem bramki złącza bramka-kanał. To powoduje, że im bliżej drenu, tym większe jest napięcie polaryzujące zaporowo złącze bramka-kanał (np. –5 V przy źródle, a –11 V przy drenie), a zatem i większa jest szerokość warstwy zaporowej, co w efekcie sprawia, że kanał ma nierównomierną szerokość i ulega zwężaniu w kierunku drenu (rysunek 8.8a). Przy dalszym wzroście napięcia UDS prąd drenu ID również rośnie,
8.3. Tranzystor złączowy PNFET
265
przy czym, ze względu na jednoczesne zwężanie się kanału, a więc i wzrost jego rezystancji, przyrosty prądu są coraz mniejsze i nieproporcjonalne do przyrostów napięcia. Kanał w tym przypadku przedstawia sobą nieliniową rezystancję. Przy pewnej wartości napięcia UDS dojść może do sytuacji, w której rozszerzające się warstwy zaporowe obu złączy zetkną się w końcu ze sobą, doprowadzając do zamknięcia kanału. Zetknięcie to nastąpi jednak tylko w pobliżu drenu, gdyż tam warstwy zaporowe mają największą szerokość (rysunek 8.8b). Należy przy tym zauważyć, że zgodnie z poprzednimi rozważaniami dotyczącymi stanu zatkania, logiczne wydawałoby się, że w tym przypadku prąd przez kanał płynąć nie powinien. Tak jednak nie jest, ponieważ przy założeniu braku przepływu prądu zniknęłaby przyczyna powodująca odkładanie się napięć na poszczególnych elementarnych rezystancjach kanału (I = 0, to U = I · R = 0), a to spowodowałoby, że „zniknęłoby” jednocześnie napięcie powodujące poszerzanie się warstw zaporowych, a więc kanał nie byłby zamknięty, co prowadzi do sprzeczności ze stwierdzeniem o zwężaniu się kanału.
Rys. 8.8. Ilustracja zjawiska zwężania się kanału wraz ze wzrostem napięcia UDS. Coraz większa, rozkładająca się wzdłuż kanału w kierunku drenu, różnica potencjałów między bramką a kanałem sprawia, że złącze bramka-kanał jest polaryzowane zaporowo coraz większym napięciem, wskutek czego rozszerzeniu ulegają warstwy zaporowe w kierunku drenu, a kanał zwężeniu. Przy napięciu |UDS| < |UDS sat| kanał istnieje (a), przy |UDS| = |UDS sat| kanał się zamyka (b), a przy |UDS| ≥ |UDS sat| zamknięcie kanału się wydłuża, skracając efektywną długość kanału, a przez to zmniejszając jego rezystancję (c)
266
8. Tranzystor unipolarny (polowy)
Co więcej, dalsze zwiększanie napięcia UDS powoduje dalsze poszerzanie się warstw zaporowych, przy czym warstwy te stykają się ze sobą na dłuższym już odcinku, a nie tylko w jednym punkcie (rysunek 8.8c), a to prowadzi do dalszego zwężania się kanału, czyli wzrostu jego rezystancji. Jednak jednoczesny wzrost rezystancji kanału i wzrost napięcia UDS kompensują się wzajemnie, powodując, że prąd drenu nadal płynie, ale nie zmienia już swojej wartości. Ale jak wyjaśnić dalszy jego przepływ, pomimo wyraźnego zamknięcia, czy odcięcia kanału przez warstwy zaporowe? Nie jest to zjawisko do końca rozpoznane, ale przyjmuje się, że w warstwie zaporowej o nierównomiernej szerokości istnieją w jej polu elektrycznym składowe linii sił skierowane wzdłuż kanału, które, jak w przypadku typowego złącza P-N, powodują unoszenie nośników ze źródła przez tę warstwę do drenu, umożliwiając tym samym przepływ prądu drenu pomimo zamknięcia kanału. Według innego wyjaśnienia, że kanał w takim przypadku nie jest do końca zamknięty ale bardzo wąski i przy tak wąskim kanale prędkość przepływu nośników jest już maksymalna, sprawiając, że prąd drenu ma stałą wartość. Jakiekolwiek byłoby faktyczne wyjaśnienie tego zjawiska, prowadzi ono do sytuacji, w której po przekroczeniu przez napięcie UDS pewnej wartości, prąd drenu staje się stały, niezależny od napięcia UDS. Napięcie, przy którym do tego dochodzi, nazywane jest napięciem nasycenia UDS sat i co do wartości bezwzględnej jest równe Up, czyli takiemu napięciu UGS, które prowadzi do zaniku przepływu prądu drenu. W obu przypadkach, tzn. zarówno przy UGS = Up, jak i przy UDS = –Up, dochodzi do zetknięcia się warstw zaporowych i odcięcia kanału. Można się jednak zastanawiać, dlaczego występuje to przy tym samym napięciu Up, choć istniejącym między różnymi zaciskami tranzystora. Staje się to dosyć oczywiste, jeśli przypomnimy sobie, że szerokość warstw zaporowych zależy wyłącznie od różnicy potencjałów między obszarem kanału a obszarem bramki, a różnica ta, prowadząca do zetknięcia się warstw zaporowych, może zostać osiągnięta na dwa sposoby: albo bezpośrednio przez napięcie UGS na złączu bramka-kanał, albo pośrednio przez rosnący w kierunku drenu potencjał kanału wywołany odpowiednio dużym napięciem UDS. Efektem napięcia o wartości Up między obszarem kanału a obszarem bramki jest zamknięcie się kanału. Jeśli z kolei przyjmiemy, że napięcie UGS ≠ 0, to przy napięciu UDS = 0 szerokość kanału jest mniejsza niż była przy UGS = 0, tak więc zwiększanie napięcia UDS, jak poprzednio, będzie powodowało zwężanie się kanału, jednak tym razem do jego odcięcia dojdzie już przy mniejszej wartości napięcia UDS, a to dzięki napięciu UGS wstępnie polaryzującemu złącza bramka-kanał w kierunku zaporowym. Okazuje się, że napięcie nasycenia UDS sat, przy którym rozpocznie się odcięcie kanału, jest równe, z dokładnością do znaku, napięciu Up pomniejszonemu o wartość napięcia UGS, polaryzującego złącze bramka-kanał, czyli |UDS sat| = |Up – UGS|,
(8.2)
co po uwzględnieniu, że znaki napięć UDS i UGS, a więc i Up są przeciwne, zapisać też można następująco UDS sat = UGS – Up.
(8.3)
8.3. Tranzystor złączowy PNFET
267
Podsumowując przebieg charakterystyk wyjściowych, zamieszczonych na rysunku 8.9a, należy stwierdzić, że przy stałej wartości napięcia UGS w miarę wzrostu napięcia UDS prąd drenu ID w pobliżu początku układu współrzędnych rośnie praktycznie liniowo (odcinek OA) i dopiero przy większych napięciach UDS, przy których rezystancja zwężającego się wyraźnie kanału jest coraz większa, przyrosty prądu drenu są coraz mniejsze, aż przy napięciu UDS = UDS sat prąd przestaje praktycznie wzrastać, przyjmując, mimo jeszcze większych napięć UDS, nadal wartość stałą, równą prądowi nasycenia drenu ID sat. Można powiedzieć, że napięcie nasycenia informuje nas o tym, jak daleko można się posunąć z napięciem na osi napięć UDS, zanim osiągnie się stan nasycenia, co z kolei zależne jest od tego, jak bardzo napięcie UGS oddalone jest od napięcia Up. Z kolei wzrost napięcia UGS powoduje ogólnie spadek prądu drenu, co sprawia, że wykresy poszczególnych charakterystyk wyjściowych obniżają się. Podobnie jak w przypadku tranzystora bipolarnego, tak i dla tranzystorów polowych na charakterystykach wyjściowych wskazać można zakresy jego pracy. W zakresie napięć
Rys. 8.9. Wykres przykładowych charakterystyk wyjściowych tranzystora złączowego z kanałem typu N dla przypadku idealnego (a) oraz dla przypadku rzeczywistego uwzględniającego skracanie kanału w zakresie nasycenia (b)
268
8. Tranzystor unipolarny (polowy)
|UDS | < |UDS sat | tranzystor znajduje się w zakresie nienasycenia, zwanym też zakresem liniowym lub rzadziej zakresem triodowym. Z kolei dla napięć |UDS | ≥ |UDS sat | tranzystor znajduje się w zakresie nasycenia, zwanym też, ale rzadziej, zakresem pentodowym. Granicę między oboma zakresami pracy wyznaczają punkty, dla których UDS = UDS sat = UGS – Up i podobnie jak w przypadku tranzystora bipolarnego, układają się one na paraboli, zaznaczonej na rysunku 8.9a linią przerywaną. Charakterystyki dla napięć |UGS | > |Up| wyznaczają z kolei zakres odcięcia lub zakres zatkania, w którym prąd drenu jest praktycznie równy zeru. Na podstawie omówionych dotąd zjawisk zachodzących w tranzystorze PNFET można stwierdzić, że w zakresie nienasycenia tranzystor ten, dla małych napięć UDS, traktować można jako sterowany rezystor, co predysponuje go do zastosowań analogowego przełącznika, natomiast w zakresie nasycenia, w szerokim zakresie napięć UDS, traktować go można jako sterowane źródło prądowe, co, jak pamiętamy, pozwala użyć go w roli wzmacniacza, przy czym w obu przypadkach sterowanie to odbywa się za pomocą napięcia wejściowego UGS. Należy jeszcze wspomnieć o pewnym efekcie, o którym do tej pory nie mówiliśmy, a który powoduje, że w zakresie nasycenia prąd drenu jednak nieznacznie wzrasta wraz ze wzrostem napięcia UDS, co na charakterystykach wyjściowych objawia się nieznacznym odchyleniem charakterystyk od poziomu (rysunek 8.9b). Spowodowane jest to skracaniem efektywnej długości kanału. Jak pamiętamy, w zakresie nasycenia warstwy zaporowe obu złączy bramka-kanał stykają się ze sobą w pobliżu drenu. W miarę wzrostu napięcia UDS odcinek ich styku wydłuża się w kierunku źródła, co powoduje, że równocześnie ze zwężaniem się kanału skróceniu ulega również jego efektywna długość. Mamy więc do czynienia z dwoma przeciwdziałającymi sobie czynnikami: z jednej strony zwężanie kanału powodujące wzrost jego rezystancji, a z drugiej strony skracanie kanału, w wyniku czego jego rezystancja ulega zmniejszeniu. A ponieważ czynnik skracania kanału jest jednak o wiele słabszy od przeważającego czynnika zwężania kanału, to rezystancja kanału nadal wzrasta, ale jej przyrosty są nieznacznie mniejsze niż w przypadku nieuwzględnienia efektu skracania kanału. Tak więc, w zakresie nasycenia wraz ze wzrostem napięcia UDS prąd drenu nie jest stały, lecz nieznacznie rośnie. W przypadku tranzystora z kanałem typu P, jak wspomnieliśmy, zmianie ulegają jedynie znaki napięć UGS i UDS oraz prądu drenu ID na przeciwne, ale zależności na warunki osiągnięcia każdego ze stanów tranzystora pozostają takie same, tzn.: – stan nienasycenia (normalny): 0 < |UGS| < |Up|, przy |UDS| < |UDS sat|, gdzie UDS sat = Up – UGS, – stan nasycenia: |UDS| ≥ |UDS sat|, przy 0 < |UGS| < |Up|, – stan odcięcia: |UGS| ≥ |Up|. Przeprowadzając analizę ilościową, można wyprowadzić analityczną postać zależności tworzących charakterystyki statyczne tranzystora PNFET. Jednak ze względu na to, że wyrażenia te są ściśle związane z grubością kanału, a przez to też z rozkładem koncentracji domieszek w kanale, mają one skomplikowaną postać całkową, której tu przytaczać nie będziemy. Podamy jedynie uproszczone wyrażenia dobrze
269
8.3. Tranzystor złączowy PNFET
opisujące charakterystyki dla dwóch skrajnych przypadków rozkładu koncentracji domieszek w kanale (wyprowadzone w [13, 18]), a mianowicie: dla rozkładu równomiernego (szeroki kanał) oraz dla rozkładu szpilkowego (wąski kanał), czyli takiego, który charakteryzuje się tym, że największe zagęszczenie (koncentracja) domieszek wzdłuż kanału występuje pośrodku, a w zewnętrznych jego obszarach (bezpośrednio przy obszarach bramek) jest praktycznie równa zeru. Należy podkreślić, że z grubością kanału związana jest bezpośrednio wartość napięcia odcięcia Up. Tak więc można powiedzieć, że wyrażenia obowiązujące dla szerokiego kanału dotyczą tranzystorów o dużych wartościach napięcia Up, np. kilkanaście woltów, natomiast wyrażenia obowiązujące dla wąskiego kanału dotyczą tranzystorów o małych wartościach napięcia odcięcia – do kilku woltów. W przypadku tranzystorów o szerokim kanale, czyli równomiernym rozkładzie domieszek, wyrażenia na zależności prądu drenu ID od napięć UGS i UDS w zakresie nienasycenia oraz zakresie nasycenia określone są następująco: – w zakresie nienasycenia: 1 χ I D = GDSO ⋅ U DS − ⋅ 3 a
⋅ U DS − U GS
3
− U GS
3
,
(8.4a)
– w zakresie nasycenia: Up 1 U GS , (8.4b) I D = I D sat = GDSO ⋅ − + U GS ⋅ 1 − ⋅ 3 U 3 P Z gdzie GDSO = s · d · , L przy czym s = q · µn · nn jest konduktywnością półprzewodnika w obszarze kanału, q – ładunkiem elektronu, µn – ruchliwością nośników w danym półprzewodniku (wielkością określającą ich zdolność do poruszania się w półprzewodniku pod wpływem pola elektrycznego), nn – koncentracją nośników większościowych w kanale, d – szerokością efektywną kanału, a Z i L – jego pozostałymi rozmiarami, natomiast
χ=
2ε S . qN D
Z kolei, w przypadku tranzystorów o wąskim kanale, czyli o szpilkowym rozkładzie domieszek, wyrażenia te mają postać: – w zakresie nienasycenia: U2 I D = β ⋅ U GS − U p ⋅ U DS − DS , 2
(
)
(8.5a)
270
8. Tranzystor unipolarny (polowy)
– w zakresie nasycenia: I D = I Dsat = gdzie β =
2 β ⋅ U GS − U p , 2
(
)
(8.5b)
GDSO . Up
Modele zastępcze W przypadku pracy statycznej tranzystora PNFET jego najprostszy model zastępczy można przedstawić, podobnie jak w przypadku złącza P-N lub tranzystora bipolarnego, w postaci źródła prądowego umieszczonego między zaciskami źródła i drenu o wydajności nieliniowo zależnej od napięć UGS oraz UDS według zależności (8.4) lub (8.5). Schemat elektryczny wynikający z takiego modelu zamieszczono na rysunku 8.10a. W dokładniejszym modelu należałoby uwzględnić, w postaci rezystancji RG, prąd bramki IG, który w rzeczywistości płynie w tym tranzystorze jako prąd wsteczny złączy bramka-kanał, a także rezystancje szeregowe obszarów źródła RS i drenu RD. Rezystancje te, podobnie jak rezystancja rozproszona bazy w modelu tranzystora bipolarnego, są rezystancjami rozłożonymi. Pełniejszy model, uwzględniający wymienione elementy, pokazano na rysunku 8.10b. Z kolei w przypadku pracy dynamicznej przy szybkich, nagłych zmianach napięć należy dodatkowo uwzględnić dwa główne zjawiska zachodzące w tranzystorze. Jedno z nich związane jest z przeładowywaniem pojemności warstw zaporowych złączy bramka-kanał, drugie natomiast wynika ze skończonego czasu przelotu nośników przez obszar kanału. Ponieważ szerokość warstw zaporowych złączy bramka-kanał zmienia się wzdłuż kanału, oczywiste jest, że podobnej zmianie wzdłuż kanału ulegać też będzie wartość pojemności złączowej tych złączy, jako że jest bezpośrednio związana, jak pamiętamy, z szerokością warstwy zaporowej. Poza tym, jak wspomnieliśmy, rezystancje szeregowe obszaru źródła i obszaru drenu są rezystancjami rozłożonymi. To wszystko powoduje, że pojemności, które tu występują, mają również charakter rozłożony, co utrudnia ich wyznaczenie i komplikuje model zastępczy. Jednak
Rys. 8.10. Nieliniowe modele zastępcze tranzystora złączowego dla pracy statycznej – najprostszy, w postaci źródła prądowego opisującego zmiany rezystancji kanału (a) oraz dokładniejszy, uwzględniający rezystancje szeregowe obszarów źródła RS i drenu RD oraz rezystancje zaporowo spolaryzowanych złączy bramka-kanał RG (b)
271
8.3. Tranzystor złączowy PNFET
przyjmując pewne założenia upraszczające, model ten można przedstawić w dość prostej postaci. Należy jeszcze wspomnieć, że zjawisko istnienia pojemności, a raczej zjawisko ich ładowania i rozładowywania w wyniku zmian napięcia, będzie powodowało przepływ prądów ładowania przez warstwę zaporową złączy bramka-kanał, co objawi się w obwodzie zewnętrznym jako przepływ prądu bramki IG oraz jako dodatkowe składowe prądów źródła IS i drenu ID. W pierwszym przybliżeniu (rysunek 8.11) pod uwagę bierze się dwie pojemności złączowe Cgsi oraz Cgdi związane bezpośrednio z warstwą zaporową w obszarze kanału. Definiowane one są jako pochodne ładunku QB warstwy zaporowej po napięciu powodującym zmiany tego ładunku, co również można przedstawić w postaci stosunku przyrostów skończonych ładunku i napięcia. Z uwagi na rozłożony charakter warstwy zaporowej bramka-kanał, wyróżnia się dwa napięcia powodujące zmiany ładunku warstwy zaporowej, a mianowicie napięcie między bramką a kanałem od strony źródła, czyli UGS, oraz napięcie między bramką a kanałem od strony drenu, czyli UGD. Wymienione wówczas pojemności określone są następującymi wyrażeniami: C gsi =
C gdi
∂QB ∂U GS
∂QB = ∂U GD
U GD = const
∆QB ∆U GS
U GS = const
∆QB ≈ ∆U GD
≈
U GD = const
(8.6)
U GS = const
Schemat zastępczy wynikający z uwzględnienia tych dwóch pojemności zamieszczono na rysunku 8.12a.
Rys. 8.11. Interpretacja fizyczna pochodzenia głównych pojemności oraz rezystancji szeregowych występujących w tranzystorze złączowym
272
8. Tranzystor unipolarny (polowy)
W kolejnym przybliżeniu uwzględnia się rozłożone rezystancje szeregowe obszarów źródła RS oraz drenu RD, co powoduje, że, oprócz poprzednich pojemności, należy też wziąć pod uwagę dodatkowe pojemności Cgse oraz Cgde o identycznym sensie fizycznym, ale związane ze zmianami ładunku warstwy zaporowej wnikającej w obszary okolic źródła oraz drenu. Ponieważ pojemności te dotyczą tych samych warstw zaporowych, tyle że przedłużonych o obszary źródła i drenu, a ich ładunek ulega zmianie pod wpływem tych samych napięć co w pierwszym przybliżeniu, to te dodatkowe pojemności można po prostu zsumować z poprzednimi pojemnościami i w rezultacie przedstawić jako Cgs = Cgsi + Cgse oraz Cgd = Cgdi + Cgde. Schemat zastępczy uwzględniający te dodatkowe elementy przedstawiony jest na rysunku 8.12b. Warto zauważyć, że na schemacie tym pominięto rezystancję złącza bramka-kanał RG, gdyż z powodu jej bardzo dużej wartości o wiele mniejsza impedancja pojemności Cgs, dołączona do niej równolegle, przeważa nad nią swoim wpływem. Należy wspomnieć, że wartości tych pojemności, jako pojemności złączowych złącza P-N, zależą, jak pamiętamy, od napięć polaryzujących, a więc tak naprawdę są pojemnościami nieliniowymi, podobnie zresztą jak rezystancje szeregowe wymienionych obszarów, które zależą od napięć polaryzujących poprzez zmianę swoich rozmiarów, wynikających ze zmian szerokości warstw zaporowych. A ponieważ w całym zakresie zmian napięć zarówno pojemności te, jak i rezystancje nie zmieniają jednak diametralnie swoich wartości, to w naszych rozważaniach przyjmujemy je za stałe, czyli liniowe (co zresztą już ukradkiem uczyniliśmy, definiując powyżej pojemności Cgsi i Cgdi za pomocą pochodnych). Do tego miejsca rozważania nad modelem zastępczym dotyczyły pracy nieliniowej tranzystora. W przypadku pracy małosygnałowej, jak pamiętamy, tranzystor wygodnie jest analizować w postaci czwórnika, przy czym w odróżnieniu od tranzystora bipolarnego przydatniejszym zestawem równań jest zestaw równań admitancyjnych, czyli opis za pomocą macierzy y. Wynika to z warunków pomiarów parame-
Rys. 8.12. Nieliniowe modele zastępcze tranzystora złączowego dla pracy dynamicznej – uwzględniający jedynie pojemności złączowe złączy bramka-kanał od strony źródła i od strony drenu (a) oraz uwzględniający dodatkowo pojemności złączy bramka-źródło i bramka-dren, a także rezystancje szeregowe obszarów źródła i drenu (b)
273
8.3. Tranzystor złączowy PNFET
trów czwórnikowych, gdzie w przypadku tranzystora PNFET łatwo jest zrealizować zwarcie wejścia i wyjścia z uwagi na ich duże impedancje. Tak więc tranzystor PNFET jako czwórnik opisany jest następującym zestawem równań admitancyjnych i1 = y11 ⋅ u1 + y12 ⋅ u2 i2 = y21 ⋅ u1 + y22 ⋅ u2 lub odpowiadającym mu równaniem macierzowym i 1 y 11 y 12 u 1 = ⋅ i 2 y 21 y 22 u 2 którego parametry y11, y12, y21 i y22 (wyrażone w siemensach) wyznacza się przy warunku zwarcia wejścia lub wyjścia y11 =
i1 u1 u = 0 2
y12 =
i1 u2 u = 0 1
y21 =
i2 u1 u = 0 2
y22 =
i2 u2 u = 0 1
przy czym parametr y11 zwany jest admitancją wejściową, y12 – admitancją zwrotną, y21 – admitancją przejściową (transadmitancją), a y22 – admitancją wyjściową, a wszystkie razem określane są jako parametry zwarciowe. Należy oczywiście pamiętać, że parametry te wyznaczane są przy odpowiednio małych sygnałach, dla których nieliniowe charakterystyki tranzystora na odpowiednio małych ich fragmentach uznać można za liniowe. Elektryczny schemat zastępczy tranzystora równoważny opisowi za pomocą macierzy admitancyjnej y pokazano na rysunku 8.13. Można również przedstawić fizyczne schematy zastępcze tego tranzystora, wynikające bezpośrednio z wielkosygnałowych schematów zastępczych pokazanych na rysunku 8.10 i rysunku 8.12. Przy czym tu także obowiązuje podział na zakresy częstotliwości, zdefiniowane wcześniej dla złącza P-N oraz tranzystora bipolarnego. W zakresie małych częstotliwości nie uwzględnia się zjawisk przeładowywania pojemności oraz gromadzenia się ładunków w różnych obszarach struktury półprzewodnikowej, a więc na schemacie zastępczym nie występują elementy reaktancyjne, w przeciwieństwie do schematu dla zakresu średnich i dużych częstotliwości, gdzie ten wpływ należy uwzględnić. Z kolei wszystkie nieliniowe elementy występujące na schemacie wielkosygnałowym należy zlinearyzować i przedstawić w postaci elementów liniowych.
274
8. Tranzystor unipolarny (polowy)
Rys. 8.13. Model zastępczy tranzystora złączowego w postaci schematu elektrycznego odpowiadającego zestawowi równań admitancyjnych
Jak wynika z opisu tranzystora reprezentowanego schematem z rysunku 8.10, jedynym nieliniowym elementem tego modelu jest źródło prądowe przedstawiające nieliniową zależność prądu wyjściowego ID od napięć wejściowego UGS i wyjściowego UDS. Proces jego linearyzacji przeprowadzimy bazując na eksperymencie myślowym, gdyż sposób analityczny opiera się na zagadnieniach matematycznych, które w zasadzie nie są złożone, ale nie były tu poruszane. Zauważmy zatem, że linearyzowane przez nas źródło prądowe, jak już wcześniej wskazaliśmy, ma dwojaką naturę. Ze względu na zależność od napięcia wyjściowego, tzn. ID(UDS), jest ono rezystancją nieliniową, a ze względu na zależność od napięcia wejściowego, tzn. ID(UGS), jest ono nieliniowo sterowanym źródłem prądowym. Ponieważ prądy wynikające z obu postaci tego elementu są tym samym prądem drenu, można by rozważać je jako dwie różne składowe tego prądu. Na bazie tych przemyśleń, linearyzowany element można by wówczas przedstawić jako równoległe połączenie pewnej nieliniowej rezystancji RDS oraz pewnego nieliniowo sterowanego źródła prądowego IDGS. Tak więc linearyzacja zależności (8.5) sprowadza się do linearyzacji obu wymienionych składników niezależnie od siebie. Rezystancja nieliniowa RDS w postaci liniowej będzie po prostu rezystorem liniowym, który wiąże sygnał zmienny prądu drenu id z sygnałem zmiennym napięcia dren-źródło uds za pomocą liniowej zależności postaci id = uds /rds. Zlinearyzowanie rezystancji RDS polega więc na wyznaczeniu pochodnej zależności ID(UGS, UDS) po napięciu UDS, w wyniku czego otrzymuje się odwrotność rezystancji rds, czyli konduktancję gds. Zwana ona jest konduktancją wyjściową i w zależności od zakresu pracy tranzystora określona jest następującymi wyrażeniami: – dla stanu nienasycenia:
g ds =
∂I D = β ⋅ U GS − U p − U DS , ∂U DS
(8.7a)
– dla stanu nasycenia:
g ds =
∂I D = 0. ∂U DS
(8.7b)
(
)
Z kolei nieliniowo sterowane źródło prądowe IDGS w swojej liniowej postaci będzie wiązało sygnał zmienny prądu drenu id z sygnałem zmiennym napięcia bramka-źródło ugs za pomocą liniowej zależności postaci id = gm · ugs, gdzie gm jest liniowym parametrem mającym sens konduktancji i nazywanym transkonduktancją lub
275
8.3. Tranzystor złączowy PNFET
konduktancją przejściową. Podobnie jak gds wyznaczana jest ona jako pochodna zależności ID(UGS, UDS) po napięciu UGS i dla każdego z zakresów pracy wyrażana odmiennie: ∂I D = β ⋅ U DS , gm = (8.8a) – dla stanu nienasycenia: ∂U GS – dla stanu nasycenia:
gm =
∂I D = β ⋅ U GS − U p . ∂U GS
(
)
(8.8a)
Podsumowując, w wyniku linearyzacji nieliniowego źródła prądowego z rysunku 8.10, na schemacie dla pracy małosygnałowej przy małych częstotliwościach zamiast tego nieliniowego źródła pojawiają się dwa liniowe elementy połączone równolegle, konduktancja wyjściowa gds oraz sterowane źródło prądowe o wydajności gm · ugs. Oczywiście, schemat ten ma swoją uproszczoną wersję, w której nie uwzględnia się rezystancji szeregowych obszarów źródła i drenu ani też rezystancji złącza bramka-kanał (rysunek 8.14a), oraz wersję dokładniejszą, która uwzględnia te elementy (rysunek 8.14b). Z kolei, w zakresie średnich częstotliwości należy już uwzględnić efekty związane z istnieniem pojemności tranzystora. Zgodnie z nieliniowymi modelami tranzystora zamieszczonymi na rysunku 8.12 można stwierdzić, że liniowe schematy zastępcze w tym przypadku będą wyglądały podobnie jak na rysunku 8.14, z tą różnicą, że występować na nich będą dodatkowo pojemności warstw zaporowych Cgs i Cgd. Tak więc schematy zastępcze (w wersjach uproszczonej oraz dokładnej) dla pracy małosygnałowej przy średnich częstotliwościach przyjmują postać jak na rysunku 8.15. W przypadku dużych częstotliwości znaczenia nabiera pomijany do tej pory czas przelotu nośników przez kanał tranzystora oraz rozłożony charakter rezystancji szeregowych RS i RD. Powoduje to, że analiza działania tranzystora w takim przypadku jest bardzo złożona i wykracza poza ramy tej książki. Warto jednak wspomnieć, że często uwzględnia się wówczas jeszcze dodatkowy element, a mianowicie pojemność między źródłem a drenem Cds, również o charakterze rozłożonym, którą na schemacie zastępczym dołącza się równolegle do konduktancji wyjściowej gds.
Rys. 8.14. Liniowy model zastępczy tranzystora złączowego dla małosygnałowej pracy dynamicznej przy małych częstotliwościach – wersja uproszczona (a) oraz wersja dokładna, uwzględniająca rezystancje obszarów źródła RS i drenu RD oraz rezystancję złącza bramka-kanał RG (b)
276
8. Tranzystor unipolarny (polowy)
Rys. 8.15. Liniowy model zastępczy tranzystora złączowego dla małosygnałowej pracy dynamicznej przy średnich częstotliwościach – wersja uproszczona (a) oraz wersja dokładna, uwzględniająca rezystancje obszarów źródła RS i drenu RD oraz rezystancję złącza bramka-kanał RG (b)
Rys. 8.16. Symbole graficzne tranzystorów złączowych dla obu typów kanału w różnych wariantach
Należy też wspomnieć o sposobie graficznego przedstawiania tranzystorów złączowych na schematach obwodów elektrycznych. Istnieje dla nich kilka wariantów symboli graficznych, które zebrano na rysunku 8.16. Parametry statyczne i dynamiczne Podsumowując zagadnienia związane z tranzystorem złączowym PNFET, przedstawimy w zbiorczej formie podstawowe jego parametry [2, 13, 18] dotyczące pracy statycznej oraz dynamicznej. Niewątpliwie jednym z najważniejszych parametrów tranzystora PNFET jest wartość napięcia odcięcia Up, czyli takiego napięcia między elektrodami bramki i źródła, przy którym dochodzi do całkowitego zamknięcia kanału i zmniejszenia prądu drenu do zera. Techniczna, czyli pomiarowa definicja tego napięcia określa je jako takie napięcie UGS, przy którym prąd drenu ID osiąga bardzo małą, ale jeszcze mierzalną wartość, np. 10 µA, przy zadanej wartości napięcia UDS. Z drugiej zaś strony niemniej ważna jest maksymalna wartość prądu drenu IDSS, jaki może płynąć w tym tranzystorze. Jest to wartość prądu drenu tranzystora pracującego w zakresie nasycenia przy napięciu UGS = 0 i wynika z zakończenia możliwości sterowania tranzystorem.
277
8.3. Tranzystor złączowy PNFET
Poza tymi dwoma parametrami często podaje się również: – prąd upływu, inaczej prąd zerowy IGSS między bramką a źródłem, mierzony przy dużej wartości napięcia UGS i przy zwarciu zacisków drenu i źródła, czyli przy UDS = 0, – prąd upływu IGSO między bramką a źródłem przy rozwarciu zacisków drenu i źródła, – prąd upływu IGDO między bramką a drenem przy rozwarciu zacisków drenu i źródła, – rezystancję statyczną między drenem a źródłem RDS (ON) w stanie włączenia tranzystora przy maksymalnie otwartym kanale, czyli przy UGS = 0 oraz przy małym, bliskim zeru napięciu UDS, – rezystancję statyczną między drenem a źródłem RDS (OFF) w stanie wyłączenia tranzystora, czyli przy zamkniętym kanale, a więc przy |UGS | ≥ |Up|, – napięcie przebicia złącza bramka-kanał U(BR) GSS spowodowane napięciem UGS przy zerowej wartości napięcia UDS, przy czym przebicie to rozumiane jest jako sytuacja, w której prąd bramki IG osiąga w zasadzie pewną małą wartość, np. IG = 1 µA, ale z punktu widzenia normalnej wartości tego prądu, bardzo dużą, – napięcie przebicia między drenem a źródłem U(BR) DSS przy zwarciu bramki ze źródłem, – napięcie przebicia między drenem a źródłem U(BR) DSO przy rozwarciu bramki i źródła, – maksymalną moc dopuszczalną Pmax wydzielaną w kanale tranzystora przy długotrwałej jego pracy, niepowodującą jego uszkodzenia. W przypadku pracy dynamicznej część parametrów dynamicznych już poznaliśmy. Są to różniczkowa konduktancja wyjściowa gds i różniczkowa transkonduktancja gm, które interpretowane są jako nachylenia odpowiednich charakterystyk statycznych w danym punkcie pracy. Jednak w praktyce wyznacza się je na podstawie pomiarów jako stosunki przyrostu prądu drenu do przyrostów odpowiednich napięć przy ustalonych pozostałych napięciach, a mianowicie gm =
∆I D przy UDS = const, ∆U GS
(8.9a)
g ds =
∆I D przy UGS = const. ∆U DS
(8.9b)
Poza tymi konduktancjami definiuje się również różniczkową konduktancję wejściową ggs, choć o bardzo małej wartości, bo związaną z upływem prądu przez złącza spolaryzowane zaporowo oraz pojemności złączowe: Cgs widzianą z zacisków bramki i źródła oraz Cgd widzianą z zacisków bramki i drenu. Oprócz tych pojemności podaje się również pojemności zwarciowe – pojemność wejściową Ciss mierzoną przy zwarciu wyjścia, pojemność wyjściową Coss mierzoną przy zwarciu wejścia oraz pojemność zwrotną Crss równoważną pojemności Cgd. Czasem definiuje się jeszcze konduktancję oddziaływania zwrotnego ggd,
278
8. Tranzystor unipolarny (polowy)
która fizycznie jest konduktancją różniczkową tej części złącza bramka-kanał, która leży bliżej drenu. Ponieważ ta część złącza jest zawsze najsilniej polaryzowana zaporowo, osiąga również najmniejsze wartości, w dodatku jest zdominowana przez impedancję pojemności Cgd, a więc zazwyczaj jest po prostu pomijana. Przy jej uwzględnieniu na schemacie zastępczym pojawia się dodatkowa konduktancja dołączona do zacisków bramki i drenu. Ostatnim istotnym parametrem dynamicznym tranzystora jest maksymalna częstotliwość graniczna pracy fmax związana z czasem przelotu nośników przez kanał i zdefiniowana jako taka częstotliwość, przy której prąd wejściowy płynący przez pojemności Cgs i Cgd jest równy wydajności wyjściowego źródła prądowego gm · ugs, a jej wartość określona jest w następujący sposób f max =
µn ⋅ U p 2 ⋅ π ⋅ L2
=
σC ⋅ a 2
4 ⋅ π ⋅ε S ⋅ L2
,
(8.10)
przy czym zastosowane oznaczenia mają taki sam sens jak poprzednio.
8.4.
Tranzystor typu MIS Struktura fizyczna Tranzystory z izolowaną bramką są inną, a w zasadzie pierwotną realizacją techniczną tej samej idei, na której opierają swoje działanie wszystkie tranzystory polowe. W tych tranzystorach również dochodzi do modulacji rezystancji kanału za pomocą pola elektrycznego, przy czym modulacja ta nie opiera się na zmianie rozmiarów kanału, jak w tranzystorach złączowych, ale na zmianie jego innego parametru, mianowicie przewodności, czyli konduktywności lub inaczej rezystywności. Podstawowa struktura tego tranzystora zbudowana jest, jak w przypadku tranzystora złączowego, na półprzewodnikowym podłożu jednego z dwóch typów: typu N lub typu P (rysunek 8.17). W podłożu tym wykonuje się dwa obszary silnie domieszkowane, nazywane źródłem i drenem, o przeciwnym typie przewodnictwa niż podłoże, oddalone od siebie na bardzo małą odległość, którą później będziemy określać jako długość kanału. Do obszarów tych wykonuje się metalizowane styki z doprowadzeniami, a na resztę powierzchni podłoża nakłada się warstwę materiału izolującego (dielektryka), który w przypadku tranzystorów krzemowych najczęściej ma postać tlenku krzemu SiO2. Następnie na warstwę dielektryka bezpośrednio nad obszarem podłoża, między źródłem a drenem, nakłada się warstwę metalu stanowiącą metalową elektrodę bramki, oznaczaną, podobnie jak w przypadku tranzystora PNFET, literą G, która wraz z pozostałymi elektrodami źródła (S), drenu (D) oraz podłoża (B – ang. Body, Base, Bulk) tworzy w sumie cztery elektrody tego tranzystora. Jak widać, w tranzystorze tym również powstaną złącza P-N, jedno z nich tworzy się na styku obszaru podłoża i obszaru źródła, a drugie na styku obszaru podłoża i obszaru drenu. Jednak, w przeciwieństwie do tranzystorów złączowych, odgrywają one tu raczej rolę pasożytniczą. Z kolei odizolowanie elektrody bramki od reszty
8.4. Tranzystor typu MIS
279
Rys. 8.17. Struktura warstwowa tranzystora polowego typu MIS z kanałem typu P
podłoża za pomocą dielektryka jest bardzo ważną cechą tego typu tranzystorów, gdyż powoduje, że rezystancja wejściowa tranzystora jest bardzo duża, znacznie większa niż w przypadku tranzystorów PNFET, co jest ogromną zaletą (ewentualny prąd upływu przez dielektryk jest rzędu pikoampera). Niestety sprawia to również problemy, gdyż przy bardzo małych grubościach dielektryka brak odpływu ładunków z bramki może spowodować przebicie dielektryka i nieodwracalne uszkodzenie tranzystora. Taki niszczący ładunek może zgromadzić się np. na dłoniach osoby manipulującej tranzystorem podczas jego montażu i zostać wprowadzony na elektrodę bramki (dielektryk ładuje się jak kondensator). Dlatego też, obchodząc się z tranzystorami MIS i z układami zawierającymi takie tranzystory należy to robić po wcześniejszym uziemieniu rąk, np. za pomocą specjalnych bransolet dołączonych do potencjału zerowego, a wyprowadzenia tranzystora czy układu powinny jak najdłużej pozostawać ze sobą zwarte. Warto wspomnieć, że odległość między obszarami źródła i drenu oraz grubość dielektryka są jednymi z najważniejszych parametrów technologicznych procesu wytwarzania tych tranzystorów. Mniejsza grubość dielektryka pozwala na modulowanie rezystancją kanału za pomocą mniejszego napięcia, co ma duże znaczenie dla wydzielanej w tranzystorze mocy, natomiast od odległości między obszarami źródła i drenu zależy maksymalna częstotliwość pracy tych tranzystorów, a także gęstość upakowania pojedynczych struktur tranzystora na jednostkowej powierzchni układu scalonego, co z kolei przekłada się na koszt wytworzenia pojedynczego układu. Przez pojęcie układu scalonego należy rozumieć pojedynczą strukturę półprzewodnikową złożoną z wielu zintegrowanych ze sobą pojedynczych elementów, takich jak tranzystory, diody czy rezystory. Pewna odkryta w roku 1965 zależność, nazywana prawem Moore’a, stanowi, że liczba tranzystorów w układzie scalonym podwaja się co dwa lata i jak do tej pory się sprawdza, przy czym tak naprawdę nie wiadomo, czy wynika to z jego uniwersalności, czy może z usilnego dążenia producentów do jego zachowania. Obecne procesy technologiczne pozwalają na wytwarzanie tranzystorów w układach scalonych z kanałem o długości zaledwie kilkunastu nanometrów, czyli długości odpowiadającej kilkudziesięciu atomom sieci krystalicznej i z dielektrykiem w postaci warstwy tlenku o grubości liczonej w po-
280
8. Tranzystor unipolarny (polowy)
jedynczych cząsteczkach tego związku. Oczywiście dalsze zmniejszanie rozmiarów tranzystorów w aktualnej ich formie i przy obecnych procesach technologicznych ma swoje ograniczenia, które wynikają przede wszystkim ze zbliżania się rozmiarów tranzystora do rozmiarów pojedynczej molekuły, ale wcześniej także z utraty własności izolujących tlenku, gdzie przy tak małych jego grubościach uwidacznia się niekorzystne zjawisko tunelowego przenikania nośników przez dielektryk niezależnie od zastosowanego materiału, objawiające się przepływem prądu bramki. Współczesne procesory wiodących marek mieszczą w swojej strukturze nawet ponad 2 miliardy tranzystorów, a prognozy tworzone przez te firmy zapewniają kontynuację trendu wzrostu ich liczby jeszcze przynajmniej przez kolejną dekadę. Jeśli nie opracuje się nowych technologii wytwarzania tranzystorów, można się spodziewać załamania trendu wynikającego z prawa Moore’a, gdyż nie da się wytworzyć tranzystorów mniejszych niż pojedyncza molekuła, a zdaje się, że moment ten jest już dosyć bliski, albowiem w roku 2010 pewna firma zademonstrowała pojedynczy działający tranzystor złożony z zaledwie 7 atomów (pomijając fakt, że dwa lata później ta sama firma wykonała tranzystor, którego działanie opiera się tylko na jednym atomie, przy czym demonstracja ta miała raczej na celu ukazanie możliwości precyzyjnego manipulowania pojedynczymi atomami w tej skali, niż wytyczenie kolejnej granicy rozmiarów tranzystorów). Przy takich rozmiarach nieodzowne jest już uwzględnienie zjawisk kwantowych, które zupełnie zmienią koncepcję tranzystora jako elementu elektronicznego. Jednak omawiany przez nas tranzystor daleki jest od tej granicy i możemy go spokojnie traktować jako jeszcze mikroskopową strukturę, w której zachodzące zjawiska tłumaczyć można dobrze nam znanymi prawami klasycznej elektrostatyki. Zasady polaryzacji Ponieważ sposób polaryzacji tranzystora typu MIS zależy w dużej mierze od zjawisk zachodzących w obszarze kanału znajdującego się bezpośrednio pod warstwą dielektryka, dlatego zanim zaczniemy omawiać jego działanie, przedstawimy na początek zjawiska, jakie mogą zachodzić w tym właśnie obszarze. W tym celu wyizolujemy ze struktury z rysunku 8.17 strukturę najistotniejszą z punktu widzenia zachodzących tu zjawisk, znajdującą się pomiędzy obszarem źródła a obszarem drenu i przedstawioną na rysunku 8.18a. Struktura ta zwana jest strukturą MIS (nie jest to tranzystor) lub kondensatorem MIS (ze względu na budowę podobną do kondensatora płaskiego, gdzie dielektryk rozdziela dwa obszary przewodzące). W zależności od kierunku i wartości przyłożonego do elektrod bramki G i podłoża B napięcia UGB będą w tej strukturze zachodzić różne zjawiska. Oczywiście struktura ta może być wykonana w dwóch wersjach, tzn. z podłożem typu N lub z podłożem typu P. Jednak zachodzące zjawiska są w obu przypadkach identyczne (z dokładnością, jak zwykle, do typu nośników oraz znaku napięcia UGB). Omówimy zatem te zjawiska na przykładzie struktury z podłożem typu N. Aby zrozumieć zachodzące w tej strukturze zjawiska, należy przypomnieć, że w podłożu, jako materiale półprzewodnikowym, oprócz nośników większościowych (tu elektrony) występują również nośniki mniejszościowe (tu dziury) oraz nieruchome ładunki (tu dodatnie) zjonizowanych atomów domieszki (tu donorowej) w takiej
8.4. Tranzystor typu MIS
281
liczbie jak liczba nośników większościowych. Przy braku polaryzacji napięciem UGB podłoże półprzewodnikowe znajduje się w stanie równowagi, kiedy to koncentracja nośników jest równomierna w całym obszarze podłoża (rysunek 8.18a). W przypadku spolaryzowania struktury zajść mogą w niej trzy różne zjawiska. Jeśli doprowadzone napięcie UGB > 0, tzn. gdy na elektrodę bramki G podany zostanie potencjał dodatni źródła napięcia, a na elektrodę podłoża B potencjał ujemny, wówczas ładunek dodatni zgromadzony na elektrodzie bramki spowoduje przyciągnięcie do siebie z obszaru podłoża elektronów jako ładunków ujemnych (rysunek 8.18b). Elektrony te, nie mogąc przepłynąć przez warstwę dielektryka oddzielającą je od elektrody bramki, zaczną się gromadzić bezpośrednio pod dielektrykiem, co sprawi, że ich koncentracja w tym obszarze się zwiększy i będzie tym większa, im większą wartość będzie miało dodatnie napięcie UGB. Stan tej struktury w takim przypadku nazywany jest akumulacją, a warstwa o zwiększonej koncentracji nośników pod dielektrykiem nazywana jest warstwą akumulacyjną. W przypadku polaryzacji tej struktury niewielkim napięciem ujemnym (UGB < 0), tzn. gdy na elektrodę bramki podany zostanie potencjał ujemny, a na elektrodę podłoża potencjał dodatni, ładunek ujemny zgromadzony na elektrodzie bramki spowo-
Rys. 8.18. Ilustracja zjawisk zachodzących w strukturze (kondensatorze) MIS o podłożu typu N. W zależności od przyłożonego napięcia UGB struktura ta może znajdować się w kilku stanach: dla UGB = 0 stan równowagi (a), dla UGB > 0 stan akumulacji (b), dla UGB < 0 stan zubożenia (c), a dla UGB << 0 stan inwersji (d)
282
8. Tranzystor unipolarny (polowy)
duje odpychanie od niej elektronów znajdujących się w podłożu (rysunek 8.18c). Najsilniej odpychane będą elektrony znajdujące się najbliżej bramki, a więc bezpośrednio pod warstwą dielektryka. To spowoduje, że koncentracja elektronów w tym obszarze zmniejszy się, skutkując powstaniem obszaru ubogiego w nośniki, zawierającego jedynie odkryte teraz nieskompensowane dodatnie ładunki domieszki. Warstwę tę nazywa się warstwą zubożoną, a stan, w którym się teraz ta struktura znajduje, stanem zubożenia. Warto zwrócić uwagę na to, że warstwa zubożona jest w zasadzie identyczna z warstwą zaporową złącza P-N, ale wnikającą w jeden tylko obszar złącza. Jeśli poprzednio przyłożone napięcie ujemne zostanie zwiększone tak, że będzie teraz dużo mniejsze od zera (UGB << 0), to w wyniku zwiększenia się ujemnego ładunku na elektrodzie bramki obszar zubożenia w podłożu pod dielektrykiem oczywiście pogłębi się, ale jednocześnie z głębi podłoża zaczną być przyciągane przez ujemną bramkę nośniki mniejszościowe, czyli dziury, jako ładunki dodatnie (rysunek 8.18d). Przeciągnięte one zostaną przez obszar warstwy zubożonej i ponownie, z powodu niemożności przeniknięcia przez dielektryk, zaczną się gromadzić bezpośrednio pod nim. Im większe będzie ujemne napięcie UGB, tym więcej dziur będzie przyciąganych w ten obszar, a więc tym większa będzie tam ich koncentracja. Przy odpowiednio dużym napięciu UGB koncentracja dziur pod dielektrykiem może zrównać się, a nawet przekroczyć koncentrację elektronów, czyli nośników większościowych, w pozostałym obszarze podłoża. Stan, w którym do tego dojdzie, nazywany jest stanem inwersji, a warstwa dziur pod dielektrykiem, z powodu dużej ich koncentracji zmieniającej typ przewodnictwa na przeciwny (z elektronowego na dziurowy), nazywana jest warstwą inwersyjną. Z punktu widzenia własności elektrycznych, warstwę inwersyjną można traktować jako półprzewodnik przeciwnego typu niż podłoże (w tym przypadku typu P), choć do końca tak nie jest. Jak pamiętamy w półprzewodniku typu P znajdują się ładunki ujemne zjonizowanych domieszek, tu natomiast pozostają nadal ładunki dodatnie domieszek, nie zmieniła bowiem się struktura atomowa półprzewodnika typu N, w którym doszło do inwersji. Zaopatrzeni w tę wiedzę możemy przejść do wyjaśnienia zasady działania tranzystora MIS. Podobnie jak w przypadku tranzystora złączowego, tak i w tych tranzystorach użyteczny prąd drenu przepływa od elektrody źródła do elektrody drenu. Jak wynika z jego budowy, prąd ten będzie po drodze przepływał przez obszar podłoża znajdujący się pod dielektrykiem, który wcześniej już nazwany został kanałem. Ponieważ podłoże jest przeciwnego typu niż obszary źródła i drenu, droga od elektrody źródła do elektrody drenu wiedzie, w tym przypadku, przez strukturę typu P-N-P, przez którą, jak wiemy, prąd płynąć nie może, ewentualnie przepływać będzie jedynie znikomy prąd nasycenia jednego z dwóch złączy P-N, które są tu utworzone. Łatwo się więc domyślić, że przepływ tego prądu będzie uzależniony od jednego z trzech stanów, w jakich znaleźć się może struktura MIS. W przypadku stanu akumulacji obszar pod dielektrykiem pozostaje nadal obszarem przeciwnego typu niż obszary źródła i drenu, a więc prąd drenu nie popłynie. Sytuacji nie zmieni również wprowadzenie struktury w stan zubożenia. W tym przypadku obszary źródła i drenu są
8.4. Tranzystor typu MIS
283
rozdzielone obszarem zubożonym o znikomej koncentracji nośników, czyli bardzo słabo przewodzącym. Jeśli zaś obszar pod dielektrykiem wprowadzimy w stan inwersji, wówczas, jak pamiętamy, wytworzy się tam warstwa o przeciwnym typie przewodnictwa niż podłoże, a zatem zgodnym z typem obszarów źródła i drenu, która połączy sobą (warstwą przewodzącą) oba obszary. W tym przypadku mówimy, że doszło do powstania kanału, dzięki któremu przez tranzystor może popłynąć prąd. Napięcie, przy którym dochodzi do powstania kanału, nazywane jest napięciem progowym i oznaczane jest przez UT (czego nie należy mylić z potencjałem termicznym oznaczanym często w ten sam sposób). Należy dodać, że tranzystory MIS są wykonywane w dwóch wersjach, przy czym nie chodzi tu o rodzaj podłoża, ale o sposób wykonania obszaru kanału. W odróżnieniu od przedstawionego już rozwiązania, obszar kanału pod dielektrykiem może też stanowić półprzewodnik tego samego typu co obszary źródła i drenu. W tranzystorze takim nawet bez polaryzacji napięciem UGB obszary źródła i drenu są już „fabrycznie” połączone przewodzącą warstwą półprzewodnika i prąd przez tranzystor mógłby płynąć. Dopiero po wprowadzeniu obszaru kanału w stan zubożenia lub inwersji kanał zanika i prąd płynąć nie może. Można również uczynić odwrotnie i wprowadzić obszar kanału w stan akumulacji, co dodatkowo wzbogaci go w nośniki, których i tak jest już dużo, powodując polepszenie własności przewodzących kanału. Ponieważ oba rodzaje tranzystorów różnią się między sobą jedynie napięciem, przy którym dochodzi do powstania lub zaniku kanału i działają na tej samej zasadzie, to nadaje się im odmienne nazwy. Tranzystor, w którym bez polaryzacji napięciem UGB kanał jeszcze nie istnieje, nazywany jest tranzystorem normalnie wyłączonym lub tranzystorem z kanałem wzbogacanym (nie mylić ze słowem „wzbogaconym”). Nazwy te można kojarzyć z faktem, że normalnie kanał nie istnieje, a więc prąd płynąć nie może, i aby spowodować przepływ prądu (aby włączyć tranzystor), należy dopiero kanał wytworzyć poprzez wzbogacenie jego obszaru w odpowiednie nośniki. Z kolei tranzystor, w którym bez polaryzacji napięciem UGB kanał już istnieje, nazywany jest tranzystorem normalnie włączonym lub tranzystorem z kanałem zubożanym (nie mylić ze słowem „zubożonym”). I ponownie, nazwy te można kojarzyć z tym, że normalnie, czyli bez polaryzacji UGB, kanał już istnieje, a więc prąd może płynąć, natomiast w celu zatrzymania jego przepływu (aby tranzystor wyłączyć), należy zubożyć obszar kanału o odpowiednie nośniki. Należy zauważyć, że w tym typie tranzystorów można doprowadzić albo do wspomnianego już zaniku kanału, albo do dodatkowego jego wzbogacenia w nośniki, wprowadzając obszar kanału w stan akumulacji. W tym miejscu można już określić zasady, jakimi należy się kierować, aby poprawnie spolaryzować tranzystory typu MIS. Jak już wiemy, wyróżniamy w sumie cztery rodzaje tranzystorów MIS: z kanałem wzbogacanym typu N i typu P oraz z kanałem zubożanym typu N oraz typu P. Z uwagi na różne zachowanie się obszaru kanału każdy z tych tranzystorów polaryzować należy w inny sposób. Podstawową rzeczą, o jaką należy zadbać, jest polaryzacja złączy podłoże-źródło oraz podłoże-dren. Ponieważ chcemy, aby prąd płynął wyłącznie przez kanał, a nie przez podłoże, polaryzacja tych złączy musi zawsze być zaporowa. Zapewnia się to przez dołączenie elektrody podłoża B do potencjału mniejszego od potencjałów
284
8. Tranzystor unipolarny (polowy)
elektrod źródła S i drenu D (w przypadku kanału typu N) lub do potencjału wyższego od potencjałów tych elektrod (w przypadku kanału typu P). Napięcie UDS podłącza się na identycznych zasadach jak w przypadku tranzystora PNFET, czyli w taki sposób, aby prąd płynący w kanale danego typu płynął od obszaru źródła do obszaru drenu. Zależeć to będzie, jak pamiętamy, wyłącznie od typu kanału (niezależnie od tego, czy mamy do czynienia z kanałem wzbogacanym, czy zubożanym), przy czym należy pamiętać, że typ kanału w tych tranzystorach jest zawsze przeciwny do typu podłoża, na którym wykonano tranzystor, np. określenie tranzystora z kanałem wzbogacanym typu P oznacza, że wykonano go na podłożu typu N, ale kanał, gdy powstanie, jest właśnie typu P. Z kolei kierunek napięcia UGB będzie zależał nie tylko od typu kanału (podłoża), ale również od sposobu jego wykonania (wzbogacany lub zubożany). W przypadku tranzystorów z kanałem wzbogacanym typu N polaryzacja normalna oznacza, że do powstania kanału, czyli wystąpienia stanu inwersji pod dielektryk, muszą zostać przyciągnięte elektrony, a więc na elektrodę bramki należy podać potencjał dodatni, czyli napięcie UGB > 0, z kolei w przypadku kanału typu P, gdzie w stanie inwersji pod dielektryk przyciągnięte muszą zostać dziury, bramka musi mieć potencjał ujemny, a więc napięcie UGB < 0. W przypadku tranzystora z kanałem zubożanym typu N, gdzie kanał istnieje przy UGB = 0, polaryzacja normalna oznacza, że do spowodowania zaniku kanału jego obszar należy wprowadzić w stan zubożenia, co uzyskuje się poprzez wypchnięcie z tego obszaru elektronów za pomocą ujemnego potencjału na bramce, czyli przy UGB < 0, natomiast w celu dodatkowego wzbogacenia kanału jego obszar należy wprowadzić w stan akumulacji, co osiąga się poprzez przyciągnięcie dodatkowych elektronów za pomocą dodatniego potencjału na bramce, czyli przy UGB > 0. Z kolei w przypadku kanału typu P jego likwidację, czyli stan zubożenia, uzyskuje się, wypychając z niego dziury za pomocą dodatnio spolaryzowanej bramki, czyli przy UGB > 0, a dodatkowe wzbogacenie w dziury – przez ich przyciągnięcie ujemnym potencjałem na bramce, czyli przy UGB < 0. Jak zatem widać, tranzystory z kanałem zubożanym mogą być polaryzowane napięciem UGB w obu kierunkach. Ponieważ tranzystory MIS mogą pracować z reguły tylko w trzech układach połączeń, tzn. ze wspólnym źródłem, ze wspólnym drenem lub ze wspólną bramką (konfiguracja ze wspólnym podłożem też istnieje, ale występuje w zasadzie jedynie w układach scalonych, gdzie podłoże jest potencjałem odniesienia dla potencjałów w pozostałych punktach układu), to aby końcówkowo odpowiadały formie czwórnika, zacisk podłoża B jest najczęściej zwierany z zaciskiem źródła S już wewnątrz struktury tranzystora (obowiązuje to przede wszystkim w przypadku tranzystorów w postaci elementów dyskretnych). Wówczas tranzystor ma wyprowadzone tylko trzy elektrody, a napięcie UGB jest tożsame z napięciem UGS.. A ponieważ układ ze wspólnym źródłem, podobnie jak w przypadku tranzystorów złączowych, jest bardziej popularny, taki właśnie układ połączenia będziemy w domyśle dalej rozważać. Można wówczas, jak w przypadku tranzystora PNFET, wyróżnić wejście tranzystora, czyli zaciski G-S, którego napięciem jest napięcie UGS oraz wyjście, czyli zaciski D-S, którego napięciem jest napięcie UDS.
285
8.4. Tranzystor typu MIS
Podsumowując, polaryzację normalną tranzystora MIS uzyskuje się na cztery sposoby, w zależności od jego typu, przy czym należy je rozumieć tak, że w przypadku kanału wzbogacanego chodzi o jego wytworzenie, a w przypadku kanału zubożanego chodzi o jego zanik: – dla tranzystorów z kanałem wzbogacanym typu N: UGS > 0, UDS > 0, – dla tranzystorów z kanałem wzbogacanym typu P: UGS < 0, UDS < 0, – dla tranzystorów z kanałem zubożanym typu N: UGS < 0, UDS > 0, – dla tranzystorów z kanałem zubożanym typu P: UGS > 0, UDS < 0. Rodziny charakterystyk statycznych Ponownie interesują nas zależności występujące między wartością prądu wyjściowego płynącego przez kanał, czyli prądu ID, a wartością napięcia wejściowego UGS oraz wartością napięcia wyjściowego UDS. Jak już wcześniej wspomniano, w przypadku tranzystorów polowych wyróżnia się tylko dwie zależności: – charakterystykę przejściową, czyli zależność – charakterystykę wyjściową, czyli zależność
I D (U GS ) I D (U DS )
oraz U DS = const U GS = const
Ponieważ zjawiska zachodzące w tranzystorach z kanałem wzbogacanym i z kanałem zubożanym są identyczne, a różnice polegają jedynie na wartości napięcia UGS, przy której dochodzi do zaniku lub powstania kanału, to omawiając te charakterystyki, nie będziemy rozróżniać pomiędzy jednym a drugim typem kanału, a analizę zjawisk przeprowadzimy dla tranzystora z kanałem wzbogacanym typu N. Przedstawione dalej zestawienie porównawcze charakterystyk tranzystorów o wszystkich czterech typach kanału powinno już do końca wyjaśnić ewentualne niejasności. W przypadku charakterystyki przejściowej załóżmy ponownie, że napięcie UDS jest małe, prawie bliskie zeru. Wówczas, przy braku polaryzacji bramki, tzn. przy UGS = 0, brakuje kanału łączącego obszary źródła i drenu (rysunek 8.19a), a więc prąd drenu jest równy zeru. W miarę wzrostu napięcia UGS obszar pod dielektrykiem wchodzi w stan zubożenia (rysunek 8.19b), co nadal nie sprzyja przepływowi prądu. Dopiero gdy napięcie UGS osiągnie wartość napięcia progowego UT, obszar pod bramką zaczyna wchodzić w stan inwersji, a więc zaczyna powstawać kanał łączący obszar źródła z obszarem drenu (rysunek 8.19c). Na początku koncentracja nośników w powstającym kanale jest mała, więc jego rezystywność, a przez to i rezystancja jest duża. Jednak w miarę dalszego zwiększania napięcia UGS koncentracja nośników w kanale zwiększa się (rysunek 8.19d) i rezystancja kanału spada, co powoduje wzrost wartości prądu drenu ID. Okazuje się, że po powstaniu kanału przyrosty prądu drenu w funkcji napięcia UGS są liniowe, a więc charakterystyka przejściowa dla małych wartości napięcia UDS ma kształt linii prostej rozpoczynającej się w punkcie, gdzie napięcie UGS = UT. Podobnie jak w przypadku tranzystora PNFET, przyjmuje się, że napięcie UDS, przy małych jego
286
8. Tranzystor unipolarny (polowy)
Rys. 8.19. Ilustracja powstawania kanału w tranzystorze polowym typu MIS – brak kanału przy napięciu UGS = 0 (a), powstanie warstwy zubożonej przy niewielkim napięciu UGS > 0 (b), początek powstawania kanału przy UGS = UT (c) oraz w pełni uformowany kanał typu N przy napięciu UGS > UT (d)
wartościach, nie wpływa na szerokość kanału i z punktu widzenia napięcia UDS kanał traktować można jako rezystor liniowy, którego rezystancja jest modulowana napięciem UGS. Wykresy charakterystyk przejściowych tranzystora MIS dla różnych napięć UDS zamieszczono na rysunku 8.20. Zwiększenie napięcia UDS powoduje, że przy danym napięciu UGS, czyli przy danej rezystancji kanału, popłynie większy prąd drenu, stąd charakterystyki dla większych napięć UDS „podnoszą się”.
Rys. 8.20. Wykres przykładowych charakterystyk przejściowych tranzystora polowego typu MIS z kanałem wzbogacanym typu N
8.4. Tranzystor typu MIS
287
W przypadku charakterystyk wyjściowych załóżmy, że napięcie UGS > UT, czyli że istnieje kanał przewodzący w tranzystorze i jest równomiernie rozłożony na swej długości między obszarami źródła i drenu. W takiej sytuacji wzrost napięcia UDS powoduje również wzrost prądu drenu ID (odcinek OA na przykładowej charakterystyce z rysunku 8.21d), przy czym, jak w przypadku tranzystora PNFET, przy niewielkich napięciach UDS przyrosty prądu drenu są liniowe, a więc kanał tranzystora traktować można jako rezystor liniowy (zmiany tego napięcia w pobliżu wartości zero nie powodują praktycznie żadnych zmian kanału), a jego rezystancję ustala jedynie napięcie UGS. Z kolei dla większych wartości napięcia UDS w tym tranzystorze również należy uwzględnić rozkład potencjału wzdłuż kanału ze względu na jego określoną długość. Potencjał ten rośnie w miarę oddalania się od obszaru źródła, a więc w pobliżu obszaru drenu jest największy. To powoduje, że różnica potencjałów między bramką a obszarem kanału zmienia się wzdłuż niego, a ponieważ kierunki napięć UGS i UDS są takie same, różnica ta zmniejsza się przy drenie jest najmniejsza. Przykładowo, jeśli napięcie UGS = 5 V, a napięcie UDS = 2 V, wówczas w pobliżu źródła kanał ma potencjał praktycznie równy zero (w odniesieniu do elektrody źródła) i napięcie między bramką a tym punktem kanału wyniesie prawie 5 V, przy
Rys. 8.21. Ilustracja zjawiska zwężania kanału przy wzroście napięcia UDS w tranzystorze polowym typu MIS z kanałem typu N – przypadek zwężenia kanału dla napięcia UDS < UDS sat (a), odcięcia kanału przy napięciu UDS = UDS sat (b) oraz skrócenia kanału przy napięciu UDS > UDS sat (c) i wynikający z tego kształt charakterystyki wyjściowej (d)
288
8. Tranzystor unipolarny (polowy)
drenie z kolei kanał ma praktycznie taki potencjał jak elektroda drenu, czyli prawie równy 2 V i napięcie, czyli różnica potencjałów między bramką a tym punktem w kanale wyniesie już 3 V, a więc mniej niż przy źródle. To spowoduje, że stan inwersji, który doprowadził do powstania kanału, jest nieco słabszy przy drenie niż przy źródle, a więc i mniejsza jest tam koncentracja nośników, a przez to warstwa zubożona, która ogranicza obszar kanału, staje się w kanale coraz szersza, częściowo go pochłaniając, czyli zwężając (rysunek 8.21a). To powoduje, że rezystancja kanału wzrasta w miarę wzrostu napięcia UDS i kanału nie można już traktować jako rezystora liniowego (przyrost prądu drenu nie jest już liniowo zależny od wzrostu napięcia UDS, co reprezentuje nieliniowy fragment charakterystyki między punktami A i B na rysunku 8.21d). Zjawisko zawężania się kanału przy drenie można również tłumaczyć rozszerzającą się warstwą zaporową spolaryzowanego zaporowo złącza P-N powstałego na styku obszaru drenu i obszaru podłoża, która w miarę wzrostu napięcia UDS wnika coraz głębiej w kanał i w podłoże, powodując właśnie zwężanie się kanału. W miarę dalszego wzrostu napięcia UDS, przy pewnej jego wartości dojdzie w końcu do takiego osłabienia stanu inwersji przy drenie (czy inaczej, do takiego poszerzenia się warstwy zaporowej złącza dren-podłoże), że w punkcie najbliższym obszarowi drenu dojdzie do zaniku kanału i warstwa zubożona lub zaporowa zetknie się z warstwą dielektryka, odcinając istniejący kanał od obszaru drenu, co zilustrowano na rysunku 8.21b. Stan taki nazywany jest odcięciem kanału, a napięcie, przy którym do tego dochodzi – napięciem nasycenia (któremu na rysunku 8.21d odpowiada punkt B) i określone jest znanym już wzorem UDS sat = = UGS – UT. Dalszy wzrost napięcia UDS spowoduje już tylko odsunięcie się kanału od drenu (rysunek 8.21c) i nasycenie się prądu drenu, czyli brak jego zmian pomimo wzrostu napięcia UDS (odcinek BC na rysunku 8.21d). Przyczyny tego zjawiska już omówiono przy okazji omawiania tranzystora PNFET, więc nie będą tu powtarzane. Warto jedynie zwrócić uwagę na to, że w tym przypadku również należy uwzględnić efekt skracania kanału, powodujący nieznaczny wzrost prądu drenu, czyli odchylenie charakterystyk wyjściowych od linii poziomych w zakresie nasycenia (czego już nie zobrazowano na wykresie). Wykresy charakterystyk wyjściowych tranzystora MIS dla różnych wartości napięcia UGS pokazano na rysunku 8.22. Na charakterystykach wyjściowych tranzystorów MIS stany nasycenia, nienasycenia i zatkania określa się identycznie jak w przypadku tranzystora PNFET. Dwa pierwsze zakresy, jak wiemy, rozdziela parabola złożona z punktów, dla których napięcie UDS = UDS sat. Z kolei zakres odcięcia (zatkania) ogranicza od góry charakterystyka o minimalnej wartości prądu, czyli taka, dla której UGS = UT. Aby podać ogólne warunki na wartości napięć dla każdego zakresu pracy, z uwagi na istnienie dwóch rodzajów tranzystorów MIS, z kanałem wzbogacanym i z kanałem zubożanym, należy warunki te rozdzielić między te dwa rodzaje tranzystorów.
8.4. Tranzystor typu MIS
289
Rys. 8.22. Wykres przykładowych charakterystyk wyjściowych tranzystora polowego typu MIS z kanałem wzbogacanym typu N
Dla tranzystorów wzbogacanych, niezależnie od typu kanału, warunki te są następujące: – stan nienasycenia (normalny): |UGS | > |UT |, przy |UDS | < |UDS sat |, gdzie UDS sat = = UGS – UT, – stan nasycenia: |UDS | ≥ |UDS sat |, przy |UGS| > |UT |, – stan zatkania: |UGS | ≤ |UT |. Natomiast dla tranzystorów zubożanych warunków tych nie da się zapisać w tak ogólnej formie i należy już rozróżnić między kanałem typu N a kanałem typu P. Tak więc, dla tranzystora z kanałem typu N warunki te przedstawiają się następująco: – stan nienasycenia: UGS > UT (pamiętając, że UT < 0), przy 0 < UDS < UDS sat (gdyż UDS sat > 0), – stan nasycenia: UDS ≥ UDS sat, przy UGS > UT, – stan zatkania: UGS ≤ UT, a dla tranzystora z kanałem typu P: – stan nienasycenia: UGS < UT (pamiętając, że UT > 0), przy UDS sat < UDS < 0 (gdyż UDS sat < 0), – stan nasycenia: UDS ≤ UDS sat, przy UGS < UT, – stan zatkania: UGS ≥ UT. Podane wyżej warunki powinny stać się bardziej zrozumiałe po przedstawieniu charakterystyk tego typu tranzystora we wspólnym układzie współrzędnych dla wszystkich czterech jego wariantów. Jak widać na rysunku 8.23, z punktu widzenia napięcia progowego UT tranzystor wzbogacany różni się od tranzystora zubożanego jedynie wartością tego parametru, który dla obu rodzajów tranzystorów przy tym samym typie kanału ma znak przeciwny. Inaczej mówiąc, napięcie progowe UT tranzystora
290
8. Tranzystor unipolarny (polowy)
Rys. 8.23. Porównanie wykresów charakterystyk przejściowych i wyjściowych tranzystorów polowych typu MIS z różnymi rodzajami kanału – kanał wzbogacany typu N (a), kanał zubożany typu N (b), kanał wzbogacany typu P (c) oraz kanał zubożany typu P (d)
zubażanego jest przesunięte na osi napięć UGS poza wartość zero na przeciwną jej stronę w stosunku do napięcia progowego UT tranzystora wzbogacanego. Przeprowadzając z kolei analizę ilościową, można wyprowadzić analityczną postać zależności tworzących charakterystyki statyczne tranzystora MIS. Również tu podamy jedynie uproszczone wyrażenia, które zostały wyprowadzone w [13, 18]. Okazuje się, że są one identyczne z wyrażeniami obowiązującymi dla tranzystora PNFET o szpilkowym rozkładzie domieszek w kanale, a mianowicie: – w zakresie nienasycenia: U2 I D = β ⋅ (U GS − UT ) ⋅ U DS − DS , (8.11a) 2 – w zakresie nasycenia: β 2 (8.11b) I D = I D sat = ⋅ (U GS − UT ) , 2 Z przy czym b = µn · Ci · , L
8.4. Tranzystor typu MIS
291
gdzie Ci jest pojemnością warstwy dielektryka, a pozostałe oznaczenia mają taki sam sens jak poprzednio. Modele zastępcze W przypadku tranzystora MIS jego najprostszy model zastępczy dla pracy statycznej można przedstawić identycznie jak dla tranzystora PNFET, po prostu w postaci źródła prądowego umieszczonego między zaciskami źródła i drenu o wydajności nieliniowo zależnej od napięć UGS oraz UDS według zależności (8.11). Zakłada się przy tym, że prądy podłoża oraz bramki nie płyną. Schemat elektryczny wynikający z takiego modelu zamieszczono na rysunku 8.24a. Czasem wygodnie jest też skorzystać z modelu analogicznego do modelu Ebersa-Molla opisującego tranzystor bipolarny. Ma on wówczas postać jak na rysunku 8.24b, gdzie źródła prądowe o wydajności U U I DSs = β ⋅ U GB − UT − DB ⋅ U DB oraz I SDs = β ⋅ (U GB − UT − ) SB ⋅ U SB (8.12) 2 2 reprezentują prądy płynące przez złącza P-N pewnego abstrakcyjnego tranzystora bipolarnego utworzone między elektrodą bramki a elektrodami źródła i drenu, przy czym wartość współczynnika wzmocnienia prądowego a = 1, ponieważ prąd bramki (prąd bazy analogicznego tranzystora bipolarnego) jest równy zeru.
Rys. 8.24. Nieliniowe modele zastępcze tranzystora polowego typu MIS dla pracy statycznej – najprostszy, w postaci źródła prądowego opisującego zmiany rezystancji kanału (a), inna postać będąca analogią modelu Ebersa-Molla dla tranzystora bipolarnego (b) oraz dokładny, uwzględniający prąd upływu bramki IG za pomocą rezystancji RGS i RGD, prądy upływu podłoża (prądy wsteczne złączy P-N) za pomocą źródeł prądowych IjS i IjD, a także rezystancje obszarów źródła RS, drenu RD i podłoża RB (c)
292
8. Tranzystor unipolarny (polowy)
W dokładniejszym modelu, za pomocą rezystancji RGS i RGD, uwzględnia się prąd bramki IG, będący prądem upływu przez dielektryk między bramką a obszarem źródła oraz między bramką a obszarem drenu. Poza tym w rzeczywistości wpływ swój objawiają również zaporowo spolaryzowane złącza podłoże-źródło oraz podłoże-dren, których prądy wsteczne, choć niewielkie, płyną jako prąd upływu podłoża IB. Na schemacie zastępczym złącza te reprezentowane są w najprostszy sposób, czyli jedynie przez nieliniowe źródła prądowe, tutaj IjS i IjD. Dodatkowo, znaczenia nabierają również rozłożone (rozproszone) rezystancje obszarów źródła RS, drenu RD i podłoża RB. Tak uszczegółowiony, najpełniejszy model przedstawiony jest schematem zastępczym na rysunku 8.24c. Z kolei, w przypadku pracy dynamicznej nieliniowej model zastępczy uzyskuje się, jak poprzednio w przypadku tranzystora PNFET, przez uwzględnienie w modelu statycznym pojemności występujących w różnych obszarach tranzystora (rysunek 8.25). Są to przede wszystkim pojemności dielektryka: Cgsi (między elektrodą bramki a obszarem kanału w pobliżu źródła), Cgdi (między elektrodą bramki a obszarem kanału w pobliżu drenu) i Cgbi (między elektrodą bramki a obszarem podłoża), pojemności warstwy zubożonej oddzielającej kanał od podłoża: Cbsi (między podłożem a obszarem kanału przy źródle), Cbdi (między podłożem a obszarem kanału przy drenie) oraz pojemności spolaryzowanych zaporowo złączy P-N: Cjs (złącza podłoże-źródło) i Cjd (złącza podłoże-dren). Przy dokładniejszym opisie uwzględnia się też pojemności tych części dielektryka, w których elektroda bramki zachodzi na obszary źródła i drenu, a mianowicie odpowiednio pojemność Cgse oraz pojemność Cgde. Wszystkie one powodują przepływ prądów ładowania i rozładowywania wspomnianych obszarów tranzystora, co stanowi dodatkowe składowe prądu drenu oprócz składowej zasadniczej wynikającej z normalnej pracy tranzystora. Należy również pamiętać, że pojemności te są pojemnościami nieliniowymi, gdyż ich wartości silnie zależą od zakresu pracy tranzystora, a przede wszystkim od stanu struktury MIS, a więc od napięć polary-
Rys. 8.25. Interpretacja fizyczna pochodzenia głównych pojemności oraz rezystancji szeregowych występujących w tranzystorze polowym typu MIS
8.4. Tranzystor typu MIS
293
zujących [13, 18]. Uproszczony schemat zastępczy tranzystora MIS uzupełniony jedynie o pojemności dielektryka pokazano na rysunku 8.26a, a przy założeniu zwarcia podłoża ze źródłem pominąć można zwartą w ten sposób pojemność Cgbi i wówczas schemat ten upraszcza się dodatkowo do postaci ukazanej na rysunku 8.26b. Najpełniejszy model, uzupełniony nie tylko o pozostałe pojemności, ale i o rezystancje szeregowe obszarów półprzewodnikowych, przedstawiony jest na rysunku 8.26c, przy czym pojemności Cgs i Cgd wynikają z równoległego połączenia odpowiednich pojemności dielektryka Cgs = Cgsi + Cgse oraz Cgd = Cgdi + Cgde a rezystancje RSB i RDB są rozproszonymi rezystancjami obszaru podłoża przy źródle oraz przy drenie, natomiast ponownie nie uwzględnia się rezystancji bramki RG (izolatora) jako znacznie większej od dołączonych do niej równolegle impedancji pojemności dielektryka. W przypadku pracy małosygnałowej tranzystor można analizować w postaci czwórnika, a ponieważ jego model będzie w tym przypadku taki sam jak w przypadku tranzystora PNFET, nie będziemy powtarzać tutaj ponownie tych zagadnień.
Rys. 8.26. Nieliniowe modele zastępcze tranzystora polowego typu MIS dla pracy dynamicznej przy średnich częstotliwościach – najprostszy, uwzględniający jedynie pojemności izolatora (a), w wersji ze źródłem zwartym z podłożem (b) oraz pełny, uwzględniający wszystkie występujące pojemności oraz rezystancje szeregowe obszarów tranzystora (c)
294
8. Tranzystor unipolarny (polowy)
Podobnie zresztą potraktujemy model fizyczny dla pracy małosygnałowej przy małych częstotliwościach. Ponieważ nie występują w nim pojemności, a nieliniowa zależność prądu drenu od napięć polaryzujących jest identyczna, jak dla tranzystora PNFET, to również schemat zastępczy tranzystora MIS i parametry go opisujące będą identyczne, co zilustrowano na rysunku 8.27a bez dodatkowego komentarza. Nieco inaczej wygląda model dla większych częstotliwości. Tu, jak wiemy, pojemności występujące w tranzystorze PNFET i tranzystorze MIS różnią się od siebie, choć podstawowy schemat zastępczy dla średnich częstotliwości wygląda znowu niemal identycznie (rysunek 8.27b), przy czym Cgs = Cgsi + Cgse + Cgbi oraz Cgd = Cgdi + Cgde Dla dużych częstotliwości natomiast (rysunek 8.27c) uwzględnić należy ponadto zależność transkonduktancji gm od częstotliwości, rozproszone rezystancje różniczkowe zarówno podłoża rb, jak i kanału rc zlinearyzowane w danym punkcie pracy, pojemności dielektryka przy obszarach kanału Cgc, źródła Cgs i drenu Cgd oraz pojemności warstw zaporowych obu złączy, pamiętając o tym, że one również mają postać zlinearyzowaną. Fizyczną interpretację wymienionych elementów pokazano na rysunku 8.27d.
Rys. 8.27. Liniowe modele zastępcze tranzystora polowego typu MIS dla pracy małosygnałowej – przy małych częstotliwościach (a), przy średnich częstotliwościach (b) oraz przy dużych częstotliwościach (c), dodatkowo zilustrowano fizyczną interpretację pochodzenia poszczególnych elementów (d)
295
8.4. Tranzystor typu MIS
Rys. 8.28. Symbole graficzne tranzystorów polowych typu MIS dla wszystkich rodzajów i typów kanału
Jeśli chodzi o symbole graficzne reprezentujące tranzystory MIS na schematach obwodów elektrycznych, to ich różnorodność jest nawet większa niż w przypadku tranzystorów złączowych, co wynika z istnienia dwóch rodzajów kanału, zamiast jednego. Symbole te przedstawione są na rysunku 8.28 wraz z podziałem na rodzaj kanału (wzbogacany lub zubożany) oraz na jego typ (N lub P). Parametry statyczne i dynamiczne Jak już wiemy, najważniejszym parametrem tranzystorów polowych [2, 13, 18] jest wartość napięcia, przy której tranzystor jest na granicy przewodzenia i nieprzewodzenia. W przypadku tranzystorów MIS jest to napięcie progowe UT. Techniczna definicja tego napięcia niczym się nie różni od tej podanej dla tranzystora PNFET, ale okazuje się, że w przypadku wyprowadzenia elektrody podłoża B zależy ono od napięcia UBS między podłożem a źródłem, a przybliżone wyrażenie na tę zależność jest następujące UT (U BS ) ≈ UT (U BS =0) + k ⋅ U BS .
(8.13)
Warto jeszcze tylko wspomnieć, że w przypadku tranzystorów z kanałem wzbogacanym napięcie to często oznacza się przez UGS (th) (ang. Threshold) lub UGS (TO), w przypadku zaś tranzystorów z kanałem zubożanym przez UGS (OFF), co nawiązuje do napięcia odcięcia w tranzystorach PNFET. Drugim kluczowym parametrem jest wartość prądu nasycenia IDSS mierzona przy napięciu UGS = 0 i przy określonej wartości napięcia UDS, przy czym dla tranzystorów z kanałem wzbogacanym jest to prąd wsteczny złącza podłoże-dren, gdyż kanał przewodzący jeszcze nie istnieje i jest to jedyny prąd drenu, jaki płynie wówczas przez tranzystor, natomiast w tranzystorach z kanałem zubożanym jest to prąd mierzony w stanie nasycenia tranzystora. Kolejnym istotnym parametrem jest prąd upływu przez dielektryk, czyli prąd bramki IGSS, mierzony przy UDS = 0 i określonej wartości napięcia UGS, zawierającej się między 50 a 80% wartości napięcia U(BR) GSS, którego sens wyjaśniono dalej.
296
8. Tranzystor unipolarny (polowy)
Innymi ważnymi parametrami są napięcia przebicia. Jedno z nich to napięcie przebicia dielektryka między bramką a podłożem, oznaczane przez U(BR) GSS (ang. BReakdown) i mierzone między bramką a źródłem przy UDS = 0. Następne to dwa napięcia przebicia między drenem a źródłem, pierwsze oznaczane przez U(BR) DSS, mierzone przy napięciu UGS = 0, a drugie oznaczane przez U(BR) DSO, mierzone przy rozwarciu zacisków bramki i źródła. Warto dodać, że mogą to być przebicia lawinowe lub skrośne, których istotę wyjaśniono w części dotyczącej złącza P-N i tranzystora bipolarnego. Poza tym wymienia się również następujące parametry: – maksymalny prąd drenu ID max jako prąd, przy którym niemożliwe staje się już sterowanie tranzystorem, – maksymalne dopuszczalne napięcie między drenem a źródłem UDS max, – rezystancja statyczna między drenem a źródłem RDS (ON) w stanie włączenia tranzystora przy jego maksymalnym prądzie ID max, – rezystancja statyczna między drenem a źródłem RDS (OFF) w stanie wyłączenia tranzystora, czyli przy braku kanału, – maksymalna dozwolona moc Pmax, która może się wyzwalać w kanale podczas długotrwałej pracy tranzystora bez jego uszkodzenia. Natomiast spośród parametrów dynamicznych warto wymienić, znane już zresztą: – konduktancję wejściową ggs, będącą bardzo małą konduktancją izolatora bramki, – transkonduktancję lub konduktancję przejściową gm, zdefiniowaną analogicznie, jak w przypadku tranzystora PNFET, – konduktancję wyjściową gds, widzianą między zaciskami drenu i źródła. Parametry te można wyznaczyć, jak pamiętamy, jako nachylenia odpowiednich charakterystyk statycznych w danym punkcie pracy. Poza tym bardzo ważnymi parametrami dynamicznymi są omówione już pojemności Cgsi, Cgse, Cgdi, Cgde, Cgbi, Cjs, Cjd, Cbsi, Cbdi oraz maksymalna częstotliwość graniczna pracy tranzystora, wynikająca z ograniczonego czasu przelotu nośników przez kanał, zdefiniowana identycznie jak w przypadku tranzystora PNFET, przy czym tutaj jej wartość określona jest następująco: f max =
µ ⋅ U −U gm = n GS 2 T , 2 ⋅ π ⋅ C gs 2⋅π⋅ L
(8.14)
a zastosowane oznaczenia mają taki sam sens jak poprzednio.
8.5.
Pozostałe tranzystory polowe W tej części jedynie wspomnimy o innych tranzystorach polowych, będących różnymi odmianami i wyspecjalizowanymi realizacjami podstawowych struktur dotąd przez nas poznanych. Wymienić tu warto tranzystory: – MESFET – tranzystory mikrofalowe, przeznaczone do zastosowań w zakresie wielkich częstotliwości; najczęściej produkowane z arsenku galu (GaAs), gdyż
8.5. Pozostałe tranzystory polowe
297
materiał ten charakteryzuje się dużą ruchliwością nośników, co zwiększa maksymalną częstotliwość pracy; poza tym, jak wspomnieliśmy, wykonywane są ze złączem m-s, zamiast P-N, co jest głównym czynnikiem poszerzającym zakres częstotliwości ich pracy; – TFT – tranzystory cienkowarstwowe, wykonane na podłożu izolacyjnym, np. szkło, szafir, z naniesioną cienką, często przezroczystą warstwą półprzewodnika, który stanowi kanał w tym typie tranzystorów; z początku miały być wykorzystane do wykonywania bardzo małych układów scalonych, jednak ich główne przeznaczenie okazało się inne; mianowicie wykorzystuje się je przy produkcji wyświetlaczy ciekłokrystalicznych (LCD – ang. Liquid Crystal Display) stosowanych przede wszystkim w monitorach komputerowych, telewizorach czy w telefonach komórkowych; poprawiają one znakomicie jakość obrazu w stosunku do klasycznych wyświetlaczy LCD i od czasu ich pierwszego wykorzystania w tych urządzeniach przeszły ogromną zmianę; obecnie uproszczono ich produkcję do tego stopnia, że możliwe jest wykonanie tranzystorów TFT metodą nadruku czy nanoszenia warstwy półprzewodnikowej w postaci ciekłego polimeru (związku chemicznego), przy czym, jeśli użyte zostaną, ostatnio popularne, półprzewodniki organiczne, to tranzystory takie określa się mianem OFET (ang. Organic FET); obniża to diametralnie koszty wykonania wyświetlaczy i pozwala ponadto na wytwarzanie wyświetlaczy elastycznych, które można np. zwijać w rulon lub dopasować do zakrzywionych powierzchni; – DEPFET (ang. Depleted FET) – tranzystory wykonane w podłożu całkowicie zubożonym; mają zastosowanie jednocześnie jako sensory i wzmacniacze w węzłach pamięci półprzewodnikowych; mają również zastosowanie jako detektory obrazu; – DNAFET – pełnią funkcję biosensorów, wykorzystując bramkę utworzoną z pojedynczej nici cząsteczki DNA, czyli cząsteczki będącej nośnikiem kodu genetycznego, służą do wykrywania pasującej drugiej połowy tej nici; używane w badaniach biogenetycznych; – HEMT (ang. High Electron Mobility Transistor) lub HFET (ang. Heterostructure FET) – charakteryzują się dużymi szybkościami działania; – ISFET (ang. Ion-Sensitive FET) – używany jako elektroda pH do pomiaru koncentracji jonów w roztworach; – MODFET (ang. Modulation-Doped FET) – wykorzystuje struktury zwane studniami kwantowymi; – NOMFET (ang. Nanoparticle Organic Memory FET) – dzięki umieszczeniu złotych nanocząsteczek w organicznym związku chemicznym, zwanym pentacenem, tranzystory te w działaniu naśladują pewną ważną cechę synaps, czyli połączeń nerwowych między komórkami nerwowymi, a mianowicie ich plastyczność, czyli możliwość dopasowywania prędkości i siły sygnału rozchodzącego się między neuronami; taka właściwość tych tranzystorów rokuje nadzieje na wykonanie sprawniejszych układów odwzorowujących procesy poznawcze zachodzące w mózgu ludzkim, takie np. jak rozpoznawanie i przetwarzanie obrazów;
298
8. Tranzystor unipolarny (polowy)
– CNTFET (ang. Carbon Nanotube FET) – tranzystory oparte na modnej ostatnio nanotechnologii, wykorzystujące jako kanał nanometrowych rozmiarów związki węgla w kształcie długich rurek; – GNRFET (ang. Graphene Nanoribbon FET) – podobnie jak tranzystory CNTFET, te wykorzystują jako kanał jeszcze nowszy materiał – grafen – będący czystym związkiem węgla w postaci warstw o grubości jednego atomu; wchodzą one w skład dobrze znanego nam grafitu, jednak w produkcji pojawił się bardzo niedawno, bo w roku 2008 i od tego czasu rodzi nadzieje jako materiał, który zastąpi krzem i inne materiały półprzewodnikowe, osiągające już swój limit jako podstawowe materiały budowy tranzystorów; grafen, ze względu na swoją „grubość”, praktycznie całkowicie przepuszcza światło, co predysponuje go do zastosowania w roli przezroczystego materiału przewodzącego, tak bardzo potrzebnego w wyświetlaczach lub w ogniwach słonecznych, a ponadto grafen cechuje się bardzo dobrą przewodnością ze względu na ekstremalnie duże wartości ruchliwości elektronów; – TFET (ang. Tunnel FET) – działa opierając się na zjawisku tunelowania nośników; – CCD (ang. Charge-Coupled Devices) – choć w zasadzie nie jest to tranzystor, a raczej element funkcjonalny, którego nie da się wykonać z elementów dyskretnych (osobnych, indywidualnych), został tu wymieniony, ponieważ jego działanie opiera się na działaniu struktury MIS; należy on do grupy przyrządów o sprzężeniu ładunkowym, w których ładunki przemieszczane są sekwencyjnie z jednego obszaru elementu do drugiego w wyniku specyficznego cyklu zmian potencjałów na bramkach; dzięki opanowaniu technologii wytwarzania tych elementów najpopularniejsze zastosowanie znalazły w przetwornikach obrazu tak powszechnych obecnie kamer czy aparatów cyfrowych.
9.
Elementy przełączające
W rozdziale tym zajmiemy się elementami działającymi na zasadzie kluczowania sygnału [2, 13, 18]. Podstawową funkcją elementów tego typu jest dwustanowa praca, podczas której element taki zmienia swój stan z jednego na drugi w sposób nagły. Generalnie stany te określić można jako stan przewodzenia (gdy element przedstawia sobą bardzo małą rezystancję) oraz stan nieprzewodzenia, zwany też stanem blokowania (gdy element przedstawia sobą bardzo dużą rezystancję). Funkcję elementów przełączających mogą pełnić chociażby znane nam już tranzystory bipolarne (przełączane między stanami odcięcia i nasycenia) oraz tranzystory polowe (przełączane w podobny sposób). Jednak istnieją elementy predysponowane typowo do roli przełączników lub sterowników. Należą do nich tranzystory jednozłączowe oraz tyrystory, a często zalicza się do nich też tranzystory IGBT. Choć ich rola nie ogranicza się wyłącznie do przełączania, tak jak i tranzystorów bipolarnych czy polowych, to jednak ze względu na możliwość przełączania oraz sterowania dużych mocy, co wykorzystuje się w energetyce, zaliczane są do elementów przełączających i opisane zostaną w tym rozdziale, przy czym pominiemy tranzystory jednozłączowe jako elementy przeznaczone do małych mocy.
9.1.
Tyrystory Podział tyrystorów Tyrystory to dosyć szeroka grupa wielowarstwowych elementów półprzewodnikowych służących do przełączania sygnałów o dużych mocach. Z uwagi na ich różnorodność omówimy tu jedynie najpopularniejsze z nich. Tranzystory różnią się między sobą liczbą końcówek, liczbą warstw półprzewodnikowych oraz kierunkiem przewodzenia i z tego względu można je scharakteryzować następująco: – dynistory, należące do grupy tyrystorów diodowych, zwane czasem diodą Shockleya (nie mylić z diodą Schottky’ego), są to dwukońcówkowe elementy jednokierunkowe o czterech warstwach; – tyrystory triodowe, powszechnie zwane tyrystorami, czyli tak jak cała grupa tych elementów, lub sterowanym prostownikiem krzemowym (ang. SCR – Silicon Controlled Rectifier), są to jednokierunkowe elementy trójkońcówkowe o czterech warstwach; – diaki (ang. DIAC – Diode for Alternating Current), co w wolnym tłumaczeniu oznacza diodę prądu zmiennego, należące do grupy tyrystorów diodowych, są to dwukierunkowe elementy dwukońcówkowe o pięciu warstwach;
300
9. Elementy przełączające
– triaki (ang. TRIAC – Triode for Alternating Current), co w wolnym tłumaczeniu oznacza triodę prądu zmiennego, należące do grupy tyrystorów triodowych, są to dwukierunkowe elementy trójkońcówkowe o pięciu warstwach. Określenia „diodowy” i „triodowy” występują tu w swoich pierwotnych znaczeniach, tzn. jako odpowiednio, dwukońcówkowe i trójkońcówkowe elementy o charakterystyce niesymetrycznej, w odróżnieniu np. od rezystorów, czyli też innych elementów dwukońcówkowych, ale o charakterystyce symetrycznej. Należy jeszcze zwrócić uwagę na nazwę „tyrystor triodowy”. Jak wspomniano, powszechną nazwą jest „tyrystor”, co może powodować konflikt nazewnictwa kojarzonego z całą grupą przyrządów przełączających. Jednak należy pamiętać, że tam, gdzie do określenia jednego elementu używana jest nazwa „tyrystor”, najczęściej oznacza ona ten jeden konkretny element z całej grupy tyrystorów. Taką też konwencję przyjęto w tym rozdziale i w razie możliwości wystąpienia dwuznaczności przy odnoszeniu się do całej grupy tyrystorów będzie wyraźnie zaznaczone, że nie chodzi o ten indywidualny element. Generalnie tyrystory są elementami dwukońcówkowymi, ponieważ właściwe przewodzenie lub blokowanie sygnału zachodzi jedynie między ich dwiema końcówkami, występująca ewentualnie trzecia końcówka odgrywa zaś wyłącznie rolę sterującą. Budowa dynistora Tyrystorem o najprostszej, spośród wymienionych, budowie jest dynistor. Zbudowany on jest z czterech naprzemiennie ułożonych warstw półprzewodnikowych, tworzących trzy złącza P-N w postaci struktury typu P-N-P-N (rysunek 9.1a). Do dwóch zewnętrznych warstw dołączone są wyprowadzenia stanowiące anodę A oraz katodę K dynistora, przy czym anodą jest elektroda dołączona do obszaru typu P,
Rys. 9.1. Struktura warstwowa dynistora (a), jego przedstawienie w postaci dwóch przenikających się tranzystorów bipolarnych (b) oraz elektryczny schemat zastępczy odpowiadający takiemu połączeniu (c)
9.1. Tyrystory
301
a katodą elektroda dołączona do obszaru typu N. Można też stwierdzić, że struktura dynistora składa się z dwóch przenikających się wzajemnie tranzystorów bipolarnych, jednego typu P-N-P, a drugiego typu N-P-N (rysunek 9.1b), w ten sposób, że emitery tych tranzystorów to warstwy zewnętrzne anody i katody, natomiast ich kolektory stanowią zarazem bazy wzajemnie przeciwnych tranzystorów (rysunek 9.1c). Taka dekompozycja ułatwia wyjaśnienie działania tego oraz pozostałych tyrystorów. Zasada działania i polaryzacja dynistora Okazuje się, że taka czterowarstwowa struktura może znajdować się w jednym z trzech stanów. Jeśli ponumerujemy jej złącza w ten sposób, że złącze znajdujące się przy anodzie oznaczymy przez j1, z kolei złącze znajdujące się przy katodzie przez j2, a złącze środkowe przez j3, to w przypadku polaryzacji tej struktury napięciem UAK < 0, tzn. takim, że na anodzie znajdzie się potencjał ujemny napięcia, a na katodzie dodatni, dwa zewnętrzne złącza, czyli j1 i j2, wprowadzone zostaną w stan zaporowy, a złącze środkowe, j3, w stan przewodzenia (rysunek 9.2a). Ponieważ złącza te są połączone ze sobą szeregowo, przez strukturę taką płynąć będzie jedynie znikomy prąd wsteczny obu złączy. Można wówczas przyjąć, że dynistor prądu nie przewodzi i charakteryzuje się bardzo dużą rezystancją. Taki stan dynistora nazywany jest, podobnie jak w przypadku złącza P-N, stanem zaporowym. Z kolei zwiększanie napięcia UAK w kierunku ujemnym pogłębi jedynie polaryzację zaporową tych złączy, co w efekcie końcowym może doprowadzić jedynie do ich przebicia i gwałtownego wzrostu prądu anodowego IA. Można zatem stwierdzić, że charakterystyka prądowo-napięciowa IA(UAK) dynistora w zakresie zaporowym jest praktycznie identyczna z charakterystyką typowej diody prostowniczej. W przypadku polaryzacji odwrotnej, tzn. przy UAK > 0, sytuacja jest nieco inna, tzn. oba zewnętrzne złącza są teraz polaryzowane w kierunku przewodzenia, natomiast
Rys. 9.2. Ilustracja możliwych stanów pracy dynistora i związanych z tym polaryzacji poszczególnych złączy P-N: stan zaporowy (a), stan blokowania (b) oraz stan przewodzenia (c). Litery „Z” i „P” oznaczają odpowiednio kierunek zaporowy i kierunek przewodzenia polaryzacji danego złącza P-N
302
9. Elementy przełączające
złącze środkowe w kierunku zaporowym (rysunek 9.2b). Również i w tym przypadku przez dynistor płynie jedynie znikomy prąd wsteczny złącza środkowego, a stan, w którym dynistor się wówczas znajduje, nazywany jest stanem blokowania. W stanie tym, podobnie jak i w stanie zaporowym, charakteryzuje się on bardzo dużą rezystancją i mówi się, że dynistor jest wówczas wyłączony. Korzystając ze wspomnianej analogii dynistora do dwóch połączonych ze sobą tranzystorów bipolarnych, można przeprowadzić bardzo uproszczoną analizę zjawisk zachodzących w dynistorze i stwierdzić, że w stanie blokowania złącze emiterowe j1 tranzystora T1 wstrzykuje dziury z obszaru p1 emitera do obszaru n1 bazy, skąd są unoszone przez pole elektryczne warstwy zaporowej złącza kolektorowego j3 do obszaru p2, zwiększając tam ich koncentrację. Z kolei złącze emiterowe j2 tranzystora T2 wstrzykuje elektrony z obszaru n2 emitera do obszaru p2 bazy, skąd przez pole elektryczne złącza kolektorowego j3 są unoszone do obszaru n1, zwiększając tam ich koncentrację. A ponieważ prąd wstrzykiwania dziur przez złącze j1 zależy od koncentracji elektronów w obszarze n1, która z kolei zależy od prądu wstrzykiwania tych elektronów przez złącze j2, który znowu zależy od koncentracji dziur w obszarze p2, zależnej od wcześniej wspomnianego prądu wstrzykiwania dziur przez złącze j1, wynika z tego, że zachodzić tu może swoiste dodatnie sprzężenie zwrotne między oboma tranzystorami, a właściwie między ich złączami emiterowymi j1 i j2. Z dalszego toku rozważań wynika, że wzrost poziomu wstrzykiwania przez złącza emiterowe spowoduje zwiększanie się koncentracji nośników w obszarach baz obu tranzystorów. A wówczas zwiększająca się koncentracja dziur w obszarze p2 złącza środkowego będzie kompensowała znajdujące się w warstwie zaporowej tego obszaru ujemne ładunki zjonizowanych atomów domieszki akceptorowej, a zwiększająca się koncentracja elektronów w obszarze n1 tego złącza będzie kompensowała z kolei znajdujące się w warstwie zaporowej tego obszaru dodatnie ładunki zjonizowanych atomów domieszki donorowej. W rezultacie prowadzić to będzie do zmniejszania się szerokości warstwy zaporowej złącza j3 i jednocześnie do zmniejszania się napięcia na tym złączu, polaryzując je w efekcie w kierunku przewodzenia. Dalszy wzrost koncentracji nośników w bazach zostanie wstrzymany, ponieważ spolaryzowane w kierunku przewodzenia złącze j3 zacznie, unoszone do tej pory polem elektrycznym, wstrzykiwać nośniki z powrotem do obszarów, z których wpłynęły. To w dodatku spowoduje zwiększenie się napięć polaryzujących złącza emiterowe w kierunku przewodzenia, które zaczną wstrzykiwać nośniki do baz z jeszcze większą intensywnością, powodując wzrost prądu anodowego IA. W takiej sytuacji wszystkie złącza dynistora spolaryzowane zostają w kierunku przewodzenia (rysunek 9.2c) i przez dynistor przepływać już może znaczny prąd, który ponadto, dzięki wewnętrznemu dodatniemu sprzężeniu zwrotnemu dynistora, będzie dalej podtrzymywał się samoczynnie. Stan ten nazywany jest stanem przewodzenia i charakteryzuje się przepływem dużego prądu anodowego IA, a jednocześnie zmniejszeniem się napięcia między anodą i katodą do wartości wynikającej z sumy napięć na trzech złączach spolaryzowanych w kierunku przewodzenia. Rezystancja dynistora jest wówczas bardzo mała i mówi się, że dynistor jest włączony.
303
9.1. Tyrystory
Kiedy jednak dochodzi do wystąpienia tego dodatniego sprzężenia zwrotnego, prowadzącego do przełączenia się dynistora w stan przewodzenia? Zgodnie z analogią dynistora do połączenia dwóch tranzystorów, można stwierdzić, że prąd anodowy IA równy jest sumie prądów wstrzykiwanych przez oba złącza emiterowe oraz prądu generacji Ig w warstwie zaporowej złącza j3, co zapisać można następująco IA = a1 · IA + a2 · IK + Ig .
(9.1)
A ponieważ prąd katodowy IK równy jest prądowi anodowemu IA, z powyższego wyrażenia wyznaczyć można zależność na prąd anodowy, a mianowicie IA =
Ig
1 − (α1 + α 2 )
.
(9.2)
Ze wzoru tego wynika, że przy wartości a1 + a2 = 1 prąd IA powinien być nieskończenie duży, co oczywiście nie jest możliwe w rzeczywistym obwodzie, ale wskazuje to na warunek, przy którym dochodzi do przełączenia ze stanu blokowania do stanu przewodzenia. Okazuje się, że w stanie blokowania współczynniki wzmocnień prądowych a obu tranzystorów są na tyle małe (np. oba równe 0,4), że ich suma jest mniejsza od jedności. Ale ponieważ w tranzystorach bipolarnych współczynnik wzmocnienia prądowego a w zakresie małych wartości prądu emitera rośnie wraz ze wzrostem tego prądu, to jeśli zwiększeniu ulegnie prąd anodowy IA, zwiększą się również wartości prądów wstrzykiwania złączy j1 i j2 i suma a1 + a2 może osiągnąć wartość równą 1 (np. oba współczynniki równe 0,5). Wówczas, jak stwierdziliśmy, dojdzie do dodatniego sprzężenia zwrotnego i dynistor przełączy się do stanu przewodzenia, który będzie się już utrzymywał samoczynnie. Wystarczy zatem w jakiś sposób zwiększyć wartość prądu anodowego, aby doprowadzić do przełączenia. Sposoby włączania i wyłączania dynistora Jak już stwierdziliśmy, do przełączenia dynistora dochodzi, gdy prąd anodowy IA wzrośnie do pewnej charakterystycznej wartości zapewniającej zajście dodatniego sprzężenia zwrotnego między tranzystorami T1 i T2 (a1 + a2 = 1). Wartość tego prądu nazywana jest prądem przełączenia i oznaczana jest przez IL (ang. latch). W dynistorze do zwiększenia prądu anodowego IA do wartości IL dojść może w trzech przypadkach. Jednym z nich jest zjawisko przebicia lawinowego środkowego złącza j3, do którego dochodzi w wyniku zwiększenia napięcia UAK, powodującego wzrost napięcia na złączu j3 do wartości napięcia przebicia. Jak pamiętamy, w wyniku przebicia następuje generacja (powielanie) nośników, dziur i elektronów, w warstwie zaporowej tego złącza, które wymiatane z niej do sąsiednich obszarów (dziury do p2, elektrony do n1) przyczyniają się do zwiększenia się tam ich koncentracji. To z kolei prowadzi do zwiększenia się intensywności wstrzykiwania nośników przez złącza emiterowe, a w rezultacie do wzrostu prądu IA do wartości IL. Inną przyczyną jest zwiększenie się prądu generacji Ig, od którego, zgodnie z wyrażeniem (9.1), bezpośrednio zależy prąd anodowy IA. Spowodowane to może być zwiększeniem temperatury złącza, oświetleniem światłem lub wystawieniem na działanie innego rodzaju promieniowania.
304
9. Elementy przełączające
Ostatnią przyczyną zwiększenia się prądu anodowego IA jest przepływ dodatkowego prądu, wynikającego z przeładowania pojemności złączowej złącza j3, spowodowanego nagłą zmianą napięcia UAK, co również może doprowadzić do zwiększenia się prądu IA do wartości IL. Z kolei wyłączenie dynistora, czyli przejście ze stanu przewodzenia do stanu blokowania odbywa się w wyniku zmniejszenia prądu anodowego IA poniżej pewnej charakterystycznej wartości IH, nazywanej prądem trzymania (ang. hold) lub prądem podtrzymania, ewentualnie prądem wyłączenia. W praktyce najłatwiej dokonać tego przez zmniejszenie napięcia UAK do zera bądź zmianę jego wartości na ujemną. Charakterystyka statyczna dynistora Z przytoczonego opisu wynika kształt charakterystyki prądowo-napięciowej dynistora przedstawiony na rysunku 9.3. Ponieważ charakterystyka taka przedstawia zależność prądu anodowego IA od napięcia UAK, charakterystykę tę nazywa się charakterystyką anodową. Widać, że w zakresach zaporowym i blokowania dynistor prądu nie przewodzi, stanowiąc bardzo dużą rezystancję, a odkładające się wówczas na nim napięcie UAK może mieć znaczne wartości. Z kolei w zakresie przewodzenia dynistor przedstawia sobą bardzo małą rezystancję, wynikającą z sumy rezystancji trzech jego złączy spolaryzowanych w kierunku przewodzenia, przez którą może przepływać prąd o dużych wartościach przy jednocześnie małych wartościach napięcia UAK. Przełączenie dynistora z zakresu blokowania do zakresu przewodzenia, w przypadku przełączenia spowodowanego tylko wzrostem napięcia UAK powyżej napięcia przebicia złącza j3, następuje, gdy prąd anodowy osiągnie charakterystyczną wartość IL, co odbywa się przy napięciu UAK = Up, zwanym napięciem przełączenia. A ponieważ proces przełączenia jest dynamiczną i nagłą zmianą punktu pra-
Rys. 9.3. Wykres statycznej charakterystyki anodowej dynistora wraz z wyróżnieniem zakresów jego pracy
9.1. Tyrystory
305
cy dynistora, to na jego charakterystyce statycznej przejście to reprezentuje linia przerywana łącząca ekstremalne punkty z obu zakresów pracy. Linia ta nie należy jednak do charakterystyki statycznej, gdyż punkt pracy nie może stabilnie na niej przebywać. Budowa tyrystora Tyrystory jako elementy czterowarstwowe różnią się od dynistorów posiadaniem trzeciej elektrody, zwanej bramką i oznaczanej przez G. Elektroda bramki dołączona jest do obszaru p2 stanowiącego obszar bazy tranzystora T2 i wraz z elektrodą katody tworzy zaciski wejściowe G-K tyrystora (rysunek 9.4).
Rys. 9.4. Struktura warstwowa tyrystora triodowego (a) oraz odpowiadający mu elektryczny schemat zastępczy (b). Tyrystor, podobnie jak dynistor, jest elementem czterowarstwowym, ale w odróżnieniu od niego ma trzecie wyprowadzenie w postaci bramki
Sposoby włączania i wyłączania tyrystora Sposoby przełączania tyrystora nie różnią się od sposobów przełączania dynistora opisanych powyżej, przy czym w przypadku tyrystora obecność trzeciej elektrody – bramki – daje jeszcze dodatkową możliwość. Po spolaryzowaniu napięciem wejściowym UGK złącza j2 w kierunku przewodzenia, prąd płynący przez bramkę spowoduje zwiększenie się intensywności wstrzykiwania nośników przez to złącze, a więc zwiększenie się prądu emitera tranzystora T2, a to, jak pamiętamy, przyczynia się do zwiększenia współczynnika wzmocnienia prądowego a2. Jeśli przy pewnej wartości prądu bramki IG wartość współczynnika a2 wzrośnie do takiej wartości, przy której suma a1 i a2 będzie równa jedności, to w efekcie doprowadzi to do wystąpienia dodatniego sprzężenia zwrotnego, powodując przełączenie tyrystora do stanu przewodzenia. A ponieważ prąd bramki jest dodatkową składową prądu złącza emiterowego j2, można stwierdzić, że prąd ten ułatwia włączenie się tyrystora, które w związku z tym dokonuje się przy mniejszym napięciu UAK niż napięcie wynikające z braku polaryzacji wejścia tyrystora, czyli przy IG = 0. Warto zaznaczyć, że prąd bramki IG może być podany w postaci
306
9. Elementy przełączające
bardzo krótkiego impulsu, po którego zaniku w tyrystorze stan przewodzenia utrzymywany jest samoczynnie. Tak więc elektroda bramki jest elektrodą sterującą umożliwiającą albo bezpośrednie włączenie tyrystora za pomocą impulsu prądu bramki o odpowiedniej amplitudzie, albo, w przypadku włączania tyrystora napięciem UAK, ustalającą wartość napięcia przełączenia, przy czym zależność jest taka, że im większy jest prąd bramki IG, tym mniejsze jest napięcie przełączenia Up. Do wyłączenia tyrystora dochodzi w taki sam sposób jak w dynistorze, choć można również tego dokonać, zmniejszając prąd bramki IG. Sposób ten sprawdza się jedynie wówczas, gdy prąd anodowy IA jest stosunkowo mały, porównywalny z prądem bramki. Jeśli natomiast prąd anodowy jest znacznie większy niż prąd bramki, co ma miejsce w typowych zastosowaniach tyrystorów, gdzie prąd anodowy może osiągać wartości kilku lub kilkuset amperów, a prąd bramki kilku miliamperów, to wyłączenie tyrystora za pomocą bramki jest niemożliwe. Wtedy pozostają konwencjonalne sposoby: zmniejszenie prądu anodowego poniżej wartości prądu podtrzymania lub zmniejszenie napięcia UAK do zera czy zmiana jego wartości na ujemną. Charakterystyki statyczne tyrystora Statyczne charakterystyki anodowe tyrystora mają praktycznie identyczny kształt jak charakterystyki dynistora, z tą różnicą że punkt przełączenia z zakresu blokowania do zakresu przewodzenia zmienia się wraz z wartością prądu bramki IG według wspomnianej już zależności, co pokazane jest na rysunku 9.5a. W przypadku tyrystora istnieje jeszcze jeden typ charakterystyk prądowo-napięciowych. Są to charakterystyki bramkowe, czyli zależność prądu bramki IG od napięcia bramka-katoda UGK. Typowy kształt tych charakterystyk zależy od napięcia UAK
Rys. 9.5. Wykresy charakterystyk statycznych tyrystora – charakterystyka anodowa (wyjściowa) dla różnych prądów bramki (a) oraz bramkowa (wejściowa) dla różnych wartości napięcia anodowego (b)
9.1. Tyrystory
307
i jest przedstawiony na rysunku 9.5b. Jeśli napięcie UAK jest równe zeru, to charakterystyka bramkowa ma wygląd typowej charakterystyki złącza P-N. I faktycznie, płynący prąd bramki jest wówczas prądem złącza P-N, które oznaczyliśmy przez j2. W przypadku napięcia UAK > 0 prąd bramki IG zmniejsza się, co jest spowodowane wypływem części prądu anodowego IA przez elektrodę bramki w kierunku przeciwnym niż IG. Z tego powodu charakterystyki bramkowe dla UAK > 0 są przesunięte w kierunku ujemnych wartości prądu, przy czym przesunięcie to jest tym większe, im większa jest wartość prądu anodowego, a zatem i napięcia UAK. Budowa diaka i triaka Diaki i triaki są elementami pięciowarstwowymi zbudowanymi na kształt tyrystorów czterowarstwowych, dynistora i tyrystora triodowego (rysunek 9.6). Ponieważ w ich strukturze można wyróżnić, w przypadku diaka, dwa dynistory, a w przypadku triaka, dwa tyrystory, połączone równolegle i zorientowane w przeciwnych kierunkach, to zasady działania oraz charakterystyki prądowo-napięciowe będą bardzo zbliżone do ich odpowiedników czterowarstwowych. To dwukierunkowe połączenie tyrystorów jednokierunkowych sprawia, że omawiany rodzaj tyrystorów jest w stanie przewodzić prąd w obu kierunkach, przy obu polaryzacjach napięciem UAK. Można to wyjaśnić w ten sposób, że niezależnie od kierunku napięcia UAK, zawsze jeden z tyrystorów składowych nie będzie przewodził prądu, a drugi, w przypadku jego wyzwolenia, będzie prąd przewodził. Można zatem powiedzieć, że tyrystory te pracują symetrycznie. Diaki i triaki wyzwalane są w identyczny sposób jak ich czterowarstwowe odpowiedniki, przy czym, z uwagi na wspomnianą symetrię, wyzwalanie może odbywać się zarówno przy dodatnim, jak i ujemnym napięciu UAK czy też dodatnim i ujemnym prądzie bramki IG, przy czym napięcie UAK i prąd IG powinny być wówczas zgodne ze sobą w fazie.
Rys. 9.6. Struktury warstwowe diaka (a) oraz triaka (b)
308
9. Elementy przełączające
Charakterystyki statyczne diaka i triaka Symetrię charakterystyk diaka i triaka widać na rysunku 9.7. Jak można zauważyć, w ich przypadku nie występuje zakres zaporowy, który był charakterystyczny dla elementów czterowarstwowych, a ich przełączanie odbywa się wyłącznie między stanami blokowania i przewodzenia.
Rys. 9.7. Wykresy statycznych charakterystyk anodowych diaka (a) oraz triaka (b)
Parametry Do najważniejszych parametrów tyrystorowych elementów przełączających należą: – napięcie przełączenia Up lub UBO (ang. BreakOver), w przypadku tyrystorów diodowych lub maksymalne napięcie przełączenia UB0 (w indeksie jest cyfra „zero”), w przypadku tyrystorów triodowych, mierzone przy zerowej wartości prądu bramki, – prąd przełączenia IL lub IBO, czyli graniczna wartość prądu anodowego powodującego włączenie tyrystora, – prąd podtrzymania IH, czyli najmniejsza wartość prądu anodowego IA, przy której tyrystor jeszcze się nie wyłącza, czyli nie przełącza się ze stanu przewodzenia do stanu blokowania, – napięcie przełączające bramki UGT określone dla konkretnej wartości napięcia UAK, – prąd przełączający bramki IGT określony dla konkretnej wartości napięcia UAK, – napięcie w stanie przewodzenia UT, – maksymalna dopuszczalna wartość średnia prądu anodowego w stanie przewodzenia IT (AV), – maksymalna dopuszczalna wartość skuteczna prądu anodowego w stanie przewodzenia IT (RMS),
9.1. Tyrystory
309
Rys. 9.8. Symbole graficzne tyrystorów
– prąd upływu ID w stanie blokowania, określony jako maksymalny prąd IA przy określonym napięciu UAK niepowodującym jeszcze przełączenia, – prąd upływu IR w kierunku zaporowym, określony jako maksymalny prąd IA przy określonym napięciu UAK niepowodującym jeszcze przełączenia, – maksymalne napięcie UAK w stanie blokowania UDRM niepowodujące przełączenia, – maksymalne napięcie UAK w kierunku zaporowym URRM lub UAK (BR), wynikające z przebicia złączy tyrystora pracującego w zakresie zaporowym, – maksymalna dopuszczalna moc wydzielana Ptot, określana w zależności od średniego prądu przewodzenia IT (AV), – maksymalna prędkość narastania napięcia UAK w stanie blokowania niepowodująca włączenia dUD /dt, – maksymalny czas włączania tgt przy wyzwalaniu za pomocą bramki, – maksymalny czas wyłączania tq. Nie jest to wyczerpany zbiór parametrów charakteryzujących tyrystory. W zależności od typu elementu i producenta podawane są dodatkowe parametry, które ponadto mogą się nieznacznie różnić oznaczeniami. Jeśli chodzi o symbole graficzne tyrystorów stosowane na schematach obwodów elektrycznych, to ich zbiór jest dosyć liczny, co przedstawiono na rysunku 9.8. Zastosowanie Jak już wspomniano na wstępie rozdziału, tyrystory znajdują przede wszystkim zastosowanie w energetyce w układach zasilania, jako przełączniki bardzo dużych mocy, płynne regulatory (np. obrotów silników, natężenia oświetlenia) oraz prostowniki sterowane. Z tego względu wyróżnia się dwa rodzaje tyrystorów: – silnoprądowe, będące w stanie przewodzić prądy o wartościach kilkuset, a nawet kilku tysięcy amperów oraz
310
9. Elementy przełączające
– wysokonapięciowe, będące w stanie blokować napięcia o wartości kilku kilowoltów. Ponieważ istnieją tyrystory zarówno jednokierunkowe, jak i dwukierunkowe, można je wykorzystywać w obwodach prądu stałego oraz prądu zmiennego.
9.2.
Tranzystor IGBT Budowa tranzystora IGBT Tranzystory IGBT (ang. Insulated Gate Bipolar Transistor) ze względu na swoje właściwości, podobnie jak tyrystory, stosuje się w energetyce przede wszystkim w układach zasilania do przełączania i sterowania średnich i dużych mocy. Ich nazwa związana jest z ich budową i oznacza tranzystor bipolarny z izolowaną bramką [2]. Można powiedzieć, że tranzystor IGBT jest hybrydą, ponieważ jest połączeniem w jednej strukturze półprzewodnikowej dwóch rodzajów tranzystorów, tranzystora polowego typu MIS z tranzystorem bipolarnym, przy czym techniczna realizacja ich połączenia może być bardzo różna. Na rysunku 9.9 widać przykładową strukturę warstwową tranzystora IGBT, gdzie tranzystor bipolarny stanowią cztery obszary półprzewodnikowe tworzące strukturę typu P+-N+-N–-P, przy czym silnie domieszkowany obszar P+ jest obszarem emitera tranzystora bipolarnego, a obszar P obszarem kolektora tego tranzystora. Należy przy tym zwrócić uwagę na nazewnictwo elektrod tranzystora IGBT. Elektroda oznaczona jako kolektor C jest tak naprawdę emiterem wewnętrznego tranzystora bipolarnego, natomiast elektroda emitera E jest z kolei kolektorem tego wewnętrznego tranzystora. Trzeba o tym pamiętać, aby mylnie nie pojmować zjawisk zachodzących w tym tranzystorze. Jeśli zaś chodzi o obszary typu N + oraz N –, to łącznie stanowią one bazę tranzystora bipolarnego. Jak widać, jest ona podzielona na obszar silnie domieszkowany
Rys. 9.9. Struktura warstwowa tranzystora IGBT z kanałem typu N
9.2. Tranzystor IGBT
311
i na obszar słabo domieszkowany. Baza tego tranzystora nie jest wyprowadzona na zewnątrz w postaci elektrody i spełnia równocześnie funkcję obszaru drenu tranzystora polowego typu MIS. Obszarem źródła tego tranzystora jest z kolei obszar typu N+ wbudowany w obszar typu P. Należy zauważyć, że obszary źródła tranzystora MIS oraz kolektora tranzystora bipolarnego są wspólnie wyprowadzone w postaci elektrody emitera E. Obszarem kanału tego tranzystora jest natomiast obszar typu P rozdzielający obszary drenu i źródła. Obszar ten, jak widać na rysunku 9.9, wyprowadzony jest ku powierzchni tranzystora IGBT i pokryty warstwą izolatora, np. tlenku krzemu SiO2, na którą naniesiona jest metalowa elektroda, stanowiąca bramkę G tego tranzystora. Tranzystor MIS w tym rozwiązaniu jest tranzystorem z kanałem wzbogacanym typu N. Jednak podobnie jak tranzystory MIS, tak i tranzystory IGBT mogą być również wykonywane w wersji z kanałem zubożanym. Zamieszczona na rysunku 9.9 struktura jest jedynie pojedynczym wycinkiem całej struktury tranzystora IGBT, która w przypadku tranzystorów mocy składa się nawet z miliona takich pojedynczych struktur połączonych ze sobą równolegle w postaci matrycy, co pozwala na przewodzenie prądów o znacznych wartościach. Ze względu na przedstawioną budowę tranzystory IGBT charakteryzują się poza tym, podobnie jak tranzystory MIS, łatwością sterowania (zamiast prądem bazy sterowane są napięciem bramki), bardzo dużymi wartościami rezystancji wejściowej (związanej z warstwą izolatora przy bramce), a także dużymi wartościami napięcia przebicia. Z kolei po tranzystorach bipolarnych odziedziczyły dużą szybkość przełączania, która może dochodzić nawet to kilkuset kiloherców, a także możliwość przewodzenia znacznych prądów (do kilku tysięcy amperów) oraz blokowania wysokich napięć (do kilku tysięcy woltów). Zasada działania tranzystora IGBT W celu łatwiejszego zrozumienia zasady działania tego tranzystora warto przedstawić jego ideowy elektryczny schemat zastępczy, wynikający z połączenia dwóch rodzajów tranzystorów. Schemat z rysunku 9.10. odwzorowuje elektryczne połączenie tranzystorów polowego typu MIS i bipolarnego, wchodzących w skład tranzystora IGBT. Widać wyraźnie, że do zacisków kolektora C i emitera E dołączone są „zaciski” odpowiednio, emitera i kolektora wewnętrznego tranzystora bipolarnego, natomiast „zacisk” bazy jest „zaciskiem” drenu tranzystora MIS. „Zacisk” jego źródła jest z kolei dołączony do zewnętrznego zacisku emitera E tranzystora IGBT, a „zacisk” bramki tranzystora MIS wyprowadzony jest bezpośrednio w postaci elektrody bramki G tranzystora IGBT. Tak przedstawiona struktura wewnętrzna tranzystora IGBT pozwala na sformułowanie idei jego działania w zasadzie w jednym zdaniu, przy założeniu znajomości zasad działania obu indywidualnych tranzystorów składowych. Brzmi ona następująco: prąd płynący między zaciskami kolektora i emitera tranzystora bipolarnego jest zależny od prądu bazy, który z kolei, stanowiąc prąd drenu tranzystora MIS, przepływa przez kanał, którego właściwości określa napięcie polaryzujące bramkę tego tranzystora. Inaczej mówiąc, napięcie wejściowe UGE reguluje prąd drenu tranzystora MIS, czyli prąd bazy tranzystora bipolarnego, od którego z kolei zależy wartość wyjściowego prądu kolektora IC.
312
9. Elementy przełączające
Rys. 9.10. Poglądowy elektryczny schemat zastępczy tranzystora IGBT w postaci połączenia dwóch rodzajów tranzystorów: polowego typu MIS i bipolarnego (a) oraz jego symbol graficzny używany na schematach obwodów elektrycznych (b)
Rozwijając opis zjawisk zachodzących w tranzystorze IGBT, należy stwierdzić, że przy polaryzacji normalnej tego tranzystora napięcie UCE polaryzuje strukturę bipolarną w taki sposób, że złącze emiter-baza polaryzowane jest jak w zakresie pracy normalnej, w kierunku przewodzenia, a złącze kolektor-baza w kierunku zaporowym. Tranzystor bipolarny w przedstawionym przykładzie jest typu P-N-P, więc, jak pamiętamy, dziury z obszaru emitera wstrzykiwane są do obszaru bazy przez złącze emiterowe, a następnie po przepłynięciu przez bazę unoszone są do kolektora przez pole elektryczne złącza kolektorowego. W przypadku, gdy napięcie UGE jest mniejsze od napięcia progowego UGE (TH) tranzystora MIS, kanał tego tranzystora nie jest jeszcze utworzony, a więc baza tranzystora nie jest jeszcze polaryzowana. Wówczas przez tranzystor bipolarny, a więc i przez tranzystor IGBT przepływa jedynie niewielki prąd analogiczny do prądu zerowego. W przypadku spolaryzowania obwodu wejściowego bramka-emiter napięciem UGE większym od napięcia progowego UGE (TH) pod izolatorem struktury MIS dochodzi do inwersji i powstaje kanał typu N łączący obszar źródła z obszarem drenu, umożliwiający przepływ prądu elektronowego do obszaru bazy tranzystora bipolarnego. Gromadzące się w obszarze bazy elektrony powodują zmniejszanie się rezystywności obszaru N–, a będąc również wstrzykiwanymi z bazy do emitera przez złącze emiterowe, zwiększają jednocześnie intensywność wstrzykiwania dziur do bazy przez złącze emiterowe. To powoduje, jak pamiętamy, wzrost prądu unoszenia dziur do kolektora, a więc przyczynia się do zwiększenia prądu kolektora tranzystora bipolarnego, a zatem i prądu kolektora tranzystora IGBT (poprzez prąd emitera tranzystora bipolarnego). W miarę wzrostu napięcia wejściowego UGE wzrasta prąd bazy i koncentracja elektronów w bazie. To w rezultacie prowadzi do przepolaryzowania się złącza kolektorowego do kierunku przewodzenia i tranzystor IGBT przełącza się do stanu nasycenia, w którym przedstawia sobą bardzo małą rezystancję i może przewodzić prąd o znacznych wartościach. Rodziny charakterystyk statycznych tranzystora IGBT Charakterystyki prądowo-napięciowe tranzystora IGBT łączą w sobie cechy charakterystyk tranzystora bipolarnego i tranzystora typu MIS. Rodzina charakterystyk wyjściowych przedstawia zależność prądu kolektora IC od napięcia wyjściowego UCE przy ustalonej wartości napięcia wejściowego UGE. Z kolei rodzina charakterystyk przejściowych to zależność prądu kolektora IC od napięcia wejściowego przy ustalonej wartości napięcia wyjściowego UCE.
9.2. Tranzystor IGBT
313
Rys. 9.11. Wykresy przykładowych charakterystyk statycznych tranzystora IGBT – charakterystyka wyjściowa (a) oraz przejściowa (b)
Charakterystyki wyjściowe kształtem są bardzo zbliżone do charakterystyk wyjściowych tranzystora bipolarnego (rysunek 9.11a), ponieważ przedstawiają zależność wynikającą z tych samych zjawisk (wszak w obwodzie wyjściowym tranzystora IGBT znajduje się tranzystor bipolarny). Jedyne różnice to parametr tych charakterystyk, którym zamiast prądu bazy jest napięcie bramki UGE oraz przesunięcie początku charakterystyk na osi napięcia UCE o ok. 0,7 V. Wiąże się to z dużą rezystancją słabo domieszkowanej części obszaru bazy N– tranzystora bipolarnego. W miarę zwiększania napięcia UCE zwiększa się napięcie polaryzujące kanał tranzystora MIS, co powoduje wzrost wartości prądu drenu, a tym samym wzrost wartości prądu bazy. To sprawia, że do bazy dostarczanych jest coraz więcej nośników (elektronów), które powodują spadek rezystancji słabo domieszkowanej części obszaru bazy i dzięki temu wzrost prądu kolektora. W pobliżu napięcia UCE = 0,7 V dochodzi do takiego zmniejszenia wartości rezystancji obszaru bazy, że prąd kolektora zaczyna już swobodnie płynąć, co na charakterystyce wyjściowej objawia się wyraźnym wzrostem prądu. Z kolei charakterystyki przejściowe tranzystora IGBT są praktycznie identyczne z charakterystykami tranzystora MIS (rysunek 9.11b). Ponieważ napięcie UGE jest napięciem sterującym bramki, ma wpływ na zjawiska zachodzące w obszarze kanału tego tranzystora. Jak już zostało wyjaśnione, przy napięciu UGE < UGE (TH) w tranzystorze z kanałem wzbogacanym kanał nie istnieje, a więc nie płynie prąd bazy sterujący prądem kolektora IC. Przepływ prądu kolektora rozpoczyna się dopiero od napięcia UGE = UGE (TH), przy którym zaczyna powstawać kanał przewodzący prąd bazy, zwiększający prąd kolektora IC. Dalszy wzrost napięcia UGE powoduje zmniejszanie się rezystancji kanału i wzrost prądu bazy, a więc i prądu kolektora. Parametry tranzystora IGBT Do najważniejszych parametrów tranzystorów IGBT należą: – maksymalne napięcie kolektor-emiter UCE max lub UCES, – maksymalne napięcie bramka-emiter UGE max lub UGES, – maksymalny prąd kolektora IC max lub po prostu IC, – maksymalna moc wydzielana Ptot lub PC,
314
9. Elementy przełączające
– napięcie przebicia kolektor-emiter U(BR) CES lub BUCES, mierzone przy maksymalnym napięciu UCE polaryzującym tranzystor do stanu normalnego, przy bramce zwartej z emiterem i przy określonym, małym prądzie kolektora; związane z przebiciem niewyprowadzonego złącza baza-kolektor, – napięcie przebicia emiter-kolektor U(BR) ECS lub BUECS, mierzone przy napięciu UCE polaryzującym tranzystor do stanu inwersyjnego, przy bramce zwartej z emiterem i przy określonym, małym prądzie kolektora; związane z przebiciem niewyprowadzonego złącza emiter-baza spolaryzowanego wówczas zaporowo, – prąd upływu kolektora ICES, mierzony przy UGE = 0 i maksymalnym napięciu UCE, – prąd upływu bramki IGES, mierzony przy UCE = 0 i maksymalnym napięciu UGE, – napięcie włączenia (przełączenia) UGE (TH), czyli napięcie progowe struktury MIS, mierzone przy określonych wartościach napięcia UCE i prądu IC, – napięcie przewodzenia UCE (ON) lub UF, – napięcie nasycenia UCE (sat), – pojemność wejściowa Cies lub CISS, mierzona przy UGE = 0 i określonym napięciu UCE, – pojemność wyjściowa Coes lub COSS, mierzona przy UGE = 0 i określonym napięciu UCE, – czas włączania tON, mierzony w określonym punkcie pracy, – czas narastania tr, mierzony w określonym punkcie pracy, – czas wyłączania tOFF, mierzony w określonym punkcie pracy, – czas opadania tf, mierzony w określonym punkcie pracy. Zastosowania Tranzystory IGBT znajdują zastosowanie przede wszystkim, jak już wspomnieliśmy, w energetyce w układach zasilania średnich i dużych mocy. Typowe aplikacje tych tranzystorów to: – zasilacze impulsowe dużych mocy (np. w źródłach awaryjnego zasilania), – nagrzewnice indukcyjne, klimatyzatory, chłodnie, – przemienniki częstotliwości i falowniki do regulacji prędkości obrotowej silników prądu przemiennego napędów trakcyjnych i przemysłowych, – przekształtniki impulsowe, tzw. czopery, do napędów prądu stałego w elektrycznej trakcji kolejowej i miejskiej, a ostatnio również w pojazdach o napędzie elektrycznym i hybrydowym, – a dzięki możliwości generacji krótkich impulsów o ogromnych mocach wykorzystuje się je w fizyce cząstek elementarnych i fizyce plazmowej jako elementy wyzwalające albo jako zamienniki starszych elementów, takich jak tyratrony lub iskierniki wyzwalane.
10. Elementy optoelektroniczne W tym rozdziale poznamy przyrządy półprzewodnikowe, w których działaniu istotną rolę odgrywa promieniowanie świetlne. Z tego względu przyrządy takie określa się mianem fotoelementów lub elementów optoelektronicznych. A ponieważ praktycznie każdy z dotychczas przedstawionych elementów może oddziaływać z tym promieniowaniem, to poza kilkoma nowymi przyrządami zostaną omówione odpowiedniki „foto” takich elementów, jak dioda, tranzystor bipolarny i tyrystor. Przyrządy optoelektroniczne znajdują dziś szerokie zastosowanie. Bezpośrednio widoczne to ekrany naszych komputerów, telewizorów czy telefonów komórkowych oraz oświetlenie i różnego rodzaju wskaźniki świetlne. Mniej widoczne zastosowania to kamery, napędy dysków optycznych, czujniki (np. podczerwieni), a nawet zasilacze.
10.1. Zjawiska optyczne w półprzewodniku Ze względu na zjawiska, które zachodzą w elementach optoelektronicznych, wyróżnić można dwie główne grupy fotoelementów: elementy reagujące na światło, zwane odbiornikami lub detektorami światła oraz elementy emitujące światło, zwane nadajnikami lub emiterami światła. Podstawą działania tych elementów są zjawiska absorpcji promieniowania świetlnego oraz emisji tego promieniowania. Zjawisko absorpcji opiera się na zamianie energii świetlnej w energię elektryczną, z kolei zjawisko emisji – na zamianie energii elektrycznej w energię świetlną. Podczas absorpcji światła mamy do czynienia z oddziaływaniem fotonów na elektrony znajdujące się w półprzewodniku. W wyniku oświetlania półprzewodnika może dojść do zjawiska generacji elektronów, dziur lub par elektron-dziura. Foton światła, oddziałując z elektronem, przekazuje mu swoją energię, a wówczas w wyniku zwiększenia się energii elektronu zmienia on poziom energetyczny na wyższy. W przypadku przejścia elektronu z pasma walencyjnego do pasma przewodnictwa, czyli w przypadku generacji bezpośredniej, generowana jest, jak pamiętamy, para elektron-dziura (rysunek 10.1a), co powoduje zwiększenie się koncentracji obu rodzajów nośników w półprzewodniku. W przypadku generacji pośrednich, np. przejścia elektronu z pasma walencyjnego do akceptorowego poziomu domieszkowego, następuje wygenerowanie jedynie dziury, ponieważ elektron zostaje związany z atomem domieszki (rysunek 10.1b). Natomiast w przypadku przejścia elektronu z donorowego poziomu domieszkowego do pasma przewodnictwa następuje wygenerowanie jedynie elektronu (rysunek 10.1c), przy czym atom domieszki zostaje zjonizowany dodatnio. Aby jednak dojść mogło do zjawiska generacji nośników w wyniku oświetlenia, energia oddziałujących fotonów, czyli kwantów światła, musi być większa od ener-
316
10. Elementy optoelektroniczne
Rys. 10.1. Ilustracja zjawisk generacji bezpośredniej (a) oraz pośrednich z generacją dziury (b) i z generacją elektronu (c)
gii wymaganej do przejścia elektronu z jednego poziomu energetycznego do drugiego. Na przykład, w przypadku przejścia elektronu z pasma walencyjnego do pasma przewodnictwa energia fotonu musi być większa od szerokości pasma zabronionego, czyli od Wg. Ponieważ energia elektronu związana jest z częstotliwością f fali świetlnej (odbieranej przez nas jako barwa światła), a więc i z jej długością l według zależności E = h⋅ f =
h⋅c , λ
(10.1)
gdzie h jest stałą Plancka, a c prędkością światła, to warunek zajścia generacji par elektron-dziura określony jest następująco
czyli
E > Wg,
(10.2a)
hc > Wg , λ
(10.2b)
z czego można otrzymać warunek, że
λ<
hc . Wg
(10.3)
Ze względu na zachowanie przejrzystości dalszych rozważań zjawiska świetlne w półprzewodniku rozważać będziemy jedynie na przykładzie przejść elektronu między pasmami walencyjnym i przewodnictwa. W pozostałych przypadkach wnioski będą praktycznie identyczne. W zjawisku emisji światła mamy z kolei do czynienia z wypromieniowaniem energii przez elektron w wyniku zmiany przez niego poziomu energetycznego na niższy, czyli w wyniku rekombinacji nośników. Przy przejściu elektronu z wyższego poziomu energetycznego na niższy (np. z pasma przewodnictwa do pasma walencyjnego), jego energia ulega zmniejszeniu, a jej nadmiar zostaje przez elektron wypromieniowany. Przy czym, w zależności od konfiguracji poziomów energetycznych wypromieniowana energia może mieć różną postać. Do tej pory w modelu energetycznym półprzewodnika pomijaliśmy pewną wielkość, od której zależy kształt poziomów energetycznych. Chodzi mianowicie o wektor falowy k, który ma ścisły związek z pędem elektronu. Jeśli przedstawimy poziomy energetyczne półprzewodnika w funkcji tego parametru, to okaże się, że ulegają one
10.1. Zjawiska optyczne w półprzewodniku
317
„wygięciu” w ten sposób, że np. poziom przewodnictwa ma postać doliny, a poziom walencyjny postać szczytu. W przypadku, gdy dolina poziomu energetycznego pokrywa się ze szczytem (rysunek 10.2a), to podczas rekombinacji dochodzi do przejścia prostego, w wyniku którego energia elektronu zamieniana jest wyłącznie w energię fotonu (bez zmiany pędu elektronu). Emitowany jest wówczas foton (czyli światło) o barwie (długości fali) zależnej od wartości energii utraconej przez elektron, którą można określić na podstawie podanej wcześniej zależności hc . (10.4) λ= Wg W przypadku, gdy położenie doliny jest przesunięte względem położenia szczytu (rysunek 10.2b), podczas rekombinacji pęd elektronu ulega zmianie i dochodzi do przejścia skośnego, w wyniku którego energia elektronu zamieniana jest nie tylko w energię świetlną, ale też w energię fononu, określanego jako kwant drgań sieci krystalicznej. Jego emisja objawia się w postaci ciepła przekazanego półprzewodnikowi. Często w półprzewodniku, w którym dochodzi do przejścia skośnego, praktycznie cała energia elektronu zamieniana jest w energię fononu (np. krzem) i wówczas nie obserwuje się w ogóle emisji światła. Ponieważ zjawiska absorpcji i emisji światła zależą od energii, którą elektron zyskał lub utracił, to w zależności od rodzaju półprzewodnika (różne wartości Wg) oraz od rodzaju wprowadzonych do niego domieszek, półprzewodnik będzie absorbować lub emitować światło o różnej długości fali, a więc o różnej barwie. Na rysunku 10.3 przedstawiono umownie przyjęty podział długości fal świetlnych na odpowiadające im barwy, a w tabeli 10.1, dla przykładowych materiałów półprzewodnikowych, podano wartości szerokości pasma zabronionego oraz długości fali i barwy światła wynikające z danej szerokości pasma zabronionego, związanej z ewentualnie zachodzącymi zjawiskami emisji lub absorpcji.
Rys. 10.2. Ilustracja zjawiska przejścia prostego (a) i przejścia skośnego (b) elektronu z pasma przewodnictwa do pasma walencyjnego, podczas którego generowany może być foton i/lub fonon
318
10. Elementy optoelektroniczne
Rys. 10.3. Podział barw światła na poszczególne zakresy długości fal
Należy pamiętać, że podane w tabeli wartości są jedynie wartościami wyliczonymi za pomocą wzoru (10.4), na podstawie szerokości przerwy energetycznej i w zależności od konstrukcji elementu mogą być, lub nie, związane z emisją lub absorpcją światła o takiej barwie. W praktyce zdarzało się, że elementy konstrukcyjnie przeznaczone wyłącznie do emitowania światła okazywały się również detektorami światła, np. podczerwonego. Tab. 10.1. Zestawienie wartości szerokości przerwy energetycznej oraz wynikającej z tego długości fali i barwy światła emitowanego lub absorbowanego przez przykładowe materiały półprzewodnikowe Materiał półprzewodnikowy Ge SiGe Si GaAs GaP.4As.6(*) GaP.65As.35(*) GaP.85As.15(*) GaP 3C-SiC SiC 6H-SiC 4H-SiC (*) Liczby
Szerokość przerwy energetycznej Wg [eV] 0,7 0,67–1,1 1,1 1,4 1,91 2,03 2,11 2,19 2,3 2,64 3,0 3,3
Długość fali światła λ [nm]
Barwa światła
1780 1860–1130 1130 890 650 610 590 570 540 470 410 380
podczerwona podczerwona podczerwona podczerwona czerwona pomarańczowa żółta zielona zielona niebieska fioletowa ultrafioletowa
oznaczają procentowy udział obu składników w danym materiale
10.2. Podział elementów optoelektronicznych Na wstępie wspomnieliśmy o dwóch głównych rodzajach przyrządów optoelektronicznych różniących się między sobą w sensie funkcjonalnym. Są to fotodetektory oraz fotoemitery lub inaczej źródła światła. Do grupy fotodetektorów należą fotorezystory, fotodiody, fotoogniwa, fototranzystory i fototyrystory, przy czym fotoogniwa są elementami aktywnymi, pełniącymi funkcję źródeł energii elektrycznej, pozostałe natomiast są elementami pasywnymi. Z kolei do grupy fotoemiterów zalicza się diody elektroluminescencyjne, czyli diody świecące, lasery półprzewodnikowe oraz wyświetlacze ciekłokrystaliczne, które
10.3. Fotorezystor
319
w zasadzie nie są elementami półprzewodnikowymi, ale również spełniają funkcję elementu zamieniającego sygnał elektryczny w sygnał świetlny oraz często współpracują z diodami świecącymi. Tu również można wyróżnić elementy aktywne, tzn. diody świecące i lasery, będące aktywnymi źródłami światła oraz pasywne, tj. wyświetlacze ciekłokrystaliczne, które nie emitują własnego światła, ale wykorzystują światło pochodzące z innego źródła. Oprócz wspomnianych dwóch grup przyrządów optoelektronicznych należy wyróżnić jeszcze trzecią grupę, a mianowicie transoptory, działające na zasadzie optycznego sprzężenia fotodetektora z fotoemiterem. W dalszej części tego rozdziału omówimy zasady działania tych elementów oraz przedstawimy ich właściwości.
10.3. Fotorezystor Fotorezystor jest elementem półprzewodnikowym odgrywającym rolę rezystora, którego rezystancja jest zależna od natężenia padającego światła. Jest on zbudowany z naniesionej na podłoże izolujące cienkiej warstwy półprzewodnika, która w celu zapewnienia określonej rezystancji na ograniczonej powierzchni podłoża, przybiera najczęściej postać paska w kształcie meandra. Jako materiał półprzewodnikowy fotorezystorów stosuje się wieloskładnikowe półprzewodniki takie, jak np. siarczek ołowiu (PbS), siarczek kadmu (CdS), selenek ołowiu (PbSe), selenek kadmu (CdSe), tellurek ołowiu (PbTe) czy tellurek kadmu (CdTe). W wyniku oświetlenia fotorezystora światłem o odpowiednio dużej długości fali w jego warstwie półprzewodnikowej nastąpi generacja nośników, która spowoduje zwiększenie się tam koncentracji dziur i elektronów (rysunek 10.4a). A ponieważ, jak pamiętamy, koncentracja nośników ma bardzo duży wpływ na rezystywność półprzewodnika, to zwiększenie koncentracji nośników w fotorezystorze spowoduje spadek jego rezystancji, przy czym im większe będzie natężenie światła, tym bardziej intensywne będzie zjawisko generacji, a więc tym większa będzie koncentracja nośników i tym mniejsza rezystancja fotorezystora. Zależność tę przedstawić można w postaci charakterystyk prądowo-napięciowych (rysunek 10.4b). Jak widać, większym wartościom natężenia oświetlenia E odpowiada mniejsza rezystancja fotorezystora (większe nachylenia linii prostych). Do najważniejszych parametrów fotorezystorów należą: – rezystancja ciemna RO mierzona przy braku oświetlenia, – rezystancja RE mierzona przy określonym natężeniu światła, najczęściej przy 1000 lx, – maksymalne dopuszczalne napięcie Umax przy braku oświetlenia, – maksymalna dopuszczalna moc wydzielana Pmax, – prąd ciemny IO mierzony przy określonym napięciu i w określonej temperaturze,
320
10. Elementy optoelektroniczne
Rys. 10.4. Uproszczona struktura warstwowa fotorezystora (a) oraz rodzina jego charakterystyk prądowo-napięciowych (b)
– czułość jako stosunek wartości skutecznej napięcia lub prądu do mocy promieniowania świetlnego padającego na fotorezystor przy określonej częstotliwości sygnału i określonej długości fali światła. Podaje się również wykres ilustrujący zmiany czułości w funkcji długości fali światła oraz związaną z tą zależnością długość fali, dla której występuje maksymalna czułość. Przykładowy wykres czułości fotorezystora przedstawiono na rysunku 10.5. Na schematach obwodów elektrycznych fotorezystory oznaczane są podobnie jak zwykłe rezystory z tą różnicą, że obok nich umieszcza się strzałki symbolizujące padające promienie świetlne, a czasem otacza się symbol rezystora okręgiem mającym symbolizować występującą bardzo często okrągłą obudowę fotorezystora (rysunek 10.6).
Rys. 10.5. Wykres czułości przykładowego fotorezystora w funkcji długości fali światła wyrażony w skali unormowanej względem wartości maksymalnej
Rys. 10.6. Symbole graficzne fotorezystora
10.4. Fotodioda i fotoogniwo
321
10.4. Fotodioda i fotoogniwo Fotodioda i fotoogniwo stanowią fizycznie jeden element półprzewodnikowy, który w zależności od kierunku polaryzacji pełnić może jedną z dwóch funkcji. Struktura tego elementu jest praktycznie identyczna ze strukturą złącza P-N (rysunek 10.7), z tym że obszar półprzewodnika wystawiony jest na działanie promieniowania świetlnego. Jako fotoogniwa najczęściej stosuje się krzemowe złącza P-N o dużej powierzchni. Z kolei fotodiody to złącza P-N, złącza m-s, heterozłącza, diody ostrzowe lub diody PIN, wykonane z takich materiałów, jak krzem, german lub arsenek galu. W wyniku oświetlenia światłem o odpowiedniej długości fali w warstwie zaporowej oraz w pobliżu niej dochodzi do generacji nośników prądu, dziur i elektronów. Istniejące w warstwie zaporowej pole elektryczne będzie powodowało wymiatanie z tej warstwy wygenerowanych dziur i elektronów do odpowiednich obszarów półprzewodnika, elektronów do obszaru typu N, a dziur do obszaru typu P, które zaczną gromadzić się, czyli zwiększać swoją koncentrację w tych obszarach. Jeśli zaciski tego elementu pozostaną rozwarte, tzn. nie zostanie do nich podłączony żaden element, to w wyniku tego, że nagromadzone nośniki nie mogą odpłynąć z tych obszarów, na końcach zacisków pojawi się różnica potencjałów, czyli napięcie elektryczne, co nazywane jest efektem fotowoltaicznym, a powstałe napięcie – napięciem fotowoltaicznym. Jeśli teraz obwód tego elementu zostanie zamknięty, np. przez rezystor lub nawet zwarty, to nagromadzone ładunki pod wpływem dyfuzji wypłyną do obwodu zewnętrznego tworząc prąd elektryczny. Dalsze oświetlanie będzie powodowało generowanie się nowych nośników, a co za tym idzie, podtrzymywanie przepływu prądu. Tak działające złącze P-N oświetlane światłem nazywamy ogniwem fotowoltaicznym lub po prostu fotoogniwem. Typowe wartości napięcia uzyskanego na rozwartym fotoogniwie dochodzą do 0,5 V, a maksymalne prądy, prądy zwarciowe (płynące przy zwarciu zacisków), w zależności od natężenia oświetlenia, osiągają rzędy setek mikroamperów lub kilku miliamperów. Przykładowe zależności napięcia fotowoltaicznego i prądu zwarciowego od natężenia oświetlenia przedstawiono na rysunku 10.8.
Rys. 10.7. Struktura warstwowa złącza P-N jako fotodetektora
322
10. Elementy optoelektroniczne
Rys. 10.8. Wykresy zależności napięcia fotowoltaicznego Up (a) oraz prądu zwarciowego Iz (b) od natężenia światła padającego na fotoogniwo
Na rysunku 10.9 widać charakterystyki oświetlanego złącza P-N, na których praca fotoogniwa zlokalizowana jest w IV ćwiartce układu współrzędnych. Punkty przecięcia się tych charakterystyk z osią prądu przy określonej wartości natężenia światła oznaczają wymuszone przez fotoogniwo prądy płynące przy zwarciu jego zacisków, czyli prądy zwarciowe. Z kolei punkty przecięcia charakterystyk z osią napięcia oznaczają napięcia powstałe na rozwartych zaciskach fotoogniwa, czyli napięcia fotowoltaiczne. Pozostałe punkty charakterystyki w tej ćwiartce układu współrzędnych wynikają z obciążenia fotoogniwa rezystancjami o różnych wartościach. Jak widać wraz ze wzrostem natężenia światła rośnie zarówno napięcie, jak i prąd wymuszany przez fotoogniwo. Ponieważ wartości uzyskiwanych za pomocą fotoogniwa napięć i prądów są bardzo małe, to w praktycznych zastosowaniach łączy się ze sobą pojedyncze fotoogniwa
Rys. 10.9. Wykres charakterystyk prądowo-napięciowych oświetlanego złącza P-N. Przy polaryzacji w kierunku zaporowym pełni ono funkcję fotodiody (III ćwiartka układu współrzędnych), której prąd wsteczny zależny jest jedynie od natężenia padającego światła, a w przypadku braku polaryzacji zewnętrznej odgrywa rolę fotoogniwa (IV ćwiartka układu współrzędnych), w którym padające światło powoduje generowanie się siły elektromotorycznej (występowanie napięcia fotowoltaicznego)
10.4. Fotodioda i fotoogniwo
323
w sposób równoległy i szeregowy, aby dostarczały energii elektrycznej o określonej mocy. W przypadku spolaryzowania oświetlanego światłem złącza P-N w kierunku zaporowym popłynie przez to złącze jedynie niewielki prąd unoszenia nośników przez warstwę zaporową. Jednak w wyniku jego oświetlania wygenerowane w warstwie zaporowej nośniki utworzą dodatkowy strumień prądu unoszenia, przyczyniając się do wzrostu prądu wstecznego złącza P-N. Tak spolaryzowane złącze P-N oświetlane światłem nosi nazwę fotodiody i ma charakterystykę bardzo zbliżoną do „zwykłej” diody. Na rysunku 10.9 praca złącza P-N jako fotodiody zlokalizowana jest w III ćwiartce układu współrzędnych. Jak widać, wartość prądu wstecznego nie zależy od napięcia polaryzującego, a jedynie od wartości natężenia padającego światła. Im większe jest to natężenie, tym większa jest też wartość płynącego prądu, przy czym prądy te mają identyczną wartość, jak w przypadku prądów wymuszanych przez fotoogniwo ze zwartymi zaciskami, czyli w zakresie od setek mikroamperów do kilku miliamperów. Fotodiody charakteryzują się większą szybkością działania niż fotorezystory i można ją dodatkowo zwiększyć, stosując w tej roli diody PIN oraz diody lawinowe. W fotodiodach PIN określona grubość warstwy półprzewodnika samoistnego, jak pamiętamy, powoduje, że pojemność tej diody jest bardzo mała, co sprzyja skróceniu czasów narastania i opadania impulsów, czyli zwiększeniu szybkości działania. Z kolei w fotodiodach lawinowych wykorzystuje się zjawisko powielania lawinowego nośników wygenerowanych przez światło. Wartość prądu jest wówczas zwielokrotniona przez współczynnik powielania, który definiuje się jako stosunek liczby nośników wychodzących z warstwy zaporowej do liczby nośników wpływających do tej warstwy. Dzięki takiej pracy możliwa jest nawet detekcja pojedynczych fotonów docierających do fotodiody. Do najistotniejszych parametrów fotoogniw zalicza się: – napięcie fotowoltaiczne Up (mierzone przy rozwartych zaciskach), – prąd zwarcia fotoogniwa Iz, mierzony przy określonych wartościach natężenia oświetlenia, – sprawność, będącą stosunkiem mocy pobranej do mocy oddanej, określoną w procentach; typowe wartości współczesnych fotoogniw nie są zbyt duże i wynoszą ok. 20%. Z kolei najważniejszymi parametrami fotodiod są: – czułość na promieniowanie świetlne SE wyrażona w mikroamperach na luks [µA/lx], definiowana jako stosunek przyrostu prądu wstecznego do przyrostu natężenia światła przy danej wartości napięcia polaryzującego, – czułość na promieniowanie monochromatyczne SL, czyli o bardzo wąskim widmie, wyrażona w amperach na wat [A/W], definiowana jako stosunek mocy przyrostu prądu wstecznego do przyrostu mocy padającego promieniowania przy danej wartości napięcia polaryzującego. Na schematach obwodów elektrycznych fotodiody i fotoogniwa oznaczane są podobnie jak zwykłe diody i ogniwa, ale z towarzyszącymi im strzałkami symbolizującymi padające promienie światła (rysunek 10.10).
324
10. Elementy optoelektroniczne
Rys. 10.10. Symbole graficzne fotodiody (a) oraz fotoogniwa (b)
10.5. Fototranzystor W fototranzystorze obszarem wystawionym na działanie promieniowania świetlnego jest obszar bazy, przy czym najczęściej zacisk bazy nie jest wyprowadzony na zewnątrz, co sprawia, że fototranzystor jest elementem dwukońcówkowym (rysunek 10.11a) i z tego względu pracuje on w układzie wspólnego emitera. W wyniku oświetlania obszaru jego bazy generowane są tam nośniki, dziury i elektrony. Jeśli przyjmiemy, że mamy do czynienia z fototranzystorem typu N-P-N, to przy polaryzacji normalnej wygenerowane w bazie elektrony przepływać będą
Rys. 10.11. Struktura warstwowa fototranzystora (a) oraz wykres jego charakterystyk prądowo-napięciowych (b). Promieniowanie świetlne padające na obszar bazy generuje w niej nośniki, zwiększając dzięki temu prąd wyjściowy
10.6. Fototyrystor
325
przez ten obszar w stronę zaporowo spolaryzowanego złącza baza-kolektor i przez jego warstwę zaporową będą unoszone do kolektora, zwiększając prąd kolektora. Z kolei wygenerowane w bazie dziury zwiększą potencjał dodatni obszaru typu P złącza emiter-baza, co spowoduje zmniejszenie się warstwy zaporowej tego złącza i przyczyni się do zwiększenia natężenia prądu wstrzykiwanych z emitera do bazy elektronów. Te dodatkowo wstrzyknięte elektrony przepłyną z kolei do kolektora, w wyniku czego jego prąd wzrośnie jeszcze bardziej. Takie zjawisko nazywane jest wewnętrznym wzmocnieniem prądu fotoelektrycznego. Rodziny charakterystyk fototranzystora, wynikające z opisanego działania, przedstawione są na rysunku 10.11b. Jak widać, nie różnią się one praktycznie od typowych charakterystyk tranzystora pracującego w układzie wspólnego emitera, oprócz tego, że ich parametrem nie jest prąd bazy, ale natężenie padającego światła. Obok typowych dla tranzystorów bipolarnych parametrów znajdują się również parametry dotyczące oświetlenia, zdefiniowane podobnie jak podane dla poprzednich elementów. Należy zwrócić uwagę na to, że w wyniku występowania wewnętrznego wzmocnienia prądu fotoelektrycznego fototranzystory charakteryzują się bardzo dużą czułością, większą od fotodiod i fotorezystorów i osiągającą wartości do 50 µA/lx. Z kolei szybkość jego działania jest stosunkowo mała, gdyż ograniczona jest koniecznością przeładowywania pojemności dyfuzyjnych i złączowych. W dodatku fototranzystory są wrażliwe na przebicie. Ich napięcie przebicia jest dosyć niskie i zwykle nie przekracza 7 V. Na schematach obwodów elektrycznych fototranzystory, podobnie jak poprzednie elementy, oznaczane są dodatkowo strzałkami (rysunek 10.12).
Rys. 10.12. Symbol graficzny fototranzystora
10.6. Fototyrystor W fototyrystorach sterowanie odbywa się za pomocą promieniowania świetlnego. Padające na fototyrystor światło (na emiter typu N lub na bazę typu P) powoduje generowanie się w jego strukturze nośników prądu. W wyniku tego, przy polaryzacji w zakresie blokowania, dojść może do zachwiania stanu równowagi i pojawienia się dodatniego sprzężenia zwrotnego, powodującego przepolaryzowanie się środkowego złącza P-N fototyrystora i przełączenie się go w stan przewodzenia, jak to opisano w podrozdziale 9.1. Charakterystyka prądowo-napięciowa fototyrystora, tak jak w przypadku fototranzystora, praktycznie nie różni się od charakterystyki typowego tyrystora, poza wartością parametru, którym nie jest prąd bramki, ale natężenie padającego światła. Wykresy tych charakterystyk nie będą tu omawiane, aby nie powtarzać materiału przytoczonego już w podrozdziale 9.1. Wystarczy jedynie nadmienić, że wzrost na-
326
10. Elementy optoelektroniczne
Rys. 10.13. Symbol graficzny fototyrystora
tężenia padającego światła będzie powodował takie same zmiany jak wzrost natężenia prądu bramki w typowym tyrystorze. Na schematach obwodów elektrycznych fototyrystory, podobnie jak poprzednie elementy, oznaczane są dodatkowo strzałkami (rysunek 10.13).
10.7. Dioda świecąca Diody świecące, inaczej LED (ang. Light-Emitting Diode), wykorzystują w swym działaniu, opisane wcześniej, zjawisko emisji promieniowania świetlnego wywołane pobudzeniem elektronów przez energię pola elektrycznego, co nazywane jest elektroluminescencją. Dlatego też diody, których świecenie odbywa się na tej zasadzie, nazywane są diodami elektroluminescencyjnymi. Diody świecące w sensie budowy fizycznej są diodami P-N (rysunek 10.14), przy czym w ich przypadku na zewnątrz wyeksponowany jest obszar, w którym zachodzi zjawisko rekombinacji, prowadzące, jak pamiętamy, do emisji światła. W wyniku polaryzacji diody świecącej w kierunku przewodzenia dochodzi do wstrzykiwania nośników większościowych do obu obszarów półprzewodnikowych (elektronów z N do P, a dziur z P do N), gdzie stają się nośnikami mniejszościowymi i zaczynają rekombinować z przeciwnymi do nich nośnikami większościowymi, emitując promieniowanie świetlne. Długość fali tego światła (barwa), np. w przypadku bezpośredniego przejścia elektronu z pasma przewodnictwa do pasma walencyjnego, wynika, jak pamiętamy, z szerokości pasma zabronionego i jest określona wyrażeniem (10.4). W miarę wzrostu napięcia polaryzacji w kierunku
Rys. 10.14. Struktura fizyczna diody świecącej
10.7. Dioda świecąca
327
Rys. 10.15. Wykresy charakterystyk statycznych przykładowych diod świecących. Widać ścisłą zależność napięcia przewodzenia (czy też napięcia dyfuzyjnego) diod od barwy emitowanego światła. Wiąże się to z szerokością przerwy energetycznej, a zatem i z barierą potencjału, którą muszą dyfuzyjnie pokonać nośniki, stąd konieczność przyłożenia większego napięcia dla uzyskania tej samej wartości prądu
przewodzenia rośnie poziom wstrzykiwania nośników, a więc rośnie też intensywność rekombinacji, co z kolei prowadzi do wzrostu liczby emitowanych fotonów i wzrostu natężenia światła. Na rysunku 10.15 przedstawiono poglądowo przykładowe charakterystyki prądowo-napięciowe diod emitujących różne barwy światła. Jak widać, są to charakterystyki typowego złącza P-N różniące się między sobą jedynie napięciem przewodzenia, co wynika z różnych napięć dyfuzyjnych tych diod uzyskanych przez zastosowanie odmiennych materiałów półprzewodnikowych. W celu otrzymania różnych barw światła diody świecące wykonywane są z materiałów charakteryzujących się odpowiednią szerokością przerwy energetycznej lub ogólnie odpowiednią różnicą poziomów energetycznych (w przypadku rekombinacji pośredniej, czyli odbywającej się za pośrednictwem np. poziomów domieszkowych). Jak wynika z tabeli 10.1, dioda wykonana z arsenku galu emitować będzie światło podczerwone, czyli niewidzialne dla ludzkiego oka (ale mające zastosowanie w technice). Aby uzyskać inną barwę, często stosuje się związki będące mieszanką dwóch różnych składników, np. GaAs i GaP. W zależności od ich proporcji uzyskuje się różną szerokość pasma zabronionego, co pozwala na wykonywanie diod świecących o prawie dowolnej barwie światła (por. tabela 10.1). Tam, gdzie mieszanki dwuskładnikowe nie zapewniają już emisji światła na odpowiednim poziomie, wykorzystuje się domieszkowanie półprzewodnika odpowiednimi pierwiastkami (np. azot, tellur, siarka, selen, cynk, czy kadm), zapewniającymi wystąpienie rekombinacji pośredniej. Do najważniejszych parametrów diod świecących należą: – sprawność kwantowa h definiowana jako stosunek liczby generowanych fotonów do liczby nośników biorących udział w przepływie prądu,
328
10. Elementy optoelektroniczne
– skuteczność świetlna, definiowana jako stosunek strumienia świetlnego do pobieranej mocy wyrażana w lumenach na wat [lm/W], – długość fali l emitowanego światła, – szerokość widmowa emitowanego światła, – maksymalny prąd przewodzenia, – napięcie przewodzenia, – maksymalne napięcie wsteczne wynikające z przebicia złącza P-N. Diody świecące znalazły obecnie szerokie zastosowanie. We wczesnych fazach swojego rozwoju używane były głównie jako wskaźniki, później, wraz ze zmniejszaniem się kosztu ich produkcji, stosowano je w wyświetlaczach cyfrowych i alfanumerycznych. Obecnie koszt ich wykonania oraz parametry pozwalają na wykorzystanie ich w ekranach monitorów komputerowych, odbiorników telewizyjnych czy ekranach telefonów komórkowych. A ich najbardziej znane ostatnio zastosowanie to oświetlenie w postaci żarówek energooszczędnych lub pasków diodowych używanych do podświetlania np. w aranżacji wnętrz. Na schematach obwodów elektrycznych diody świecące, podobnie jak inne elementy optoelektroniczne, oznaczane są strzałkami wskazującymi w kierunku zewnętrznym zgodnie z kierunkiem emisji światła (rysunek 10.16).
Rys. 10.16. Symbol graficzny diody świecącej
10.8. Wyświetlacze ciekłokrystaliczne Wyświetlacze ciekłokrystaliczne, w skrócie LCD (ang. Liquid Crystal Display), jak już wspomniano, nie są elementami emitującymi własne promieniowanie świetlne, ale wykorzystują do tego celu inne źródło światła, zewnętrzne, np. w postaci dziennego światła słonecznego albo sztucznego światła oświetleniowego lub wewnętrzne, wbudowane w wyświetlacze diody świecące czy też lampy jarzeniowe lub żarówki. Ich przeznaczeniem jest prezentacja wizualna informacji, np. cyfr, znaków alfanumerycznych lub innych obiektów graficznych. Działają one na zasadzie przepuszczania i blokowania światła, co objawia się zaciemnieniem lub rozjaśnieniem odpowiednich obszarów po doprowadzeniu lub odłączeniu napięcia. Wyświetlacze ciekłokrystaliczne zbudowane są z dwóch płytek szklanych z naniesionymi cienkimi warstwami przezroczystych elektrod, między którymi znajduje się warstwa ciekłego kryształu o grubości kilkudziesięciu mikrometrów. Ciekły kryształ to materiał organiczny, którego właściwości zależą od temperatury. W pewnym zakresie temperatur (typowo 0–55oC) znajduje się w stanie pośrednim między fazą stałą a fazą ciekłą. Faza ta charakteryzuje się tym, że materiał wykazuje zarówno właściwości kryształów, jak i cieczy. W zależności od wartości natężenia pola elektrycznego, w obrębie którego się on znajduje, zmienia ułożenie swoich cząsteczek
10.9. Transoptor
329
Rys. 10.17. Struktura warstwowa wyświetlacza LCD
tak, że ma wpływ na polaryzację przechodzącego przez nie światła. W wyświetlaczach wykorzystywane jest to zjawisko do wygaszania lub przepuszczania światła przez wybrane obszary wyświetlacza pod wpływem przyłożonego do elektrod napięcia. W tym celu na wyświetlaczu znajduje się warstwa materiału, polaryzator, polaryzującego wstępnie światło, które ma przejść przez warstwę ciekłego kryształu oraz warstwa, która przepuszcza światło o wybranej polaryzacji, analizator (rysunek 10.17). W zależności od wartości napięcia przyłożonego do warstwy ciekłego kryształu, zmienia on swoje właściwości tak, że zmienia lub nie zmienia polaryzacji przechodzącego przez niego światła. Analizator tłumi światło o jednej polaryzacji, a przepuszcza o innej, co objawia się jasnymi i ciemnymi miejscami na wyświetlaczu. Jeśli wyświetlacz wykorzystuje zewnętrzne światło padające, to zaopatrzony jest również w powierzchnię odbijającą przechodzące przez te wszystkie warstwy światło, tak aby mogło dotrzeć do oczu odbiorcy. W przypadku wyświetlaczy korzystających z własnego źródła światła taka powierzchnia nie jest konieczna, ewentualnie ma za zadanie równomierne rozproszenie światła podświetlającego wyświetlane obiekty graficzne. Podstawową zaletą wyświetlaczy LCD jest bardzo mały pobór mocy (rzędu kilkudziesięciu mikrowatów), dzięki czemu znalazły one zastosowanie wszędzie tam, gdzie wymagane jest prezentowanie informacji małym kosztem energetycznym. Stosowane są przede wszystkim w takich urządzeniach, jak: cyfrowe zegarki elektroniczne, kalkulatory, odtwarzacze MP3, MP4, aparaty cyfrowe, komputery przenośne, palmtopy i ostatnio ich bliscy kuzyni, czyli telefony komórkowe, poza tym notebooki, monitory komputerowe oraz odbiorniki telewizyjne.
10.9. Transoptor Transoptory to przyrządy zbudowane na zasadzie optycznego sprzężenia fotoemitera z fotodetektorem, zrealizowane najczęściej we wspólnej obudowie. Wyróżnić w nich można zaciski wejściowe sterujące fotoemiterem oraz zaciski wyjściowe włączane w obwód sterowany. Działanie transoptora opiera się na zamianie przez
330
10. Elementy optoelektroniczne
fotoemiter sygnału elektrycznego na sygnał optyczny, który przesyłany w kierunku fotodetektora, podlega ponownej zamianie przez fotodetektor na sygnał elektryczny, pojawiający się w obwodzie wyjściowym. Można zapytać, jaki jest sens istnienia takiego elementu, skoro z punktu widzenia obwodów wejściowego i wyjściowego ciągle operujemy na sygnale elektrycznym? Otóż, sens ten wynika bezpośrednio z budowy transoptora. Po pierwsze, dzięki zastosowaniu oddzielnych elementów w obwodach wejściowym i wyjściowym oraz dzięki temu, że sprzężone one są jedynie sygnałem optycznym, uzyskuje się galwaniczną separację obydwu obwodów, czyli brak elektrycznego połączenia między nimi. Rezystancja między obwodem wejściowym a obwodem wyjściowym może w takim przypadku wynieść nawet 100 GΩ, co pozwala na istnienie różnicy napięć między tymi obwodami o wartości nawet kilku kilowoltów. Po drugie, zastosowanie na wejściu elementu, który światło tylko emituje (nie odbiera), a na wyjściu elementu, który światło tylko odbiera (nie emituje), oznacza, że propagacja sygnału świetlnego między fotoemiterem a fotodetektorem, a więc również sygnału elektrycznego, może się odbywać tylko w jednym kierunku, tzn. od wejścia do wyjścia. Cecha taka nazywana jest unilateralnością i sprawia, że nie występuje sprzężenie zwrotne między obwodami łączonymi przez transoptor. Innymi słowy, zmiany napięcia lub prądu w obwodzie wyjściowym nie propagują się lub nie wpływają na napięcia i prądy w obwodzie wejściowym. Dzięki temu obwód wejściowy jest zabezpieczony przed niekorzystnym wpływem ewentualnego uszkodzenia w obwodzie wyjściowym. W roli fotoemitera zwykle stosuje się diodę świecącą, choć w pierwszych realizacjach transoptorów, gdy diody świecące nie istniały lub były niezbyt opłacalne w użyciu, transoptory oparte były na źródłach światła w postaci żarówek. Jednak ich zastosowanie ograniczało się wówczas przede wszystkim do roli fotokomórek, w których strumień padającego na fotodetektor światła był przerywany przez zewnętrzną przesłonę. Obecnie transoptory również można wykorzystywać jako fotokomórki, przy czym muszą one wówczas mieć budowę otwartą, w której istnieje szczelina pozwalającą na przerywanie strumienia świetlnego. Z kolei transoptory, w których nie ma dostępu do strumienia światła, mają budowę zamkniętą. W takich transoptorach nie ma więc możliwości oświetlenia fotodetektora innym źródłem światła. Fotodetektorem może być z kolei praktycznie dowolny z poznanych już elementów optoelektronicznych. Wytwarza się transoptory, których elementem wyjściowym jest fotodioda, fototranzystor lub fototyrystor. Ponieważ każdy z tych elementów charakteryzuje się innymi właściwościami statycznymi i dynamicznymi, również transoptory dziedziczą po nich te własności. Na przykład transoptory zawierające w swojej strukturze fototranzystor odznaczają się dużą czułością, ale z kolei transoptory oparte na fotodiodach, dzięki praktycznie braku magazynowania ładunków mniejszościowych, mają lepsze właściwości przełączające. Na rysunku 10.18 przedstawiono schematycznie struktury wymienionych transoptorów.
10.9. Transoptor
331
Rys. 10.18. Struktury warstwowe transoptorów z fotoemiterem w postaci diody świecącej i z fotodetektorem w postaci fotodiody (a) oraz w postaci fototranzystora (b)
Ponieważ transoptor można traktować jako czwórnik, definiuje się dla niego klasyczne charakterystyki czwórnikowe, przy czym w praktyce wyróżnia się jedynie trzy z nich: – charakterystykę wejściową, będącą charakterystyką prądowo-napięciową fotoemitera, przy czym należy pamiętać, że dzięki unilateralności jest ona niezależna od wielkości wyjściowych, – charakterystyki wyjściowe, będące charakterystykami prądowo-napięciowymi fotodetektora przy ustalonej wartości prądu wejściowego, – charakterystyki przejściowe, ukazujące zależność prądu wyjściowego od prądu wejściowego przy ustalonej wartości napięcia wyjściowego. Przebieg charakterystyk wejściowych oraz wyjściowych transoptorów jest już nam znany, ponieważ są to charakterystyki poznanych dotąd elementów, natomiast przebieg charakterystyk przejściowych jest na ogół liniowy z niewielkimi nieliniowościami istniejącymi na początku i na końcu charakterystyk. Do głównych parametrów transoptorów należy zaliczyć: – stałoprądowy współczynnik transmisji CTR, definiowany jako stosunek prądu wyjściowego do prądu wejściowego, – maksymalną dopuszczalną wartość prądu w obwodzie wejściowym, – maksymalną dopuszczalną wartość napięcia w obwodzie wejściowym,
332
10. Elementy optoelektroniczne
– – – – – –
maksymalną dopuszczalną wartość prądu w obwodzie wyjściowym, maksymalną dopuszczalną wartość napięcia w obwodzie wyjściowym, rezystancję izolacji, napięcie przebicia między obwodem wejściowym a wyjściowym, czas włączania tON, czas wyłączania tOFF.
Część 3.
Układy analogowe
11. Zasilanie i stabilizacja punktu pracy tranzystora Pierwszym etapem w procesie projektowania układów elektronicznych jest właściwy wybór położenia statycznego punktu pracy oraz obwodu zapewniającego jego ustalenie i stabilizację. Jest to etap o tyle trudny, że wymagający połączenia wiedzy z zakresu półprzewodnikowych elementów nieliniowych oraz teorii obwodów. Na szczęście na tym etapie projektowania i analizy układu projektant porusza się w świecie prądu stałego. Dobre zrozumienie roli układów polaryzacji jest punktem wyjścia do swobodnego studiowania tematyki wzmacniaczy i innych bardziej zaawansowanych układów analogowych i cyfrowych.
11.1. Uwagi ogólne Zanim przejdziemy do analizy układów polaryzacji i stabilizacji punktu pracy tranzystora, musimy poznać wyprzedzająco jego specyfikę w roli elementu wzmacniającego. Już teraz musimy zdać sobie sprawę, że do układu z tranzystorem będziemy podłączać stałe napięcie zasilające nazywane również napięciem polaryzującym, które ustala punkt pracy tranzystora oraz napięcie zmienne podlegające wzmocnieniu nazywane napięciem lub sygnałem sterującym. Sygnałem sterującym może być dowolny sygnał elektryczny reprezentujący sygnał mowy, muzyki, obrazu lub dowolny inny sygnał niosący jakąś informację, np. sygnał diagnostyczny z urządzenia do badań EKG. W tym miejscu pojawia się niezmiernie istotne pytanie, jakim sygnałem mamy badać projektowane układy? Jeśli jest to np. wzmacniacz akustyczny, to czy sygnałem testowym ma być mowa czy śpiew, głos męski czy żeński, z akompaniamentem (i jakim) czy bez? Z przyczyn czysto praktycznych przyjęto, że powinien to być sygnał standardowy, łatwy do wytworzenia i powtarzalny, żeby badania można było powtórzyć w dowolnej pracowni i jednocześnie powinien to być sygnał odpowiadający, w umownym sensie, sygnałom, które będą wzmacniane w trakcie normalnej eksploatacji wzmacniacza. Musi to więc być sygnał zmienny o odpowiednio dobranym okresie i arbitralnie przyjętym kształcie. Jakie zatem kształty wchodzą w grę? W zasadzie dwa: sygnał prostokątny oraz harmoniczny (nie ma w tym przypadku znaczenia, czy opiszemy go funkcją sinusoidalną, czy kosinusoidalną). Dlaczego sygnał prostokątny zwany jest często falą prostokątną? Ponieważ jest to sygnał najbardziej drastyczny, praktycznie niewystępujący w naturze, która „nie lubi kantów”. Fala prostokątna złożona jest z kolejnych skoków napięcia i obserwacja, jak wzmacniacz radzi sobie z przeniesieniem tych skoków, niesie prawie pełną informację o jego właściwościach. Od razu widać, czy skok jest ostry, czy rozmyty
11.1. Uwagi ogólne
335
(i jak bardzo), czy odcinki z niskim i wysokim poziomem napięcia są poziome, czy może opadają lub narastają (a jeśli tak, to czy są to zmiany liniowe, czy też nieliniowe) itd. Dlaczego sygnał harmoniczny? Tu odpowiedzi jest więcej, bo i sygnał jest ciekawszy. Po pierwsze jest to całkowite przeciwieństwo sygnału prostokątnego – jest to sygnał będący opisem maksymalnie łagodnego przejścia z jednego stanu do drugiego, kwintesencja matematycznej elegancji natury. Opisuje mnóstwo naturalnych zjawisk fizycznych, począwszy od ruchu wahadła, a skończywszy na propagacji światła. Pochodną, określającą nachylenie, czyli szybkość zmian sygnału sinus jest funkcja kosinus, co oznacza, że w ekstremalnych wychyleniach zmiany są zerowe, natomiast najszybsze w momencie przejścia przez zero, a cały przebieg jest płynny i pozbawiony jakichkolwiek nieciągłości. Co więcej, z czysto matematycznego punktu widzenia pochodna sinusa jest kosinusem, czyli pochodna funkcji harmonicznej jest taką samą w istocie funkcją harmoniczną, tylko przesuniętą o 90 stopni. Idąc dalej, zauważamy, że całka funkcji harmonicznej jest również taką samą funkcją harmoniczną, tylko przesuniętą o 90 stopni w przeciwną stronę – te stwierdzenia mają kluczowe znaczenie, ponieważ wynika z nich bezpośrednio, że w układach klasy SLS (skupionych, liniowych, stacjonarnych) opisanych liniowymi równaniami różniczkowymi drugiego rzędu wymuszenie harmoniczne wywoła odpowiedź również harmoniczną o tej samej częstotliwości ewentualnie z inną amplitudą i fazą początkową. Nie ma zatem potrzeby zajmowania się kształtem przebiegu, wystarczy jedynie rejestrować stosunek amplitud sygnału na wejściu i wyjściu oraz wzajemne przesunięcie obu sygnałów. Przebiegi stosunków amplitud oraz przesunięć fazowych w funkcji częstotliwości są nazywane charakterystykami częstotliwościowymi i wrócimy do nich w rozdziale dotyczącym wzmacniaczy. Kolejnym powodem niezwykłej popularności funkcji harmonicznych jest fourierowska analiza harmoniczna pozwalająca rozkładać sygnały o innych kształtach na sumy sygnałów harmonicznych. Wykres obrazujący rozkład na składowe harmoniczne jest widmem sygnału, a jego interpretacja i przetwarzanie są podstawową techniką z dziedziny przetwarzania sygnałów. Skoro więc potrafimy rozłożyć dowolny sygnał na składowe harmoniczne i wiemy, jak poszczególne harmoniczne będą przechodzić przez układ liniowy (tzn. ile razy zostaną wzmocnione/stłumione i jakiego doznają przesunięcia), to będziemy potrafili znaleźć odpowiedź układu na ten dowolny sygnał, opierając się na zasadzie superpozycji: po pierwsze rozkładamy, korzystając z analizy fourierowskiej badany sygnał na składowe harmoniczne; po drugie, wyznaczamy odpowiedź układu na poszczególne składowe i po trzecie sumujemy otrzymane odpowiedzi w celu syntezy sygnału wyjściowego. Zwróćmy uwagę na ciekawe implikacje przedstawionej interpretacji; sygnał harmoniczny po przejściu przez układ liniowy nie zmienia kształtu, ale sygnał nieharmoniczny, będący sumą składowych harmonicznych, przez to, że każda z nich jest przenoszona inaczej, już swój kształt zmienia. Oznacza to, że sygnał nieharmoniczny, przechodząc przez układ liniowy, zmienia kształt, a zmiany te noszą uzasadnioną nazwę zniekształceń liniowych. Gdyby charakterystyka częstotliwościowa była płaska, jak jest w przypadku układów czysto rezystancyjnych, zniekształcenia liniowe nie występowałyby.
336
11. Zasilanie i stabilizacja punktu pracy tranzystora
W przypadku układów nieliniowych sytuacja komplikuje się na tyle, że sygnały o dowolnych kształtach nie są praktycznie wcale analizowane teoretycznie – tu perfekcyjnie wyręcza nas symulacja komputerowa [3]. W przypadku sygnału harmonicznego analiza jest prostsza i prowadzi do wniosków, że kształt sinusoidy ulega odkształceniu lub innymi słowy, że w widmie odpowiedzi zamiast pojedynczego prążka reprezentującego sinusoidę pojawia się cała seria prążków o częstotliwościach będących wielokrotnościami częstotliwości sygnału wejściowego. Są to zniekształcenia nieliniowe, a przyczyną ich powstawania jest nieliniowość obwodu. W przypadku wymuszeń harmonicznych analiza zniekształceń nieliniowych jest stosunkowo prosta, a jej elementy będą przedstawione nieco dokładniej w podrozdziale dotyczącym pracy wielkosygnałowej układów. W przypadku rozważania, intuicyjnie najbliższych naszej percepcji, wzmacniaczy akustycznych zniekształcenia liniowe powodują zmianę barwy dźwięku i nagminnie wprowadzamy je celowo żeby uprzyjemnić sobie odbiór i dopasować barwę do indywidualnych upodobań. Celowo projektuje się korektory graficzne (ang. graphic equalizer) zniekształcające charakterystykę częstotliwościową i adekwatnie do rodzaju muzyki wprowadza się predefiniowane kształty typu: rock, soul, speech itp. Używając w tym kontekście słowa „zniekształcenia” odczuwa się pewnego rodzaju dysonans i dlatego wielu praktykujących elektroników na pytanie, co to są zniekształcenia liniowe, reaguje nerwowo, nie bardzo wiedząc, jak odpowiedzieć. Całkowicie odmienna jest sytuacja w przypadku zniekształceń nieliniowych, ponieważ ich pojawienie się w odtwarzanym sygnale akustycznym jest dla ludzkiego słuchu bardzo nieprzyjemne – niewielki poziom zniekształceń nieliniowych jest słyszalny jako chrypienia i kojarzony z przesterowaniem wzmacniacza. Z tego powodu często używa się określenia „zniekształcenia” bez przymiotnika nieliniowe i w takim przypadku praktycznie zawsze ma się na myśli właśnie ten rodzaj zniekształceń.
11.2. Układy polaryzacji tranzystorów bipolarnych Układy polaryzacji, jak wcześniej wspomniano, mają za zadanie ustalenie położenia punktu pracy oraz jego stabilizację. Na destabilizację punktu pracy tranzystora bipolarnego pracującego w zakresie aktywnym zasadniczy wpływ mają temperaturowe zmiany parametrów tranzystora: współczynnika wzmocnienia stałoprądowego b, napięcia UBE oraz prądu zerowego ICBO. Przybliżone zależności tych parametrów od temperatury przyjmuje się następująco: – wartość b w zakresie temperatur 0–50°C rośnie w przybliżeniu liniowo ze współczynnikiem 1/80°C dla tranzystorów krzemowych (Si) i 1/60°C dla germanowych (Ge), – napięcie UBE maleje liniowo w funkcji temperatury ze współczynnikiem –2,3 mV/°C, – prąd zerowy ICBO zależy wykładniczo od temperatury i podwaja się co 10°C dla Si i co 8°C dla Ge. Oprócz termicznych zmian położenia punktu pracy musimy brać pod uwagę również rozrzut technologiczny parametrów tranzystorów – projektujemy jeden układ,
11.2. Układy polaryzacji tranzystorów bipolarnych
337
ale w procesie produkcyjnym wykonuje się wiele jego kopii i oczekujemy, że punkty pracy we wszystkich egzemplarzach będą prawie jednakowe. Jak wcześniej wspomniano, tranzystor bipolarny wykazuje właściwości wzmacniające, gdy zostanie wprowadzony w stan aktywny normalny, tzn. w stan, w którym złącze baza-emiter jest spolaryzowane w kierunku przewodzenia, a złącze baza-kolektor w kierunku zaporowym. Zatem, w przypadku tranzystora N-P-N układ polaryzacji powinien zapewnić najniższy potencjał na końcówce emitera, wyższy na bazie i najwyższy na kolektorze, przy czym napięcie na przewodzącym złączu baza-emiter tranzystora krzemowego powinno wynosić 0,6–0,7 V, a napięcie na spolaryzowanym zaporowo złączu baza-kolektor może być znacznie większe (ograniczone napięciem przebicia złącza). W celu zapewnienia takiej polaryzacji można zastosować dwa niezależne źródła napięcia o odpowiednio dobranych wartościach, ale byłoby to rozwiązanie wyjątkowo nieekonomiczne. Lepszym rozwiązaniem jest zastosowanie pojedynczego źródła napięcia i dwóch różnych rezystorów doprowadzających je do końcówek bazy i emitera, co zilustrowano na rysunku 11.1a. Jest to układ ze stałym prądem bazy. Rezystory R1 i RC muszą być tak dobrane, żeby spadki napięcia UR1 i URC powodowały ustalenie się wymaganych potencjałów bazy i kolektora względem emitera. Układ ze stałym prądem bazy jest z powodu małej liczby elementów ekonomiczny, ale nie zapewnia stabilizacji punktu pracy. Wystarczy, że w trakcie normalnej pracy elementu, na skutek przepływu prądów, podwyższeniu ulegnie temperatura tranzystora, a przy praktycznie stałym prądzie bazy, spadek napięcia na rezystorze RB będzie również stały, co wobec stałości napięcia zasilającego UCC podłączonego do bazy wymusi stałą wartość napięcia baza-emiter i spowoduje wzrost prądu kolektora, a w konsekwencji dalszy wzrost temperatury itd. Powyższe zdanie jest pozornie sprzeczne ze stwierdzeniem, że „napięcie UBE maleje liniowo w funkcji temperatury”. Wyjaśnienie tych sformułowań staje się oczywiste, gdy wykreślimy dwie charakterystyki przejściowe tranzystora dla dwóch różnych temperatur – rysunek 11.2 (szerszy komentarz znajdzie Czytelnik w podrozdziale 6.3). Teraz wszystko jest jasne – wzrost temperatury przy stałym prądzie kolektora powoduje spadek napięcia baza-emiter, ale jeśli będziemy stabilizować napięcie baza-emiter, to wzrost temperatury spowoduje wzrost prądu kolektora.
Rys. 11.1. Układy zasilania i stabilizacji punktu pracy tranzystora bipolarnego: a) ze stałym prądem bazy, b) ze stałym prądem bazy i sprzężeniem emiterowym, c) potencjometryczny ze sprzężeniem emiterowym
338
11. Zasilanie i stabilizacja punktu pracy tranzystora
Pewnego komentarza wymaga nazwa „układ ze stałym prądem bazy”. Nazwa ta wynika z faktu, że wartość prądu bazy, tj. prądu płynącego przez rezystor R1 (rysunek 11.1a), jest określona przez różnicę napięcia zasilającego UCC i spadku napięcia na złączu baza-emiter UBE. Zmiany napięcia UBE w stosunku do napięcia UCC są praktycznie nieistotne (napięcie UBE jest niewielkie w stosunku do napięcia zasilającego, a jego zmiany temperaturowe są zupełnie do pominięcia), a zatem prąd bazy jest praktycznie stały. Brak stabilizacji punktu pracy eliminuje układ ze stałym prądem bazy z zastosowania w zdecydowanej większości przypadków, tym bardziej że poprawę własności stabilizacyjnych uzyskuje się, dodając do układu tylko jeden dodatkowy element, tj. rezystor RE – rysunek 11.1b. Rezystor RE realizuje silne ujemne sprzężenie zwrotne zwane sprzężeniem emiterowym. Musi to być sprzężenie zwrotne tylko dla składowej stałej, dlatego w układach wzmacniaczy niwelujemy wpływ tego rezystora na składową zmienną, zwierając go kondensatorem o dużej pojemności (reaktancja takiego kondensatora jest dla sygnałów zmiennych prawie zerowa). W tej chwili jednak mówimy tylko o układzie polaryzacji, więc to spostrzeżenie jest jedynie pewnym komentarzem wyprzedzającym. W układzie ze sprzężeniem emiterowym (rysunek 11.1b) bilans napięć w obwodzie wejściowym ma postać I B R1 + U BE + I E RE = U CC .
(11.1)
W sytuacji, gdy wskutek normalnej pracy urządzenia podwyższeniu ulegnie temperatura tranzystora, wzrosną prądy kolektora i emitera, co spowoduje wzrost spadku napięcia na RE i w konsekwencji, zgodnie z (11.1), stabilizujący spadek napięcia UBE. Zjawisko sprzężenia emiterowego jest jeszcze lepiej wykorzystane w układzie z rysunku 11.1c. Jest to najpopularniejszy (podstawowy) układ polaryzacji tranzystorów bipolarnych, zwany potencjometrycznym układem polaryzacji ze sprzężeniem emiterowym, wykorzystujący sprzężenie realizowane w oczku I E RE + U BE = U R 2 ≈ const .
(11.2)
Ze względu na znaczenie tego układu przeprowadzimy uproszczoną analizę w celu określenia jego podstawowych właściwości. Na potrzeby analizy, korzystając z twierdzenia Thevenina, przekształcimy układ potencjometryczny ze sprzężeniem emiterowym do postaci dwubateryjnej z rysunku 11.3. Przekształcenie dotyczy gałęzi R1 – R2, a wyjściem układu przekształconego jest baza tranzystora (B), co zilustrowano na rysunku 11.4. Układy są liniowe, więc żeby były sobie równoważne, wystarczy zapewnić równoważność w stanie jałowym (rozwarte wyjście) i w stanie zwarcia. Napięcie wyjściowe układu oryginalnego w stanie jałowym jest napięciem dzielnika rezystancyjnego, a w układzie zastępczym jest równe UBB U BB = U CC
R2 . R1 + R2
(11.3)
339
11.2. Układy polaryzacji tranzystorów bipolarnych
Rys. 11.2. Zmiana statycznej charakterystyki przejściowej tranzystora w funkcji temperatury
Rys. 11.3. Dwubateryjny układ zasilania i stabilizacji punktu pracy tranzystora bipolarnego – schemat zastępczy
Rys. 11.4. Transformacja dzielnika potencjometrycznego
Z kolei prądy zwarcia określone są zależnościami U CC U BB = R1 RB
⇒ RB =
U BB R1. U CC
(11.4)
Ostatecznie korzystając z (11.3), otrzymujemy RB =
R1 R2 . R1 + R2
(11.5)
W rozważaniach pomijamy prądy zerowe, ponieważ ich uwzględnienie wiąże się z szeregiem komplikacji, a nie mają one zbyt istotnego wpływu na zachodzące zjawiska i właściwości układu. Zainteresowanych dokładniejszą analizą Czytelników odsyłamy do [4]. Przy tych założeniach, korzystając z definicji stałoprądowego wzmocnienia tranzystora w układzie wspólnego emitera
β=
IC IB
(11.6)
otrzymujemy I C = β I B I E = I C + I B = I B ( β + 1)
(11.7)
340
11. Zasilanie i stabilizacja punktu pracy tranzystora
Ponadto z oczka wejściowego mamy: U BB = I B RB + U BE + I E RE .
(11.8)
Z powyższych zależności otrzymujemy istotny z punktu widzenia projektowania układów zasilania i stabilizacji punktu pracy związek o postaci
IC
(U − U BE ) β = BB ( β + 1) RE + RB
β >>1
≈
U BB − U BE = R RE + B β
RB − U BE R1 . R RE + B β
U CC
(11.9)
Proces projektowania potencjometrycznego układu polaryzacji ze sprzężeniem emiterowym rozpoczynamy od arbitralnego przyjęcia wartości rezystora RE. Musimy przy tym pamiętać, że suma rezystorów emiterowego i kolektorowego ustala napięciowy punkt pracy zgodnie z równaniem Kirchhoffa dla oczka wyjściowego1 U CC = U CE + RC I C + I E RE
IC ≈ I E
≈ U CE + ( RC + RE ) I C .
(11.10)
Oznacza to, że przy założonej wartości napięcia zasilającego oraz przy ustalonym punkcie pracy (UCE i IC) suma RC + RE jest stała, więc zwiększanie wartości jednego z rezystorów wymusza identyczne zmniejszenie drugiego. Zwiększanie RE poprawia stabilizację punktu pracy i z tego punktu widzenia jest korzystne, ale zmniejszanie RC powoduje, jak pokażemy w kolejnym rozdziale, zmniejszanie wzmocnienia napięciowego wzmacniacza, co z kolei jest niekorzystne. Praktycznie rozsądne wartości RE mieszczą się w granicach od 10% do 30% sumy RC + RE, czyli RE = ( 0,1 ... 0, 3)
U CC − U CE . IC
(11.11)
Następnie przyjmujemy rezystancję RB. Można tu zastosować zasadniczo jedno z dwóch podejść. Pierwsze, dość czasochłonne, opiera się na fakcie, że wartość RB ma wpływ na stabilność punktu pracy tranzystora; można więc przyjąć pewną maksymalną odchyłkę temperaturową prądu kolektora wyrażoną w procentach i na tej podstawie obliczyć wymaganą wartość RB [4], a następnie korzystając z (11.9), rezystancje rezystorów dzielnika U CC RB R1 = R U BE + I C RE + B β RR R2 = 1 B , R1 − RB
(11.12)
gdzie: UBE i b – wartości katalogowe parametrów tranzystora odpowiadające założonemu punktowi pracy. 1
W równaniu (11.10) przyjęliśmy często stosowane przybliżenie, że ponieważ prąd emitera jest sumą prądu bazy i prądu kolektora, a prąd bazy jest znacznie mniejszy od prądu kolektora, to prąd emitera jest praktycznie równy prądowi kolektora. Z tego przybliżenia będziemy korzystać konsekwentnie w dalszej części książki.
11.3. Układy polaryzacji tranzystorów polowych
341
Podejście drugie, bardziej praktyczne i znacznie częściej stosowane, polega na takim wyborze rezystancji RB, aby prąd dzielnika, płynący przez rezystory R1 i R2 przy odłączonej bazie tranzystora, był co najmniej dziesięciokrotnie większy od prądu bazy (płynącego w normalnych warunkach) I dz =
U CC ≥ 10 I B . R1 + R2
(11.13)
Wówczas można przyjąć założenie, że dzielnik pracuje praktycznie w stanie jałowym, tzn. że tranzystor praktycznie go nie obciąża, ponieważ prąd bazy jest znikomy. Przy tym założeniu potencjał bazy jest równy UBB. Z dolnego oczka na podstawie napięciowego prawa Kirchhoffa otrzymujemy U BB = U BE + I E RE ≈ U BE + I C RE
(11.14)
i korzystając z (11.3), wyznaczamy wartość rezystora R2 U CC
(U + I R ) ( R1 + R2 ) U BE + IC RE R2 = U BE + I C RE ⇒ R2 = BE C E = (11.15) U CC I dz R1 + R2
a następnie R1 z sumy rezystancji otrzymanej z (11.13). Na zakończenie, w celu ustalenia napięciowego punktu pracy, dobieramy rezystor kolektorowy z zależności RC =
U CC − U CE − I E RE U CC − U CE − I C RE ≈ . IC IC
(11.16)
11.3. Układy polaryzacji tranzystorów polowych Zagadnienia stabilizacji punktu pracy tranzystora polowego przedstawimy w oparciu o tranzystor złączowy z kanałem typu N. Aby złącze bramka-źródło było spolaryzowane zaporowo, potencjał bramki musi być ujemny. Przez analogię do tranzystora bipolarnego możemy określić podstawowe układy polaryzacji i stabilizacji punktu pracy tranzystora polowego pokazane na rysunku 11.5. Układy ze stałym napięciem bramki (rysunek 11.5a) oraz potencjometryczny ze sprzężeniem źródłowym (rysunek 11.5c) są prostą analogią układów ze stałym prądem bazy (rysunek 11.1a) oraz potencjometrycznego ze sprzężeniem emiterowym (rysunek 11.1c). W układzie z automatyczną polaryzacją bramki (rysunek 11.5b) wykorzystano fakt, że stosunkowo duży prąd źródła płynący przez RS wytwarza na nim spadek napięcia i powoduje, że elektroda źródła ma potencjał wyższy od potencjału masy. W przypadku tranzystora polowego prąd bramki jest praktycznie zerowy, co powoduje, że spadek napięcia na rezystorze RG także jest zerowy. W efekcie zerowy – czyli niższy niż potencjał źródła – jest również potencjał bramki, a zatem złącze bramka-kanał jest prawidłowo spolaryzowane w kierunku zaporowym. Przebieg charakterystyk statycznych tranzystora polowego w istotny sposób zależy od rozkładu koncentracji domieszek w kanale tranzystora. W przypadku rozkła-
342
11. Zasilanie i stabilizacja punktu pracy tranzystora
Rys. 11.5. Podstawowe układy polaryzacji i stabilizacji punktu pracy tranzystora polowego: a) ze stałym napięciem bramki, b) z automatyczną polaryzacją bramki („automatyczny minus”), c) potencjometryczny ze sprzężeniem źródłowym
du szpilkowego otrzymujemy prostą zależność opisującą przebieg charakterystyki przejściowej tranzystora U I D = I DSS 1 − GS Up
2
.
(11.17)
Niestabilność temperaturowa punktu pracy tranzystora polowego jest znacznie mniejsza niż w przypadku tranzystora bipolarnego, a szczególną osobliwością jest istnienie tzw. punktu autokompensacji termicznej, który nie ma jednak praktycznie większego znaczenia ze względu na niewielki prąd drenu w tym punkcie. W przypadku tranzystorów polowych największy wkład w niestabilność wnosi produkcyjny rozrzut parametrów i dlatego układy polaryzacji projektuje się zwykle pod kątem rozrzutu parametrów. Własności stabilizacyjne podstawowych układów zilustrowano na rysunku 11.6. Dwie skrajne charakterystyki pokazane na tym rysunku wynikają ze zmian temperatury i/lub rozrzutu technologicznego parametrów tranzystora. Rzeczywiste charakterystyki tranzystora zawierają się między tymi przebiegami.
Rys. 11.6. Własności stabilizacyjne wybranych układów z rysunku 11.5
343
11.4. Metody polaryzacji w układach scalonych
Aby obliczyć wartości elementów podstawowych układów polaryzacji, korzystamy z następujących zależności: a) układ ze stałym napięciem bramki (rysunek 11.5a) I G = 0 ⇒ U GS = −U GG ,
(11.18)
b) układ z automatyczną polaryzacją bramki (rysunek 11.5b) I G = 0 ⇒ U GS = −U RS −U GS RS = I D
(11.19)
c) układ potencjometryczny ze sprzężeniem źródłowym (rysunek 11.5c) RS =
∆U GS ∆I D
=
U GS max − U GS min I D max − I D min
,
(11.20)
przy czym I D max/min U GS max/min = U p max/min 1 − I DSS max/min
.
(11.21)
R1 i R2 liczymy z pominięciem prądu IG (dla Idz >> IG, gdzie Idz jest prądem dzielnika płynącym przez R1, R2).
11.4. Metody polaryzacji w układach scalonych W technice scalonej nie stosuje się popularnego, potencjometrycznego układu polaryzacji i stabilizacji punktu pracy ze sprzężeniem emiterowym (źródłowym), gdyż trudne jest wykonanie kondensatora monolitycznego o wartości rzędu mikrofaradów (bocznikującego sprzężenie dla składowej zmiennej) oraz rezystorów dzielnika o wartościach zwykle powyżej kilkudziesięciu kiloomów. Stosuje się więc inne sposoby polaryzacji, głównie wykorzystujące źródła prądowe do stabilizacji prądu kolektora. Dla przykładu zilustrujemy ten sposób polaryzacji, rozważając podstawowy układ źródła prądowego zamieszczony na rysunku 11.7, zwany niekiedy zwierciadłem prądowym lub źródłem Widlara. Rozpatrując ten układ, zakłada się, że oba tranzystory są identyczne, co w wersji scalonej układu jest dobrze uzasadnione. Tranzystor T1 włączony jest jako dioda i służy do polaryzacji tranzystora T2. Złącza emiterowe obu tranzystorów są połączone równolegle, zatem, przy tym samym napięciu baza-emiter UBE, prądy baz i kolektorów są jednakowe, co uzasadnia nazwę „zwierciadło prądowe”. Na podstawie prawa Ohma mamy I=
U CC − U BE , R
(11.22)
a z prądowego prawa Kirchhoffa wynika, że I = IC + 2 I B .
(11.23)
344
11. Zasilanie i stabilizacja punktu pracy tranzystora
Rys. 11.7. Źródło prądowe Widlara (zwierciadło prądowe)
Dołączając do zależności obwodowych związek dotyczący tranzystora IC = β I B ,
(11.24)
U CC − U BE R β + 2 U CC − U BE IC = R β
(11.25)
otrzymujemy IC + 2 I B =
i ostatecznie IC =
U CC − U BE β U ≈ CC . R β +2 R
(11.26)
Przybliżenie, jakie wprowadzono w powyższym wzorze, jest uzasadnione dużą dysproporcją wartości napięcia zasilania (kilka–kilkanaście woltów) i spadku napięcia na przewodzącym złączu emiterowym, wynoszącym przeciętnie nie więcej niż 0,65 V oraz wartością wzmocnienia stałoprądowego, które jest znacznie większe od 2. Prąd kolektora tranzystora T2 jest niejako repliką prądu wymuszonego w obwodzie tranzystora T1 i nie zależy od obciążenia, czyli od wartości RC. Układ ma więc charakter źródła prądowego o wydajności regulowanej za pomocą rezystora R. Stałość prądu kolektora w pokazanym układzie jest bardzo dobra ze względu na fakt, że jego wartość słabo zależy od parametrów tranzystora (tym mniej im większe jest napięcie zasilające). Dzięki tej właściwości oraz dzięki małej liczbie użytych rezystorów jest on stosowany w układach scalonych do realizacji skompensowanego źródła prądu zasilającego inne układy, np. wzmacniacze różnicowe. Niestety układ ten nie może być używany w układach dyskretnych, gdyż trudno zapewnić identyczne zmiany temperatury obu tranzystorów, a prąd IC jest bardzo wrażliwy na różnice między charakterystykami wejściowymi obu tranzystorów, gdyż w zakresie aktywnym normalnym tranzystorów są one strome.
12. Małosygnałowe wzmacniacze pasmowe Przez pojęcie wzmacniaczy małosygnałowych rozumiemy wzmacniacze pracujące z na tyle małymi sygnałami zmiennymi, aby można było bez większych błędów uznawać je za wzmacniacze liniowe. Przymiotnik pasmowe dotyczy relacji między dolną i górną częstotliwością graniczną, które są od siebie odległe: kilka lub kilkadziesiąt herców i kilkadziesiąt lub nawet kilkaset kiloherców – pasmo jest różnicą górnej i dolnej częstotliwości granicznej. Elementarne małosygnałowe stopnie wzmacniające stanowią doskonałą bazę do poznania i zrozumienia wielu najbardziej podstawowych procesów i zjawisk zachodzących w układach elektronicznych. Ze względu na charakter niniejszej książki ograniczymy się w naszych rozważaniach do wzmacniaczy zbudowanych z tranzystorów bipolarnych jako układów reprezentatywnych dla wzmacniaczy. Wzmacniacze budowane z wykorzystaniem tranzystorów unipolarnych mają nieco inne właściwości, różnią się od układów wykonanych w technice bipolarnej wartościami parametrów i przebiegiem charakterystyk, ale zjawiska „układowe” są w tych technologiach (włączając również technologię lampową) w zasadzie jednakowe.
12.1. Parametry robocze Parametry macierzowe, opisując stan czwórnika w stanie jałowym lub w stanie zwarcia, nie odzwierciedlają „naturalnych” warunków pracy układu. Funkcję tę pełnią parametry robocze opisujące wzmacniacz w stanie pracy, tzn. sterowany z rzeczywistego źródła i obciążony. Ponieważ parametry robocze wyznaczane są dla zakresu średnich częstotliwości, tj. takich, dla których pojemności sprzęgające i bocznikujące stanowią zwarcie, a wewnętrzne pojemności tranzystora – rozwarcie, ich wartości mają charakter rzeczywisty (o ile tylko taki charakter mają generator i obciążenie). Musimy teraz dokonać pewnego przeskoku myślowego i syntezy dotychczas zdobytej wiedzy, czyli musimy połączyć dwa współistniejące, ale zupełnie różne światy: świat składowej stałej (polaryzującej układ tak, żeby tranzystor mógł wzmacniać sygnał) i składowej zmiennej, czyli tej, która będzie w układzie wzmacniana. Dobre zrozumienie odrębności tych światów jest warunkiem koniecznym do właściwej interpretacji dalszych części podręcznika. Rozważania przeprowadzimy dla najpopularniejszego układu włączenia tranzystora, tj. układu wspólnego emitera. Zanim jednak przejdziemy do definiowania i wyznaczania parametrów roboczych, musimy wyraźnie pokazać wspomniane światy składowej stałej i zmiennej, od teraz
346
12. Małosygnałowe wzmacniacze pasmowe
będziemy już mówić poprawniej i bardziej formalnie: obwody dla składowej stałej i zmiennej. Spróbujmy zatem zbudować układ wzmacniacza pracujący w układzie wspólnego emitera (WE). Po pierwsze musimy spolaryzować układ i zlikwidować emiterowe sprzężenie zwrotne dla składowej zmiennej – w przeciwnym razie układ miałby bardzo małe wzmocnienie napięciowe (zjawisko ujemnego sprzężenia zwrotnego będziemy szerzej omówione w dalszej części książki). Innymi słowy, rezystor RE dla składowej zmiennej musi zniknąć – efekt ten uzyskamy, gdy „zewrzemy” ten rezystor kondensatorem CE o dużej pojemności, który dla sygnałów zmiennych będzie miał reaktancję bliską zera – wówczas cała impedancja łącząca emiter z masą również będzie prawie zerowa i sprzężenia dla składowej zmiennej nie będzie. Otrzymujemy więc układ z rysunku 12.1.
Rys. 12.1. Układ polaryzacji ze zlikwidowanym sprzężeniem emiterowym dla składowej zmiennej
Układ jest teraz gotowy do działania, trzeba tylko podłączyć źródło zmiennego sygnału sterującego eg lub ig o rezystancji wewnętrznej Rg i obciążenie Ro1. Sygnałem sterującym jest zmienny sygnał wejściowy wzmacniany w układzie, a obciążenie (odbiornik wzmocnionego sygnału) jest pewną rezystancją, na której powstaje spadek napięcia będący wzmocnionym sygnałem zmiennym. Określenie wspólny emiter oznacza, że emiter jest końcówką wspólną dla źródła sygnału sterującego i obciążenia, innymi słowy jeden biegun źródła sterującego, jedna elektroda rezystora obciążenia i emiter muszą znaleźć się na wspólnym potencjale – najczęściej jest to potencjał masy. Druga elektroda źródła i druga elektroda obciążenia muszą być podłączone do układu wzmacniacza, odpowiednio do bazy, gdzie podajemy mały sygnał, który ma być wzmocniony i do kolektora, gdzie zbieramy duży, już wzmocniony prąd wyjściowy, który z kolei, płynąc przez rezystancję obciążenia, wytworzy na niej wzmocnione napięcie wyjściowe. Generator sterujący i obciążenie muszą być przyłączone tak, aby nie naruszać rozpływu polaryzującego prądu stałego z zasilacza i dlatego są podłączone do spolaryzowanego tranzystora przez kondensatory sprzęgające Cs1 i Cs2.
1
W trzeciej części książki przez e lub i rozumiemy, w zależności od kontekstu, albo określenie generatora lub źródła prądu zmiennego, albo wartość skuteczną napięcia, bądź prądu. Podobnie u oznacza ogólnie wartość skuteczną napięcia zmiennego.
12.1. Parametry robocze
347
Rys. 12.2. Wzmacniacz w układzie WE z zaznaczonym obwodem dla składowej stałej (kolor szary)
Tym sposobem otrzymaliśmy kompletny układ wzmacniacza pracującego w układzie WE, zamieszczony na rysunku 12.2. Ponieważ wzmacniacz zrealizowano z wykorzystaniem rezystorów i kondensatorów, często bywa nazywany wzmacniaczem RC. Kolorem szarym zaznaczono drogę przepływu prądu polaryzującego, który płynie od dodatniego do ujemnego bieguna źródła napięcia UCC polaryzującego tranzystor. Na schemacie zastosowano uproszczoną konwencję rysowania źródeł zasilania, tzn. zamiast symbolu baterii zaznaczono tylko miejsce przyłączenia elektrody dodatniej oraz wyjątkowo, dla pokazania, gdzie domyka się obwód, zaznaczono miejsce przyłączenia elektrody ujemnej – druga elektroda źródła domyślnie podłączana jest do punktu obwodu. Z punktu widzenia wzmacnianego sygnału, czyli składowej zmiennej, sytuacja wygląda zupełnie inaczej. Tu siłą sprawczą wywołującą przepływ prądu jest źródło eg. Przyjmując, że w określonym momencie górna elektroda tego źródła ma potencjał wyższy, a dolna niższy, prąd zmienny będzie płynął od elektrody górnej poprzez rezystory, kondensatory, tranzystor i źródło polaryzujące do elektrody dolnej, czyli do masy, co zilustrowano na rysunku 12.3 linią szarą. Chwilę później biegunowość źródła eg zmieni się na przeciwną i prąd popłynie w przeciwnym kierunku, ale dokładnie tą samą drogą.
Rys. 12.3. Wzmacniacz w układzie WE z zaznaczonym obwodem dla składowej zmiennej (kolor szary)
348
12. Małosygnałowe wzmacniacze pasmowe
Rys. 12.4. Schemat ideowy wzmacniacza w układzie WE
Prąd zmienny przepływa więc bez przeszkód przez kondensatory i źródło napięcia stałego, które teoretycznie ma zerową rezystancję. Praktycznie rezystancja ta nigdy nie jest dokładnie zerowa, ale źródło polaryzujące ma często w swojej strukturze kondensatory o dużej pojemności, które dla sygnałów zmiennych praktycznie stanowią zwarcie. Układ, który otrzymaliśmy, jest bardzo prosty, ale można w nim jednak wyróżnić sporo prądów i napięć, które posłużą nam do zdefiniowania parametrów roboczych. Wszystkie niezbędne wielkości przedstawione są na rysunku 12.4. Na schemacie zaznaczono m.in. ekwiwalentny sterujący generator prądowy, którym zastępuje się generator napięciowy w celu wyznaczenia skutecznego wzmocnienia prądowego. W celu dalszej analizy układ ten uprościmy, zwierając źródło zasilania (którego impedancję, jak wcześniej wspomniano, można potraktować jako zerową). W efekcie, z punktu widzenia generatora sterującego, otrzymujemy układ zastępczy z rysunku 12.5.
Rys. 12.5. Schemat zastępczy dla składowych zmiennych
Układ z rysunku 12.5 można sprowadzić do jeszcze prostszej postaci zastępczej, poprawnej w zakresie średnich częstotliwości, zwierając pojemności Cs1, Cs2 i CE, gdyż w tym zakresie ich reaktancje są tak małe, że można potraktować je jako zwarcie. Ewolucję schematu zastępczego, aż do schematu z czwórnikowym modelem opisanym macierzą he, pokazano na rysunku 12.6. Przez macierz he rozumiemy macierz mieszaną h określoną dla tranzystora pracującego w układzie wspólnego
12.1. Parametry robocze
349
emitera. Parametry macierzy he tranzystora są dostępne bezpośrednio w katalogach jako funkcje punktu pracy. Na podstawie przedstawionych schematów zdefiniujemy parametry robocze wzmacniacza i wyprowadzimy zależności pozwalające na ich obliczenie z wykorzystaniem parametrów macierzowych tranzystora. Warto w tym miejscu wyjaśnić, w jakim celu wprowadzamy nowe wielkości zastępcze. W zasadzie mamy dwa różne punkty widzenia i jakby trzy warstwy. Po pierwsze, możemy patrzeć na wzmacniacz z punktu widzenia tranzystora. Tranzystor „widzi” na swoim wejściu pewien uogólniony generator napięciowy eG lub prądowy ig
Rys. 12.6. Schematy zastępcze dla składowych zmiennych w zakresie średnich częstotliwości
350
12. Małosygnałowe wzmacniacze pasmowe
wraz z rezystancją RG, na którą składają się połączone równolegle rezystory Rg oraz R1 i R2, przy czym równolegle połączenie R1 i R2 zastępowane jest dla uproszczenia zapisu zastępczą rezystancją bazy RB. Podobnie na swoim wyjściu tranzystor „widzi” uogólnione obciążenie RL złożone z równoległego połączenia RC i Ro. Z kolei, z punktu widzenia użytkownika, cały wzmacniacz zamknięty jest w „pudełku”, do którego podłącza się „prawdziwy” generator eg /Rg i „prawdziwe” obciążenie Ro. Uogólniony generator napięciowy eG jest efektem podłączenia do „prawdziwego” generatora eg dodatkowej rezystancji RB. A te trzy warstwy, o których wspomnieliśmy, to: 1) generator eg lub ig wraz z Rg i obciążenie Ro, 2) tranzystor i 3) elementy układu polaryzacji R1, R2 i RC, przez które przepływają jednak również prądy zmienne, dlatego mają one swój udział we wzorach określających parametry robocze. Gorąco zachęcamy Czytelnika do uważnego zapoznania się z tymi wszystkimi symbolami i schematami zastępczymi, ponieważ będziemy z nich bardzo często korzystać w dalszych rozdziałach podręcznika. Analizę rozpoczniemy od rezystancji wejściowej zdefiniowanej następująco rwe =
u1 . i1
(12.1)
Korzystając z praw Ohma i Kirchhoffa, zastosowanych do zastępczego schematu macierzowego (rysunek 12.6), otrzymujemy u1 − h12e u 2 i 1 = h11e 1 u = −h i 21e 1 2 h 22e + GL
u1 + i 1 ⇒ i1 =
h12e h 21e h 22e + GL h11e
,
(12.2)
przy czym uogólniona konduktancja obciążenia GL = 1/RL. Ostatecznie r we = h11e −
h 12e h 21e h 22e + GL
h12 e ≈ 0
≈
h11e .
(12.3)
Jak wynika z definicji, jest to rezystancja wejściowa samego tranzystora (czwórnika opisanego modelem macierzowym typu h). Z punktu widzenia użytkownika wzmacniacza bardziej praktyczne znaczenie ma uogólniona rezystancja wejściowa, zdefiniowana następująco Rwe =
u1 = RB rwe . i1 '
(12.4)
Jest to rezystancja „widziana” z zacisków generatora sterującego i stanowi równoległe połączenia rezystancji RB i rezystancji wejściowej wzmacniacza rwe. W przypadku rezystancji wyjściowej sytuacja nieco się komplikuje, gdyż należy ją wyznaczyć, podłączając sterowanie układu do jego wyjścia, pozostawiając jednocześnie na wejściu rezystancję wewnętrzną „normalnego” generatora sterującego. Odpowiedni schemat zastępczy pokazany jest na rysunku 12.7.
351
12.1. Parametry robocze
Rys. 12.7. Schemat zastępczy do wyznaczenia rezystancji wyjściowej
W przedstawionym układzie pomiarowym rezystancję wyjściową definiujemy następująco rwy =
u2 i2
(12.5) eG = 0
i podobnie jak poprzednio otrzymujemy i2 = u2 h 22e + h 21e i1 h12e h 21e −h12e u2 ⇒ i2 = u2 h 22e − u2 ⇒ h11e + RG i1 = h + R 11e G ⇒ rwy =
h 22e −
1 h12e h 21e h11e + RG
h12 e ≈ 0
≈
1 h 22e
(12.6)
.
Podobnie jak wcześniej definiujemy również uogólnioną rezystancję wyjściową „widzianą” z zacisków obciążenia, uwzględniającą oprócz rezystancji wyjściowej samego tranzystora również rezystancję RC Rwy =
u2 io
eG = 0
= rwy RC
rwy >> RC
≈
RC .
(12.7)
We wzorach obliczeniowych na rezystancje wejściowe i wyjściowe podajemy praktyczne przybliżenia uzasadnione w praktyce inżynierskiej. Błąd popełniany przy zastosowaniu tych uproszczeń jest i tak często mniejszy niż błąd wynikający z rozrzutu technologicznego oraz z przybliżonego odczytu wartości parametrów macierzowych z charakterystyk katalogowych. Kolejnym parametrem roboczym jest wzmocnienie napięciowe (ang. Voltage Gain), definiowane następująco u (12.8) Gu = 2 . u1
352
12. Małosygnałowe wzmacniacze pasmowe
Korzystając z praw Ohma i Kirchhoffa, otrzymujemy u1 = i1h11e + u2 h12e h12e h 21e −h 21e i1 ⇒ u1 = i1h11e − i1 = i1rwe ⇒ h 22e + GL u2 = h + G 22e L i1rwe u1 ⇒ =− h u2 21e i1 h 22e + GL i ostatecznie Gu =
h 21e u2 =− = u1 h11e h 22e + GL − h12e h 21e
=−
(
(
)
h 22ee << GL
h 21e
rwe h 22e + GL
≈
)
−
h 21e rwe
RL
h12 e = 0
≈
−
h 21e h11e
(12.9)
(12.10) RL .
Kolejnym parametrem – ujawniającym efektywność wzmacniania napięcia źródłowego generatora sterującego – jest skuteczne wzmocnienie napięciowe definiowane następująco u (12.11) Gus = 2 . eg Ponieważ zgodnie z rysunkiem 12.4 eg = u1
Rwe + Rg
⇒
Rwe
otrzymujemy Gus =
Rwe u2 u2 , = ⋅ eg u1 Rwe + Rg
Rwe Gu . Rwe + Rg
(12.12)
(12.13)
W przypadku wzmocnień prądowych sytuacja trochę się komplikuje, gdyż na schemacie z rysunku 12.4 zaznaczyliśmy kilka różnych prądów na wejściu i wyjściu układu. Z punktu widzenia tranzystora wzmocnieniem prądowym jest i2 /i1, natomiast z punktu widzenia użytkownika (mniejsze) io /i1'. Innymi słowy, gdyby tranzystor mógł mówić, to powiedziałby „ja dostaję na wejściu prąd i1 i oddaję na wyjściu porządnie wzmocniony prąd i2 i nie interesuje mnie, że twoje, użytkowniku, wzmocnienie jest takie kiepskie, bo prądy ci się rozpływają i na wejściu, i na wyjściu”. Faktycznie prąd wejściowy i1' rozpływa się na bezpowrotnie traconą część płynącą przez R1 i R2 oraz właściwy prąd sterujący tranzystorem i1, który musi być od i1' mniejszy. Z drugiej strony prąd wyjściowy tranzystora jest częściowo tracony w RC i tylko pozostała jego część płynie przez właściwe obciążenie Ro. Wzmocnienie prądowe samego tranzystora zdefiniujemy jako GiT =
i2 . i1
(12.14)
353
12.1. Parametry robocze
Ponieważ i2 = −u2GL −h21e i1 u2 = h + G 22e L
⇒ i2 = i1
h21e GL , h22e + GL
(12.15)
otrzymujemy GiT =
h21GL h22e + GL
h22 e <
≈
h21e .
(12.16)
Zwróćmy uwagę na przybliżenie zastosowane w powyższym wzorze, według którego wzmocnienie prądowe samego tranzystora pracującego z realnym obciążeniem jest w przybliżeniu równe wzmocnieniu zwarciowemu (ponieważ h21e jest wzmocnieniem prądowym określanym w warunkach zwarcia wyjścia). Wynika to z faktu, że uogólniona konduktancja obciążenia jest z reguły dużo większa od konduktancji wewnętrznej h22e. Wzmocnienie prądowe wzmacniacza definiujemy jako Gi =
io . i1 '
(12.17)
Rozpisując stosunek prądów w taki sposób, by pokazać rozpływy w kluczowych węzłach obwodu, otrzymujemy Gi =
io i1 i2 io = ⋅ ⋅ = i1 ' i1 ' i1 i2
h 21e GL RC RB = ⋅ ⋅ RB + rwe h 22e + GL RC + RO
h 22 e <
≈
RC RB ⋅ h 21e ⋅ . RB + rwe RC + RO
(12.18)
Skuteczne wzmocnienie prądowe definiujemy jako Gis =
io . ig
(12.19)
Korzystając, podobnie jak powyżej, z dzielników prądowych, otrzymujemy Gis =
Rg io i1 ' io = ⋅ = Gi . ig ig i1 ' Rg + Rwe
(12.20)
Pamiętając, że złączem sterującym pracą tranzystora jest złącze baza-emiter, możemy zbudować wzmacniacz z tranzystorem pracującym w układzie wspólnej bazy (WB). Schemat ideowy takiego wzmacniacza oraz jego schemat zastępczy dla zakresu średnich częstotliwości przedstawiony jest na rysunku 12.8. W przypadku wzmacniacza pracującego w układzie WB tranzystor opisujemy macierzą hb, którą można obliczyć z „katalogowej” macierzy he, korzystając z zależności podanych w tabeli 7.1. Ponieważ generator i obciążenie podłączone są do innych elektrod tranzystora niż w układzie WE, aby skorzystać z wyprowadzonych
354
12. Małosygnałowe wzmacniacze pasmowe
Rys. 12.8. Schemat ideowy (a) i zastępczy (b) wzmacniacza w układzie WB dla składowych zmiennych w zakresie średnich częstotliwości
wyżej wzorów na parametry robocze, należy oprócz zamiany macierzy he na hb uwzględnić, że teraz: RG = Rg RE ,
RL = RC Ro,
eG = eg
RG RE = eg . Rg + RE Rg
(12.21)
Ostatnią możliwą konfiguracją jest konfiguracja wspólnego kolektora (WC). Schemat ideowy wzmacniacza pracującego w układzie WC oraz jego schemat zastępczy dla zakresu średnich częstotliwości zamieszczono na rysunku 12.9. Analogicznie jak poprzednio, dla wzmacniacza pracującego w układzie WC tranzystor opisujemy macierzą hc (tabela 7.1) i uwzględniamy zależności: RB = R 1 R 2,
RG = Rg RB ,
RL = RE Ro,
eG = eg
RG RB = eg Rg + RB Rg
(12.22)
Rys. 12.9. Schemat ideowy (a) i zastępczy (b) wzmacniacza w układzie WC dla składowych zmiennych w zakresie średnich częstotliwości
355
12.2. Ograniczenia częstotliwościowe
Różne wartości uogólnionej rezystancji generatora i obciążenia oraz różne macierze tranzystora w układach WE, WB i WC powodują, że wzmacniacze w tych konfiguracjach charakteryzują się pewnymi cechami szczególnymi predysponującymi je do specyficznych zastosowań. Najbardziej popularny jest układ WE i jego parametry mogą służyć jako odniesienie do porównania z układami WB i WC. W tabeli 12.1 zestawiono podstawowe parametry wzmacniaczy z identycznym układem polaryzacji, generatorem i obciążeniem, pracujących w trzech układach włączenia tranzystora. Tab. 12.1. Wybrane parametry wzmacniaczy w trzech układach włączenia tranzystora; fg oznacza górną częstotliwość graniczną, a φ przesunięcie fazy między sygnałem wyjściowym i wejściowym WE WB WC
Gi Gu Duże Duże ~ h21e Małe < 1 Porównywalne z WE Porównywalne Małe ≈ 1 z WE ~ (1 + h21e)
Rwe Rwy Średnia Średnia Najmniejsza Największa Największa
fg Średnia Największa
Najmniejsza Porównywalne z WE
j 180° 0° 0°
Wzmacniacze w konfiguracji WB ze względu na największą górną częstotliwość graniczną, co zostanie pokazane w dalszej części rozdziału, stosowane są najczęściej w zakresie dużych i bardzo dużych częstotliwości. Ich szczególnymi własnościami są: mniejsze od jedności wzmocnienie prądowe oraz stosunkowo mała rezystancja wejściowa i stosunkowo duża rezystancja wyjściowa. Cechą charakterystyczną układu wspólnego kolektora jest praktycznie równe jedności wzmocnienie napięciowe, dlatego układ WC najczęściej jest nazywany wtórnikiem emiterowym – napięcie wyjściowe wtóruje napięciu wejściowemu. Wzmacniacze w konfiguracji WC, ze względu na największą rezystancję wejściową i najmniejszą rezystancję wyjściową, używane są najczęściej jako układy separująco-dopasowujące. Na czym jednak polega dopasowanie? Wyobraźmy sobie generator napięciowy ze stosunkowo dużą rezystancją wewnętrzną. Gdybyśmy chcieli wysterować tym generatorem typowy wzmacniacz w układzie WE, otrzymalibyśmy znikome skuteczne wzmocnienie napięciowe, ponieważ większa część napięcia źródłowego odkładałaby się na rezystancji wewnętrznej, a nie na wejściu wzmacniacza. Jeśli jednak ten generator obciążymy wtórnikiem emiterowym, to z powodu jego bardzo dużej rezystancji wejściowej większa część napięcia źródłowego generatora odłoży się właśnie na wejściu tego wzmacniacza i zostanie „przeniesiona” na wyjście. Jednocześnie rezystancja wyjściowa wtórnika jest bardzo mała, a zatem cały układ będzie zachowywał się jak bardzo dobry generator napięciowy – mała rezystancja wyjściowa wtórnika będzie teraz pełnić funkcję rezystancji wewnętrznej „nowego” generatora napięciowego.
12.2. Ograniczenia częstotliwościowe Kolejnymi, równie ważnymi parametrami małosygnałowymi wzmacniacza są jego częstotliwości graniczne. Inercja rzeczywistych układów elektronicznych powoduje powstawanie zniekształceń liniowych będących funkcją częstotliwości sygnału
356
12. Małosygnałowe wzmacniacze pasmowe
sterującego. Zniekształcenia liniowe w sposób pełny opisywane są przez charakterystyki częstotliwościowe. Zagadnienie charakterystyk amplitudowych rozpatrzymy na przykładzie skutecznego wzmocnienia napięciowego, choć w identyczny sposób można by analizować przebieg dowolnego innego parametru roboczego, napięcia, potencjału węzłowego czy prądu gałęziowego w funkcji częstotliwości wymuszenia harmonicznego. Ponieważ w celu określenia charakterystyk częstotliwościowych badane będzie zachowanie układu w szerokim zakresie częstotliwości, nie będzie już można pomijać pojemności (i ewentualnych indukcyjności) pojawiających się w obwodzie. Dlatego parametry badane w funkcji częstotliwości będą miały w ogólności wartości zespolone i najczęściej będziemy przedstawiać je w postaci wykładniczej, tj. za pomocą amplitudy i fazy. Typowe charakterystyki częstotliwościowe jednostopniowego wzmacniacza pasmowego w układzie WE przedstawiono na rysunku 12.10. W przypadku wzmacniaczy akustycznych interesuje nas w zasadzie tylko amplitudowa charakterystyka częstotliwościowa, tzn. charakterystyka obrazująca moduł wzmocnienia w funkcji częstotliwości, co wynika z faktu, że ludzki narząd słuchu reaguje na widmo amplitudowe sygnału. W przypadku analizy i projektowania wzmacniaczy pomiarowych, kiedy istotny jest kształt wzmacnianych przebiegów (np. gdy projektujemy wzmacniacz do aparatury EKG), charakterystyka fazowa jest równie ważna – dla poprawnego przeniesienia kształtu sygnału charakterystyka fazowa, obrazująca przesunięcie fazy między sygnałem wyjściowym i wejściowym w funkcji częstotliwości, powinna być liniowa. Oś odciętych może być liniowa bądź logarytmiczna, a częstotliwość (pulsacja) może być podawana w wartościach bezwzględnych, tzn. [Hz] ([rad/s]) lub w po-
Rys. 12.10. Przykładowa amplitudowa (1) i fazowa (2) charakterystyka częstotliwościowa
357
12.2. Ograniczenia częstotliwościowe
staci unormowanej do pewnej charakterystycznej wartości (np. częstotliwości granicznej). W przypadku skali logarytmicznej najczęściej stosuje się skalę dekadową i jeśli nie doprecyzowuje się rodzaju skali logarytmicznej, to właśnie skalę dekadową ma się na myśli. Drugim rodzajem skali logarytmicznej, stosowanym często w wyższym zakresie częstotliwości, jest skala oktawowa. Dekada, co oczywiste, oznacza zmianę dziesięciokrotną, a oktawa, co może zaskoczyć, dwukrotną. Nazwa została zaczerpnięta z akustyki, gdzie częstotliwości dźwięków z kolejnych oktaw są dwukrotnie wyższe od odpowiednich dźwięków z oktaw poprzedzających, tzn., że np. dźwięk c2 ma dokładnie dwa razy większą częstotliwość od c1, a g2 od g1. Jednocześnie oktawa określa odległość między ośmioma kolejnymi stopniami skali muzycznej (np. C-D-E-F-G-A-H-c) i stąd pochodzi jej nazwa. W omawianym kontekście nie przyjęło się popularne w transformacji falkowej i formalnie rzecz ujmując poprawniejsze słowo diada i skalowanie diadyczne, bezpośrednio oznaczające relację 2:1. Skala dekadowa charakteryzuje się tym, że kolejne dekady mają taką samą długość, a liczby wewnątrz dekady rozmieszczone są logarytmicznie, tak jak to pokazano na rysunku 12.10. W przypadku skali oktawowej w miejscach 1, 10, 100, 1000 itd. mielibyśmy 1, 2, 4, 8 itd. Gdy korzystamy z oprogramowania umożliwiającego tworzenie wykresów, skala logarytmiczna (domyślnie dekadowa) jest oferowana jako opcja i nie ma kłopotu, jeśli zaś musimy przedstawić charakterystykę na papierze i nie mamy odpowiedniego oprogramowania, musimy sobie taką skalę przygotować „ręcznie”. Najpierw decydujemy, ile centymetrów możemy przeznaczyć na oś rzędnych i oceniamy, ile dekad chcemy zobrazować. Po podziale otrzymujemy długość LD jednej dekady w centymetrach – pozostaje tylko wyznaczyć położenie markerów odpowiadających liczbom 2, 3, ..., 9. Markery te leżą w odległościach odpowiednio (log 2, log 3, ..., log 9) · LD, tj. 0,30LD, 0,48LD, ..., 0,95LD od początku każdej dekady. Skala osi rzędnych jest najczęściej liniowa, a wartości modułu wzmocnienia mogą być przedstawione: bezpośrednio, tzn. w [V/V], w postaci unormowanej do wartości wzmocnienia dla zakresu średnich częstotliwości lub w mierze decybelowej. Decybel (dB) jest logarytmiczną (o podstawie 10, czyli dekadową) miarą (jednostką) względną określającą stosunek wartości dwóch takich samych wielkości fizycznych np. mocy, napięcia, natężenia dźwięku itp., z których jedna jest wielkością odniesienia. Jest to jednostka podwielokrotna bela (1 dB = 0,1 B). Wartość stosunku mocy dwóch sygnałów w decybelach wyznacza się z zależności GpdB = 10 log
p2 , p1
(12.23)
natomiast w przypadku, gdy wielkości porównywane nie mają wymiaru mocy (bądź energii), czyli są np. napięciami, stosujemy zależność GudB = 20 log GidB = 20 log
u2 , u1
i2 . i1
(12.24)
Jest to sytuacja na pozór egzotyczna – definicja zależy od rodzaju wielkości porównywanych. Takie podejście wynika z chęci ujednolicenia wyników otrzymywanych
358
12. Małosygnałowe wzmacniacze pasmowe
w przypadku obliczania wzmocnień napięcia, prądu i mocy tych samych sygnałów, z uwzględnieniem, że moc jest proporcjonalna do kwadratu prądu bądź napięcia. Zakładając, że prądy wejściowy i wyjściowy płyną przez takie same rezystancje oraz że napięcie wejściowe i wyjściowe odkłada się na takiej samej rezystancji oraz przyjmując przykładowo: u1 = 2 V, u2 = 4 V, i1 = 2 A, i2 = 4 A, otrzymalibyśmy Gu =
u2 4 V i p 4A 42 W = = 2 V/V; Gi = 2 = = 2 A/A; G p = 2 = 2 = 4 W/W. u1 2 V i1 2 A p1 2 W
Wzmocnienia napięciowe i prądowe są więc różne od wzmocnienia mocy, choć dotyczą tych samych sygnałów. Stosując miarę decybelową, otrzymamy: Gu = 20 log
u2 4V = 20 log = 20 log 2 = 6 dB, u1 2V
Gi = 20 log
i2 4A = 20 log = 20 log 2 = 6 dB, i1 2A
G p = 10 log
p2 42 W = 10 log 2 = 10 log 22 = 20 log 2 = 6 dB. p1 2 W
Stosunek napięć lub prądów jest więc równoważny odpowiadającemu mu stosunkowi mocy, pod warunkiem że te napięcia i prądy występują na takich samych rezystancjach. Jako ciekawostkę warto odnotować, że odpowiednikiem miary decybelowej w systemie naturalnym jest neper (Np, od nazwiska Johna Napiera) – w celu wyznaczenia poziomu bądź stosunku w neperach korzystamy z logarytmu naturalnego. Miara decybelowa często służy również do określenia poziomu prądu, napięcia bądź mocy względem pewnego ustalonego poziomu odniesienia. Poziom ten „zaszyfrowany jest” w rozszerzeniu symbolu „dB”. Kilka przykładowych miar decybelowych przedstawiono w tabeli 12.2. Tab. 12.2. Względne jednostki mocy i napięcia Jednostka dBW dBm dBf
Moc sygnału odniesienia 1 W (wat) 1 mW (miliwat) 1 fW (femtowat – 10–15 W)
Jednostka dBV dBmV dBµV
Napięcie sygnału odniesienia 1 V (wolt) 1 mV (miliwolt) 1 µV (mikrowolt)
Miara decybelowa, podobnie jak logarytmiczna skala częstotliwości, rozciąga charakterystykę w zakresie małych wartości i ściska ją w zakresie dużych wartości, co pozwala na obrazowanie wielkości charakteryzujących się bardzo dużą rozpiętością osiąganych wartości – zilustrujemy to w dalszej części rozdziału, korzystając z charakterystyki filtru górnoprzepustowego. Najważniejszymi parametrami charakterystyki amplitudowej są moduł wzmocnienia w płaskim obszarze charakterystyki Gus oraz dolna i górna częstotliwość graniczna
359
12.2. Ograniczenia częstotliwościowe
fd i fg – definiowane jako częstotliwości, przy których moduł wzmocnienia Gus( f ) spada do wartości Gus 2
,
czyli wzmocnienie mocy maleje o połowę, a w mierze decybelowej odpowiada to spadkowi wzmocnienia o 3 dB. Częstotliwości graniczne można określić doświadczalnie, z użyciem charakterystyki otrzymanej w wyniku symulacji komputerowej oraz na podstawie wyprowadzonej zależności funkcyjnej. Z punktu widzenia „obliczeń ręcznych” wystarczająco dokładna i użyteczna jest metoda związana z wyznaczeniem zer i biegunów. Polega ona na wyznaczeniu (przy ewentualnych założeniach upraszczających) zer i biegunów funkcji transmitancji (w naszym przypadku transmitancją tą jest skuteczne wzmocnienie napięciowe) oraz na podstawie ich wzajemnych relacji określeniu częstotliwości granicznych. Wersja uproszczona tej metody – w niektórych przypadkach wystarczająco dokładna – polega na pominięciu zer funkcji transmitancji i uwzględnieniu tylko wyselekcjonowanych (na podstawie wstępnych obliczeń) biegunów. Należy podkreślić, że metoda ta ma zastosowanie tylko dla wybranych układów. Nie jest to metoda uniwersalna i ogólna. Pomijanie zer i ewentualnie niektórych biegunów prowadzi niekiedy do trudnych do przewidzenia następstw. Ze względu jednak na prostotę, metoda ta jest bardzo często używana w przypadku elementarnych układów wzmacniających. Znaczna różnica między dolną i górną częstotliwością graniczną we wzmacniaczu pasmowym pozwala na rozdzielenie analizy w zakresie dolnych i górnych częstotliwości poprzez utworzenie zastępczych schematów wzmacniacza dla wybranych zakresów częstotliwości. W zakresie niskich i średnich częstotliwości (do kilku, maksimum kilkunastu kiloherców) tranzystor bipolarny zachowuje się jak element bezinercyjny i do jego modelowania wystarcza model macierzowy typu h. W zakresie wyższych częstotliwości musimy stosować model małosygnałowy uwzględniający wewnętrzne pojemności tranzystora. W praktyce przy analizie „ręcznej”, tzn. bez wspomagania komputerowego, korzystamy z przedstawionego w poprzedniej części modelu hybryd π, zaprezentowanego dla przejrzystości ponownie na rysunku 12.11.
Rys. 12.11. Model hybryd � tranzystora bipolarnego
360
12. Małosygnałowe wzmacniacze pasmowe
Rys. 12.12. Unilateralny model hybryd � tranzystora bipolarnego
W celu przeprowadzania obliczeń bez wykorzystania komputera, stosujemy uzasadnione uproszczenie polegające na pominięciu rezystancji rb'c, ze względu na jej bardzo dużą wartość (w tranzystorach małej mocy pracujących w zakresie aktywnym jest to wielkość rzędu 1013 Ω). W następnej kolejności, korzystając z pierwszego twierdzenia Millera, unilateryzujemy2 model hybryd π, przenosząc pojemność Cc na wejście (jako CM1) oraz wyjście (jako CM2) i doprowadzając układ do postaci z rysunku 12.12, wygodnej dla dalszej analizy w zakresie wysokich częstotliwości. Pojemności wejściową i wyjściową wyznaczamy z zależności:
(
)
(12.25)
Cc ≈ Cc .
(12.26)
Cwe = Ce + CM 1 = Ce + Cc 1 + G u = Ce + Cc (1 + g m RL ) , Cwy = CM 2 =
1 + Gu Gu
Uproszczenie modelu małosygnałowego polegające na pominięciu rezystancji rozproszonej emitera i kolektora oraz rezystancji rb'c nie wpływa znacząco na wyniki analizy częstotliwościowej, ale byłoby przyczyną sporych błędów przy wyznaczaniu parametrów roboczych (przykładowo, ree' realizuje ujemne sprzężenie zwrotne prądowe szeregowe, znacząco wpływając na wzmocnienie napięciowe układu3). Z tego powodu parametry robocze wyznacza się najczęściej, bazując na modelu macierzowym (pozbawionym uproszczeń), pozostawiając wykorzystanie modelu hybryd π do analizy częstotliwościowej w zakresie wysokich częstotliwości. Analizę częstotliwościową wzmacniacza przeprowadzimy stosując wzmacniacz z tranzystorem włączonym w konfiguracji WE. Analiza w pozostałych układach włączenia tranzystora realizowana jest identycznie – praktyczne różnice wynikają z różnych uproszczeń możliwych do przyjęcia w każdej z konfiguracji. Analizę częstotliwościową przeprowadzimy metodą zer i biegunów funkcji transmitancji. Pełny przedział analizy częstotliwościowej można umownie podzielić na trzy zakresy: dolnych, średnich i górnych częstotliwości. W zakresie średnich częstotliwości określaliśmy parametry robocze i pamiętamy, że tranzystor był traktowany jako
2
Unilateryzacja oznacza, że układ jest „jednokierunkowy”, tzn. przenosi sygnał tylko od wejścia do wyjścia.
3
Zagadnienia związane ze sprzężeniami zwrotnymi będą tematem kolejnego podrozdziału
12.2. Ograniczenia częstotliwościowe
361
bezinercyjny (pozbawiony pojemności wewnętrznych), a pojemności zewnętrzne traktowaliśmy jako czyste zwarcia. Zwróćmy uwagę, że pojemności zewnętrzne są włączone szeregowo w ścieżkę sygnałową i tworzą filtry górnoprzepustowe (dla bardzo małych częstotliwości stają się praktycznie przerwą), więc ich pojemności muszą być na tyle duże, żeby w zakresie średnich częstotliwości ich reaktancje były znikomo małe (w stosunku do sąsiadujących szeregowo rezystancji). Sprawdźmy. Przykładowe wartości pojemności sprzęgających wynoszą 720 nF (kondensatory emiterowe są jeszcze większe), a typowa częstotliwość środkowa to 5 kHz, więc reaktancja takiego kondensatora na tej częstotliwości wynosi 1 1 104 X CS = = = = 44 Ω . 2π f CS 2π ⋅ 5 ⋅103 ⋅ 720 ⋅10−9 72π W porównaniu z rezystancją wejściową rzędu kiloomów rzeczywiście możemy uznać, że w zakresie średnich częstotliwości wpływ pojemności sprzęgających jest do pominięcia. Niejako przeciwna jest sytuacja wynikająca z istnienia pojemności wewnętrznych tranzystora. Zwróćmy uwagę (rysunek 12.12), że są one włączone równolegle do ścieżki sygnałowej, tworzą więc filtr dolnoprzepustowy (dla bardzo dużych częstotliwości zwierają sygnał wzmacniany do masy). Sprawdźmy zatem, jaka jest ich reaktancja w zakresie średnich częstotliwości. Typowe wartości pojemności wejściowej to 500 pF, a wyjściowej 5 pF. Policzmy reaktancję dla tego gorszego przypadku, czyli dla 500 pF X Cwe =
1 1 106 = = = 64 kΩ. 2π f Cwe 2π ⋅ 5 ⋅103 ⋅ 500 ⋅10−12 5π
W porównaniu z rezystancją wejściową rzędu kilku kiloomów jest to wielkość nieistotna. A zatem faktycznie w zakresie średnich częstotliwości wszystkie pojemności w układzie mogą być pomijane. Co więcej, na podstawie tych prostych przykładów liczbowych mogliśmy się przekonać, że skoro pojemności wewnętrzne tranzystora prawie nie wpływają na własności wzmacniacza w zakresie średnich częstotliwości to tym bardziej są bez znaczenia w zakresie dolnych częstotliwości i, vice versa, pojemności zewnętrzne nie rzutują na zachowanie układu w zakresie górnych częstotliwości. Dzięki temu możemy przeprowadzić analizę osobno w zakresie niskich częstotliwości, korzystając z modelu macierzowego oraz w zakresie wysokich częstotliwości z użyciem modelu hybryd π, a następnie dokonać syntezy charakterystyki wypadkowej. Jak przekonamy się w kolejnych punktach tego rozdziału, w układzie wzmacniacza pojawią się tylko trzy struktury filtrujące – jedna dolnoprzepustowa i dwie górnoprzepustowe. W związku z tym nadszedł najlepszy moment, żeby zapoznać się z podstawowymi własnościami filtrów. Jednobiegunowy filtr dolnoprzepustowy Strukturę jednobiegunowego filtru dolnoprzepustowego widać na rysunku 12.13. Ze wzrostem częstotliwości reaktancja kondensatora C maleje, prąd w obwodzie RC
362
12. Małosygnałowe wzmacniacze pasmowe
Rys. 12.13. Jednobiegunowy filtr dolnoprzepustowy
rośnie i przy stałym poziomie sygnału wejściowego u1 napięcie wyjściowe u2 spada kosztem rosnącego napięcia na rezystorze. Charakterystykę częstotliwościową transmitancji tego filtru wyznaczamy, korzystając z praw Ohma i Kirchhoffa 1 1 jω C . K ( jω ) = = = U1 ( jω ) R + 1 1 + jω RC jω C U 2 ( jω )
(12.27)
Otrzymaliśmy funkcję zespoloną, którą musimy przedstawić w postaci wykładniczej. W tym celu przekształcamy funkcję (12.27) najpierw do postaci algebraicznej, a następnie wyznaczamy moduł K(w) i argument j(w). 1 1 1 − jω RC = ⋅ = 1 + jω RC 1 + jω RC 1 − jω RC 1 − jω RC 1 ω RC = = −j , 2 2 2 1 + (ω RC ) 1 + (ω RC ) 1 + (ω RC ) K ( jω ) =
1 K ( jω ) = K ( ω ) = 1 + (ω RC )2 =
1 + (ω RC )
2
(1 + (ω RC ) )
2 2
=
2
1 1 + (ω RC )
2
ω RC + = 1 + (ω RC )2 2
(12.28)
,
Im ( K ( jω ) ) arg ( K ( jω ) ) = ϕ (ω ) = arctg = Re ( K ( jω ) ) = arctg ( −ω RC ) = −arctg (ω RC ) . W powyższych zależnościach przyjęliśmy często stosowaną konwencję polegającą na oznaczaniu zespolonej funkcji transmitancji jako zmiennej jw, a gdy chcemy przedstawić tylko jej moduł, oznaczamy go jako funkcję „samej” zmiennej w.
363
12.2. Ograniczenia częstotliwościowe
Zgodnie z definicją, górną pulsacją graniczną będzie pulsacja, dla której moduł charakterystyki spadnie do wartości 1 / 2 wartości maksymalnej (połowa mocy, 3-decybelowy spadek), czyli 1 1 1 1 K ωg = ⇒ = ⇒ ωg = . (12.29) 2 RC 2 2 1 + ω g RC
( )
(
)
Pełną charakterystykę częstotliwościową możemy już teraz zapisać w postaci standardowej U 2 ( jω )
1 K ( jω ) = = = U1 ( jω ) 1 + jω RC
1 ω 1+ ωg
2
e
− jarctg
ω ωg
.
(12.30)
Oczywiście górna częstotliwość graniczna wynosi fg =
ωg 2π
=
1 . 2π RC
(12.31)
Górna pulsacja graniczna jest jednocześnie częstotliwością bieguna zespolonej funkcji transmitancji K(jw), czyli miejscem zerowym jej mianownika (w biegunie zespolona funkcja transmitancji dąży do nieskończoności). Podane wyżej stwierdzenie nie jest do końca ścisłe, ale przyjęło się na stałe w żargonie inżynierskim – faktycznie biegunem jest liczba jwg. Na rysunku 12.14 zamieszczono amplitudową charakterystykę częstotliwościową jednobiegunowego filtru dolnoprzepustowego, przy założeniu, że fg = 100 Hz. Na rysunku 12.14a zastosowano liniową skalę częstotliwości, a moduł transmitancji przedstawiono bezpośrednio, na rysunku 12.14b zmieniono skalę osi częstotliwości na logarytmiczną, a na rysunku 12.14c transmitancję wyrażono w decybelach. Ostatnie zobrazowanie (rysunku 12.14c) nazywane jest często charakterystyką Bodego. Liniami przerywaną i szarą naniesione są asymptoty, które tworzą charakterystykę asymptotyczną. Przebieg asymptot wyznacza się w zależności od odległości od częstotliwości granicznej, tzn.
K(f )=
1 f 1+ fg
2
dla f << f g ⇒ dla f >> f g
K ( f ) =1 K(f )=
fg
(12.32)
f
Jak wynika z zastosowanych przybliżeń dla częstotliwości znacznie mniejszych od częstotliwości granicznej, wartość modułu transmitancji jest stała i równa jedności (0 dB), natomiast dla częstotliwości znacznie większych od częstotliwości granicznej jest funkcją typu 1/f. Na podstawie rysunku 12.14 możemy stwierdzić, że określenia „znacznie mniejsze” i „znacznie większe” oznaczają odległości czterokrotnie mniejsze i większe od częstotliwości granicznej. W przypadku charakterystyki Bodego asymptota górnoczęstotliwościowa jest linią prostą nachyloną pod kątem
364
12. Małosygnałowe wzmacniacze pasmowe
Rys. 12.14. Amplitudowa charakterystyka częstotliwościowa jednobiegunowego filtru dolnoprzepustowego – linia czarna, aproksymacja dolnoczęstotliwościowa – linia przerywana, aproksymacja górnoczęstotliwościowa – linia szara, poziom określający częstotliwość graniczną – pozioma czarna linia
365
12.2. Ograniczenia częstotliwościowe
–20 dB/dec (–6 dB/oct). Jak widać, charakterystykę Bodego można łatwo wykreślić na podstawie znajomości położenia bieguna: w biegunie błąd aproksymacji jest największy i wynosi dokładnie 3 dB, a w odległości dekady asymptoty praktycznie całkowicie pokrywają się z przebiegiem rzeczywistym. Jednobiegunowy filtr górnoprzepustowy Struktura jednobiegunowego filtru górnoprzepustowego przedstawiona jest na rysunku 12.15. Ze spadkiem częstotliwości reaktancja kondensatora C rośnie i odcina sygnał sterujący (coraz większe napięcie odkłada się na kondensatorze, a tym samym coraz mniejsze na wyjściu układu). Podobnie jak poprzednio wyznaczmy charakterystykę częstotliwościową K ( jω ) =
U 2 ( jω ) U1 ( jω )
=
ωd
jarctg jω RC 1 1 ω , (12.33) = = e 2 1 + jω RC 1 + 1 ω 1+ d jω RC ω
gdzie dolna pulsacja graniczna określona jest wzorem
ωd =
1 . RC
(12.34)
Rys. 12.15. Jednobiegunowy filtr górnoprzepustowy
Charakterystyka Bodego jednobiegunowego filtru górnoprzepustowego, przy założeniu, że dolna częstotliwość graniczna wynosi 10 Hz, wygląda jak na rysunku 12.16. Zauważmy, że w przypadku filtrów jednobiegunowych, niezależnie od tego, czy rozpatrujemy filtr dolno-, czy górnoprzepustowy, pulsacje graniczne zawsze wyznaczamy jako odwrotności stałych czasowych tych obwodów, a stała czasowa to iloczyn pojemności i rezystancji widzianej z jej zacisków
τ = RC .
(12.35)
Czasem, w większych układach, określenie wartości rezystancji R sprawia trudności. Żeby zrobić to bezbłędnie, wyobraźmy sobie, że wyciągamy kondensator z obwodu, ładujemy go do jakiegoś napięcia i wstawiamy z powrotem na właściwe miejsce – rezystancja zastępcza R „wchodząca” do stałej czasowej jest rezystancją, jaką napotyka prąd rozładowujący płynący od jednej okładki kondensatora do drugiej.
366
12. Małosygnałowe wzmacniacze pasmowe
Rys. 12.16. Amplitudowa charakterystyka częstotliwościowa jednobiegunowego filtru górnoprzepustowego
Jednobiegunowy filtr górnoprzepustowy z jednym zerem Struktura jednobiegunowego filtru dolnoprzepustowego z pojedynczym zerem przedstawiona jest na rysunku 12.17. Dla dużych częstotliwości kondensator stanowi zwarcie i całe napięcie wejściowe przekazywane jest do wyjścia, natomiast dla bardzo małych częstotliwości nie następuje całkowite odcięcie sygnału, ponieważ napięcie wyjściowe określone jest przez dzielnik rezystancyjny. Oznacza to, że przy zmniejszaniu częstotliwości będziemy obserwować spadek napięcia wyjściowego od maksimum do pewnego niezerowego poziomu określonego przez dzielnik R1 R + R1
.
Transmitancja powyższego filtru dana jest zależnością 2
ω ω 1+ 1+ j ω0 R1 R1 ω0 . K ( jω ) = ⋅ , K (ω ) = ⋅ 2 R1 + R 1 + j ω R1 + R ω ωp 1+ ωp
(12.36)
Przedstawiona zależność potwierdza przytoczoną wyżej interpretację fizyczną działania tego filtru. Zauważamy dwie pulsacje charakterystyczne, które będą określać
Rys. 12.17. Jednobiegunowy filtr górnoprzepustowy z pojedynczym zerem
367
12.2. Ograniczenia częstotliwościowe
załamania charakterystyki Bodego. Jest to biegun wp (od angielskiego słowa pole), obliczany zgodnie z podaną wyżej zasadą, oraz zero w0 (miejsce zerowe licznika zespolonej funkcji transmitancji)
ωp =
1 1 , ω0 = ; RC ( R1 R ) C
ω p > ω0 .
(12.37)
Charakterystykę Bodego filtru górnoprzepustowego z jednym biegunem i jednym zerem zamieszczono na rysunku 12.18. Dla częstotliwości dużo większych od bieguna (a tym samym również od zera) moduł funkcji transmitancji stabilizuje się na poziomie równym 1, natomiast dla częstotliwości dużo mniejszych od zera (a tym samym od bieguna) stabilizuje się na poziomie R1 . R + R1 Dla częstotliwości między zerem i biegunem dominuje albo licznik, albo mianownik wyrażenia (12.36) – przy zmianach częstotliwości od zera w górę licznik powoduje wzrost transmitancji, ale w miarę zbliżania się do bieguna mianownik zaczyna powodować spadek kompensujący wzrost wynikający z istnienia zera funkcji transmitancji i ostatecznie stabilizację transmitancji na poziomie równym 1. Prezentowany filtr ilustruje wpływ położenia zer i biegunów na charakterystykę amplitudową. W sytuacji pokazanej na rysunku 12.18 biegun jest dużo większy od zera i widać, że w tym przypadku biegun określa automatycznie dolną częstotliwość graniczną – „dużo większy” oznacza w tym przypadku odległość co najmniej jednej dekady. Jeśli odległość jest mniejsza, charakterystykę asymptotyczną rysujemy zgodnie z zasadami, a przebieg rzeczywisty wrysowujemy jako krzywą z dwoma punktami przegięcia – w tym przypadku możemy próbować określić 3 dB dolną częstotliwość graniczną na podstawie tak skonstruowanego wykresu. Może również
Rys. 12.18. Amplitudowa charakterystyka częstotliwościowa filtru górnoprzepustowego z jednym biegunem i jednym zerem
368
12. Małosygnałowe wzmacniacze pasmowe
zajść przypadek szczególny, w którym częstotliwość graniczna w ogóle nie wystąpi – wtedy gdy dolny poziom stabilizacji będzie większy niż –3 dB, tzn., gdy R1 R + R1
> 0,707.
Po tym przydługim wprowadzeniu do układów filtrujących możemy wreszcie powrócić do analizy wzmacniacza. Tak jak wcześniej wspomnieliśmy, analizę przeprowadzimy osobno w zakresie dolnych i górnych częstotliwości. Zakres dolnych częstotliwości Analizę w zakresie dolnych częstotliwości przeprowadzamy, bazując na mieszanym modelu macierzowym i w zależności od układu włączenia tranzystora stosujemy macierz he, hb lub hc. W układach WE i WB rezystancję h22–1 (jako dużo większą od RL) oraz parametr h12 (ze względu na jego znikomą wartość) można pominąć (w układzie WC nie możemy tego zrobić, ponieważ h12c ≈ 1). Po tych uproszczeniach schemat zastępczy w układzie WE, na którym, jak zapowiedzieliśmy, skupimy uwagę, można sprowadzić do postaci z rysunku 12.19. Dolną częstotliwość graniczną możemy obliczyć, wyznaczając częstotliwości zer i biegunów funkcji transmitancji uwzględniającej parametry generatora i obciążenia. W tym przypadku wygodnie jest skorzystać ze skutecznego wzmocnienia prądowego. Skuteczne wzmocnienie napięciowe ma taki sam przebieg w funkcji częstotliwości i różni się tylko wartością maksymalną, tj. wartością w zakresie średnich częstotliwości, ponieważ Gus =
uo io Ro R = = Gis o . eg ig Rg Rg
(12.38)
Na początek wyznaczamy prądowe wzmocnienie skuteczne w zakresie średnich częstotliwości. Korzystamy ze schematu zastępczego przedstawionego na rysunku 12.20, na którym kondensatory sprzęgające i kondensator emiterowy zastąpiono zwarciami.
Rys. 12.19. Uproszczony schemat zastępczy wzmacniacza w układzie WE w zakresie dolnych częstotliwości
369
12.2. Ograniczenia częstotliwościowe
Rys. 12.20. Schemat zastępczy wzmacniacza w układzie WE w zakresie średnich częstotliwości
Gis =
io ib iL io = ⋅ ⋅ = ig ig ib iL
Rg RG RC RC RB ⋅ h21e ⋅ ⋅ h21e ⋅ = = ⋅ . RG + h11e RC + Ro Rg + Rwe RB + h11e RC + Ro
(12.39)
Wyznaczenie częstotliwości zer i biegunów funkcji transmitancji polega na analizie wpływu poszczególnych pojemności – każdej w sposób niezależny – tzn. zakładamy istnienie jednego z kondensatorów, pozostałe traktując jako zwarcie i badamy, jaki jest wpływ pozostawionego kondensatora. Analizę wpływu pojemności sprzęgającej Cs1 przeprowadzamy, zakładając Cs2 = = CE = ∞. Dla tego przypadku skuteczne wzmocnienie prądowe opisane jest zależnością Gis ( jω ) =
Rg io ( jω ) = i g ( jω ) R + R + g we
1 jωCs1
⋅
RC RB , ⋅ h21e ⋅ RB + h11e RC + Ro
(12.40)
gdzie Rwe = RB h11e . Stąd po przekształceniach otrzymujemy Gis ( jω ) =
Gis , ω 1 − j d1 ω
(12.41)
gdzie:
ωd 1 =
(
1
Cs1 Rg + Rwe
)
→
f d1 =
(
1
2πCs1 Rg + Rwe
)
.
(12.42)
Zwróćmy uwagę, że wzmocnienie prądowe skuteczne, które oznaczamy symbolem Gis, jest wielkością stałą i oznacza wzmocnienie w zakresie średnich częstotliwości.
370
12. Małosygnałowe wzmacniacze pasmowe
Pisząc Gis(jw) lub Gis(w), chcemy podkreślić, że chodzi nam o funkcję opisującą zmiany skutecznego wzmocnienia prądowego w takt zmian pulsacji. Czasem, dla podkreślenia, że ta pierwsza wielkość to liczba, będziemy używać symbolu Gis0. Dodatkowe zero w indeksie sygnalizuje, że chodzi nam o częstotliwość środkową (czy pewien zakres częstotliwości środkowych, w którym wzmocnienie nie ulega zmianom w funkcji częstotliwości). Badając wpływ obwodu wyjściowego, zakładamy Cs1 = CE = ∞, wówczas Gis ( jω ) =
Rg Rwy io ( jω ) RB = ⋅ h 21e ig ( jω ) Rg + Rwe RB + h11e Rwy + Ro +
1 jω C s 2
=
Gis , (12.43) ω 1− j d 2 ω
gdzie:
ωd 2 =
(
1
Cs 2 Rwy + Ro
)
→
fd 2 =
(
1
2πCs 2 Rwy + Ro
)
.
(12.44)
Rwy ≈ RC Wpływ obwodu emiterowego można określić przy założeniu Cs1 = Cs2 = ∞. Korzystając z II twierdzenia Millera, transponujemy impedancję z obwodu emitera do obwodu bazy. Wpływ tej impedancji w obwodzie wyjściowym pomijamy ze względu na włączenie w szereg z nieskończenie dużą impedancją źródła prądowego h21e ib. Schemat zastępczy dla tego przypadku widać na rysunku 12.21, przy czym impedancja emiterowa jest określona zależnością
Z E = RE
1 jω C E RE . CE = = 1 RE CE 1 + j ω RE + jω C E RE
(12.45)
Skuteczne wzmocnienie prądowe dla takiego układu jest opisane funkcją Gis ( jω ) =
RG
RG + h11e + Z E ' (1 + GiT )
h 21e
Rwy Rwy + Ro
,
(12.46)
Rys. 12.21. Schemat zastępczy wzmacniacza w zakresie dolnych częstotliwości uwzględniający wpływ obwodu emiterowego
371
12.2. Ograniczenia częstotliwościowe
RG
Gis ( jω ) = RG + h11e +
1+
)
Rwy Rwy + Ro
=
1 + jω RE CE
ω ωz ⋅ , ω 1+ j ωp
(12.47)
1+ j
Gis
=
(
RE 1 + h 21e
h 21e
(
RE 1 + h 21e
)
RG + h11e
gdzie:
ωz =
1+
ωp =
1 RE CE
(
RE 1 + h 21e
fz =
→
1 , 2πRE CE
)
RG + h11e RE CE
1+ fp =
→
(
RE 1 + h 21e
(12.48)
)
RG + h11e . 2πRE CE
(12.49)
Zwróćmy uwagę, że relację między częstotliwościami bieguna i zera określa zależność
(
RE 1 + h 21e f p = f z 1 + RG + h11e
) .
(12.50)
W układzie WE wyrażenie w nawiasie jest najczęściej większe od dziesięciu, co oznacza, że odległość od zera do bieguna przekracza dekadę i w takim przypadku dolna częstotliwość graniczna powodowana obecnością obwodu emiterowego wynosi 1+ fd 3 = f p =
(
RE 1 + h 21e RG + h11e 2πRE CE
) .
(12.51)
Zwróćmy ponadto uwagę, że dla układu WB h21b ≈ –1, stąd wp ≈ wz, czyli wpływ obwodu bazowego na wartość dolnej częstotliwości granicznej można z góry pominąć. W rzeczywistych warunkach wszystkie obwody, tj. wejściowy, wyjściowy i emiterowy, działają jednocześnie i wypadkową dolną częstotliwość graniczną szacujemy w zależności od wzajemnego usytuowania biegunów składowych, stosując następujące zasady: – gdy istnieje biegun dominujący, tzn. większy od największego z pozostałych o co najmniej dwie oktawy (4 razy), wypadkową dolną częstotliwość graniczną przyjmujemy jako równą biegunowi dominującemu,
372
12. Małosygnałowe wzmacniacze pasmowe
– gdy wszystkie bieguny nie są od siebie dostatecznie odległe (wzajemnie oddalone o mniej niż dwie oktawy), korzystamy z zależności f d = 1,1
n
∑ f di2 i =1
n =3
=
1,1 f d21 + f d22 + f d23 ,
(12.52)
– gdy jeden z biegunów jest mniejszy od najmniejszego z pozostałych o co najmniej dwie oktawy (4 razy), jego wpływ na wypadkową dolną częstotliwość graniczną jest do pominięcia – stosujemy wzór (12.52) bez uwzględnienia tego bieguna (n = 2). Musimy pamiętać, że są to obliczenia szacunkowe, a wartości dokładne otrzymujemy, korzystając z programów do komputerowej analizy układów elektronicznych, co omawiamy w rozdziale 16. Dodatkowym efektem, którego nie uwzględniamy przy ręcznej analizie charakterystyki częstotliwościowej metodą zer i biegunów funkcji transmitancji, jest wzajemne oddziaływanie obwodów. Innymi słowy, milcząco zakładamy, że każdy filtr pracuje tak, jakby pozostałych nie było. W zasadzie jest to założenie uzasadnione, ponieważ tranzystor faktycznie skutecznie separuje obwód wejściowy od wyjściowego, nie jest to jednak separacja doskonała. W celu ilustracji skuteczności metody opierającej się na badaniu położenia zer i biegunów, w tabeli 12.3 prezentujemy, zaczerpnięte z [4], wyniki obliczeń ręcznych oraz wyniki symulacji komputerowej wzmacniacza w układzie wspólnego emitera, w którym w celach dydaktycznych zastosowano stosunkowo niewielki kondensator emiterowy. Tab. 12.3. Porównanie wyników otrzymanych drogą analizy położenia zer i biegunów z wynikami symulacji komputerowej Wyniki symulacji komputerowej Bieguny i zera fd1 [Hz] fd2 [Hz] fd3 [Hz] fz [Hz] fd [Hz]
Wyniki „ręczne” 16,8 3,73 226 7,2 226
Wyznaczane niezależnie
Wyznaczane przy jednoczesnym oddziaływaniu wszystkich obwodów
16,2 3,71 206 7,2
7,2 3,61 216 7,2 230
Na rysunku 12.22a przedstawiono asymptotyczną charakterystykę Bodego dla rozważanego przypadku oraz na jej tle wypadkową charakterystykę otrzymaną drogą symulacji komputerowej. Na rysunku 12.22b pokazano otrzymane drogą symulacji komputerowej charakterystyki częstotliwościowe wyznaczone przy założeniu występowania każdego obwodu z osobna oraz charakterystykę wypadkową. Ponieważ biegun obwodu emiterowego jest znacznie większy od jego zera, częstotliwość graniczna obwodu emiterowego jest mu równa. Jednocześnie jest on biegunem dominującym w całym układzie i jednoznacznie określa wypadkową dolną częstotliwość graniczną wzmacniacza. Zwróćmy uwagę na bardzo dobrą zgodność obliczeń „ręcznych” z wynikami symulacji komputerowej przeprowadzonej w warunkach niezależności obwodów oraz na całkiem dobrą zgodność również w przy-
12.2. Ograniczenia częstotliwościowe
373
Rys. 12.22. Amplitudowe charakterystyki częstotliwościowe przykładowego wzmacniacza
padku, gdy symulacja była przeprowadzana bez żadnych modyfikacji upraszczających. Świadczy to o rzeczywistej użyteczności metody biegunów i zer w sytuacji, gdy nie mamy dostępu do odpowiedniego oprogramowania. Zakres górnych częstotliwości Podobnie jak poprzednio, analizę w zakresie górnych częstotliwości przeprowadzimy, stosując wzmacniacz w konfiguracji WE. W rozważaniach dotyczących górnych
374
12. Małosygnałowe wzmacniacze pasmowe
Rys. 12.23. Unilateralny model hybryd � tranzystora bipolarnego
częstotliwości uwzględniamy pojemności wewnętrzne tranzystora, a pojemności sprzęgające uznajemy za zwarte. Opieramy się na unilateralnym modelu hybryd π (rysunek 12.12), uproszczonym dodatkowo przez pominięcie rezystancji rce (z reguły znacznie większej od RC), a strukturę, którą poddamy analizie, zamieszczono na rysunku 12.23. Skuteczne wzmocnienie prądowe powyższego układu w funkcji częstotliwości opisane jest zależnością Gis ( jω ) =
io ib ub ' e iL io = ⋅ ⋅ ⋅ = ig ig ib ub ' e iL RG
=
RG + rbb ' + rb ' e
1 jωCwe
1 rb ' e j ω C we
g m
RL
1 jωCwy Ro
(12.53) .
Po dalszych przekształceniach otrzymujemy
Gis ( jω ) =
RG g m rb ' e RG + rbb ' + rb ' e
RC RC + Ro , ⋅ jω jω 1 + 1 + ω g1 ω g 2
(12.54)
gdzie:
ω g1 =
1 1 → f g1 = , R r1Cwe 2πR r1Cwe
(12.55)
ωg 2 =
1 1 , → fg2 = RL Cwy 2πRL Cwy
(12.56)
Rr1 = ( RG + rbb ' ) rb ' e ,
(12.57)
przy czym
a pojemności Cwe i Cwy określone są zależnościami odpowiednio (12.25) i (12.26).
375
12.2. Ograniczenia częstotliwościowe
Ponieważ w modelu uproszczonym h21e = g m rb ' e ,
(12.58)
h11e = rbb ' + rb ' e ,
(12.59)
zależność (12.54) można sprowadzić do postaci Gis ( jω ) =
RG RC 1 h21e ⋅ . RG + h11e RC + Ro jω jω 1 + 1 + ω g1 ω g 2
(12.60)
Korzystając z zależności (12.39), otrzymujemy Gis ( jω ) =
Gis . jω jω 1 + 1 + ω g1 ω g 2
(12.61)
Analiza otrzymanych zależności prowadzi do bardzo istotnego wniosku, że pulsacje graniczne są (podobnie jak w zakresie dolnych częstotliwości) odwrotnościami stałych czasowych danych jako iloczyny pojemności i wypadkowych rezystancji „widzianych” z ich zacisków. Korzystając z (12.61) i (12.38), otrzymujemy Gus ( jω ) = Gis ( jω )
Ro Gus = . Rg jω jω 1 + 1 + ω g1 ω g 2
(12.62)
Z tej zależności wynika, że kształt charakterystyki częstotliwościowej w zakresie górnych częstotliwości jest – podobnie jak było w zakresie dolnych częstotliwości – taki sam, niezależnie od tego, czy rozpatrujemy skuteczne wzmocnienia prądowe, czy napięciowe. Wypadkowa częstotliwość graniczna całego układu zależy od wzajemnego usytuowania obu biegunów składowych i podobnie jak w zakresie dolnych częstotliwości wyróżniamy dwa zasadnicze przypadki: – bieguny są od siebie dostatecznie odległe (min. 2 oktawy), f g1 <
1 fg2 4
→
f g = f g1
(12.63)
– bieguny nie są od siebie dostatecznie odległe (wzajemnie oddalone mniej niż dwie oktawy) 1 1 1 = 1,1 2 + 2 . fg f g1 f g 2
(12.64)
376
12. Małosygnałowe wzmacniacze pasmowe
Przyjrzyjmy się wzorom określającym wartości biegunów obwodu wejściowego i wyjściowego. Typowe małosygnałowe stopnie wzmacniające pracują w warunkach sterowania z generatora o rezystancji wewnętrznej rzędu kiloomów (jest to najczęściej rezystancja wyjściowa poprzedniego stopnia) i obciążone są również rezystancją rzędu kiloomów (rezystancją wejściową kolejnego stopnia). W takich warunkach rezystancje Rr1 i RL mają wartości tego samego rzędu (pojedyncze kiloomy). Oprócz rezystancji na stałe czasowe, a tym samym na położenia biegunów, wpływają pojemności Cwe i Cwy – zależności (12.25) i (12.26). Pojemność wyjściowa jest zawsze stosunkowo niewielka i równa praktycznie pojemności złącza baza-kolektor Cc (pojedyncze pF), natomiast pojemność wejściowa jest sumą pojemności złącza baza-emiter Ce i przetransformowanej zgodnie z twierdzeniem Millera pojemności Cc. Przy obciążeniu napięciowym wzmacniacza (wartość RL rzędu kiloomów) wzmocnienie napięciowe jest duże i w efekcie pojemność wejściowa Cwe osiąga wartości rzędu kilkuset pikofaradów. Najczęściej mamy więc do czynienia z sytuacją porównywalnych rezystancji i znacznie większej pojemności w obwodzie wejściowym – biegun obwodu wejściowego jest z reguły znacznie mniejszy od bieguna obwodu wyjściowego i jest biegunem dominującym, określającym górną częstotliwość graniczną całego wzmacniacza – biegun obwodu wyjściowego powoduje zwiększenie nachylenia spadku charakterystyki amplitudowej znacznie powyżej górnej częstotliwości granicznej. Znaczna odległość obu biegunów pozwala na opis wzmacniacza jednobiegunową funkcją przenoszenia w zakresie górnych częstotliwości, co wykorzystamy przy omawianiu własności częstotliwościowych wzmacniaczy ze sprzężeniem zwrotnym. Analiza pozostałych układów włączenia tranzystora (WB i WC) jest jakościowo taka sama, natomiast duże ilościowe różnice występują w układzie wspólnej bazy. Nie ma w tym przypadku pojemności sprzęgającej wejście z wyjściem, nie występuje więc efekt multiplikacji Millera – pojemność obwodu wejściowego jest równa Ce, a wyjściowego Cc. Z tego powodu dominujący w poprzednich układach włączenia biegun obwodu wejściowego osiąga dużo większe wartości i właśnie dlatego układ WB charakteryzuje się zdecydowanie największą górną częstotliwością graniczną (spośród trzech układów włączenia), co determinuje jego zastosowanie w układach w.cz.
12.3. Wzmacniacze z ujemnym sprzężeniem zwrotnym Sprzężenie zwrotne polega na wpływie skutku pewnego zjawiska na jego przyczynę i jest zjawiskiem powszechnie występującym w otaczającej nas rzeczywistości. Jeżeli skutek tak oddziałuje na przyczynę, że proces zostaje spowolniony, co prowadzi do pewnego stanu równowagi, to takie sprzężenie zwrotne nazywamy ujemnym. Jeżeli zaś skutek potęguje przyczynę, prowadząc w efekcie do destabilizacji, to sprzężenie zwrotne jest dodatnie. W układach elektronicznych zastosowanie sprzężenia zwrotnego polega na pobraniu części sygnału z wyjścia i doprowadzeniu go do wejścia razem z sygnałem
12.3. Wzmacniacze z ujemnym sprzężeniem zwrotnym
377
Rys. 12.24. Schemat blokowy układu ze sprzężeniem zwrotnym
sterującym. Sytuacja taka przedstawiona jest na rysunku 12.24 – symbol s reprezentuje napięcie lub prąd. Ujemne sprzężenie zwrotne umożliwia m.in.: – regulację poziomów wzmocnienia oraz impedancji wejściowej i wyjściowej, – kształtowanie charakterystyk częstotliwościowych, – redukcję zniekształceń nieliniowych oraz szumów i zakłóceń, – zmniejszenie wrażliwości układu (m.in. na zmiany napięcia zasilania, temperatury, parametrów elementu aktywnego). Opisane własności wiążą się jednak ze spadkiem wzmocnienia skutecznego oraz z możliwością utraty stabilności, gdy sprzężenie z ujemnego zmieni się w pewnych warunkach na dodatnie (np. dla pewnych częstotliwości poza planowanym pasmem przepustowym). Klasyfikacje układów z ujemnym sprzężeniem zwrotnym przeprowadza się, uwzględniając sposób pobierania sygnału zwrotnego oraz sposób doprowadzania go do obwodu wejściowego. Ze względu na sposób pobierania sygnału zwrotnego z wyjścia toru wzmacniającego wyróżniamy: – sprzężenie zwrotne napięciowe, w którym sygnał zwrotny jest proporcjonalny do napięcia wyjściowego, – sprzężenie zwrotne prądowe, w którym sygnał zwrotny jest proporcjonalny do prądu wyjściowego. Z kolei w zależności od sposobu wprowadzania sygnału zwrotnego do wejścia toru wzmocnienia możemy wyróżnić: – sprzężenie zwrotne szeregowe, w którym sygnał zwrotny jest wprowadzany na wejście toru wzmocnienia szeregowo z sygnałem sterującym, – sprzężenie zwrotne równoległe, w którym sygnał zwrotny jest wprowadzany na wejście toru wzmocnienia równolegle z sygnałem sterującym. Taka klasyfikacja daje cztery podstawowe układy ze sprzężeniem zwrotnym: – prądowe-szeregowe, – napięciowe-równoległe, – napięciowe-szeregowe, – prądowe-równoległe.
378
12. Małosygnałowe wzmacniacze pasmowe
Przedstawiona klasyfikacja nie obejmuje oczywiście wszystkich układów z ujemnym sprzężeniem zwrotnym. W praktyce możemy mieć do czynienia ze sprzężeniami zwrotnymi: lokalnymi – obejmującymi pojedynczy stopień wzmocnienia, wielokrotnymi – obejmującymi jeden lub wiele stopni wzmocnienia i mieszanymi – łączącymi powyższe dwa warianty. Istnieje również podział sprzężeń zwrotnych ze względu na rodzaj sygnału w pętli sprzężenia zwrotnego np. sprzężenie zwrotne dla sygnału stałego lub zmiennego. Sprzężenie zwrotne dla sygnału stałego omawialiśmy już częściowo, zajmując się analizą stabilizacji punktu pracy elementu aktywnego (sprzężenie emiterowe). Obecnie zajmujemy się sprzężeniami dla składowych zmiennych. Na rysunku 12.25 zamieszczono schematy zastępcze wzmacniaczy w czterech możliwych do utworzenia układach ze sprzężeniem zwrotnym. W praktycznych układach tranzystorowych, wykorzystując jeden stopień wzmocnienia, można zrealizować sprzężenie prądowe-szeregowe i napięciowe-równoległe. Pozostałe dwa rodzaje sprzężeń, tj. sprzężenie prądowe-równoległe i napięciowe-szeregowe, wymagają wzmacniacza dwustopniowego4. Wśród wielu metod analizy układów ze sprzężeniem zwrotnym jako najwygodniejszą z inżynierskiego punktu widzenia uznaje się metodę wykorzystującą elementar-
Rys. 12.25. Schematy zastępcze układów ze sprzężeniem zwrotnym: a) sprzężenie prądowe-szeregowe, b) sprzężenie napięciowe-równoległe, c) sprzężenie napięciowe-szeregowe, d) sprzężenie prądowe-równoległe
4
Specyficznym wyjątkiem jest układ WC, który może być potraktowany jako układ ze 100% sprzężeniem zwrotnym napięciowym-szeregowym – całe napięcie wyjściowe podawane jest szeregowo na wejście.
12.3. Wzmacniacze z ujemnym sprzężeniem zwrotnym
379
ną teorię sprzężenia zwrotnego. Zastosowanie elementarnej teorii sprzężenia zwrotnego do analizy układu wymaga spełnienia następujących założeń: – istnieje możliwość wyróżnienia toru wzmocnienia G i toru sprzężenia zwrotnego b, – tory G i b są unilateralne (tzn. przepływ sygnału przez każdy z torów odbywa się tylko w jedną stronę), – źródło sterujące i obciążenie układu nie obciążają torów G i b oraz tory te nie obciążają się wzajemnie. Na podstawie układu z rysunku 12.24 oraz korzystając z wcześniej wymienionych założeń, można wyprowadzić podstawowe równanie elementarnej teorii sprzężenia zwrotnego, wyrażające wzmocnienie całego układu ze sprzężeniem zwrotnym o postaci s2 s2 s2 s1 G G Gf = = = = = , (12.65) s1 − s f s1 f s2 s f 1 − G β F 1− ⋅ s1 s2 gdzie: s1 – sygnał wejściowy (prądowy lub napięciowy) wzmacniacza, s1f – sygnał wejściowy układu ze sprzężeniem zwrotnym, s2 – sygnał wyjściowy, sf – sygnał sprzężenia zwrotnego G – transmitancja toru wzmocnienia, b – transmitancja toru sprzężenia, F – różnica zwrotna, będąca miarą siły sprzężenia zwrotnego. Jeśli | F | < 1, to w układzie występuje dodatnie sprzężenie zwrotne, a gdy | F | > 1, to mamy do czynienia z ujemnym sprzężeniem zwrotnym. Gdy Gb >> 1, wówczas Gf ≈ 1/b, co z kolei oznacza, że wzmocnienie układu uwarunkowane jest własnościami toru sprzężenia zwrotnego. Taka sytuacja ma miejsce np. we wzmacniaczach operacyjnych. Ze względu na bardzo duże wzmocnienie napięciowe Gu0 wzmacniacza operacyjnego warunek Gb >> 1 jest z łatwością spełniony, stąd wzmocnienie układu zależy praktycznie tylko od wartości rezystancji w pętli sprzężenia zwrotnego. Zgodnie z założeniami elementarnej teorii sprzężenia zwrotnego pierwszym krokiem w analizie układu ze sprzężeniem zwrotnym jest wydzielenie torów G i b. Sposób, w jaki można to zrealizować (dla każdego z czterech rodzajów sprzężeń), jest pokazany na rysunku 12.25. Tor wzmocnienia G można uznać za unilateralny, pomijając wpływ wewnętrznego sprzężenia zwrotnego tranzystora (h12e = 0), co w praktyce nie wnosi dużego błędu. Tor sprzężenia zwrotnego faktycznie jest bilateralny – nie można wymagać od liniowego rezystora, żeby przenosił sygnał tylko w jednym kierunku. Praktyczna unilateralność toru b nie wynika więc z różnych tłumień dla obu kierunków, lecz z poziomów sygnałów na wejściu i wyjściu toru sprzężenia. Silny sygnał wyjściowy stłumiony w torze sprzężenia jest jeszcze wystarczająco duży, aby odgrywać istotną
380
12. Małosygnałowe wzmacniacze pasmowe
rolę na wejściu toru wzmocnienia, natomiast słaby sygnał wejściowy, po stłumieniu w torze b, staje się pomijalny wobec dużego sygnału wyjściowego. Należy zwrócić uwagę na to, że w przypadku toru wzmocnienia o niewielkim wzmocnieniu założenie o unilateralności toru b staje się nieobowiązujące. Kolejny krok, jaki należy wykonać, polega na takim przekształceniu układu ze sprzężeniem zwrotnym, aby słuszne było założenie, że źródło sterujące o rezystancji Rg oraz rezystancja obciążenia wzmacniacza RL nie obciążają układu oraz oba tory nie obciążają się wzajemnie. Generalnie założenie to nie jest spełnione, ale drogą prostych przekształceń układu można doprowadzić do jego spełnienia. W praktyce wpływ tych operacji jest niewielki, szczególnie w stosowanych układach ze słabym sprzężeniem zwrotnym, w których różnica zwrotna nie przekracza pięciu. Szczegółową analizę układów z ujemnym sprzężeniem zwrotnym Czytelnik znajdzie w [4], natomiast tutaj zajmiemy się fizyczną interpretacją własności sprzężenia zwrotnego i jego wpływu na parametry robocze i częstotliwości graniczne. Rozpoczniemy od rezystancji wejściowej i wyjściowej. W sprzężeniach typu szeregowego sygnał sprzężenia zwrotnego włączany jest do wejścia w sposób szeregowy, a skoro tak, to rezystancja wejściowa wzmacniacza po zastosowaniu takiego typu sprzężenia musi wzrastać. Analogicznie, po użyciu sprzężenia równoległego, rezystancja wejściowa maleje. Przy sprzężeniach typu prądowego sygnał zwrotny jest proporcjonalny do prądu wyjściowego, co wymusza włączenie szeregowo do obwodu wyjściowego pewnej rezystancji, na której mógłby odkładać się sygnał proporcjonalny do prądu wyjściowego, rezystancja wyjściowa w takim przypadku będzie wzrastała po zastosowaniu sprzężenia. Analogicznie, w przypadku sprzężeń napięciowych element próbkujący napięcie musi być włączony równolegle do wyjścia, zmniejszając rezystancję wyjściową. W przypadku sprzężeń typu szeregowego napięcie wejściowe dzieli się między wejście wzmacniacza i wyjście toru sprzężenia, więc wzmocnienie napięciowe po zastosowaniu sprzężenia maleje. Z tego powodu maleje również wzmocnienie napięciowe skuteczne. Wzmocnienie prądowe nie ulega zmianie, gdyż na wejściu nie następuje rozpływ prądów i cały prąd wejściowy jest bez przeszkód wzmacniany, jednak ze względu na wzrost rezystancji wejściowej pogarsza się rozpływ prądów w dzielniku Rg – Rwe i w efekcie wzmocnienie prądowe skuteczne ulega zmniejszeniu – uwzględniając zależność (12.38), można stwierdzić, że w tym samym stopniu co wzmocnienie napięciowe skuteczne. W przypadku sprzężeń typu równoległego podziałowi ulega prąd wejściowy, co powoduje zmniejszenie wzmocnienia prądowego i w konsekwencji zmniejszenie wzmocnienia prądowego skutecznego. Wzmocnienie napięciowe pozostaje bez zmian, ale wskutek zmniejszenia rezystancji wejściowej maleje wzmocnienie napięciowe skuteczne i to w takim samym stopniu co wzmocnienie prądowe skuteczne – zależność (12.38). Analizując dotychczas zebrane fakty, stwierdzamy, że niezależnie od typu ujemnego sprzężenia zwrotnego, skuteczne wzmocnienie napięciowe oraz skuteczne wzmocnienie prądowe maleją w takim samym stopniu – uwzględniając ponadto podstawowe równanie elementarnej teorii sprzężenia zwrotnego (12.65), możemy stwierdzić, że jest to spadek F-krotny.
12.3. Wzmacniacze z ujemnym sprzężeniem zwrotnym
381
Ujemne sprzężenia zwrotne wpływają na dolną częstotliwość graniczną poprzez rezystancje wchodzące w skład stałych czasowych obwodów wejściowego, wyjściowego i emiterowego. Sprzężenia typu prądowego i szeregowego powodują wzrost rezystancji i korzystny spadek dolnej częstotliwości granicznej, a sprzężenia napięciowe i równoległe przeciwnie. Wpływ sprzężeń zwrotnych na górną częstotliwość graniczną jest jakościowo jednakowy dla wszystkich typów sprzężeń. Jego charakter określimy, stosując podstawowy wzór elementarnej teorii sprzężenia zwrotnego. Jak przekonaliśmy się, przeprowadzając analizę częstotliwościową wzmacniacza w układzie WE i WC, w zakresie górnych częstotliwości mamy najczęściej do czynienia z biegunem dominującym. Drugi biegun jest na tyle odległy od bieguna dominującego, że uzasadniona jest aproksymacja charakterystyki częstotliwościowej w zakresie górnych częstotliwości funkcją jednobiegunową. Załóżmy więc, że funkcja transmitancji wzmacniacza bez sprzężenia zwrotnego jest jednobiegunowa i wyraża się zależnością G ( jω ) =
G0 , ω 1+ j ωg
(12.66)
gdzie: G0 – wzmocnienie w zakresie średnich częstotliwości, wg – górna pulsacja graniczna. Wprowadzając rzeczywiste (rezystancyjne) sprzężenie zwrotne, zgodnie z podstawowym wzorem elementarnej teorii sprzężenia zwrotnego, otrzymujemy G0 G0 f G ( jω ) 1 − G0 β G f ( jω ) = = = , ω ω 1 − G ( jω ) β 1 + j 1+ j ω g (1 − G0 β ) ωg f
(12.67)
stąd wartość górnej częstotliwości granicznej dla układu ze sprzężeniem zwrotnym wynosi fg
f
= f g (1 − G0 β ) = f g F .
(12.68)
Widzimy zatem, że przy przyjętych założeniach wprowadzenie sprzężenia zwrotnego do układu powoduje F-krotny wzrost górnej częstotliwości granicznej, a charakter funkcji transmitancji pozostaje jednobiegunowy. Mamy więc do czynienia ze zjawiskiem, w którym F-krotne zmniejszenie wzmocnienia skutecznego powoduje F-krotny wzrost pasma wzmacniacza (gdyż w porównaniu z bardzo małą wartością dolnej częstotliwości granicznej wartość górnej częstotliwości granicznej można w przybliżeniu uznać za szerokość pasma). Pole wzmocnienia, rozumiane jako iloczyn wzmocnienia skutecznego i górnej częstotliwości granicznej, jest zatem stałe. Zjawisko to określone jest zasadą wymiany wzmocnienia na pasmo.
382
12. Małosygnałowe wzmacniacze pasmowe
Rys. 12.26. Ilustracja zasady wymiany wzmocnienia na pasmo
G0 f ⋅ ω g
f
= G0 ⋅ ω g .
(12.69)
Z zasady tej można korzystać, pamiętając, że jest ona słuszna jedynie wówczas, gdy mamy do czynienia z układem, którego funkcja transmitancji zawiera biegun dominujący (co oznacza, że w interesującym nas zakresie jest praktycznie jednobiegunowa), a sprzężenie jest rzeczywiste, tj. realizowane przez elementy czysto rezystancyjne. Ilustracja zasady wymiany wzmocnienia na pasmo przedstawiona jest na rysunku 12.26. Po tym ogólnym wprowadzeniu w problematykę układów ze sprzężeniem zwrotnym poświęcimy nieco czasu na prezentację podstawowych jednostopniowych wzmacniaczy ze sprzężeniem zwrotnym. Wzmacniacz ze sprzężeniem zwrotnym prądowym-szeregowym Schemat ideowy wzmacniacza ze sprzężeniem zwrotnym prądowym-szeregowym oraz jego schemat zastępczy dla składowej zmiennej w zakresie średnich częstotliwości, zamieszczone są na rysunku 12.27. W celu uproszczenia wyprowadzenia wzoru na skuteczne wzmocnienie napięciowe, okupionego niewielkim pogorszeniem dokładności obliczeń, pomijamy rezystancję
Rys. 12.27. Schemat ideowy wzmacniacza z ujemnym sprzężeniem zwrotnym prądowym-szeregowym (a) i jego schemat zastępczy dla składowej zmiennej (b)
383
12.3. Wzmacniacze z ujemnym sprzężeniem zwrotnym
RB jako znacznie większą od rezystancji wejściowej, h22e jako znacznie mniejszą od odwrotności RL oraz h12e jako znikomo małą. Przy tych założeniach, na podstawie (12.10) i (12.13), otrzymujemy Gus = ≈
h11e Rwe rwe Gu ≈ Gu ≈ Gu ≈ Rg + Rwe Rg + rwe Rg + h11e h11e Rg + h11e
⋅
−h 211e h11e
RL ≈
−h 21e RL Rg + h11e
(12.70)
.
Ponieważ mamy do czynienia ze sprzężeniem prądowym, sygnał sprzężenia zwrotnego uf jest proporcjonalny do prądu wyjściowego i2, zatem wartość transmitancji napięciowej toru sprzężenia zwrotnego bu określa wyrażenie
βu =
uf u2
=
i2 R f i2 RL
=
Rf RL
.
(12.71)
Różnicę zwrotną określającą efektywność sprzężenia zwrotnego wyznaczamy, korzystając z zależności (12.65), (12.70) i (12.71) F = 1 − Gus βu = 1 +
h21e R f h21e RL R f . ⋅ = 1+ Rg + h11e RL Rg + h11e
(12.72)
Rezystancję wejściową najprościej wyznacza się z drugiego twierdzenia Millera. Korzystając z (12.14) i (12.16), otrzymujemy GiT = GiT =
h21GL h22e + GL
i2 , i1
(12.73)
h22 e <
≈
h21e ,
rwef = rwe + (1 + GiT ) R f ≈ rwe + (1 + h21e ) R f ≈ h11e + (1 + h21e ) R f .
(12.74) (12.75)
Uogólnioną rezystancję wejściową wzmacniacza otrzymujemy, uwzględniając wpływ rezystancji RB, czyli Rwef = RB rwef .
(12.76)
Rezystancja wyjściowa wzmacniacza również wzrasta, ale w praktyce interesuje nas głównie uogólniona rezystancja wyjściowa, i ponieważ w praktycznych realizacjach wzmacniaczy rezystancja rwyf >> RC, najczęściej słuszna jest zależność przybliżona Rwyf ≈ RC. Wprowadzenie sprzężenia szeregowego redukuje wzmocnienia skuteczne F-krotnie, czyli G Gusf = us , F (12.77) Rg Gis Gisf = . = −Gusf F Ro
384
12. Małosygnałowe wzmacniacze pasmowe
Częstotliwości graniczne wyznaczamy zgodnie z poznanymi dotychczas regułami. Ogólnie można stwierdzić, że ze względu na zwiększenie się rezystancji wejściowej i wyjściowej wypadkowa dolna częstotliwość graniczna zmaleje, co jest efektem korzystnym. Górna częstotliwość graniczna oczywiście wzrasta F-krotnie. Wzmacniacz ze sprzężeniem zwrotnym napięciowym-równoległym Analiza układu ze sprzężeniem zwrotnym napięciowym-równoległym, przedstawionego na rysunku 12.28, przebiega w sposób analogiczny jak w przypadku sprzężenia prądowego-szeregowego. Czytelników zainteresowanych dokładną analizą ilościową odsyłamy do [4].
Rys. 12.28. Schemat ideowy wzmacniacza z ujemnym sprzężeniem zwrotnym napięciowym-równoległym (a) i jego schemat zastępczy dla składowej zmiennej (b)
12.4. Wzmacniacze różnicowe Wzmacniacz różnicowy, co dalej pokażemy, jest klasycznym przykładem wykorzystania rezystancji dynamicznej złącza baza-emiter drugiego tranzystora, pracującego w układzie WB, w roli reaktancji kondensatora emiterowego likwidującego ujemne sprzężenie zwrotne dla składowych zmiennych we wzmacniaczu zbudowanym na tranzystorze pierwszym, pracującym w układzie WE. Prostota rozwiązania układowego i duża skuteczność spowodowały, że wzmacniacze różnicowe są powszechnie stosowane zarówno w roli wejściowych stopni wzmacniaczy operacyjnych, jak i jako układy samodzielne przeznaczone m.in. do wzmacniania sygnałów stałych
12.4. Wzmacniacze różnicowe
385
i wolnozmiennych. Przez sygnał stały rozumiemy tu nie tyle sygnał absolutnie stały, bo takiego nie ma sensu wzmacniać – można po prostu wykonać odpowiedni zasilacz, lecz sygnał dowolnie wolnozmienny, tzn. sygnał, który np. nie zmienia swojej wartości przez kilka godzin. Może to być np. sygnał niosący informację o temperaturze wewnątrz pieca hutniczego albo np. sygnał w instalacji alarmowej – niezmienny, dopóki nie zadziała odpowiedni czujnik. Wzmacniacz różnicowy powstał w efekcie poszukiwań skutecznego wzmacniacza sygnałów stałych o dodatniej i ujemnej polaryzacji. Zasadniczy problem ze wzmacnianiem sygnałów stałych polega na tym, że składowa stała, która we wzmacniaczach prądu zmiennego służyła tylko do zasilania elementu aktywnego, tu może być również sygnałem podlegającym wzmocnieniu i nie ma już mowy o rozdzieleniu obwodów stało- i zmiennoprądowych. Przyjrzyjmy się kolejnym schematom z rysunku 12.29. Pierwszy z nich to klasyczny wzmacniacz w układzie WE, z emiterową stabilizacją punktu pracy – jego wzmocnienie wynosi – 330 V/V. Rezystor
Rys. 12.29. Ewolucja koncepcji wzmacniacza różnicowego
386
12. Małosygnałowe wzmacniacze pasmowe
emiterowy zapewnia stabilizację prądu kolektora na poziomie 5%. Kondensator emiterowy likwiduje sprzężenie zwrotne dla składowych zmiennych. Pierwszy układ zasilany jest asymetrycznie, tzn., że mamy pojedyncze źródło napięcia zasilającego przyłączone jednym biegunem do masy. Drugi schemat z rysunku 12.29 przedstawia próbę prostego przekształcenia wzmacniacza klasycznego w układ wzmacniający sygnały stałe. Zauważamy brak kondensatorów sprzęgających, które uniemożliwiałyby transmisję składowej stałej ze źródła sygnałowego eg do obciążenia Ro. Zauważamy również zasilanie symetryczne – ponieważ generator sterujący może być źródłem sygnału stałego, nie możemy dołączać go do punktu, w którym występuje niezerowy potencjał. Zasilanie symetryczne polega na połączeniu dwóch źródeł napięcia stałego przeciwnymi biegunami i przyłączeniu punktu połączenia do masy układu. Pozostałe bieguny dają nam napięcia dodatnie i ujemne względem masy. Zastosowanie zasilania symetrycznego pozwala na obniżenie potencjału emitera do takiego poziomu, żeby napięcie baza-emiter było wystarczające do odpowiedniego ustawienia punktu pracy przy jednoczesnym zapewnieniu zerowego względem masy potencjału bazy. Kondensator emiterowy usunięto, ponieważ układ musi zachowywać się tak samo zarówno dla sygnałów stałych, jak i dla sygnałów zmiennych – ujemne sprzężenie zwrotne zachodzi więc dla składowych stałych i zmiennych, i z tego powodu wzmocnienie spada do wartości zaledwie –0,44 V/V. Wzmacniacz nie tylko nie wzmacnia, ale wręcz tłumi sygnał sterujący. Oczywiście można by zmniejszyć rezystor emiterowy i zredukować sprzężenie zwrotne, ale zwiększyłoby to niestabilność punktu pracy tranzystora, a to byłoby szczególnie niekorzystne w układzie wzmacniacza prądu stałego, gdzie każda przypadkowa fluktuacja prądu kolektora byłaby interpretowana jako zmiana sygnału wzmacnianego. Koncepcja przedstawiona na środkowym schemacie nie nadaje się więc do przyjęcia, a zatem pozostaje pytanie, jak zapewnić silne stabilizujące sprzężenie dla prądu zasilającego i zredukować je dla quasi-stałego sygnału sterującego. Okazuje się, że odpowiednim rozwiązaniem jest zastosowanie w roli kondensatora emiterowego drugiego identycznego tranzystora pracującego w takim samym punkcie pracy (ostatni schemat na rysunku 12.29). Zwróćmy uwagę na sposób sterowania tak powstałego układu. Z punktu widzenia generatora sterującego napięcie wejściowe rozkłada się na spadek napięcia na złączu baza-emiter tranzystora T1 (tj. na rezystancji wejściowej tranzystora w układzie WE) oraz na spadek napięcia na równoległym połączeniu rezystora RE z rezystancją wejściową tranzystora w układzie WB. Spadki te są proporcjonalne do rezystancji rweT1 ( WE ) oraz rezystancji RM określonej przez równoległe połączenie RE rweT2 ( WB) przetransformowanej do obwodu wejściowego zgodnie z drugim twierdzeniem Millera. Zauważmy, że rweT1 ( WE ) ≈ h11e1 RE rweT2 ( WB) ≈ RE h11b2
(
RM = 1 + h 21e1
) ( RE
RE >> h11b
≈
2
) (
h11b2 =
rweT2 (OB) ≈ 1 + h 21e1
h11e2
1 + h 21e2 h
) 1 + 11h e
2
21e2
(12.78) .
387
12.4. Wzmacniacze różnicowe
Jeśli zastosujemy jednakowe tranzystory, a jest to zupełnie realne, jeśli będą one wykonane w jednej strukturze scalonej, to możemy pominąć indeksy oznaczające konkretne tranzystory i wówczas rweT1 ( WE ) ≈ h11e
(
RM ≈ 1 + h 21e
h
) 1 + 11h e
21e
= h11e .
(12.79)
Oznacza to, że pomijając nieznaczny wpływ RE, można przyjąć, że napięcie sterujące rozkłada się praktycznie po połowie między bazy obu tranzystorów. Wzmocnienie wzmacniacza w tej konfiguracji osiąga więc połowę wartości wzmocnienia klasycznego wzmacniacza w układzie WE i jednocześnie stabilność punktu pracy poprawia się dwukrotnie ze względu na dwukrotnie większy prąd płynący przez rezystor RE. Na sterowanie wzmacniacza różnicowego można spojrzeć również w inny sposób. Zwróćmy uwagę, że sygnał sterujący podłączony jest de facto między bazy obu tranzystorów, a zatem nie ma wątpliwości, że cały sygnał sterujący, poza drobnym odpływem przez RE, steruje symetrycznie obydwoma tranzystorami. Z drugiej strony, ponieważ w istocie mamy dwa wejścia i dwa wyjścia, możemy wszystkie możliwości sterowania i obciążania wykorzystywać, co zilustrowano na rysunku 12.30. Możliwość przenoszenia przez wzmacniacz różnicowy sygnałów dowolnie wolnozmiennych powoduje, że sygnały sterujące opisywane są przez przyrosty składowej stałej, np. ∆Ui1 (przyrost napięcia na wejściu 1). Nieodłącznym pojęciem związanym ze wzmacniaczem różnicowym są sygnały różnicowy i wspólny. Ich istotę wyjaśniono na rysunku 12.31.
Rys. 12.30. Uproszczony schemat zastępczy wzmacniacza różnicowego jako liniowego wielowrotnika
388
12. Małosygnałowe wzmacniacze pasmowe
Rys. 12.31. Ilustracja sterowania sygnałem różnicowym i wspólnym. Dwa asymetryczne źródła sygnałów (a), szczególny przypadek sterowania symetrycznego sygnałem różnicowym z pojedynczego źródła sygnału (b), sterowanie sygnałem wspólnym (c)
Sygnały różnicowy i wspólny definiuje się następująco ∆U r = ∆U i 1 − ∆U i 2 , ∆U s =
∆U i 1 + ∆U i 2 2
.
(12.80)
Sygnał wspólny może reprezentować, bardzo istotne w zastosowaniach wzmacniacza różnicowego, sygnały zakłócające, takie jak np. wahania napięcia zasilania czy dryf temperaturowy. Sygnał różnicowy reprezentuje sygnał użyteczny. Najbardziej charakterystyczną cechą wzmacniacza różnicowego jest odmienność, z jaką traktuje on oba wymienione sygnały – tłumi sygnał wspólny i wzmacnia sygnał różnicowy. Specyfika wzmacniacza różnicowego narzuca rozbicie wszystkich parametrów roboczych na dwie zasadnicze grupy – parametry „symetryczne” i parametry „niesymetryczne”, tzn. parametry definiowane przy sterowaniu symetrycznym bądź asymetrycznym. Przy czym w tym drugim przypadku układ charakteryzuje się możliwością sterowania z jednego bądź drugiego wejścia, co wymusza stosowanie indeksów 1 lub 2. Do podstawowych parametrów wzmacniacza różnicowego należą: wzmocnienie napięciowe sygnału różnicowego i wspólnego, współczynnik tłumienia sygnału wspólnego oraz rezystancja wejściowa i wyjściowa dla sygnałów różnicowego i wspólnego. Wzmocnienie sygnału różnicowego W przypadku sterowania różnicowego sygnały na obu wejściach spełniają zależność ∆Ui2 = –∆Ui1. Wzmocnienie sygnału różnicowego na wyjściu 1 (tzw. wyjście asymetryczne) zgodnie z dotychczasowymi ustaleniami wynosi ∆U o1 1 ≈ − Gu1 , ∆U r 2
(12.81)
h21e1 ∆U o1 = RL . ∆U BE1 h11e1 1
(12.82)
∆U o 2 1 ≈ Gu 2 , ∆U r 2
(12.83)
Gur1 = przy czym Gu1 = Podobnie w przypadku wyjścia 2 Gur 2 =
389
12.4. Wzmacniacze różnicowe
gdzie Gu 2 =
h21e2 ∆U o 2 = RL . ∆U BE 2 h11e2 2
(12.84)
Zależność na wzmocnienie różnicowe dla wyjścia symetrycznego ma postać Gur =
G + Gu 2 ∆U o1 − ∆U o 2 ≈ − Gu . = Gur1 − Gur 2 ≈ − u1 ∆U r 2
(12.85)
W przypadku idealnej symetrii ( Gu1 = Gu 2 = Gu ) otrzymujemy Gur ≈ − Gu .
(12.86)
Dobrze zaprojektowany wzmacniacz różnicowy zapewnia więc praktycznie równe co do wartości i przeciwne w fazie napięcia na wyjściach asymetrycznych, przy czym wzmocnienie w tym przypadku jest co do wartości równe połowie wzmocnienia pojedynczego stopnia wzmacniacza pasmowego. Na wyjściu symetrycznym wzmocnienie jest dwukrotnie większe i równe wzmocnieniu pojedynczego stopnia wzmacniacza pasmowego. Wzmocnienie sygnału wspólnego W celu wyznaczenia wzmocnienia sygnału wspólnego zakładamy, że wzmacniacz różnicowy jest sterowany tylko przez sygnał wspólny – sygnały na obu wejściach są jednakowe: ∆Us = ∆Ui1 = ∆Ui2. W tym przypadku można wyróżnić trzy zasadnicze wzmocnienia napięciowe: dwa niesymetryczne odniesione do wejść 1 i 2 oraz jedno symetryczne. W przypadku dobrej symetrii i dla dużych wartości RE wzmocnienia asymetryczne sygnału wspólnego dążą do zera. W przypadku wzmocnienia symetrycznego pojawia się dodatkowo różnica wzmocnień obu tranzystorów, która w przypadku symetrii również dąży do zera, co powoduje, że wzmocnienie sygnału wspólnego na wyjściu symetrycznym jest jeszcze bardziej bliskie zeru:
Gus =
Gus1 =
∆U o1 ≈ 0 ⋅ Gu1 , ∆U s
(12.87)
Gus 2 =
∆U o 2 ≈ 0 ⋅ Gu 2 , ∆U s
(12.88)
∆U o1 − ∆U o 2 = Gus1 − Gus 2 ≈ 0 − 0 . ∆U s
(12.89)
Współczynnik tłumienia sygnału wspólnego Współczynnik tłumienia sygnału wspólnego CMRR (ang. Common Mode Rejection Ratio) jest najbardziej syntetycznym wskaźnikiem jakości wzmacniacza różnicowego. Definiuje się go jako stosunek wzmocnienia sygnału różnicowego do wzmocnienia sygnału wspólnego Gr CMRR = us . (12.90) Gu
390
12. Małosygnałowe wzmacniacze pasmowe
Jeżeli CMRR dąży do nieskończoności, to wzmacniacz różnicowy staje się idealny. Rezystancja wejściowa dla sygnału różnicowego Rezystancja wejściowa wzmacniacza dla sygnału różnicowego, w przypadku idealnej symetrii, odpowiednio dla wejść asymetrycznych i wejścia symetrycznego, jest równa: ∆U i1 ∆U i 2 r r rwe , rwe , (12.91) 1 = 2 = ∆I i1 ∆I i 2 r r rwe 1 = rwe 2 = h11e ,
(12.92)
r r r rwe = rwe 1 + rwe 2 = 2h11e .
(12.93)
Rezystancja wejściowa dla sygnału wspólnego Przyjmując założenia upraszczające (h12e = 0 i h22e = 0) oraz korzystając z rysunku 12.32, otrzymujemy s r we 1 =
∆U s = h11e1 + 1 + h 21e1 2 REE ≈ 2 1 + h 21e1 REE , ∆I i1
(12.94)
s r we 2 =
∆U s = h11e2 + 1 + h 21e2 2 REE ≈ 2 1 + h 21e2 REE , ∆I i 2
(12.95)
∆U s s s = r we 1 r we 2 ≈ 1 + h 21e REE . ∆I i
(12.96)
(
(
s r we =
)
(
)
)
(
(
)
)
Rys. 12.32. Schemat pomocniczy do wyznaczania rezystancji wejściowej dla sygnału wspólnego
Rezystancja wyjściowa dla sygnału różnicowego i wspólnego Wyznaczenie zależności na rezystancję wyjściową wzmacniacza różnicowego jest zadaniem złożonym i nie zawsze koniecznym. Niezmiernie rzadko wykorzystujemy r wartości rezystancji wyjściowych rwy , częściej natomiast wartości uogólnionych rezystancji wyjściowych: r r Rwy 1 = rwy1 RC1 ≈ RC1 ,
(12.97)
391
12.5. Wzmacniacze operacyjne r r Rwy 2 = rwy 2 RC 2 ≈ RC 2 .
(12.98)
s wzmacniacza różnicowego jest Dla sygnału wspólnego rezystancja wyjściowa rwy znacznie większa niż dla sygnału różnicowego, dlatego tym bardziej słuszne stają się zależności: s s Rwy 1 = rwy1 RC1 ≈ RC1, s s Rwy 2 = rwy 2 RC 2 ≈ RC 2 .
(12.99) (12.100)
Częstotliwości graniczne Dolna częstotliwość graniczna wzmacniacza różnicowego jest oczywiście zerowa, natomiast górną wyznacza się z reguły za pomocą symulacji komputerowej. Generalnie, w zakresie górnych częstotliwości, w zależności od konfiguracji, mamy do czynienia z różnymi funkcjami wielobiegunowymi.
12.5. Wzmacniacze operacyjne Wzmacniacze operacyjne WO („op-amps” z ang. operational amplifiers) stanowią najważniejszą dużą grupę analogowych układów scalonych do zastosowań profesjonalnych. Nazwa ta pojawiła się przeszło 60 lat temu i dotyczyła klasy wzmacniaczy, za pomocą których dokonywano operacji matematycznych polegających przede wszystkim na rozwiązywaniu równań całkowo-różniczkowych. Wzmacniaczem operacyjnym nazywa się układ spełniający co najmniej trzy następujące warunki: musi mieć bardzo duże wzmocnienie, mieć możliwość odwracania fazy sygnału wyjściowego w stosunku do sygnału wejściowego i wzmacniać sygnały stałe (w praktyce wolnozmienne, bo przecież nic nie jest absolutnie stałe). Na rysunku 12.33 przedstawiono używane symbole wzmacniacza operacyjnego. Pierwszy z nich, uproszczony, jest stosowany na schematach ideowych ilustrujących pracę prezentowanych układów, a drugi, uwzględniający przyłączenie napięć polaryzujących, na schematach będących podstawą do wykonania połączeń. Wzmacniacz operacyjny ma dwa wejścia i jedno wyjście. Wejście, któremu odpowiada przesunięcie fazy sygnału wyjściowego w stosunku do sygnału wejściowego o 180o, nazwane jest wejściem odwracającym i oznaczone znakiem „–”. Sygnał podany na wejście nieodwracające oznaczone znakiem „+” jest wzmacniany bez
Rys. 12.33. Symbole wzmacniacza operacyjnego
392
12. Małosygnałowe wzmacniacze pasmowe
odwracania fazy. W tematyce poruszającej wzmacniacze operacyjne spotykamy się z pewną niejednoznacznością związaną z nazewnictwem. Otóż określenie wzmacniacz operacyjny stosowane jest zarówno do samego układu scalonego, jak i do kompletnego wzmacniacza wykonanego z użyciem tego układu, czyli do układu zawierającego zarówno układ scalony, jak i elementy zewnętrzne determinujące własności funkcjonalne całego wzmacniacza. Znaczenie określenia wzmacniacz operacyjny jest więc zawsze powiązane z kontekstem. Współcześnie produkuje się kilkaset typów wzmacniaczy operacyjnych, które można sklasyfikować w kilku grupach. Mamy więc m.in.: wzmacniacze operacyjne uniwersalne ogólnego przeznaczenia, wzmacniacze szerokopasmowe („szybkie”), wzmacniacze precyzyjne, wzmacniacze pomiarowe i wzmacniacze izolacyjne. Chcąc dokonać wyboru wzmacniacza operacyjnego, odpowiedniego do określonych zastosowań, należy wziąć pod uwagę jego parametry specyfikowane w katalogach. Do najważniejszych parametrów należą: – wzmocnienie otwartopętlowe Gur0 , tj. wzmocnienie napięciowe sygnału różnicowego bez zewnętrznej pętli sprzężenia zwrotnego, s – otwartopętlowe wzmocnienie napięciowe sygnału wspólnego Gu 0 , – współczynnik tłumienia sygnału wspólnego CMRR = Gur0 / Gus0 , – 3 dB górna częstotliwość graniczna fg, – częstotliwość graniczna f1 (inaczej pole wzmocnienia – GBW – ang. Gain Bandwidth), jest to górna częstotliwość graniczna, dla której Gur = 1 – określa kres możliwości amplifikacyjnych wzmacniacza operacyjnego, r s , rwe – rezystancja wejściowa dla sygnału różnicowego i wspólnego rwe ,
– rezystancja wyjściowa rwy, – wejściowe napięcie niezrównoważenia Uin0, czyli napięcie różnicowe, jakie trzeba przyłożyć do wejścia wzmacniacza operacyjnego z otwartą pętlą sprzężenia zwrotnego, aby napięcie wyjściowe było zerowe. Z reguły przy wyznaczaniu podstawowych parametrów układów ze wzmacniaczami operacyjnymi posługujemy się idealizowanym modelem wzmacniacza operacyjnego. Idealny wzmacniacz operacyjny jest źródłem napięciowym sterowanym napięciem i charakteryzuje się parametrami zebranymi w drugiej kolumnie tabeli 12.4. Porównując wartości przedstawione w kolumnie drugiej z wartościami z kolumny trzeciej, przedstawiającej typowe wartości parametrów monolitycznych wzmacniaczy operacyjnych, można ocenić, na ile założenia idealizowane są zbliżone do rzeczywistości. Szczególnego komentarza wymaga kwestia przebiegu charakterystyki częstotliwościowej i częstotliwości granicznych. Zastanówmy się, z ilu stopni musi być zbudowany wzmacniacz operacyjny? Struktura WO musi zawierać wejściowy wzmacniacz różnicowy zapewniający wejście odwracające i nieodwracające i musi zawierać stopień końcowy typu „wtórnik emiterowy”, który zapewni małą rezystancję wyjściową. Jednak taka konfiguracja nie jest w stanie zapewnić wymaganego bardzo dużego wzmocnienia napięciowego, więc musi istnieć jeszcze co najmniej jeden stopień pośredni zapewniający odpowiednie wzmocnienie napięciowe. Co to oznacza? Że
393
12.5. Wzmacniacze operacyjne
Tab. 12.4. Idealizowane oraz typowe wartości wybranych parametrów wzmacniaczy operacyjnych Wartość idealizowana
Wartość typowa
Wzmocnienie otwartopętlowe Gur0
Parametr
∞
104...106 V/V
Współczynnik tłumienia sygnału wspólnego CMRR
∞
70...100 dB
3 dB górna częstotliwość graniczna fg
∞
10 Hz...10 kHz
Częstotliwość graniczna f1 (pole wzmocnienia)
∞
0,8...100 MHz
r : Rezystancja wejściowa dla sygnału różnicowego r we – z tranzystorami bipolarnymi – z tranzystorami FET
∞
1...50 MΩ 1...10 GΩ
Rezystancja wyjściowa
0
50...200 Ω
Wejściowe napięcie niezrównoważenia Uin0
0
0,1...50 mV
mamy do czynienia z wielobiegunową funkcją opisującą charakterystykę częstotliwościową, gdyż każdy stopień wnosi co najmniej jeden istotny biegun. Powoduje to poważne problemy z analizą przebiegu charakterystyki, tym bardziej że producenci rzadko podają dokładne struktury wewnętrzne produkowanych wzmacniaczy operacyjnych. Większy problem wynika jednak z możliwości wzbudzenia się układu opisanego funkcją wielobiegunową (czyli powstawania niekontrolowanych oscylacji). Rozpatrzmy amplitudową charakterystykę częstotliwościową z rysunku 12.34. Grubą, czarną linią przedstawiono charakterystykę asymptotyczną uwzględniającą trzy bieguny fg1, fg2 i fg3. Każdy biegun to pewien ekwiwalent pojedynczego filtru RC. Pojedyncze ogniwo RC jest w stanie przesunąć sygnał o maksimum 90°, ale przy 90° sygnał wyjściowy spada do zera. Dwa ogniwa dadzą 180°, ale również dla częstotliwości, dla której sygnał wyjściowy zaniknie do zera. Jednak w przypadku trzech ogniw RC przesunięcie sygnału może dla pewnej częstotliwości osiągnąć 180° i jednocześnie wzmacniacz może wciąż mieć wzmocnienie większe od jedności. Oznacza to, że sygnał o tej częstotliwości (np. składowa szumu lub zakłócenia) na wyjściu bloku ujemnego sprzężenia zwrotnego nie będzie w przeciwfazie, lecz w fazie z sygnałem sterującym, czyli sprzężenie zwrotne zmieni charakter z ujemnego na dodatni i układ się wzbudzi, czyli, jak wspomniano wyżej, zacznie generować pewien pasożytniczy niekontrolowany sygnał. Można temu zapobiegać na różne sposoby i profesjonalni konstruktorzy, chcący „wycisnąć” z układu maksimum możliwości, mają tu duże pole do popisu. Jednak w 95% przypadków decydujemy się na zakup wzmacniacza wewnętrznie skompensowanego i problem stabilności znika automatycznie. Wewnętrzna kompensacja polega na dodaniu do wewnętrznej struktury wzmacniacza operacyjnego kondensatora wprowadzającego biegun dominujący fg, ulokowany bardzo blisko częstotliwości zerowej. W efekcie charakterystyka wzmacniacza ma co najmniej do częstotliwości 0,1 fg1 przebieg jednobiegunowy przedstawiony ciągłą, grubą, szarą linią. W pobliżu fg1 zaczyna wpływać najniższy „naturalny” biegun i dalej kolejne, więc charakterystyka rzeczywista przebiega zgodnie z cienką, czarną linią i osiąga 0 dB dla częstotliwości f1. Charakterystyka jednobiegunowa spada do 0 dB na teoretycznej częstotliwości fT.
394
12. Małosygnałowe wzmacniacze pasmowe
Rys. 12.34. Amplitudowe charakterystyki Bodego wzmacniacza operacyjnego
Wewnętrzna kompensacja WO ma jeszcze jedną cenną zaletę – we wzmacniaczu opisanym funkcją jednobiegunową zachodzi, jak pokazaliśmy przy okazji wzmacniaczy z ujemnym sprzężeniem zwrotnym, wymiana wzmocnienia na pasmo. Przykładowo, najpopularniejszy wzmacniacz operacyjny µA 741 ma teoretyczne wzmocnienie otwartopętlowe Gu0 = 200 000 V/V i 3 dB górną częstotliwość graniczną fg = 10 Hz. Jeśli w zewnętrznej pętli sprzężenia zwrotnego (rzeczywistego, czyli realizowanego za pomocą rezystorów) zredukujemy wzmocnienie do Gua = 100 V/V, czyli 2000 razy, to tyleż samo, do fga = 20 kHz, wzrośnie górna częstotliwość graniczna, co zilustrowano na rysunku 12.35. Wbrew pozorom, pole wzmocnienia nie ulega zmianie, tzn. Gu0 fg = Gua fga, czyli pola jasno- i ciemnoszare na rysunku 12.35 są sobie równe. To, że widzimy różne powierzchnie, wynika tylko z wyrażenia wzmocnienia w dB, a nie w skali liniowej. Wzmacniacze operacyjne pracują z reguły z zewnętrznym ujemnym sprzężeniem zwrotnym w wielu różnych konfiguracjach układowych. Sprzężenie zwrotne polepsza właściwości wzmacniacza: zmniejsza nieliniowość charakterystyk i napięcie niezrównoważenia, poszerza pasmo, poprawia stałość parametrów i umożliwia łatwy dobór wzmocnienia. W dalszej części rozdziału przedstawimy kilka podsta-
Rys. 12.35. Ilustracja zasady wymiany wzmocnienia na pasmo
395
12.5. Wzmacniacze operacyjne
wowych konfiguracji, w których najczęściej stosuje się wzmacniacze operacyjne. Czytelników zainteresowanych rozszerzeniem wiedzy z obszaru wzmacniaczy różnicowych i operacyjnych odsyłamy do [4] oraz do podręcznika [5] prezentującego interesujące ujęcie tej tematyki. Wzmacniacz odwracający Strukturę wzmacniacza w układzie odwracającym fazę sygnału wyjściowego w stosunku do wejściowego pokazano na rysunku 12.36. Ze względu na to, że otwartopętlowe wzmocnienie napięciowe Gur0 jest teoretycznie nieskończone, zatem dla skończonej wartości napięcia wyjściowego Uwy wartość napięcia różnicowego Ur pomiędzy napięciem na wejściu „–” (Ui1) i wejściu „+” (Ui2) wzmacniacza wynosi zero (Ur = Ui2 – Ui1 = 0). Ponadto dla idealnego wzmacniacza operacyjnego prądy wejściowe są zerowe, stąd spadek napięcia na rezystancji R3 również wynosi zero, dlatego do punktu oznaczonego jako „Z” przenosi się potencjał masy, stąd nazywany jest on punktem masy pozornej – punkt ten nie ma bezpośredniego połączenia z masą, ale jego potencjał jest zerowy. Z tego względu rezystancja wejściowa wzmacniacza w tej konfiguracji wynosi Rwef = R1.
(12.101)
Wzmocnienie napięciowe z zamkniętą pętlą sprzężenia zwrotnego definiujemy jako U wy . (12.102) Guf = U we Napięcie wejściowe Uwe powoduje wymuszenie prądu I1 płynącego przez rezystor R1. Ponieważ rezystancja wejściowa idealnego wzmacniacza operacyjnego jest nieskończona, zatem prąd I1 w całości płynie przez rezystancję R2 (I2 = I1) i wpływa przez zerową rezystancję wyjściową wzmacniacza. Napięcie wyjściowe wynosi zatem U wy = U i1 − I1 R2 = 0 − I1 R2 = − I1 R2 .
(12.103)
U we = I1 R1 + U i1 = I1 R1 + 0 = I1 R1 ,
(12.104)
Ponieważ
Rys. 12.36. Wzmacniacz odwracający
396
12. Małosygnałowe wzmacniacze pasmowe
otrzymujemy Guf = −
R2 . R1
(12.105)
Sprzężenie zwrotne jest typu napięciowego, więc rezystancja wyjściowa układu ze sprzężeniem jest mniejsza niż rezystancja wyjściowa samego WO i nawet przyjmując realne wartości rezystancji wyjściowej WO rzędu kilkudziesięciu czy nawet kilkuset omów, układ ze sprzężeniem będzie miał rezystancję wyjściową dążącą do zera. W rzeczywistym wzmacniaczu operacyjnym wejściowe prądy polaryzujące przepływające przez wejścia wzmacniacza nie są zerowe i powodują odkładanie się napięcia na zewnętrznych rezystancjach, co może być przyczyną zwiększenia wejściowego napięcia niezrównoważenia, zwłaszcza wtedy, gdy wartości tych rezystancji są bardzo duże. Aby tego uniknąć, rezystancje dla składowej stałej (DC) „widziane” od strony obydwu wejść powinny być jednakowe, co oznacza, że wartość rezystancji R3 powinna być równa wynikowej rezystancji równoległego połączenia rezystorów R1 i R2. Wówczas odkładające się na nich napięcia też będą jednakowe i wzajemnie się skompensują (ich różnica będzie równa zero). Chcielibyśmy w tym miejscu przestrzec Czytelników przed zbyt niefrasobliwym stosowaniem powyższych zależności, które wyprowadzono przy założeniu, że WO jest idealny. Po głębszym zastanowieniu powstaje pytanie, w jakich warunkach rzeczywisty WO można traktować jako idealny, czyli w jakich warunkach wyprowadzone zależności zachowują słuszność? Zastanówmy się zatem, jakie były podstawowe założenia podczas wyprowadzania tych zależności? Pierwszym założeniem było przyjęcie, że otwartopętlowe wzmocnienie napięciowe WO jest nieskończone. Biorąc pod uwagę, że współczesne WO oferują wzmocnienia co najmniej rzędu kilkuset tysięcy, można śmiało przyjąć, że założenie to w praktyce jest spełnione. Drugim założeniem było przyjęcie, że prądy wejściowe są zerowe, co oznacza, że rezystancja wejściowa WO jest nieskończenie wielka. W praktyce jest ona duża, rzędu co najmniej megaomów, ale nie nieskończona. Kiedy zatem możemy bez wątpliwości stosować wyprowadzone zależności? Wtedy, kiedy megaomy są „prawie nieskończonością” w stosunku do wartości rezystorów zewnętrznych. Jeśli zatem mamy wzmacniacz o rwe = 2 MΩ i zastosujemy R1 = 5 kΩ i R2 = 50 kΩ, to faktycznie uzyskamy wzmocnienie równe 10 V/V, ale jeśli będą to rezystory R1 = = 500 kΩ i R2 = 5 MΩ, to musimy się liczyć ze sporym błędem. Z drugiej strony nie należy stosować zbyt małych wartości rezystorów zewnętrznych, ponieważ pogarsza to znacząco rezystancję wejściową – wzór (12.101). Można więc przyjąć rozsądną zasadę, że w przypadku stosowania typowych WO uniwersalnych ogólnego przeznaczenia, wykonanych w technologii bipolarnej, rezystory zewnętrzne powinny mieć wartości rzędu od kilku do kilkudziesięciu kiloomów i wskazówka ta dotyczy generalnie wszystkich aplikacji wzmacniacza operacyjnego. Wzmacniacz nieodwracający Wzmacniacz w układzie nieodwracającym przedstawiony jest na rysunku 12.37.
397
12.5. Wzmacniacze operacyjne
Rys. 12.37. Wzmacniacz nieodwracający
Sygnał wejściowy podawany jest na wejście nieodwracające. Ponieważ napięcie pomiędzy wejściem „+” a „–” jest (dla idealnego wzmacniacza operacyjnego) równe zero, na wejściu „–” panuje ten sam potencjał co na wejściu „+”. Napięcie wyjściowe wynosi zatem U wy = U we + I 2 R2 . (12.106) Ponieważ I 2 = I1 = stąd U wy = U we +
U we , R1
R U we R2 = U we 1 + 2 , R1 R1
(12.107)
(12.108)
zatem wzmocnienie napięciowe wynosi Guf = 1 +
R2 R1
(12.109)
i jest ono o jeden większe niż wzmacniacza odwracającego, natomiast rezystancja wejściowa wzmacniacza nieodwracającego jest bardzo duża (dla idealnego wzmacniacza operacyjnego – nieskończenie wielka). Wtórnik napięciowy Układ wtórnika napięciowego (rysunek 12.38) otrzymujemy przez modyfikację wzmacniacza nieodwracającego (rysunek 12.37).
Rys. 12.38. Wtórnik napięciowy
398
12. Małosygnałowe wzmacniacze pasmowe
Z analizy zależności (12.109) wynika, że jeśli zwiększymy wartość rezystancji R1 do nieskończoności, czyli po prostu nie zastosujemy tego rezystora w układzie lub zewrzemy rezystor R2 (rysunek 12.37), to wzmocnienie napięciowe Guf = 1 V/V i napięcie wyjściowe będzie równe (lub inaczej mówiąc będzie „wtórować”) napięciu wejściowemu – z zachowaniem tej samej fazy sygnału. Ponadto rezystancja wejściowa tego układu (tak jak wzmacniacza nieodwracającego) jest bardzo duża, a wyjściowa bardzo mała, zatem uzyskany układ może pełnić funkcję stopnia separującego. Rezystor R może być zastąpiony zwarciem, ale w przypadku sterowania wtórnika ze źródła o dużej rezystancji (dla składowej stałej) należy go zastosować, a jego wartość powinna być równa rezystancji źródła sygnału. Zabieg ten ma na celu minimalizację napięcia niezrównoważenia spowodowanego przez wejściowe prądy polaryzujące. Wzmacniacz sumujący Struktura wzmacniacza sumującego pokazana jest na rysunku 12.39. Zgodnie z zależnością (12.103) napięcie wyjściowe Uwy jest równe U wy = − I ⋅ R f .
(12.110)
Prądy I1, I2, ..., In sumują się na wejściu odwracającym wzmacniacza i ponieważ do niego nie wpływają, stanowią łącznie prąd I, czyli I = I1 + I 2 + ... + I n ,
(12.111)
U U U U wy = − ( I1 + I 2 + ... + I n ) R f = − we1 + we 2 + ... + wen R f R2 Rn R1
(12.112)
Rf Rf Rf U wy = − U we1 + U we 2 + ... + U wen = R2 Rn R1 = − ( Gu1U we1 + Gu 2U we 2 + ... + GunU wen ) .
(12.113)
stąd
lub
Rys. 12.39. Wzmacniacz sumujący
399
12.5. Wzmacniacze operacyjne
Widzimy więc, że napięcie wyjściowe jest sumą napięć wejściowych z odpowiednimi współczynnikami wagowymi. Rezystancje wejściowe dla każdego z wejść są równe odpowiednio R1, R2, ..., Rn. Jednocześnie źródła sterujące są wzajemnie odseparowane, ponieważ każde źródło „widzi” na swoim wyjściu pojedynczy rezystor podłączony do masy W przypadku, gdy R1 = R2 = ... = Rn, wzór (12.113) upraszcza się do postaci U wy = − (U we1 + U we 2 + ... + U wen )
Rf R1
= − (U we1 + U we 2 + ... + U wen ) Guf
(12.114)
wskazującej, że napięcie wyjściowe jest równe sumie napięć wejściowych wzmocnionych Guf -krotnie. Rezystor RA należy dobierać tak, aby jego rezystancja była równa rezystancji dla prądu stałego „widzianej” z wejścia odwracającego w stosunku do masy. Wzmacniacz odejmujący Zadaniem wzmacniacza odejmującego, często zwanego też różnicowym (choć stosowanie tej drugiej nazwy może prowadzić do nieporozumień), jest wzmacnianie sygnału różnicowego, przy jednoczesnym tłumieniu sygnału wspólnego. Taką funkcję pełni układ z rysunku 12.40. Napięcie wyjściowe Uwy jest superpozycją wzmocnionych napięć wejściowych Uwe1 i Uwe2. Z punktu widzenia sygnału Uwe1 układ jest wzmacniaczem odwracającym, natomiast dla sygnału Uwe2 – wzmacniaczem nieodwracającym (z dodatkowym dzielnikiem napięcia), mamy więc R R4 R2 U wy = U we1 − 2 + U we 2 1 + . R R R1 3 + R4 1 Przyjmując założenie
R2 R4 = R1 R3
Rys. 12.40. Wzmacniacz odejmujący (sterowany i obciążony asymetrycznie)
(12.115)
(12.116)
400
12. Małosygnałowe wzmacniacze pasmowe
lub najczęściej stosowany w praktyce przypadek (dający minimalną wartość wejściowego napięcia niezrównoważenia spowodowanego poprzez wejściowe prądy polaryzujące) R3 = R1 , R4 = R2 ,
(12.117)
R R R U wy = U we1 − 2 + U we 2 2 = 2 (U we 2 − U we1 ) . R 1 R1 R1
(12.118)
uzyskujemy
Zatem faktycznie, wzmacniana jest różnica sygnałów wejściowych, a wzmocnienie sygnału różnicowego wynosi R Gur = 2 . (12.119) R1 Wadą powyższego wzmacniacza jest różna rezystancja wejściowa dla obydwu sygnałów – dla wejścia 1 wynosi ona Rwe1 = R1,
(12.120)
Rwe2 = R3 + R4 .
(12.121)
natomiast dla wejścia 2 jest równa Na rysunku 12.41 zilustrowano sterowanie symetryczne wzmacniacza odejmującego. Wzmocnienie dla sygnału różnicowego Uwer określone jest zależnością (12.119), natomiast rezystancja wejściowa wynosi r Rwe =
U wer I we R1 + 0 + I we R1 = = 2 R1 . I we I we
(12.122)
Na rysunku 12.42 pokazano wzmacniacz odejmujący sterowany sygnałem wspólnym. Z analizy rysunku 12.42 wynika, że R4 , (12.123) U i1 = U i 2 = U wes R3 + R4
Rys. 12.41. Wzmacniacz odejmujący sterowany symetrycznie
Rys. 12.42. Wzmacniacz odejmujący sterowany sygnałem wspólnym
401
12.5. Wzmacniacze operacyjne
stąd wartość prądu I1 wynosi I1 =
U wes − U i1 = R1
U wes − U wes R1
R4 R3 + R4
= U wes
R3 . R1 ( R3 + R4 )
(12.124)
Napięcie wyjściowe jest równe U wy = U i1 − I1 R2 = U wes
R3 R2 R4 , − U wes R3 + R4 R1 ( R3 + R4 )
(12.125)
zatem wzmocnienie sygnału wspólnego opisane jest zależnością Gus =
U wy U wes
=
R4 R2 R3 ⋅ . 1 − R3 + R4 R1 R4
(12.126)
Widzimy więc, że wzmocnienie to wynosi zero Gus = 0, czyli sygnał wspólny jest całkowicie tłumiony, gdy R2 R4 , (12.127) = R1 R3 zatem współczynnik tłumienia sygnału wspólnego będzie wtedy równy CMRR = ∞. Jakiekolwiek odchylenie od równości tej proporcji powoduje pogorszenie (zmniejszenie) CMRR. W praktyce oznacza to konieczność precyzyjnego dobierania rezystancji lub stosowania rezystorów o bardzo małych tolerancjach. Wzmacniacz pomiarowy Wzmacniacze pomiarowe (ang. IA, INA – Instrumentation Amplifier) stanowią rozbudowane wersje układu wzmacniacza różnicowego. Ich nazwa wywodzi się z obszaru najczęstszych zastosowań, tzn. wzmacniania sygnałów pochodzących z czujników pomiarowych (czujników tensometrycznych, termopar itp.). Parametry wzmacniaczy pomiarowych są definiowane z zamkniętą pętlą sprzężenia zwrotnego. Wzmacniacze te charakteryzują się bardzo dużą rezystancją wejściową, dobrą liniowością charakterystyki przejściowej Uwy = f(Uwe) oraz wysokim współczynnikiem CMRR, dzięki czemu mają zdolność wzmacniania bardzo słabych sygnałów różnicowych na tle silnych sygnałów niepożądanych (wspólnych). Struktura wzmacniacza pomiarowego z trzema wzmacniaczami operacyjnymi pokazana została na rysunku 12.43. Stopień pierwszy (W1 i W2) stanowi złożenie dwóch wzmacniaczy nieodwracających, a stopień drugi (W3) jest wzmacniaczem odejmującym. W przypadku układu monolitycznego elementy zewnętrznej sieci rezystorów są integrowane ze wzmacniaczami operacyjnymi w jednej strukturze scalonej. Napięcie U'wy (pomiędzy wyjściami wzmacniacza W1 i W2) jest równe sumie spadków napięć na rezystorach R1 i R2 U 'wy = U wer + I1 R2 + I1 R2 = U wer +
2R U wer U R2 + wer R2 = U wer 1 + 2 , (12.128) R1 R1 R1
gdzie U wer = U we 2 − U we1,
(12.129)
402
12. Małosygnałowe wzmacniacze pasmowe
stąd wzmocnienie napięciowe sygnału różnicowego stopnia I wynosi Gur1 = 1 +
2 R2 . R1
(12.130)
Wzmocnienie dla sygnału wspólnego tego stopnia wyznaczamy, przykładając do obydwu wejść wzmacniacza ten sam sygnał Uwe1 = Uwe2 = Uwes (patrz rysunek 12.42). Wówczas spadek napięcia na rezystorze R1 wynosi zero, czyli prąd I1 nie płynie, nie powodując tym samym powstawania spadków napięć na rezystorach R2, zatem napięcia na wyjściach wzmacniaczy W1 i W2 są sobie równe i równe także napięciu Uwes. Oznacza to, że wzmocnienie sygnału wspólnego tego stopnia wynosi Gus1 = 1 ,
(12.131)
zatem wzmocnienie sygnału wspólnego całego wzmacniacza równe jest wzmocnieniu stopnia drugiego (ze wzmacniaczem W3) i określone jest zależnością (12.126). Wzmocnienie sygnału różnicowego drugiego stopnia określone jest zależnością (12.119), więc wzmocnienie całego układu, będące iloczynem wzmocnień obydwu stopni, wynosi 2R R Gur = 1 + 2 4 (12.132) R1 R3 i zwykle jest ono regulowane poprzez zmianę wartości rezystora R1, który z reguły nie wchodzi w skład struktury scalonej. Stopień pierwszy nie tłumi sygnału wspólnego (gdyż jego wzmocnienie dla tego sygnału wynosi jeden) i jest wykorzystywany tylko i wyłącznie do zapewnienia odpowiedniego wzmocnienia sygnału różnicowego. Tłumienie sygnału wspólnego realizowane jest w stopniu drugim (zgodnie z zależnością (12.126)) i zwykle stopień ten nie jest wykorzystywany do wzmacniania sygnału różnicowego – wówczas przyjmuje się, że R4 = R3, wtedy wzmocnienie tego stopnia dla sygnału różnicowego wynosi jeden.
Rys. 12.43. Wzmacniacz pomiarowy z trzema wzmacniaczami operacyjnymi
13. Wzmacniacze mocy
Wzmacniacze mocy konstruowane są w celu dostarczenia do obciążenia dużych mocy, należą więc do grupy układów wielkosygnałowych, charakteryzujących się odmienną specyfiką i całkiem nowymi właściwościami. W niniejszym rozdziale scharakteryzujemy pracę wielkosygnałową, przedstawimy klasyfikację i parametry wzmacniaczy mocy, a następnie rozwiązania konstrukcyjne i specyfikę wzmacniaczy mocy pracujących w klasach A, B i AB oraz C.
13.1. Praca wielkosygnałowa Przy analizie układów liniowych przyjmowaliśmy założenie o pracy małosygnałowej i dzięki temu charakterystykę przejściową elementu aktywnego mogliśmy traktować jako liniową w otoczeniu punktu pracy. W takiej sytuacji element aktywny mogliśmy opisywać modelem liniowym (modelem macierzowym, modelem hybryd π) i obowiązywała zasada superpozycji. W układach wielkosygnałowych modele te oraz parametry macierzowe są nieprzydatne i przestaje obowiązywać zasada superpozycji. Układy, w których muszą być uwzględnione własności nieliniowe elementu aktywnego, nazywane są układami nieliniowymi. Przechodzeniu sygnału przez element nieliniowy towarzyszy odkształcenie przebiegu wyjściowego i powstawanie zniekształceń nieliniowych. Analityczne określenie stopnia zniekształceń wymaga znajomości wielomianu potęgowego opisującego charakterystykę przejściową elementu aktywnego. Parametry wielomianu można uzyskać na drodze aproksymacji rzeczywistego przebiegu charakterystyki (zwykle uzyskanego eksperymentalnie) lub – jeśli mamy zapis charakterystyki w postaci funkcji matematycznej – na drodze rozwinięcia w szereg potęgowy Taylora wokół wybranego punktu. Zniekształcenia kształtu sygnału okresowego w funkcji czasu powodują pojawienie się dodatkowych składowych harmonicznych i intermodulacyjnych w widmie analizowanego sygnału. W zakresie małych częstotliwości, w którym inercja elementów nieliniowych jest do pominięcia, sygnał wyjściowy (np. prąd) może być przedstawiony w funkcji sygnału wejściowego (np. napięcia) z wykorzystaniem rozwinięcia w szereg potęgowy i ( t ) = a0 + a1u ( t ) + a2u 2 ( t ) + a3u 3 ( t ) + ...
(13.1)
Współczynnik a1 reprezentuje liniowe wzmocnienie, a pozostałe współczynniki określają zniekształcenia sygnału. W praktyce uzasadnione jest, co wykażemy za
404
13. Wzmacniacze mocy
chwilę, ograniczenie szeregu potęgowego do pierwszych trzech wyrazów. Ponieważ jest to szczególnie słuszne dla stosunkowo małych amplitud sygnałów podawanych na element nieliniowy, analizę w tych warunkach nazywamy często małosygnałową analizą zniekształceń nieliniowych. Stosując jako wymuszenie sygnał kosinusoidalny o częstotliwości f i amplitudzie Um oraz korzystając z zależności (13.1) z ograniczeniem do pierwszych trzech wyrazów, otrzymujemy wyrażenie opisujące sygnał wyjściowy w funkcji czasu i ( t ) ≈ a0 + a1U m cos 2πft + a2U m2 cos 2 2πft + a3U m3 cos3 2πft .
(13.2)
Korzystając ze znanych zależności trygonometrycznych: 1 1 + cos 2α 2 2 3 1 cos3α = cos α + cos 3α 4 4
cos 2α =
(13.3)
i porządkując równanie względem 2π ft, otrzymujemy wyrażenie opisujące składowe sygnału wyjściowego o postaci i = I 0 + I1 cos 2πft + I 2 cos 2π 2 ft + I 3 cos 2 π3 ft ,
(13.4)
gdzie: 1 I 0 = a0 + a2U m2 2 3 I1 = a1U m + a3U m3 4 1 I 2 = a2U m2 2 1 I 3 = a3U m3 4 Amplitudy In poszczególnych składowych o częstotliwościach nf określają zniekształcenia harmoniczne n-tego rzędu HDn (ang. n-th Harmonic Distortion). Z zależności (13.4) wynika, że przy wymuszeniu harmonicznym zniekształcenia nieliniowe przejawiają się jako występujące w sygnale dodatkowe składowe harmoniczne, których nie było w sygnale wejściowym (był tylko czysty sygnał kosinusoidalny), zauważmy ponadto, że składowe te mają częstotliwości będące kolejnymi wielokrotnościami częstotliwości sygnału wejściowego, tzw. częstotliwości podstawowej (pierwszej harmonicznej). Jeśli jako wymuszenie zastosujemy sumę sygnałów harmonicznych o różnych częstotliwościach f1 i f2, to widmo sygnału wyjściowego wzbogaci się nie tylko o składowe harmoniczne drugiego sygnału wejściowego, ale również o składowe kombinacyjne o częstotliwościach i · f1 ± j · f2, dla i, j = 1, 2, ... Składowe kombinacyjne występujące w widmie sygnału wyjściowego powodują zniekształcenia zwane zniekształceniami intermodulacyjnymi. Przy założeniu pracy z małymi znie-
405
13.1. Praca wielkosygnałowa
kształceniami uwzględniane są zniekształcenia intermodulacyjne jedynie drugiego i trzeciego rzędu1. Jeśli amplitudy wejściowych sygnałów harmonicznych będą równe Um1 i Um2, to wyrażenie opisujące sygnał wyjściowy w funkcji czasu przyjmie postać i ( t ) ≈ a0 + a1 (U m1 cos 2πf1t + U m 2 cos 2πf 2t ) + 2
+ a2 (U m1 cos 2πf1t + U m 2 cos 2πf 2t ) +
(13.5)
3
+ a3 (U m1 cos 2πf1t + U m 2 cos 2πf 2t ) . Korzystając ze wzorów skróconego mnożenia, zależności trygonometrycznych (13.3) i z tożsamości trygonometrycznej cos α ⋅ cos β =
1 cos (α − β ) + cos (α + β ) 2
(13.6)
oraz porządkując równanie względem argumentu funkcji harmonicznej, otrzymujemy i = I 0 + I10 cos 2π f1t + I 01 cos 2π f 2t + + I 20 cos 2π2 f1t + I 02 cos 2π2 f 2t + + I 30 cos 2π3 f1t + I 03 cos 2π3 f 2t +
+ I11 cos 2π ( f1 − f 2 ) t + cos 2π ( f1 + f 2 ) t +
(13.7)
+ I12 cos 2π ( 2 f 2 − f1 ) t + cos 2π ( 2 f 2 + f1 ) t + + I 21 cos 2π ( 2 f1 − f 2 ) t + cos 2π ( 2 f1 + f 2 ) t . gdzie:
(
)
1 I 0 = a0 + a2 U m2 1 + U m2 2 2 3 I10 = a1U m1 + a3 U m3 1 + 2 U m1U m2 2 4 1 I 20 = a2U m2 1 2 1 I 30 = a3U m3 1 4 I11 = a2U m1U m 2
(
I12 =
1
3 a3U m1U m2 2 4
)
(
3 I 01 = a1U m 2 + a3 U m3 2 + 2 U m2 1U m 2 4 1 I 02 = a2U m2 2 2 1 I 03 = a3U m3 2 4 I 21 =
)
3 a3U m2 1U m 2 4
Przez rząd zniekształceń intermodulacyjnych należy rozumieć sumę mnożników przy częstotliwościach wejściowych, tj. i + j.
406
13. Wzmacniacze mocy
Amplitudy Iij poszczególnych składowych o częstotliwościach i · f1 ± j · f2, przy czym i + j = n, określają zniekształcenia intermodulacyjne n-tego rzędu IMn (ang. Intermodulation distortion). Określenie intermodulacyjne bierze się stąd, że w trakcie celowego procesu modulacji następuje podobne zjawisko kombinacji częstotliwościami, czyli powstawania produktów typu i · f1 ± j · f2 – tu mamy do czynienia jakby z niechcianą „modulacją wewnętrzną”. Wszystkie składowe widma sygnału wyjściowego przy założeniu aproksymacji trzeciego rzędu zamieszczono na rysunku 13.1. Kolorami jasnoszarym i ciemnoszarym oznaczono sygnały wejściowe i ich harmoniczne (sygnały wejściowe pogrubiono), strzałkami narysowanymi linią przerywaną zniekształcenia intermodulacyjne drugiego rzędu, a kolorem czarnym zniekształcenia intermodulacyjne trzeciego rzędu. Analizując przedstawione na rysunku 13.1 widmo, od razu zauważamy, że poziom zniekształceń ze wzrostem rzędu maleje. Widzimy jednocześnie, że zniekształcenia trzeciego rzędu (różnicowe) są bardzo groźne i praktycznie niemożliwe do odfiltrowania ze względu na bezpośrednią bliskość wejściowych sygnałów użytecznych. Z tego właśnie powodu aproksymacja charakterystyki elementu nieliniowego wielomianem trzeciego stopnia jest tak popularna – najgroźniejsze zniekształcenia trzeciego rzędu są uwzględnione, a w praktyce zniekształcenia wyższych rzędów nie mają już znaczenia ze względu na znacznie mniejszą moc. Tytułem przykładu wyznaczymy aproksymację zamieszczonej na rysunku 13.2 gałęzi z diodą półprzewodnikową. Podstawą aproksymacji jest rozwinięcie nieliniowej funkcji f (x) w punkcie x0 w szereg Taylora f ( x ) = f ( x0 ) +
f ' ( x0 ) 1!
( x − x0 ) +
f '' ( x0 ) 2!
( x − x0 )2 + ...
(13.8)
Dla uproszczenia przyjmijmy, że nieliniowość opisana jest funkcją
(
)
I D = I S eαU D − 1 .
Rys. 13.1. Widmo sygnału wyjściowego podczas małosygnałowej analizy zniekształceń nieliniowych (Um1 = Um2)
(13.9)
407
13.1. Praca wielkosygnałowa
Rys. 13.2. Gałąź nieliniowa z diodą półprzewodnikową
Należy zwrócić uwagę na fakt, że napięcie na diodzie i prąd płynący przez diodę są sumami składowych stałej i zmiennej, tzn. U D ( t ) = U 0 + ud ( t ) I D ( t ) = I 0 + id ( t )
(13.10)
Korzystając z rozwinięcia Taylora (13.8) wokół napięcia składowej stałej U0 i ograniczając się do pierwszych czterech wyrazów, otrzymujemy wyrażenie opisujące prąd diody o postaci:
(
)
2
3
I D = I S eαU D − 1 ≈ a0 + a1 (U D − U 0 ) + a2 (U D − U 0 ) + a3 (U D − U 0 ) , gdzie:
(
(13.11)
)
1 1 a0 = I S eαU 0 − 1 , a1 = α I S eαU 0 , a2 = α 2 I S eαU 0 , a3 = α 3 I S eαU 0 . 2 6
Biorąc pod uwagę związki (13.10), możemy przepisać zależność (13.11), z uwzględnieniem jedynie składowych zmiennych id ( t ) = a1ud ( t ) + a2ud2 ( t ) + a3ud3 ( t ) .
(13.12)
Na rysunku 13.3 pokazano efekt aproksymacji. Ciemnoszara linia określa przebieg oryginalnej funkcji ID(UD) danej wzorem (13.9), natomiast linia jasnoszara to przebieg funkcji aproksymującej wielomianem trzeciego rzędu w pobliżu punktu U0 = 0,6 V. Rysunek 13.3 jest dobrą ilustracją pojęcia pracy małosygnałowej, jak widać, jeśli do składowej stałej U0 dodamy sygnał o wartości międzyszczytowej o wartości około 10 mV, to będziemy mogli traktować układ jak liniowy, jeśli wartość międzyszczytowa nie przekroczy 40 mV, to całkowicie wystarczająca będzie aproksymacja wielomianem potęgowym trzeciego rzędu. Zachęcamy Czytelnika do poeksperymentowania ze wzorem Taylora (13.8) i wykreślenia w dowolnym programie matematycznym (np. Mathcad lub Matlab) aproksymacji drugiego, czwartego i wyższych rzędów oraz obserwacji szerokości przedziału, w którym aproksymacje będą pokrywały się z funkcją aproksymowaną. W niektórych typach układów współczynniki a2 i a3 nie są źródłem zniekształceń, a wręcz przeciwnie, są podstawą działania układów wykorzystujących nieliniowość do generowania wymaganej odpowiedzi, np. w powielaczach częstotliwości, gdzie
408
13. Wzmacniacze mocy
Rys. 13.3. Charakterystyka statyczna diody półprzewodnikowej – linia czerwona i jej aproksymacja wielomianem trzeciego rzędu – linia niebieska i pierwszego rzędu – linia czarna
wykorzystujemy wyższe harmoniczne lub w mieszaczach częstotliwości, gdzie wykorzystujemy produkty intermodulacji. W dalszej części rozdziału będziemy zajmować się rozwiązaniami układowymi wzmacniaczy mocy – wzmacniaczami, czyli układami, które powinny przenosić sygnał bez zniekształceń – w tym zastosowaniu niezerowe współczynniki a2, a3 i ewentualnie wyższe są problemem, który należy minimalizować, najlepiej do zera.
13.2. Klasyfikacja i parametry robocze wzmacniaczy mocy Wzmacniacze mocy są układami, których podstawowym zadaniem jest dostarczenie do obciążenia (np. głośnika, w przypadku akustycznych wzmacniaczy mocy lub anteny, w przypadku nadajnika radiowego) sygnału o mocy wystarczającej do jego odpowiedniego wysterowania. Zwykle sygnał wejściowy podawany jest na wejście wzmacniacza napięciowego (klasycznego wzmacniacza małosygnałowego o dużym skutecznym wzmocnieniu napięciowym), zwanego stopniem sterującym, którego rola polega na doprowadzeniu do stopnia końcowego sygnału o odpowiednim poziomie niezbędnym do jego poprawnego wysterowania. Stopień końcowy, przekazujący moc do obciążenia, jest właściwym wzmacniaczem mocy, będącym przedmiotem rozważań w dalszej części niniejszego rozdziału. Klasyczne wzmacniacze mocy klasyfikuje się najczęściej według: – mocy wyjściowej – jako małej mocy (rzędu pojedynczych watów – zwykle scalone), dużej mocy (rzędu dziesiątek i setek watów – zwykle dyskretne) i bardzo dużej mocy (rzędu kilowatów), – częstotliwości – jako selektywne bądź szerokopasmowe, małej bądź dużej częstotliwości, – typu zastosowanego elementu aktywnego – jako lampowe lub tranzystorowe, – kąta przepływu prądu wyjściowego 2Θ – jako wzmacniacze klasy A, B, AB, C.
13.2. Klasyfikacja i parametry robocze wzmacniaczy mocy
409
Rys. 13.4. Ilustracja klas pracy wzmacniaczy
Kąt przepływu prądu kolektora (drenu, anody) 2Θ jest to część okresu sygnału wejściowego (wyrażonego w mierze kątowej), w czasie którego płynie prąd wyjściowy elementu aktywnego. Położenie statycznego punktu pracy, kształt sygnału wyjściowego i interpretację kąta przepływu dla poszczególnych klas pracy przedstawiono na rysunku 13.4. Dla wzmacniaczy klasy A i B kąt przepływu wynosi odpowiednio 360° i 180°. Dla wzmacniaczy klasy C kąt przepływu jest mniejszy od 180°, a dla klasy AB jest nieco większy od 180°. W odróżnieniu od wzmacniaczy małosygnałowych podstawowymi parametrami roboczymi wzmacniaczy mocy są: – użyteczna moc wyjściowa Pwy, – sprawność energetyczna h – określająca stosunek mocy wyjściowej do mocy dostarczonej ze źródła zasilania, – poziom zniekształceń nieliniowych – określany w przypadku sprzętu powszechnego użytku za pomocą współczynnika zawartości harmonicznych h (THD z ang. Total Harmonic Distortion), definiowanego jako stosunek wartości skutecznej wyższych harmonicznych sygnału do wartości skutecznej składowej podstawowej ∞
∑ Uk
h=
k =2
U1
,
gdzie: U1 – wartość skuteczna pierwszej harmonicznej, Uk – wartość skuteczna k-tej harmonicznej.
(13.13)
410
13. Wzmacniacze mocy
Wymienione parametry są od siebie wzajemnie uzależnione. Zwiększenie mocy wyjściowej wiąże się zazwyczaj ze wzrostem zniekształceń nieliniowych bądź zmniejszeniem sprawności i na odwrót – zmniejszenie zniekształceń nieliniowych jest możliwe kosztem zmniejszenia mocy wyjściowej i/lub sprawności. Tak więc, przy precyzowaniu wymagań stawianych wzmacniaczowi mocy i przy ocenie jego właściwości, wszystkie trzy czynniki muszą być traktowane łącznie. Pozostałe parametry robocze (wzmocnienie, rezystancja wejściowa, wyjściowa, pasmo itp.) są optymalizowane dopiero, gdy wymagania co do mocy wyjściowej, sprawności i zniekształceń nieliniowych są spełnione. W kolejnych podrozdziałach zaprezentujemy podstawowe rozwiązania układowe i właściwości wzmacniaczy mocy pracujących w klasach A, B i C.
13.3. Wzmacniacze mocy klasy A Ze wzmacniaczami pracującymi w klasie A spotykamy się od pierwszych lat istnienia elektroniki i ta najprostsza i najmniej efektywna konfiguracja zapewnia uzyskanie najlepszej jakości dźwięku, choć niestety przy bardzo małej sprawności energetycznej, nieprzekraczającej w praktyce 30%, i w konsekwencji przy dużej masie urządzenia. Wzmacniacze pracujące w klasie A znajdują zastosowanie głównie w studiach muzycznych oraz wypełniają segment urządzeń audiofilskich, czyli urządzeń przeznaczonych dla audiofilów, tj. osób zainteresowanych „specjalnymi” domowymi urządzeniami audio, charakteryzującymi się bardzo wysoką ceną oraz odrębnością od innych urządzeń produkowanych masowo. Zestawy audiofilskie składają się często ze sprzętu określanego jako Hi-End – koszty poszczególnych komponentów sięgają dziesiątek i setek tysięcy dolarów. W środowiskach audiofilskich duże znaczenie mają kwestie mody, na przykład pewien, naszym zdaniem słabo technicznie uzasadniony, powrót do wzmacniaczy lampowych oraz do gramofonów. Bardzo szeroki komentarz dotyczący m.in. tej tematyki znajdzie Czytelnik w cyklu artykułów [6]. We wzmacniaczach klasy A elementy aktywne (tranzystory lub lampy mocy) zawsze pobierają prąd, nawet wtedy, gdy nie są wysterowane żadnym sygnałem. Wartość tego prądu jest dobierana w ten sposób, by elementy te pracowały w liniowym odcinku swoje charakterystyki. Dzięki temu znacząco spada poziom zniekształceń nieliniowych. Inną zaletą tych wzmacniaczy jest stabilizacja cieplna – elementy aktywne są cały czas podgrzewane płynącym przez nie prądem i zachowują mniej więcej stałą temperaturę pracy, co ma duży wpływ na jakość przetwarzania sygnału. Wzmacniacza mocy klasy A nie wykonuje się w strukturze klasycznego stopnia małosygnałowego (pokazanego np. na rysunku 12.4)2, ponieważ na rezystorze RC wytracana byłaby bezużytecznie moc sygnału oraz moc prądu stałego. Podłączenie obciążenia bezpośrednio w miejsce rezystora RC jest również nie do przyjęcia, gdyż wówczas przez obciążenie płynęłaby składowa stała prądu (w przypadku wzmac-
2
Zwróćmy uwagę, że każdy stopień małosygnałowy pracuje w istocie w klasie A.
411
13.3. Wzmacniacze mocy klasy A
Rys. 13.5. Transformatorowy wzmacniacz mocy klasy A
niaczy akustycznych spowodowałoby to stałe wychylenie membrany głośnika). Najprostszym rozwiązaniem jest podłączenie kolektora tranzystora do obciążenia poprzez transformator, tak jak na rysunku 13.5. Zasilanie oraz stabilizacja punktu pracy tranzystora jest rozwiązana konwencjonalnie za pomocą rezystorów R1, R2 i RE. Ze względu na straty mocy na rezystorze RE jego wartość nie może być tak duża jak we wzmacniaczach małosygnałowych i wynosi zwykle kilka omów. Kondensator CE zapewnia pracę w konfiguracji WE, kondensator C zwiera zaś dla składowych zmiennych jeden zacisk wtórnego uzwojenia transformatora wejściowego do masy. Analizę energetyczną w zakresie średnich częstotliwości rozpatrzymy, stosując charakterystyki robocze z rysunku 13.6. Jeśli pominie się nieznaczny spadek napięcia na rezystorze emiterowym, statyczny punkt pracy Q jest określony przez prąd kolektora ICQ oraz napięcie zasilania EC. Nachylenie prostej obciążenia jest określone przetransformowaną wartością obciążenia (RL' = n2RL). Użyteczna moc wyjściowa Pwy wydzielona w obciążeniu określona jest iloczynem wartości skutecznych składowych zmiennych napięcia kolektor-emiter i prądu kolektora Pwy =
U cm I cm 2
1 = U cm I cm , 2 2
(13.14)
więc jej wartość jest zależna od poziomu sygnału sterującego i przyjętego punktu pracy. W celu maksymalnego wykorzystania dostępnego pola charakterystyk punkt pracy musi być umieszczony na hiperboli maksymalnej mocy kolektora, a napięcie EC powinno być równe połowie zakresu między minimalnym i maksymalnym napięciem kolektor-emiter EC =
U CE min + U CE max . 2
(13.15)
412
13. Wzmacniacze mocy
Rys. 13.6. Charakterystyka robocza wzmacniacza klasy A
W praktyce stosuje się pewne marginesy bezpieczeństwa, zapobiegające przypadkowym uszkodzeniom elementu aktywnego. Korzystając z rysunku 13.6, składowe zmienne napięcia i prądu wyjściowego można przedstawić za pomocą odpowiednich parametrów statycznych Pwy =
( EC − U CE min ) ( ICQ − IC min ) 2
=
EC I CQ U CE min 1 − 2 EC
I C min 1 − I CQ
.
(13.16)
Ponieważ moc pobrana z zasilacza jest iloczynem składowej stałej napięcia kolektor-emiter i prądu kolektora PZ = EC I CQ ,
(13.17)
sprawność wzmacniacza mocy klasy A określona jest zależnością
η=
Pwy PZ
=
1 U CE min 1 − 2 EC
I C min 1 − I CQ
.
(13.18)
W abstrakcyjnie wyidealizowanym przypadku, gdyby UCEmin = 0 oraz ICmin = 0, maksymalna sprawność wzmacniacza wyniosłaby
ηmax =
1 , 2
(13.19)
tzn. moc pobierana z zasilacza przy pełnym wysterowaniu dzieliłaby się równo na moc użyteczną w obciążeniu i moc traconą w tranzystorze. Czyli nawet w takim optymistycznie wyidealizowanym przypadku maksymalna moc użyteczna wyniosłaby zaledwie połowę dopuszczalnej mocy kolektora, a przy braku sygnału steru-
13.4. Wzmacniacze mocy klasy B i AB
413
jącego cała moc z zasilacza byłaby tracona w tranzystorze. Stąd wynika, że we wzmacniaczu mocy klasy A maksymalna dopuszczalna moc kolektora powinna ponad dwukrotnie przekraczać maksymalną przewidywaną moc w obciążeniu. W układach rzeczywistych przyjęte wyżej założenia nie mogą być oczywiście spełnione, a statyczny punkt pracy nie może leżeć na hiperboli mocy admisyjnej, tylko poniżej, z pewnym sensownym zapasem. Ponadto, wzmacniacz mocy praktycznie nigdy nie pracuje z maksymalnym wysterowaniem, dlatego osiągane praktycznie sprawności są znacznie mniejsze i w zasadzie nie przekraczają 25%. Omawiając grupę wzmacniaczy transformatorowych, nie można zapomnieć o charakterystyce częstotliwościowej. W tym przypadku ograniczenia wprowadzane przez sam tranzystor mogą być pominięte, a częstotliwości graniczne zdeterminowane są przez transformatory. Wykonanie transformatora dobrej jakości dla pełnego zakresu częstotliwości akustycznych wymaga stosowania specjalnych technik nawijania uzwojeń oraz bardzo dobrych materiałów magnetycznych. W tym zakresie częstotliwości transformator jest elementem o dużych gabarytach i masie, i jest to kolejny powód niszowego zastosowania akustycznych wzmacniaczy mocy w wersji transformatorowej.
13.4. Wzmacniacze mocy klasy B i AB Największą wadą wzmacniaczy mocy pracujących w klasie A jest bardzo mała sprawność energetyczna i fakt, że nawet gdy żaden sygnał nie jest wzmacniany, energia z zasilacza jest ciągle pobierana. Ta niekorzystna cecha eliminowała wzmacniacze mocy klasy A z zastosowań w sprzęcie przenośnym i zmuszała konstruktorów do poszukiwania nowych rozwiązań, które szybko doprowadziły do koncepcji wzmacniaczy realizowanych w układach przeciwsobnych. Nazwa przeciwsobny wywodzi się stąd, że dwa wchodzące w jego skład elementy aktywne są sterowane w przeciwfazie, a ich wyjścia są połączone różnicowo. Najprościej realizuje się tę koncepcję, wykorzystując komplementarną parę tranzystorów, tj. tranzystorów N-P-N i P-N-P o jednakowych parametrach – rysunek 13.7.
Rys. 13.7. Idea wzmacniacza z parą komplementarną
414
13. Wzmacniacze mocy
Oba tranzystory pracują w układzie WC, zapewniają więc tylko wzmocnienie prądowe – stąd potrzeba wstępnego wzmocnienia napięcia do poziomu wymaganego do odpowiedniego wysterowania stopnia końcowego3. W czasie trwania dodatniej połówki sygnału wejściowego przewodzi tranzystor npn, natomiast tranzystor pnp jest odcięty i w obciążeniu RL otrzymuje się wzmocniony prądowo sygnał dodatniej połówki. Z kolei w czasie trwania ujemnej połówki przewodzi tranzystor pnp, a tranzystor npn jest odcięty i do obciążenia jest doprowadzona wzmocniona ujemna połówka sygnału. Załóżmy, że tranzystory pracują w klasie B, a ich charakterystyki, ze względu na pracę wielkosygnałową, są aproksymowane linią prostą łamaną, co zilustrowano na rysunku 13.8. Jeśli punkt pracy jest ustalony na granicy odcięcia prądu kolektora, to przy braku wysterowania nie płynie prąd, a przy wysterowaniu odpowiednia sekcja wzmacniacza wzmacnia albo jedną, albo drugą połówkę sygnału. Zauważmy, że mimo dużej nieliniowości poszczególnych sekcji (praca z odcięciem), układ jako całość można traktować jako liniowy. Podobnie jak poprzednio oszacujemy teraz maksymalną teoretyczną sprawność energetyczną wzmacniacza pracującego w klasie B w strukturze przeciwsobnej. Na rysunku 13.9 przedstawiono charakterystyki statyczne jednego z tranzystorów z wrysowaną prostą obciążenia. Przy pełnym wysterowaniu wzmacniacza punkt pracy przesuwa się po prostej obciążenia od punktu Q do A, więc amplituda napięcia zmiennego wyraża się zależnością U cm = EC − U CE min .
(13.20)
Całkowita użyteczna moc wyjściowa określona jest równaniem U cm I cm
1 = U cm I cm = 2 2 2 E ( − U CE min ) IC max EC IC max = C = 2 2
Pwy =
U CE min 1 − EC
.
(13.21)
Rys. 13.8. Ilustracja pracy wzmacniacza przeciwsobnego
3
To wstępne wzmocnienie napięcia realizowane jest przez małosygnałowe stopnie wzmacniające o dużym wypadkowym wzmocnieniu napięciowym, tworzące wzmacniacz napięciowy, żargonowo nazywany „napięciówką”.
415
13.4. Wzmacniacze mocy klasy B i AB
Rys. 13.9. Charakterystyka robocza tranzystora pracującego w klasie B
Podczas pełnego wysterowania jednego tranzystora prąd pobierany z zasilacza w trakcie jednej połówki sinusoidy jest równy wartości średniej połowy przebiegu sinusoidalnego. Podczas wzmacniania drugiej połówki sinusoidy – przy założeniu pełnej symetrii układu – sytuacja jest identyczna, a więc moc pobierana z zasilacza jest równa 2I (13.22) PZ = EC I C śr = EC C max . π Ostatecznie, sprawność wzmacniacza przy pełnym wysterowaniu może być wyrażona równaniem
η=
Pwy PZ
=
π U CE min 1 − . 4 EC
(13.23)
W przypadku idealizowanym, gdyby UCE min = 0, sprawność energetyczna wzmacniacza w klasie B osiągnęłaby wartość 78%. W praktyce, przy maksymalnej mocy wyjściowej sprawność nie przekracza 70%, a w trakcie normalnej pracy osiągane sprawności są o kilka procent niższe. Ponadto bez wysterowania prąd z zasilacza praktycznie nie płynie, co jest szczególnie korzystne w odbiornikach przenośnych, ponieważ przy zasilaniu z baterii, gdy odbiornik jest wyciszony, baterie prawie się nie rozładowują. W tym miejscu warto poruszyć kwestię zniekształceń nieliniowych. Oprócz tych typowych, wynikających z nieliniowości charakterystyk statycznych tranzystorów, we wzmacniaczu przeciwsobnym klasy B występują zniekształcenia skrośne. Ilustrując na rysunku 13.8 działanie wzmacniacza przeciwsobnego, przyjęto charakterystyki tranzystorów jako odcinkowo-liniowe. W rzeczywistości charakterystyki te są takie jak na rysunku 13.10a (w celach poglądowych spoczynkowy punkt pracy sprowadzono do początku układu współrzędnych), co skutkuje charakterystyczną deformacją przebiegu wyjściowego. Przy zapewnieniu każdemu z tranzystorów niewielkiej wstępnej polaryzacji (rysunek 13.10b) wypadkowa charakterystyka, oznaczona linią przerywaną, jest liniowa i zniekształcenia nie występują. W celu eliminacji zniekształceń skrośnych należy
416
13. Wzmacniacze mocy
więc przesunąć punkt pracy tranzystora z klasy B do klasy AB, co wiąże się niestety z pewnym pogorszeniem sprawności. W praktyce, wbrew potocznym określeniom, nigdy nie stosuje się wzmacniaczy pracujących w „czystej” klasie B, tylko poprzez wstępną polaryzację baz obu tranzystorów zapewnia się pracę w klasie AB. Na rysunku 13.11 przedstawiono koncepcję układu zapewniającego oprócz wstępnej polaryzacji tranzystorów również temperaturową stabilizację punktu pracy. Układ ten jest zasilany symetrycznie, dzięki czemu (przy pełnej symetrii) zapewnia zerowy potencjał napięcia stałego na wejściu i wyjściu. Przy takim rozwiązaniu zbędne są kondensatory sprzęgające na wejściu i wyjściu układu i dzięki temu nie występują ograniczenia w zakresie dolnych częstotliwości. Stabilizacja punktu pracy w tym układzie jest bardzo skuteczna (jest to nieliniowy układ polaryzacji) – wzrost temperatury powoduje spadek napięć na diodach i w konsekwencji zmniejszenie wysterowania tranzystora (rysunek 11.2). W przypadku zasilania niesymetrycznego (z pojedynczej baterii) wejście i obciążenie należy podłączyć przez kondensatory, jak na rysunku 13.12. W stanie statycznym i przy symetrii układu na końcówkach wejściowych i wyjściowych panuje napięcie EC /2. Kondensator Cs2 przy braku sygnału jest więc naładowany do napięcia EC /2. W czasie pracy kondensator Cs2 doładowuje się z baterii zasilającej (gdy odcięty jest tranzystor P-N-P – rysunek 13.13a), a w drugiej fazie sygnału służy jako napięcie zasilania (gdy odcięty jest tranzystor N-P-N – rysunek 13.13b). Prąd w obciążeniu w obu przypadkach płynie pod wpływem napięcia EC /2. Ponieważ rezystancja wyjściowa takiego układu jest mała (każda sekcja wzmacniacza pracuje w układzie wtórnika emiterowego), a rezystorem obciążenia jest najczęściej głośnik o rezystancji kilku omów, dla zapewnienia dostatecznie małej wartości częstotliwości granicznej dolnej układu trzeba stosować kondensator Cs2 o bardzo dużej wartości (rzędu setek czy tysięcy mikrofaradów). Jest to wymaganie zbieżne z wynikającym z roli tego kondensatora pracującego przez połowę cyklu w charakterze źródła zasilania (w drugiej połowie kondensator jest doładowywany z baterii zasilającej). Praktyczne struktury wzmacniaczy mocy klasy AB są z reguły bardziej złożone ze względu na występujące w nich elementy realizujące funkcje pomocnicze (stabilizujące sprzężenia zwrotne, układy przeciwzwarciowe, regulacja spoczynkowego punktu pracy itp.), ale idea pracy tych układów pozostaje bez zmian.
Rys. 13.10. Zniekształcenia skrośne we wzmacniaczu przeciwsobnym (a) i sposób ich redukcji (b)
417
13.5. Wzmacniacze mocy klasy C
Rys. 13.11. Schemat ideowy wzmacniacza z zasilaniem symetrycznym
Rys. 13.12. Schemat ideowy wzmacniacza z zasilaniem niesymetrycznym
Rys. 13.13. Aktywne części obwodu z rysunku 13.12 dla dodatniej (ładowanie Cs2)(a) i ujemnej (rozładowywanie Cs2) (b) połówki sygnału wejściowego
13.5. Wzmacniacze mocy klasy C Wzmacniacze tego typu służą do wzmacniania mocy sygnałów zmodulowanych w urządzeniach nadawczych dużej częstotliwości. Prąd wyjściowy elementu aktywnego ma charakter impulsowy i w celu wydzielenia składowej podstawowej konieczne jest zastosowanie obwodu filtrującego. Filtr musi przenieść składową podstawową sygnału nośnego i wstęgi boczne wynikające z modulacji i jednocześnie wyciąć wyższe harmoniczne sygnału nośnego. Ze względu na wysokie częstotliwości sygnału nośnego w roli filtrów z reguły stosuje się obwody rezonansowe, dlatego wzmacniacze mocy klasy C nazywa się często wzmacniaczami rezonansowymi. Zakres problemów związanych ze wzmacniaczami rezonansowymi znacznie wykracza poza założone ramy niniejszego opracowania, dlatego ograniczymy się tutaj tylko do kilku typowych rozwiązań układowych wzmacniaczy mocy klasy C z rysunku 13.14. W układach przedstawionych na rysunku 13.14a i 13.14c zrealizowana jest praca w klasie C bez wstępnej polaryzacji złącza baza-emiter (tranzystor bez wstępnej polaryzacji z natury pracuje w odcięciu). Przykładem wzmacniacza umożliwiającego ustalenie dowolnej polaryzacji wstępnej złącza emiterowego, a zatem „głębokości”
418
13. Wzmacniacze mocy
klasy C, jest wzmacniacz pokazany na rysunku 13.14b (dzielnik R1R2). Rozwiązanie z uziemionym kolektorem (rysunek 13.14a) jest interesujace w związku z tym, że kolektor jest zazwyczaj łączony z obudową tranzystora, co znacznie ułatwia jej połączenie z uziemionym radiatorem chłodzącym połączonym z obudową urządzenia. Z kolei wzmacniacz z rysunku 13.14c jest typowy dla układów w.cz., ponieważ tranzystor pracuje w układzie wspólnej bazy, charakteryzującym się, jak pamiętamy, najwyższą górną częstotliwością graniczną. Szerszą analizę wzmacniaczy tego typu znajdzie Czytelnik w [17]. Kończąc rozdział dotyczący wzmacniaczy mocy, a tym samym zagadnienia wzmacniaczy w ogóle, zachęcamy Czytelnika do zapoznania się z cyklem dostępnych w Internecie czterech obszernych artykułów [6], opisujących przystępnie i interesująco wiele technicznych i pozatechnicznych aspektów związanych z akustycznymi wzmacniaczami mocy.
Rys. 13.14. Przykładowe rozwiązania rezonansowych wzmacniaczy mocy klasy C [17]
14. Generatory sygnałów harmonicznych Generatory sygnałów harmonicznych, wytwarzające w kontrolowany sposób sygnały sinusoidalne o określonej częstotliwości i amplitudzie, są podstawowymi urządzeniami niezbędnymi w każdej pracowni elektronicznej. Generatory można klasyfikować według różnych kryteriów. Podstawowym kryterium jest rodzaj generowanego sygnału. W tym rozdziale przedstawiamy układy generujące przebiegi harmoniczne, w kolejnym generatory fali prostokątnej, a w praktyce spotykamy się ponadto z całą gamą innych generatorów, najczęściej określanych wspólnym mianem generatorów impulsowych. Drugim istotnym kryterium podziału są elementy decydujące o częstotliwości drgań; zgodnie z tym kryterium wyróżniamy generatory LC, RC i elektromechaniczne (np. kwarcowe). Ponadto generatory możemy podzielić na: diodowe, lampowe, tranzystorowe, na układzie scalonym. Jeszcze innym kryterium podziału jest mechanizm powstawania drgań, zgodnie z którym generatory dzielimy na generatory ze sprzężeniem zwrotnym (sprzężeniowe) i stosowane na wielkich częstotliwościach generatory z ujemną rezystancją. W niniejszym rozdziale zaprezentujemy podstawowe zagadnienia związane z procesem generacji sygnałów harmonicznych oraz rozwiązania układowe tranzystorowych generatorów sprzężeniowych pracujących na dużych częstotliwościach (generatory LC) oraz generatorów ze wzmacniaczami operacyjnymi pracujących na małych częstotliwościach (generatory RC).
14.1. Liniowa teoria generacji Po włączeniu zasilania amplituda drgań ustala się dopiero po upływie pewnego czasu, określonego przez czas trwania procesów przejściowych. Przebieg napięcia wyjściowego od momentu włączenia zasilania do stanu ustalonego, przedstawiony na rysunku 14.1, można podzielić na trzy etapy: inicjacji drgań (etap 1), narastania drgań (etap 2) i stanu ustalonego (etap 3). Podczas inicjacji drgań sygnały zmienne są na tyle małe, że tranzystor (i cały układ) można traktować jako liniowy. W celu wyznaczenia warunków inicjacji drgań (warunków generacji) można więc zastosować klasyczną analizę małosygnałową prowadzącą do liniowej teorii generacji. Rozpatrzmy układ zamieszczony na rysunku 14.2. Gdy wyłącznik jest otwarty, jest to zwykły układ wzmacniający sterowany z zewnętrznego generatora oznaczonego szarą, przerywaną linią, o wzmocnieniu napięciowym u (14.1) Gu = 2 . u1
420
14. Generatory sygnałów harmonicznych
Rys. 14.1. Proces narastania drgań w generatorze
Jednocześnie wzmacniacz ten obciążony jest torem sprzężenia zwrotnego (w tej chwili nieaktywnego – otwarty wyłącznik nie doprowadza sygnału sprzężenia zwrotnego do wejścia wzmacniacza), o transmitancji napięciowej1 .
(14.2)
Na podstawie elementarnej teorii sprzężenia zwrotnego możemy stwierdzić, że wzmocnienie układu wzmacniającego, po objęciu go pętlą sprzężenia zwrotnego, wynosi Gu . (14.3) Guf = 1 − Gu βu
Rys. 14.2. Układ do wyznaczania warunków generacji
1
W rozdziale opisującym ujemne sprzężenie zwrotne napięcie na wyjściu toru sprzężenia zwrotnego oznaczaliśmy przez u f, teraz zastosowaliśmy oznaczenie u1', co jest uzasadnione tym, że po zamknięciu pętli sprzężenia zwrotnego (po zamknięciu wyłącznika), napięcia u1 i u1' staną się tożsame.
421
14.1. Liniowa teoria generacji
Zauważamy, że jeśli stosunek zwrotny Gu bu dąży do jedności, to wzmocnienie układu zmierza do nieskończoności Gu βu → 1 ⇒ Guf → ∞ .
(14.4)
Oznacza to, że albo napięcie wyjściowe jest nieskończenie duże, albo może mieć pewną skończoną wartość przy zerowym zewnętrznym napięciu wymuszającym. Pierwsza opcja, jako nie do zrealizowania fizycznie, musi być odrzucona, a druga oznacza generację sygnału – sygnał na wyjściu jest, pomimo że nie ma sygnału wymuszającego, a warunek Gu βu = 1
(14.5)
zwany jest warunkiem generacji. Transmitancje torów wzmacniającego Gu i sprzężenia zwrotnego bu są w ogólnym przypadku wielkościami zespolonymi i można je przedstawić w postaci wykładniczej Gu = Gu e jϕG ,
βu = βu e
jϕ β
(14.6)
.
Aby warunek generacji Gu βu = Gu e jϕG ⋅ βu e
jϕ β
= Gu βu e
(
j ϕG +ϕ β
) = 1,
(14.7)
był spełniony, muszą być jednocześnie spełnione dwa warunki Gu βu = 1 oraz e
(
j ϕG +ϕ β
) =1
⇒ ϕG + ϕ β = k 360°, k = 0,1, 2,...
(14.8)
(14.9)
zwane odpowiednio warunkiem amplitudy i warunkiem fazy. W celu poprawnej interpretacji obu warunków wyobraźmy sobie sytuację z rysunku 14.2. Do układu dołączony jest zewnętrzny generator sterujący (narysowany szarą, przerywaną linią), a pętla sprzężenia zwrotnego jest rozłączona. Przyjmijmy dla uproszczenia rozważań, że tor wzmacniający odwraca fazę (jG = 180°). A zatem, po przejściu sygnału przez wzmacniacz zostaje on Gu-krotnie wzmocniony i przesunięty w fazie o 180°. Sygnał ten jest sygnałem sterującym dla toru sprzężenia zwrotnego, którego transmitancja, aby zagwarantować spełnienie warunku amplitudy, musi być równa odwrotności wzmocnienia toru wzmacniającego. Po przejściu przez tor sprzężenia zwrotnego sygnał zostanie więc Gu-krotnie stłumiony, czyli jego amplituda będzie dokładnie równa amplitudzie sygnału sterującego z generatora zewnętrznego. Jednocześnie tor sprzężenia zwrotnego, aby spełnić warunek fazy, przesunie sygnał o taki kąt, aby sumaryczne przesunięcie było wielokrotnością kąta pełnego, tzn. w rozważanym przypadku o kolejne 180°. Całkowite przesunięcie sygnału o 360° (lub wielokrotność 360°) oznacza, że sygnał po przejściu przez cały tor jest w fazie z wejściowym sygnałem sterującym.
422
14. Generatory sygnałów harmonicznych
Podsumujmy, spełnienie warunku amplitudy gwarantuje, że amplituda u1' jest równa amplitudzie u1, natomiast spełnienie warunku fazy zapewnia, że fazy obu tych napięć są jednakowe. Są to identyczne sygnały. Gdybyśmy więc w jednym momencie odłączyli generator sterujący i przyłączyli do wejścia (zamykając wyłącznik) tor sprzężenia zwrotnego, sytuacja by się nie zmieniła, tzn. sygnał wciąż byłby wzmacniany i sam by się „podtrzymywał” – zachodziłoby zjawisko generacji. Aby generator mógł samoczynnie wystartować po włączeniu zasilania, warunek amplitudy musi być w tej początkowej fazie spełniony z kilkukrotnym nadmiarem. Powoduje to narastanie drgań aż do poziomu stanu ustalonego. Gdyby przy starcie generatora nie było nadmiaru wzmocnienia, tzn. gdyby warunek amplitudy był spełniony dokładnie, to minimalne przypadkowe zmniejszenie wzmocnienia spowodowałoby zanikanie drgań. Dochodzimy więc do wniosku, że niezbędny jest co najmniej jeden element nieliniowy, który będzie powodował spadek iloczynu Gu bu od kilku na starcie do jedności w stanie ustalonym. W zależności od rozwiązań może być wykorzystana nieliniowość bloku wzmacniającego (takie rozwiązanie stosowane jest w generatorach LC) lub można wprowadzić nieliniowość do toru sprzężenia zwrotnego (generatory RC). Drugą podstawową kwestią jest częstotliwość generowanego sygnału. Generator będzie generował sygnał o częstotliwości, dla której spełniony jest warunek fazy. Zwróćmy uwagę, że w układach RLC faza sygnału zależy od wzajemnych relacji między elementami oraz od częstotliwości. Możemy więc tak dobierać elementy RLC, aby warunek fazowy był spełniony tylko dla takiej wartości częstotliwości, która jest równa docelowej częstotliwości generowanego sygnału. Jeśli z dowolnych powodów charakterystyka fazowa toru wzmacniającego lub toru sprzężenia zwrotnego ulegnie zmianie, wówczas warunek fazy zostanie spełniony dla innej częstotliwości i (jeśli nadal będzie spełniony warunek amplitudy) generator przestroi się na tę nową częstotliwość. Im większa będzie stromość charakterystyki fazowej, tym przestrojenie będzie mniejsze i w konsekwencji większa będzie stałość częstotliwości generowanego sygnału.
14.2. Generatory LC Klasycznymi układami generatorów sygnałów harmonicznych są tranzystorowe generatory LC. Równoległy obwód rezonansowy LC obciążający wzmacniacz powinien być dostrojony do przewidywanej częstotliwości generowanego sygnału. Jeśli przyjmiemy, że częstotliwość generacji jest znacznie mniejsza od górnej częstotliwości granicznej wzmacniacza, to tranzystor możemy traktować jako bezinercyjny i wówczas jeśli pracuje on w konfiguracji WE oraz obciążenie ma charakter rzeczywisty (obwód rezonansowy w rezonansie), to wzmacniacz wnosi przesunięcie fazy równe 180°. Kolejne 180° musi „dołożyć” obwód sprzężenia zwrotnego. Teoretycznie najprostszym i historycznie najstarszym2 rozwiązaniem jest przedstawiona na rysunku 14.3 struktura Meissnera, w której zastosowano sprzężenie
2
Układ zbudował Aleksander Meissner w 1913 roku (oczywiście w wersji lampowej).
423
14.2. Generatory LC
Rys. 14.3. Schemat poglądowy (a) oraz przykładowy schemat ideowy (b) generatora Meissnera
transformatorowe. Sygnał zwrotny (na bazie) o fazie przeciwnej względem napięcia wyjściowego (na kolektorze) uzyskano, nawijając oba uzwojenia przeciwsobnie (co symbolizują kropki narysowane przy przeciwnych końcach cewek). Układ pracuje na częstotliwości rezonansowej w konfiguracji WE, więc na obwodzie rezonansowym L1C obciążającym kolektor tranzystora otrzymujemy sygnał przesunięty o 180° względem napięcia na bazie. Pozostałe przesunięcie fazy zapewnia transformator. Układ generuje sygnał o częstotliwości, na której występuje najsilniejsze dodatnie sprzężenie zwrotne, czyli na częstotliwości rezonansowej obwodu L1C, tj. fg =
1 2π L1C
.
(14.10)
Na przykładowym układzie praktycznym z rysunku 14.3b tor wzmacniający to konwencjonalny wzmacniacz selektywny LC. Transformator zapewnia odpowiednią wartość sprzężenia zwrotnego (poprzez dobór przekładni) i odwrócenie fazy. Kondensator blokujący Cb zapobiega zwarciu bazy do masy przez uzwojenie wtórne transformatora. W praktyce generator Meissnera jest rzadko stosowany ze względu na parametry transformatora, które narzucają silne ograniczenia dla dużych częstotliwości generacji. Poszukiwanie rozwiązań beztransformatorowych doprowadziło do opracowania generatorów z trójelementowym obwodem rezonansowym. Pierwszą wersją był układ z dzieloną indukcyjnością zwany generatorem Hartleya3 (rysunek 14.4). Ponieważ kolektor połączony jest z bazą przez kondensator, układ ten bywa czasem nazywany generatorem ze sprzężeniem pojemnościowym. Częstotliwość generacji jest równa częstotliwości rezonansowej obwodu równoległego przyłączonego do zacisków kolektor-emiter, tzn. L2 – L1C. W idealizowa-
3
Wynaleziony przez Ralpha Hartleya w roku 1915.
424
14. Generatory sygnałów harmonicznych
Rys. 14.4. Schemat poglądowy (a) oraz przykładowy schemat ideowy (b) generatora Hartleya
nym przypadku pokazanym na rysunku 14.4a, z pominięciem rezystancji obciążenia i tranzystora oraz pojemności tranzystora, otrzymujemy 1 − ω0 L1 = ω0 L 2 ω0C f g = f0 =
1
2π
1
⇒ ω0 =
( L 1+ L 2 ) C
( L1 + L 2 ) C
, (14.11)
.
W praktycznych układach należy pamiętać, że cewki połączone są równolegle z pojemnościami wejściową i wyjściową tranzystora. Żeby struktura Hartleya funkcjonowała, obwody te muszą mieć charakter indukcyjny, dlatego częstotliwość generacji nie może przekroczyć najmniejszej z obu częstotliwości rezonansowych, tzn. musi spełniać warunek 1 , ω g < min L1Cwe
1 L2Cwy
.
(14.12)
Z tego powodu generatory Hartleya stosowane są w niższym zakresie częstotliwości. Tor sprzężenia zwrotnego zrealizowany jest poprzez dzielnik reaktancyjny złożony z kondensatora C i cewki L1, które tworzą szeregowy obwód rezonansowy. Jednocześnie obwód ten tworzy gałąź pojemnościową zasadniczego równoległego obwodu rezonansowego włączonego między kolektor i emiter. Ponieważ druga gałąź jest czysto indukcyjna, gałąź z szeregowym obwodem rezonansowym musi mieć na częstotliwości generacji charakter pojemnościowy, czyli częstotliwość generacji musi być mniejsza od częstotliwości rezonansu szeregowego. A zatem prąd w tej gałęzi wyprzedza w fazie o 90° napięcie na obwodzie (tj. napięcie kolektor-emiter). Prąd ten, przepływając przez cewkę, wytwarza na niej napięcie wyprzedzające go w fazie o dalsze 90°, czyli w sumie o 180° względem napięcia kolektor-emiter, co zapewnia spełnienie warunku fazy. Schemat ideowy generatora Hartleya zamieszczono na rysunku 14.4b. Zastosowano prosty układ polaryzacji ze stałym prądem bazy i sprzężeniem emiterowym.
425
14.2. Generatory LC
Obciążeniem kolektora jest dławik, który dla składowej stałej przedstawia małą rezystancję i unika się zbędnego spadku napięcia stałego zasilającego kolektor. Impedancja dławika na częstotliwości generacji powinna być znacznie większa niż impedancja obciążenia i wówczas jego wpływ na obwód rezonansowy można pominąć. Do układu wprowadzono dwa kondensatory blokujące: Cb1 zapobiegający zwarciu źródła zasilania do masy przez cewkę L2 i Cb2 zapobiegający zwarciu bazy do masy przez cewkę L1. Alternatywnym rozwiązaniem jest struktura z dzieloną pojemnością, określana jako generator Colpittsa4. Ze względu na charakter sprzężenia wyjścia (kolektor) z wejściem (baza) układ taki nazywa się czasem układem ze sprzężeniem indukcyjnym. Gałąź LC1 tworzy szeregowy obwód rezonansowy. W przedziale częstotliwości od zera do częstotliwości rezonansu szeregowego obwód LC1 ma charakter pojemnościowy, a powyżej indukcyjny. W przedziale częstotliwości, w którym obwód ma charakter indukcyjny, tworzy on z pojemnością C2 równoległy obwód rezonansowy. Podobnie jak poprzednio jest to więc obwód dwurezonansowy, przy czym częstotliwość generacji jest równa częstotliwości rezonansowej obwodu równoległego przyłączonego do zacisków kolektor-emiter. W idealizowanym przypadku z rysunku 14.5a, z pominięciem rezystancji obciążenia rezystancji tranzystora oraz pojemności tranzystora, otrzymujemy
ω0 L −
1 1 = ω0C1 ω0C2
f g = f0 =
1 2π LCZ
⇒ ω0 =
1 LCZ
, CZ =
C1C2 , C1 + C2
(14.13)
.
W rozwiązaniach praktycznych należy pamiętać, że do pojemności C1 i C2 dodają się pojemności pasożytnicze elementu aktywnego Cwe i Cwy o niekontrolowanych wartościach, które mogą wpływać na warunki i częstotliwość generacji. Aby zmi-
Rys. 14.5. Schemat poglądowy (a) oraz przykładowy schemat ideowy (b) generatora Colpittsa
4
Skonstruowany przez Edwina Colpittsa w roku 1918.
426
14. Generatory sygnałów harmonicznych
nimalizować ich wpływ, pojemności C1 i C2 powinny być stosunkowo duże, tzn. powinny spełniać warunki: C1 >> Cwe , C2 >> Cwy .
(14.14)
Schemat ideowy przykładowego rozwiązania generatora Colpittsa przedstawiono na rysunku 14.5b. W stosunku do układu Hartleya zmieniła się oczywiście struktura obwodu rezonansowego i wystarczający okazał się tylko jeden kondensator blokujący składową stałą Cb, który dobiera się tak, aby dla częstotliwości generacji jego reaktancja była pomijalna. Napięcie zmienne wydzielone na obwodzie rezonansowym, poprzez dzielnik reaktancyjny LC1, zapewniający – analogicznie jak poprzednio – przesunięcie fazy o 180°, podawane jest zwrotnie na wejście układu.
14.3. Generatory RC Omówione dotychczas generatory LC są powszechnie używane do generacji sygnałów sinusoidalnych o częstotliwościach z zakresu od setek kiloherców do setek megaherców. Wykonywanie generatorów LC na zakres mniejszych częstotliwości jest kłopotliwe, ponieważ częstotliwość generacji jest odwrotnie proporcjonalna do pierwiastka z iloczynu LC, tzn. 1 (14.15) fg LC i wymagane są bardzo duże wartości indukcyjności, które są trudne do zrealizowania praktycznego – cewki takie osiągają bardzo duże gabaryty i niezbyt duże dobroci, co pogarsza stromość charakterystyki fazowej i w efekcie stabilność częstotliwości generowanego sygnału. Z tego powodu w zakresie od ułamków herców do setek kiloherców powszechnie stosowane są generatory RC, w których fg
1 RC
(14.16)
i nie ma problemu z osiągnięciem nawet bardzo małych częstotliwości generacji. Najprostszą realizacją sprzężeniowego generatora RC jest układ z ogniwami RC pracującymi w charakterze przesuwników fazy, pokazany na rysunku 14.6. Nieparzysta liczba wzmacniaczy kaskady zapewnia przesunięcie fazy o 180°. Do spełnienia warunku fazy wystarczy, aby ogniwa RC zapewniły przesunięcie fazy
Rys. 14.6. Generator z ogniwami RC
427
14.3. Generatory RC
o brakujące 180°. Zakładając, że wszystkie ogniwa są identyczne, wystarczy, aby każde zapewniło przesunięcie fazy o 60°, co nie sprawia żadnych problemów, ponieważ pojedyncze ogniwo RC umożliwia przesunięcie fazy w zakresie od 0 do 90°. Trzy ogniwa są więc już wystarczające z punktu widzenia warunku fazy. Poszczególne ogniwa są sterowane z prawie zerowej rezystancji wyjściowej wzmacniacza operacyjnego i są obciążone prawie nieskończenie dużą rezystancją wejściową, dlatego ogniwa pracują praktycznie niezależnie, a transmitancję pojedynczego ogniwa można opisać zależnością (12.33) K ( jω ) =
1
1+
1 jω RC
=
1 ω 1+ d ω
2
e
ω jarctg d ω
.
(14.17)
Ponieważ wymagane przesunięcie fazy wynosi 60°, otrzymujemy arctg
ωd ωd = 60° ⇒ = 3 ω ω
(14.18)
i moduł transmitancji 1
K (ω ) =
1+ 3
2
=
1 . 2
(14.19)
Oznacza to, że ogniwo RC, przesuwając fazę sygnału o 60°, powoduje dwukrotne stłumienie jego amplitudy. Przy trzech ogniwach, wzmocnienie toru wzmacniającego powinno wynosić 8, czyli każdy wzmacniacz, pomijając wymagany na etapie początkowym nadmiar wzmocnienia (i przy założeniu, że wszystkie ogniwa są jednakowe), powinien zapewnić dwukrotne wzmocnienie. Z racji tego, że w kaskadzie ogniw przesunięcia fazy sumują się, nachylenie charakterystyki fazowej rośnie wraz ze wzrostem liczby ogniw. Dla uzyskania dużej stałości częstotliwości liczba ogniw powinna więc być jak największa, nie byłoby to jednak rozwiązanie korzystne z ekonomicznego punktu widzenia. Innym układem RC, który wykorzystuje się praktycznie do budowy generatora, jest filtr podwójne T, przedstawiony na rysunku 14.7 na tle jego charakterystyki częstotliwościowej. Z rysunku 14.7 wynika, że dla częstotliwości quasi-rezonansowej filtru fg =
1 2πRC
(14.20)
przesunięcie fazy wynosi dokładnie 180°, a tłumienie filtru jest najmniejsze. Klasyczną realizacją generatora z filtrem podwójne T jest włączenie filtru zaprojektowanego dla n < 0,5 (jeśli n > 0,5, to przesunięcie fazy wynosi 0°) w pętlę ujemnego sprzężenia zwrotnego wzmacniacza operacyjnego, co pokazano na rysunku 14.8. Sumaryczne przesunięcie fazy (odwracający wzmacniacz operacyjny i filtr podwójne T pracujący na częstotliwości quasi-rezonansowej) zapewnia spełnienie warunku fazowego generacji.
428
14. Generatory sygnałów harmonicznych
Rys. 14.7. Filtr podwójne T i jego charakterystyka częstotliwościowa dla n = 0,4
Jak wspomniano wcześniej, w każdym generatorze przy wzbudzaniu drgań warunek amplitudy powinien być spełniony z nadmiarem, a po osiągnięciu stanu ustalonego iloczyn Gu bu powinien być równy jedności, zapewniając podtrzymywanie drgań. Spełnienie tego wymagania w generatorach LC było stosunkowo proste – narastające drgania powodowały zmniejszanie wzmocnienia wzmacniacza tranzystorowego, aż do spełnienia warunku amplitudowego. W generatorach RC element nieliniowy wymuszający spadek iloczynu Gu bu do jedności umieszcza się najczęściej w pętli sprzężenia zwrotnego. Przykładowe układy stabilizacji amplitudy w generatorach RC można znaleźć w [5].
Rys. 14.8. Filtr podwójne T w układzie generatora RC
15. Generatory sygnałów prostokątnych Ze względu na to, że sygnał prostokątny jest złożeniem nieskończonej liczby sygnałów harmonicznych („wibracji”) generatory sygnałów prostokątnych nazywa się często multiwibratorami. Pod względem funkcjonalnym multiwibratory można podzielić na: astabilne, monostabilne i bistabilne. Multiwibrator astabilny ma dwa stany quasi-stabilne, a przejście z jednego stanu do drugiego odbywa się samoczynnie. Czasy trwania poszczególnych stanów, niekoniecznie równych sobie, zależą wyłącznie od elementów układu. Pozostałe dwa multiwibratory są układami wyzwalanymi. Multiwibrator monostabilny ma jeden stan stabilny i jeden quasi-stabilny. Przejście ze stanu stabilnego do quasi-stabilnego odbywa się pod wpływem zewnętrznego impulsu wyzwalającego. Układ przebywa w stanie quasi-stabilnym przez czas określony wartościami elementów układu, a następnie samoczynnie powraca do stanu stabilnego. Multiwibrator bistabilny ma dwa stany stabilne. Czas trwania każdego może być dowolnie długi, a przejście z jednego do drugiego i odwrotnie odbywa się pod wpływem impulsów wyzwalających. Podobnie jak generatory przebiegów sinusoidalnych, multiwibratory są także układami ze sprzężeniem zwrotnym, jednak przy opisie ich zasady działania posługujemy się zupełnie innym podejściem. Nie przypadkiem rozdział 15 zamyka część analogową podręcznika – multiwibratory są swego rodzaju łącznikiem między klasycznymi układami analogowymi i impulsowymi, a w konsekwencji również cyfrowymi.
15.1. Multiwibratory astabilne Schemat multiwibratora astabilnego przedstawiono na rysunku 15.1. Istotą działania tego układu jest cykliczne naprzemienne przechodzenie każdego z tranzystorów ze stanu nasycenia do stanu zatkania. Po włączeniu zasilania, na skutek nieuniknionej asymetrii układu, jeden tranzystor szybciej wejdzie w stan nasycenia, co spowoduje, że dzięki sprzężeniu zwrotnemu przez kondensator sprzęgający drugi tranzystor zostanie zatkany – niski potencjał kolektora nasyconego tranzystora przenosi się w momencie skoku na bazę drugiego tranzystora, powodując jego zatkanie; jednocześnie wysoki stan napięcia na kolektorze zatkanego tranzystora przenosi się przez drugi kondensator na bazę tego pierwszego nasyconego tranzystora. Gdyby kondensatory się nie ładowały, mielibyśmy sytuację statyczną. Ale kondensatory się ładują... Rozpocznijmy analizę od momentu, gdy tranzystor T1 jest zatykany (IC1 ≈ 0, UCE1 ≈ ≈ EC), a T2 wchodzi w nasycenie (IC2 = IC2 max, UCE2 ≈ 0). Napięcie na kolektorze T2 gwałtownie obniża się do napięcia bliskiego zeru (ściślej do napięcia nasycenia),
430
15. Generatory sygnałów prostokątnych
Rys. 15.1. Multiwibrator astabilny
a tym samym potencjał prawej okładki kondensatora C1, połączonej bezpośrednio z kolektorem tranzystora T2 również skokowo spada. Ponieważ, zgodnie z prawem komutacji, napięcie na kondensatorze nie może zmieniać się skokowo, ujemny skok potencjału przenosi się na lewą okładkę C1 i tym samym na bazę tranzystora T1 zatykając go. Jest to bardzo szybki proces lawinowy wzmacniany sprzężeniem zwrotnym – potencjał kolektora tranzystora T2 spada, co powoduje spadek potencjału bazy tranzystora T1, co powoduje przytykanie tranzystora T1 i w konsekwencji wzrost potencjału jego kolektora, który przenosząc się z kolei na bazę tranzystora T2 powoduje jego coraz głębsze nasycenie i spadek potencjału kolektora. I tak w kółko. Ponieważ układ w tym procesie sam się „napędza” czas przeskoku jest bardzo krótki. Od tego momentu, to jest od momentu przeskoku tranzystora T2 do stanu nasycenia, a tranzystora T1 do stanu zatkania, rozpoczyna się proces ładowania kondensatora C1 ze źródła EB przez nasycony (zwarty) tranzystor T2 w obwodzie: EB –RB1 –C1 – T2 –masa, podwyższając potencjał bazy tranzystora T1. Napięcie na bazie T1 narasta tak długo, aż osiągnie wartość progową i tranzystor T1 zacznie przewodzić, a następnie, ponieważ potencjał bazy wciąż wzrasta, gdyż kondensator wciąż się ładuje, wejdzie w stan nasycenia. W tym momencie prąd kolektora tranzystora T1 gwałtownie wzrośnie, a napięcie na jego kolektorze gwałtownie się obniży. Ten ujemny skok napięcia przenosi się na bazę tranzystora T2 zatykając go – napięcie na jego kolektorze rośnie do wartości EC. Teraz, analogicznie jak poprzednio, ładuje się kondensator C2 przez nasycony tranzystor T1 w obwodzie: EB –RB2 –C2 –T1 –masa. Gdy potencjał bazy tranzystora T2 przekroczy wartość progową wejdzie on w nasycenie i napięcie jego kolektora obniży się. Ten ujemny skok przenosi się na bazę T1 i zatyka go, więc napięcie kolektora podwyższa się. Proces przełączania tranzystorów zaczyna się powtarzać. Czasy trwania impulsów wynikają ze stałych czasowych obwodów ładowania pojemności C1 i C2 i określone są zależnościami t1 = C1 RB1 ln
EB + EC , EB
t2 = C2 RB 2 ln
EB + EC . EB
(15.1)
15.2. Multiwibratory monostabilne
431
Dobierając wartości pojemności sprzęgających można więc regulować częstotliwość i współczynnik wypełnienia przebiegu. Niekiedy zamiast zasilania dwubateryjnego stosuje się układ jednobateryjny i wówczas, ponieważ EB = EC, wyrażenia określające czasy trwania impulsów dodatnich i ujemnych upraszczają się do postaci t1 = C1 RB1 ln(2) = 0, 69C1 RB1 , t2 = C2 RB 2 ln(2) = 0, 69C2 RB 2 .
(15.2)
W trakcie przełączania tranzystorów zniekształceniu ulega czoło impulsu napięcia wyjściowego, gdyż napięcie na kolektorze nie może wzrosnąć skokowo. Kondensator sprzęgający musi doładować się do nowego wysokiego napięcia kolektora w obwodzie: EC –RC1 –C2 –T2 –masa. Czas narastania impulsu jest jednak stosunkowo krótki, w porównaniu z czasem trwania impulsu, gdyż RC1/2 << RB1/2.
15.2. Multiwibratory monostabilne Drugą grupę multiwibratorów stanowią multiwibratory monostabilne. Przykładową strukturę multiwibratora monostabilnego widać na rysunku 15.2. Elementy rezystancyjne polaryzujące tranzystor T2 są tak dobrane, że po włączeniu zasilania T2 jest w nasyceniu. Prąd kolektora T2 powoduje odłożenie się na rezystorze RE takiego napięcia, że potencjał emitera tranzystora T1 jest wysoki i tranzystor T1 jest zatkany. Spadek napięcia na rezystorze RC1 jest więc zerowy i kondensator C jest naładowany do napięcia EC – UB2. W stanie stabilnym na wyjściu panuje niski poziom napięcia. Po doprowadzeniu do wejścia dodatniego impulsu wyzwalającego, tranzystor T1 wchodzi w nasycenie i potencjał na jego kolektorze gwałtownie się obniża. Ten ujemny poziom przenosi się na bazę tranzystora T2, zatykając go i napięcie na wyjściu osiąga wysoki poziom, bliski EC. Rozpoczyna się stan quasi-stabilny. W tym stanie kondensator C rozładowuje się przez nasycony tranzystor T1 w obwodzie: EB –RB2 –C–T1 –masa. W trakcie rozładowania napięcie na bazie tranzystora T2 wzrasta, ponieważ napięcie na RB2 spowodowane przepływem prądu rozładowania
Rys. 15.2. Multiwibrator monostabilny
432
15. Generatory sygnałów prostokątnych
maleje. Ten proces trwa tak długo, aż napięcie na bazie tranzystora T2 osiągnie poziom progowy. Po jego osiągnięciu zaczyna płynąć prąd kolektora tranzystora T2, maleje napięcie na wyjściu, rośnie napięcie na RE i tranzystor T1 zatyka się. Układ powraca do stanu stabilnego. Czas trwania impulsu (stanu quasi-stabilnego) określony jest złożoną zależnością, ale istotne jest to, że jest proporcjonalny do stałej czasowej RB2C, a częstotliwość przebiegu wyjściowego określona jest częstotliwością impulsów wyzwalających.
15.3. Multiwibratory bistabilne Trzecią grupę multiwibratorów stanowią multiwibratory bistabilne. Przykładową strukturę multiwibratora bistabilnego przedstawiono na rysunku 15.3. Multiwibrator bistabilny jest układowo zbliżony do multiwibratora astabilnego. W tym układzie jednak sprzężenie między tranzystorami nie jest pojemnościowe, lecz bezpośrednie – poprzez rezystory R1 i R2. Kondensatory podłączone równolegle do tych rezystorów jedynie usprawniają proces przerzutu (pojemność w chwili komutacji traktuje się jako zwarcie). Podobnie jak opisywaliśmy to przy okazji multiwibratorów astabilnych, po włączeniu zasilania jeden z tranzystorów szybciej wejdzie w stan nasycenia (np. T1), wówczas niski poziom napięcia z jego kolektora podany na bazę tranzystora T2 poprzez R1 spowoduje, że tranzystor T2 zostanie zatkany i na jego kolektorze wytworzy się wysoki poziom napięcia. Tym wysokim poziomem tranzystor T1 (poprzez R2) jest utrzymywany nadal w stanie nasycenia. Taki stan trwa tak długo, aż do wejścia tranzystora przewodzącego T1 zostanie doprowadzony ujemny impuls wyzwalający. Spowoduje to, że tranzystor T1 zostanie zatkany i wysoki poziom napięcia z jego kolektora (poprzez R1) wprowadzi w stan nasycenia tranzystor T2. Napięcie na jego kolektorze obniży się do poziomu niskiego i (przez R2) spowoduje zatkanie T1. Taki stan trwa tak długo, aż do wejścia tranzystora aktualnie przewodzącego (T2) zostanie doprowadzony ujemny impuls
Rys. 15.3. Multiwibrator bistabilny
15.4. Multiwibratory przestrajane
433
wyzwalający. Wystąpi wtedy kolejny przerzut i układ będzie oczekiwał na następny impuls wyzwalający. Dodatkowe diody wraz z kondensatorami separują układ od generatora impulsów wyzwalających.
15.4. Multiwibratory przestrajane W niektórych zastosowaniach multiwibratorów wymaga się, aby układ miał możliwość przestrajania elektronicznego tzn. zmiany częstotliwości pod wpływem doprowadzonego do niego napięcia przestrajającego. Taki układ nazywamy generatorem przestrajanym napięciem (GPN). Najpowszechniejsze zastosowanie jako GPN znajduje multiwibrator ze sprzężeniem emiterowym z rysunku 15.4. W obwodach emiterów tranzystorów znajdują się źródła prądowe I1 i I2 o takiej samej wydajności I. Emitery tranzystorów są sprzężone pojemnościowo. Układ łączy w sobie cechy multiwibratora astabilnego (ładowanie pojemności C ) i multiwibratora bistabilnego (bezpośrednie sprzężenie zwrotne z kolektorów na bazy). Jeśli przewodzi tranzystor T1, to napięcie na jego kolektorze obniża się do takiego poziomu, że tranzystor T2 jest zatkany i na jego kolektorze panuje poziom wysoki. W tym stanie przez tranzystor T1 płynie prąd będący sumą dwóch prądów: od zasilania przez T1 i źródło I1, oraz od zasilania przez T1, kondensator C i źródło I2. W trakcie ładowania kondensatora napięcie na emiterze T2 obniża się i rośnie napięcie między bazą a emiterem T2 (zatkanego), aż osiągnie poziom progowy. W tym momencie T2 zaczyna przewodzić, powodując zatkanie T1. W tym stanie z kolei przez tranzystor T2 płyną dwa prądy, w tym prąd ładowania kondensatora. W takt pracy układu tranzystory na przemian znajdują się w stanie odcięcia, wobec tego prąd przepływa przez kondensator raz w jednym, raz w drugim kierunku. Ponieważ napięcie na kondensatorze jest proporcjonalne do prądu ładowania, częstotliwość pracy układu jest wprost proporcjonalna do wydajności źródła prądowego (obydwa źródła mają taka samą wydajność). Jeśli źródła I1 oraz I2 będą źródłami prądowymi sterowanymi napięciem, wówczas napięcie sterujące us będzie powodować zmianę częstotliwości.
Rys. 15.4. Uproszczony schemat multiwibratora ze sprzężeniem emiterowym
434
15. Generatory sygnałów prostokątnych
Króciutki rozdział, który właśnie kończysz czytać, drogi Czytelniku, daje przedsmak świata sygnałów i układów impulsowych oraz techniki związanej z komutacją. Mamy tu wciąż do czynienia z ładowaniem i rozładowaniem pojemności w przeróżnych konfiguracjach i układach i wbrew pozorom już blisko stąd do świata sygnałów i układów cyfrowych. Czy prawa komutacji są tam naprawdę tak bardzo ważne? Czy w świecie cyfrowym rzeczywiście trzeba przejmować się pojemnościami? Przekornie odpowiemy pytaniami. Dlaczego nie możemy w nieskończoność zwiększać częstotliwości zegarów naszych komputerów? Dlaczego im większa częstotliwość taktowania, tym bardziej grzeje się procesor i układy peryferyjne...?
16. Komputerowa analiza układów elektronicznych Zanim komputery stały się powszechnie dostępne, równania opisujące obwody elektryczne rozwiązywano najczęściej metodami analitycznymi i graficznymi. Podejście to narzucało jednak poważne ograniczenia co do wielkości i typu analizowanych układów. Duże układy liniowe lub nawet małe układy nieliniowe rzadko mogły być w ten sposób sprawnie i dokładnie analizowane. Czytelnik, studiując poprzednie rozdziały, miał już okazję przekonać się, że do każdego szczegółowego problemu obliczeniowego opracowano specyficzne podejście. Przykładowo, do analizy parametrów roboczych wykorzystywaliśmy małosygnałowy model macierzowy, do analizy ograniczeń częstotliwościowych małosygnałowy model hybryd π (z szeregiem uproszczeń), do ustalenia punktu pracy i jego stabilności model wielkosygnałowy i metody graficzne, a do analizy zniekształceń nieliniowych elementy teorii aproksymacji. Już to zgrubne spojrzenie na całość zagadnienia pokazuje, że największym problemem przy opracowywaniu komputerowych narzędzi wspomagających analizę układów elektronicznych był wybór odpowiedniego zbioru algorytmów. Liczność tego zbioru powinna być jak najmniejsza, a uniwersalność algorytmów jak największa, żeby zagwarantować możliwość analizy szerokiego zbioru różnorodnych układów elektronicznych (wzmacniaczy, filtrów, powielaczy, mieszaczy, generatorów itd.). Z drugiej strony, zastosowane algorytmy powinny zapewnić możliwość automatycznego opisu matematycznego układu, na podstawie jego schematu ideowego. Na kartach niniejszego rozdziału postaramy się pokazać, jak udało się tego dokonać i jak potężne narzędzie ma dziś do dyspozycji inżynier elektronik.
16.1. Uwagi ogólne Komputerowa analiza układów elektronicznych, zwana często komputerową symulacją układów elektronicznych, od początku była stymulowana przez rozwój technologii i zarazem ten rozwój wspierała i przyspieszała. Wczesne lata siedemdziesiąte były początkiem burzliwego rozwoju technologii wytwarzania scalonych układów elektronicznych. Ze względu na wysoki koszt opracowania masek, układ scalony musi być bardzo dokładnie przetestowany, zanim rozpocznie się jego masową produkcję. W przypadku układów scalonych badania wykonywane na prototypie nie mogą być zastosowane z dwóch podstawowych powodów. Po pierwsze, koszt wykonania jednego kompletu masek prototypu jest porównywalny z kosztem produkcji całego układu, na który składa się przede wszystkim koszt projektu układu i masek oraz koszt testowania układu. Po drugie, model układu wykonany w oparciu na elementach dyskretnych z reguły nie oddaje zachowania układu scalonego. Powodem tego są specyficzne zjawiska fizyczne charakterystyczne tylko dla układów scalo-
436
16. Komputerowa analiza układów elektronicznych
nych. W rezultacie pozostaje symulacja komputerowa, która pozwala na sprawdzenie układu stosunkowo niskim kosztem, zanim jeszcze zostanie on praktycznie wykonany. Dlatego też początek lat siedemdziesiątych to okres intensywnych prac nad metodami i algorytmami komputerowej symulacji układów elektronicznych, który doprowadził do powstania nieformalnego standardu określanego mianem Spice. Program do analizy układów elektronicznych Spice w swojej pierwotnej postaci powstał na początku lat siedemdziesiątych na Uniwersytecie Kalifornijskim w Berkeley i w krótkim czasie zyskał akceptacje wydziałów elektroniki wielu uczelni, a firmy programistyczne zaczęły zaopatrywać dynamicznie rozwijający się przemysł układów scalonych w jego pochodne. Do dzisiaj studenci elektroniki większości uczelni poznają zastosowania programu Spice lub jego mutacji, a większość współczesnych symulatorów komercyjnych na nim bazuje. Nazwa programu jest dobrze brzmiącym i dobrze się kojarzącym – co komercyjnie okazuje się bardzo ważne – akronimem angielskiego opisu Simulation Program with Integrated Circuit Emphasis, co w wolnym przekładzie oznacza program symulacyjny ze szczególnym uwzględnieniem układów scalonych. Swego rodzaju fenomenem jest, że Spice stał się standardem przemysłowym bez udziału jakichkolwiek komisji do spraw standaryzacji. Najważniejszą przyczyną tej wyjątkowej popularności był fakt, że powstał na uczelni państwowej i od początku był projektem publicznym. Początkowo traktowany jako pomoc naukowa dla studentów, szybko został zaakceptowany na wielu wyższych uczelniach na świecie. Absolwenci rozpoczynający kariery w przemyśle mogli otrzymać bezpłatną kopię programu i stosować go w pracy, przyczyniając się tym samym do wzrostu jego popularności. Wygoda użytkowania oraz wyjątkowa wiarygodność i dokładność obliczeń spowodowały, że Spice stał się wzorcem programu przeznaczonego do analizy obwodów i obecnie jest stosowany nie tylko do analizy układów scalonych, ale także przy projektowaniu wszelkich układów złożonych z elementów dyskretnych. W opinii autorów sukces standardu Spice wynikał właśnie z optymalnego doboru wyspecjalizowanych metod numerycznych zapewniających jego wielką uniwersalność. Kluczowe było takie sformułowanie problemu, by wszystkie metody stosowane do obliczania statycznego punktu pracy układu, małosygnałowych charakterystyk częstotliwościowych i charakterystyk czasowych oraz parametrów wrażliwościowych i statystycznych sprowadzały się do szeregu analiz stałoprądowego obwodu liniowego. W programach do komputerowej analizy stacjonarnych i skupionych układów elektronicznych do formułowania równań równowagi można zastosować metody: węzłową, oczkową, równań hybrydowych lub metodę zmiennych stanu. Każda z wymienionych metod ma pewne zalety i wady. Ich krytyczny i gruntowny przegląd zadecydował, że ostatecznie wybrano metodę węzłową, a właściwie jej modyfikację określaną jako zmodyfikowana metoda węzłowa – MNA (ang. Modified Nodal Approach). Jej najistotniejszą zaletą jest łatwość automatycznego (programowego) formułowania równań obwodu zawierającego wszystkie typy źródeł sterowanych. Konstrukcja macierzy poprzez przeglądanie pliku tekstowego zawierającego listę połączeń (ang. matrix construction by inspection), czyli tekstowego opisu schematu ideowego, polega na całkowicie automatycznym, opartym na szablonach
16.1. Uwagi ogólne
437
elementów (ang. templates), uzupełnianiu równania macierzowego opisującego obwód w miarę wczytywania kolejnych elementów. Po zautomatyzowanym sformułowaniu liniowego macierzowego równania równowagi program symulacyjny rozwiązuje je za pomocą starannie dobranych metod numerycznych. Do rozwiązywania układu nieliniowych równań algebraicznych – pojawiających się przy analizie układów nieliniowych – stosowana jest metoda Newtona-Raphsona, sprowadzająca się do linearyzacji elementów nieliniowych w pojedynczym kroku iteracji. W ten sposób w każdym kroku uzyskuje się układ równań liniowych. Po jego rozwiązaniu w bieżącym kroku iteracji modyfikuje się współczynniki równań i dokonuje ich ponownego rozwiązania, itd., aż do osiągnięcia żądanej dokładności. W przypadku poszukiwania rozwiązania w dziedzinie czasu analityczne rozwiązanie nieliniowych równań stanu nie jest w ogólnym przypadku możliwe i jedyną alternatywą jest zastosowanie metod całkowania numerycznego. Działanie tego typu algorytmów sprowadza się do „zastąpienia” elementów zachowawczych ich modelami stowarzyszonymi. Przekształca to układ dynamiczny w stowarzyszony układ stałoprądowy dla jednego kroku czasowego, który może być analizowany tak jak opisano wyżej. W praktycznych zastosowaniach algorytmy obliczeń wykorzystują kilka wymienionych metod równocześnie. Przykładowo, w przypadku układów dynamicznych z nieliniowymi elementami rezystancyjnymi elementy te linearyzuje się, a elementy zachowawcze zastępuje ich modelami stowarzyszonymi. Otrzymany w ten sposób równoważny układ zastępczy, który jest rezystancyjny i liniowy dla jednego odcinka czasowego i jednego kroku iteracji nieliniowej, rozwiązuje się metodami stałoprądowymi. W ogólnym przypadku program analizy układów elektronicznych zawiera dwie pętle: czasową i iteracji nieliniowej. Dla każdego kroku czasowego dokonuje się iteracyjnego obliczenia równowagi układu nieliniowego, a następnie, po przejściu do kolejnego punktu czasowego i zmianie stanu modeli stowarzyszonych – odpowiadającej zmianie napięć na kondensatorach i prądów w cewkach – powtarza się iterację nieliniową, aż do końcowego czasu analizy. Oczywiście, dla każdego kroku czasowego, a w nim dla każdego kroku iteracji nieliniowej, rozwiązywany jest układ równań liniowych, tzn. pojedyncze równanie macierzowe. Program Spice rozpoczyna analizę od wczytania elementów obwodu z pliku wejściowego. Korzystając z metody konstrukcji macierzy poprzez przeglądanie i używając predefiniowanych szablonów, tworzy równanie macierzowe i wykonuje analizy, których dyrektywy zapisane są w pliku wejściowym. Do podstawowych analiz realizowanych przez program Spice należą: – stałoprądowa analiza punktu pracy (OP – ang. Operating Point Analysis), – krokowa analiza stałoprądowa (DC – ang. Direct Current Sweep Analysis), – małosygnałowa analiza częstotliwościowa (AC – ang. Alternating Current Analysis), – analiza czasowa (Tran – ang. Transient Analysis), – analiza temperaturowa (Temp – ang. Temperature Analysis).
438
16. Komputerowa analiza układów elektronicznych
Wszystkie analizy (za wyjątkiem analizy czasowej z zastosowaniem warunków początkowych) rozpoczynają się od analizy OP. W wyniku tej analizy ustalone zostają statyczne punkty pracy wszystkich elementów układu, określające jednocześnie warunki początkowe dla analiz typu przemiatającego. Podczas analizy OP wyznaczane są jedynie składowe stałe prądów i napięć, więc kondensatory i źródła prądowe typu zmiennoprądowego zastępowane są przerwą, a cewki i źródła napięciowe typu zmiennoprądowego zwarciem. Krokowa analiza stałoprądowa DC jest analizą złożoną, będącą serią analiz typu OP. W trakcie tej analizy wydajności źródeł prądu lub napięcia stałego są, ze stałym krokiem, zmieniane w zadanym zakresie, a wyniki prezentowane są w formie charakterystyk statycznych. Małosygnałowa analiza częstotliwościowa AC przebiega w dwóch etapach. W pierwszym etapie, w celu znalezienia statycznego punktu pracy, wykorzystywana jest pętla „nieliniowa”, która ignoruje elementy zachowawcze. Po wyznaczeniu statycznego punktu pracy nieliniowe wielkosygnałowe modele elementów półprzewodnikowych zastępowane są odpowiednimi liniowymi modelami małosygnałowymi, których parametry zależą od punktu pracy. Analiza małosygnałowa oznacza więc, że pomijane są efekty nieliniowe (nasycenie, zniekształcenia nieliniowe itp.). W drugim etapie analizy AC wykorzystywany jest moduł rozwiązujący liniowe równanie macierzowe, lecz w wersji zmodyfikowanej. Program Spice wypełnia równanie macierzowe wielkościami zespolonymi. Użycie modeli małosygnałowych daje czasem zaskakujące wyniki. Przykładowo, symulując pracę wzmacniacza operacyjnego o wzmocnieniu 106 V/V, zasilanego napięciem stałym ±15 V i sterowanego ze źródła zmiennego o amplitudzie 1 V, program Spice wyznaczy napięcie wyjściowe o amplitudzie 1 MV. Wiadomo, że w rzeczywistości napięcie wyjściowe nie może przekroczyć napięcia zasilającego, ale w tym przypadku algorytm programu zastosował model liniowy wzmacniacza, dając w efekcie nierealnie duże napięcie wyjściowe. Należy pamiętać, że typowe charakterystyki częstotliwościowe są – o ile wyraźnie nie zastrzeżono – z definicji małosygnałowe. Najbardziej złożoną ze wszystkich rodzajów analiz jest analiza czasowa Tran. Obliczenia rozpoczynają się od określenia statycznego punktu pracy, chyba że użytkownik wymusi określony stan definiując warunki początkowe. Następnie dla każdego punktu analizy elementy zachowawcze muszą być dodane do równania macierzowego. W tym celu program Spice, stosując metody całkowania numerycznego, transformuje cewki i kondensatory w ich obwody stowarzyszone. Obwody te reprezentują związki prądowo-napięciowe na elementach zachowawczych, więc ich parametry zmieniają się w każdym punkcie analizy. Jeśli w obwodzie znajdują się elementy nieliniowe w każdym punkcie czasowym, program Spice musi wykonać serię iteracji Newtona-Raphsona. Punktem wyjściowym iteracji jest poprzedni wynik obliczeń. W celu zapewnienia założonej dokładności i maksymalnego skrócenia czasu obliczeń program Spice dynamicznie dostosowuje krok czasowy. Skraca go, gdy napięcia i prądy zmieniają się gwałtownie, a wydłuża, gdy dynamika sygnałów maleje.
16.2. Wprowadzenie do programu ICAP/4
439
Analiza temperaturowa polega na wymuszeniu przez odpowiednie opcje zmian temperatury całego układu lub jego poszczególnych elementów i obserwacji wpływu tych zmian na wybrane parametry analizowanego układu. W programie Spice wpływ temperatury uwzględniany jest poprzez parametry modeli elementów elektronicznych, które są funkcjami temperatury. W kolejnych podrozdziałach przedstawimy, w charakterze „manuala”, wprowadzenie do demonstracyjnej implementacji programu Spice i zilustrujemy możliwości symulatora analizując przykładowy wzmacniacz. Czytelnikom chcącym zgłębić tajniki Spice'a polecamy książkę [3], opisującą obszernie standard Spice i jego implementację.
16.2. Wprowadzenie do programu ICAP/4 Program ICAP/4 Windows firmy Intusoft jest pakietem oprogramowania przeznaczonym do interaktywnej analizy układów elektronicznych (ang. Interactive Circuit Analysis Program). Zaprezentowaną w niniejszym rozdziale wersję demonstracyjną tego programu można bezpłatnie pobrać z Internetu, wymagana jest tylko rejestracja. Wersja demonstracyjna ICAP/4 Windows Demo jest w pełni funkcjonalna i całkowicie wystarczająca do realizacji małych projektów. Obszerny opis pakietu ICAP/4 przedstawiony jest w [3]. Program Spice przeprowadza symulację opierając się na tekstowym zbiorze wejściowym, zawierającym listę połączeń (ang. netlist) oraz wykazie analiz, przechowywanym w pliku dyskowym z rozszerzeniem *.cir (ang. circuit). Plik ten może być utworzony „ręcznie” za pomocą dowolnego edytora tekstowego zapisującego w kodzie ASCII bądź, jak to się dzieje najczęściej, może być wygenerowany automatycznie przez graficzny edytor schematów. Analizowany obwód opisuje się, wymieniając wszystkie elementy wchodzące w jego skład z podaniem numerów węzłów, do których są przyłączone oraz wartości odpowiednich parametrów. Liczba węzłów i parametrów jest zależna od rodzaju wprowadzanego elementu. Każdy element musi być opisany w osobnej linii zbioru wejściowego. Elementy o złożonej strukturze, takie jak np. elementy półprzewodnikowe lub ferromagnetyczne, deklaruje się przez podanie nazwy odpowiedniego modelu. Kolejność deklaracji elementów w pliku *.cir oraz kolejność numeracji węzłów jest dowolna. Przy tworzeniu pliku wejściowego należy pamiętać, że: – układ musi zawierać węzeł masy o numerze „0”; – numery węzłów muszą być liczbami naturalnymi; – nazwa danego elementu musi rozpoczynać się odpowiadającym mu symbolem1, np. dla tranzystora bipolarnego musi to być Q; – nie mogą wystąpić dwa elementy o takiej samej nazwie;
1
Program odczytuje osiem pierwszych znaków nazwy (nie biorąc, przy rozróżnianiu nazw elementów, dalszych znaków pod uwagę), ale nazwa może być oczywiście krótsza, kurcząc się w skrajnym przypadku do jednej, charakterystycznej litery.
440
16. Komputerowa analiza układów elektronicznych
– każda instrukcja sterująca, deklaracja elementu itp. niemieszcząca się w jednej linii pliku źródłowego, może być kontynuowana w linii następnej. Powinna się ona wtedy rozpoczynać znakiem kontynuacji linii „+” (patrz rysunek 16.1); – linie kontynuacji (oznaczone „+”) muszą następować po liniach, których są kontynuacją; – nie może wystąpić węzeł, do którego jest podłączony tylko jeden element, tzw. „wiszący węzeł”2. Ponadto należy mieć na uwadze ograniczenia wynikające z zastosowanej w programie Spice zmodyfikowanej metody węzłowej, tj.: – układ nie może zawierać oczek składających się jedynie ze źródeł napięciowych i indukcyjności; – każdy węzeł musi mieć stałoprądowe połączenie z węzłem masy, co jest równoważne warunkowi, że układ nie może zawierać rozcięć składających się jedynie ze źródeł prądowych i pojemności – program generuje wówczas błąd sygnalizujący brak stałoprądowego przejścia do masy. Dozwolone jest natomiast: – stosowanie numerów węzłów niebędących kolejnymi liczbami; – umieszczanie w dowolnych liniach komentarza rozpoczynającego się od gwiazdki. Zbiór wejściowy do symulacji musi zawierać następujące elementy: – linię tytułową (nawet pustą) jako pierwszą linię zbioru; – opis topologii obwodu i instrukcje analiz; – instrukcję .END jako końcową linię zbioru. Zwykle w opisie obwodu, między linią tytułową i końcową, umieszczone są: – komendy ICL (ang. Interactive Command Language) sterujące w sposób zaawansowany analizą; – instrukcje sterujące analizą i wyprowadzaniem wyników obliczeń; – opis struktury obwodu; – definicje modeli elementów i podobwodów, które występują w strukturze obwodu. Przykładowy zbiór wejściowy opisujący prosty wzmacniacz RC z rysunku 16.1a, z zaznaczonymi poszczególnymi blokami instrukcji, przedstawiony jest na rysunku 16.1b. Plik *.cir generowany automatycznie przez edytor schematów może różnić się w szczegółach od pokazanego powyżej, gdyż każdy producent dostosowuje fragmenty pliku *.cir do swojej implementacji programu Spice. W plikach opisu układu i innych plikach skryptowych duże i małe litery nie są rozróżniane. W przypadku bezpośredniej modyfikacji pliku *.cir należy więc stosować
2
Od tej zasady są wyjątki, np. węzeł podłoża w niektórych modelach tranzystorów.
441
16.2. Wprowadzenie do programu ICAP/4
a)
b)
Tytuł:
C:\Wzm.cir
Blok sterowania .CONTROL ICL: Save All
Alias VYout v(6) View AC VYout
View AC ph_VYout = phase(VYout) View Tran VYout Instrukcje sterujące analizą: Wyprowadzanie wyników: Opis struktury obwodu:
.ENDC
.Tran 0.1u 20u
.AC DEC 10 1 1G
.PRINT AC VDB(VYout) VP(VYout) .PRINT Tran VYout RB 3 2 2Meg
RC 3 4 2.7k Ro 6 0 1k
Cs1 1 2 680n Cs2 4 6 680n
Q1 4 2 0 BC108B Vcc 3 0 10
Definicja modelu:
Vg 1 0 AC 1 PULSE 0 10m 0 0 0 +5u 10u .MODEL BC108B NPN BF=468 BR=4 + CJC=4.7E-12 CJE=1.6E-11 + IKF=6.0E-02 IS=1.02E-14
+ ISE=2.17E-12 NE=2.0 NF=1.0
+ NR=1.0 RB=3.3E+00 RC=3.3E-01 + RE=8.1E-01 TF=4.7E-10
+ TR=6.2E-08 VAF=80 VAR=20 Instrukcja końcowa:
+ XTB=1.5 .END
Rys. 16.1. Schemat ideowy wzmacniacza i reprezentujący go plik tekstowy
zapis charakteryzujący się jak najlepszą czytelnością, w miarę potrzeb opatrzony komentarzami. W skład pakietu ICAP/4 wchodzą cztery zasadnicze moduły: – SpiceNet
– graficzny edytor schematów umożliwiający tworzenie schematów ideowych oraz wprowadzanie instrukcji sterujących analizą, pełniący jednocześnie funkcję programu nadrzędnego dla całego pakietu;
– IsSpice 4 – symulator realizujący analizy oraz generujący dane wyjściowe;
442
16. Komputerowa analiza układów elektronicznych
– IsEd
– edytor tekstowy dający m.in. możliwość tekstowego wprowadzenia pliku wejściowego, podglądu wyników symulacji w trybie tekstowym oraz przeglądu błędów generowanych przez symulator;
– IntuScope – postprocesor graficzny umożliwiający obserwację i dokładną analizę wyników symulacji. Najwygodniejszym sposobem uruchomienia pakietu jest wywołanie programu SpiceNet (np. za pomocą skrótu Start ICAPS utworzonego podczas instalacji programu) ...\Spice8d\Sn\Snet5.exe
Po uruchomieniu programu SpiceNet można w klasyczny sposób wybrać uprzednio zapisany projekt lub jeden z wielu projektów demonstracyjnych umieszczonych w katalogu ...\Spice8d\Circuits
Oczywiście można również rozpocząć prace nad nowym projektem. Analizę dobranych przez programistów firmy Intusoft projektów demonstracyjnych pozostawiamy Czytelnikowi, na kartach tego rozdziału skoncentrujemy się zaś na wykonaniu przykładowego projektu od początku do końca. Sądzimy, że samodzielne poznawanie znaczenia wszystkich kontrolek programu będzie świetną zabawą i dostarczy Czytelnikowi dużo satysfakcji.
16.3. Projekt i analiza wzmacniacza małosygnałowego Pracę nad projektem rozpoczyna się najczęściej od wprowadzenia schematu analizowanego układu. Wszystkie elementy graficznego interfejsu użytkownika są intuicyjne i Czytelnik rozpracuje je bez problemu, posiłkując się rozbudowanym systemem pomocy z filmami instruktażowymi włącznie. Pierwszym etapem przy definiowaniu układu jest wprowadzenie i odpowiednie połączenie elementów. W tym celu za pomocą myszki wybieramy dowolny punkt na pustym arkuszu. W punkcie tym, gdy myszka jest aktywna, na kilka sekund pojawia się migoczący kwadrat oznaczający miejsce, od którego kontynuowane będzie rysowanie. Symbole elementów można wprowadzać na arkusz schematu przy wykorzystaniu menu Parts lub za pomocą odpowiednich skrótów klawiaturowych oznaczonych obok nazwy elementu – patrz rysunek 16.2. Część elementów ma więcej niż jeden symbol. Dodatkowe symbole dostępne są, jeśli literę skrótu poprzedzimy odpowiednią cyfrą, np. naciśnięcie litery „R” (nie ma znaczenia, czy będzie to litera wielka, czy mała) spowoduje wprowadzenie rezystora wg standardu amerykańskiego (linia łamana), natomiast żeby wywołać symbol europejski (pusty prostokąt), należy najpierw nacisnąć klawisz „2”, a dopiero później „R”. Za pomocą klawiszy z klawiatury numerycznej „+” i „–” można obrócić lub odwrócić aktywny element. Element uaktywnia się poprzez kliknięcie i przytrzymanie prawym przyciskiem myszy. Element aktywny jest wyróżniony szarym podświetle-
443
16.3. Projekt i analiza wzmacniacza małosygnałowego X Z O W Y V I B 2B E F H G R L K C D Q 2Q J 2J M 2M
– – – – – – – – – – – – – – – – – – – – – – – –
przeglądarka bibliotek, znaczniki kontynuacji, węzeł odniesienia (masa układu), przewód, sonda pomiarowa, niezależne źródło napięcia, niezależne źródło prądu, behawioralne źródło napięcia, behawioralne źródło prądu, źródło napięcia sterowane napięciem, źródło prądu sterowane prądem, źródło napięcia sterowane prądem, źródło prądu sterowane napięciem, rezystancja, indukcyjność, indukcyjność wzajemna (sprzężenie), pojemność, dioda, tranzystor bipolarny typu N–P–N, tranzystor bipolarny typu P–N–P, tranzystor JFET typu N, tranzystor JFET typu P, tranzystor MOSFET typu N, tranzystor MOSFET typu P.
Rys. 16.2. Wybrane skróty klawiaturowe wywołujące odpowiednie elementy
niem. Każde naciśnięcie klawisza „+” powoduje obrót elementu aktywnego o 90° w kierunku zgodnym z ruchem wskazówek zegara. Obrót wykonywany jest wokół jednego z zacisków elementu. Naciśnięcie klawisza „–” powoduje odwrócenie (lustrzane odbicie) elementu w płaszczyźnie poziomej. Obrót i odbicie można również i . Element aktywny lub grupę elementów wykonać za pomocą przycisków aktywnych (grupę zaznaczamy myszką) można przesuwać za pomocą klawiszy kursorów lub myszki oraz kopiować (Ctrl C lub poprzez menu Edit), wklejać (Ctrl V), wycinać (Ctrl X) lub kasować (klawiszem Delete). Po tym krótkim wstępie możemy już zacząć rysować schemat ideowy. Naszym zadaniem będzie narysowanie schematu wzmacniacza RC pracującego z tranzystorem bipolarnym 2N2222 w konfiguracji wspólnego emitera z potencjometrycznym układem polaryzacji i sprzężeniem emiterowym dla składowej stałej. Przyjmijmy punkt pracy (UCE = 5 V, IC = 2 mA), przy zasilaniu UCC = 10 V. Projekt rozpoczniemy od wprowadzenia układu polaryzacji. Na początek potrzebujemy czterech rezystorów. Wciskając sekwencję klawiszy 2–R–2–R–2–R–2–R, otrzymujemy na ekranie obraz podobny do przedstawionego na rysunku 16.3. Teraz możemy już nadać projektowi nazwę. Lubiącym porządek na dysku twardym komputera polecamy zapisywanie każdego nowego projektu w osobnym katalogu, gdyż symulator tworzy kilka plików pomocniczych, z których po zakończeniu pracy archiwizować należy tylko ten z rozszerzeniem *.dwg. Pozostałe są zbędne, chyba że symulacja była wyjątkowo długotrwała i chcemy zachować również wyniki.
444
16. Komputerowa analiza układów elektronicznych
Rys. 16.3. „Pierwsze elementy”
Korzystając ze standardowego okienka dialogowego zapisu na dysk, tworzymy nowy katalog, np. C:\Moje_projekty\Wzmacniacz_RC
i nadajemy nazwę projektowi3, np.
...\Wzm_RC.dwg
W tym momencie pojawia się ekran pomocy przypominający o ograniczeniach wersji demonstracyjnej. Zamykamy „natrętne” okienko i korzystając z drugiego symbolu źródła napięciowego (2 V), wstawiamy „zasilanie”, pozycjonujemy wstępnie rezystory i uruchamiamy przeglądarkę elementów bibliotecznych Part Browser (nana pasku narzędzi lub poprzez menu Parts) w celu ciskając klawisz X , przycisk odszukania tranzystora – rysunek 16.4. Przeglądarka Part Browser jest bardzo intuicyjna. Wybieramy najpierw typ elementu (ang. Part Types), następnie w ramach tego typu podgrupę (ang. Sub Types) i w końcu sam element. Przy okazji można umieścić go na liście elementów preferowanych (przycisk >>Add >> w kierunku Preferred Parts List). Przyciskiem Place lokujemy nowy element biblioteczny na arkuszu schematu ideowego. Po wstawieniu elementów należy je prawidłowo rozmieścić i uzupełnić połączenia między nimi. Służy do tego specjalny pisak ukazujący się w miejscu kursora po wciśnięciu klawisza W (przewód – ang. wire). Na zakończenie naciskamy klawisz O i wstawiamy węzły odniesienia (masę układu). Używając przycisku , dopasowujemy skalę schematu do wielkości okna i otrzymujemy obraz pokazany na rysunku 16.5. Dwukrotnie klikając na tranzystorze, możemy otworzyć okienko grupujące jego właściwości. Znajdują się tam m.in. wszystkie parametry modelu tranzystora – można je modyfikować w ramach bieżącego projektu, tzn. nie naruszając danych bibliotecznych. Cyfry pojawiające się obok miejsc połączenia wyprowadzeń elementów oznaczają numery węzłów. SpiceNet sam nadaje te numery i dba o ich unikalność. Sposobem „przeciągnij i upuść” można teraz odpowiednio poustawiać etykiety elementów.
3
Niestety nazwa pełnej ścieżki do pliku nie może zawierać polskich znaków (!).
16.3. Projekt i analiza wzmacniacza małosygnałowego
445
Rys. 16.4. Przeglądarka elementów bibliotecznych
Kolejnym etapem jest wprowadzanie wartości parametrów elementów. W tym celu należy dwukrotnie kliknąć w obrębie symbolu wybranego elementu. Ukaże się wówczas okno dialogowe dostosowane do jego typu. Klikając dwukrotnie na rezystorze R1, otwieramy okno Resistor Properties opisujące właściwości rezystora – patrz rysunek 16.6.
Rys. 16.5. Wprowadzony schemat układu polaryzacji
446
16. Komputerowa analiza układów elektronicznych
Rys. 16.6. Okno grupujące właściwości rezystora
W ramce Net List Preview pokazany jest tekst, który zostanie wstawiony do pliku *.cir przed wywołaniem symulatora IsSpice 4. Program automatycznie nadaje nazwy (numery) elementom – pole Ref Des (ang. Reference + Designator: wskaźnik typu /litera/ + oznaczenie /dalszy ciąg nazwy/) – i wpisuje numery węzłów (o ile końcówki elementu są już podłączone) – pola positive node i negative node. Etykieta (ang. label ) edytowanego symbolu składa się domyślnie z nazwy elementu i jego wartości. Można modyfikować liczbę wyświetlanych parametrów, korzystając z przycisku >>Add>> i ewentualnie Remove. Zaznaczając styl etykiety (ang. Label Style): Tall (wysoki), Wide (szeroki) lub Split (podzielony), można wyświetlić tekst etykiety poziomo, pionowo lub po obu stronach elementu. Wykorzystując przyciski Next Part i Prev Part (następny i poprzedni element), można bez wychodzenia z okna właściwości deklarować kolejne elementy. Zanim zaczniemy wstawiać wartość elementów, musimy je najpierw oszacować (oczywiście „w pamięci”). Ponieważ przy zasilaniu 10 V napięcie UCE ma wynosić 5 V, to jeśli prąd kolektora ma być równy 2 mA, suma rezystancji R3 + R4 musi być równa 2,5 kΩ. Znając rolę i wpływ na właściwości wzmacniacza rezystorów w kolektorze i w emiterze, przyjmujemy R3 = 2 kΩ i R4 = 500 Ω. Kierując się doświadczeniem, wstawiamy wartości rezystancji dzielnika: R1 = 220 kΩ i R2 = = 100 kΩ. Po zadeklarowaniu wartości rezystorów otrzymujemy schemat przedstawiony na rysunku 16.7. Korzystając z polecenia Simulate w menu Actions, klawisza skrótu ^G (ang. Go!) lub przycisku , uruchamiamy symulator4 w celu wyznaczenia stałoprądowego
4
W podobny sposób symulator może być uruchamiany z poziomu pozostałych programów pakietu.
16.3. Projekt i analiza wzmacniacza małosygnałowego
447
Rys. 16.7. Schemat układu polaryzacji z wartościami elementów
punktu pracy. Po uruchomieniu symulacji pojawia się okno symulatora pokazane na rysunku 16.8. W oknie symulatora IsSpice 4 widać, początkowo puste, okienko stanu symulacji (Simulation Status). Jeśli zadeklarujemy analizy i umieścimy na schemacie sondy wskazujące punkty wyprowadzania wyników (ang. Test Points), to w okienku
Rys. 16.8. Okno symulatora IsSpice 4
448
16. Komputerowa analiza układów elektronicznych
Rys. 16.9. Obliczony przez symulator stałoprądowy punkt pracy układu
tym wykreślane będą na bieżąco (w trakcie obliczeń) przebiegi wynikowe. Po zakończeniu obliczeń w górnej części okienka stanu pojawia się komunikat Analysis Complete (jak na rysunku 16.8). W celu wywołania edytora schematów SpiceNet należy wybrać polecenie Schematic z menu Actions5. Po powrocie do edytora schematów naciskamy przycisk (włączający wyświetlanie obliczonych napięć węzłowych) i otrzymujemy obraz z rysunku 16.9. Analiza punktu pracy Korygujemy wartość rezystancji R2 w dół w celu zmniejszenia prądu kolektora (i emitera) i w konsekwencji zmniejszenia spadku napięcia na R2 do 1 V. Po kilku powtórzeniach znajdujemy właściwą wartość równą 74 kΩ. Obliczone potencjały węzłowe można obserwować na schemacie, gdyż symulator przechowuje w pamięci operacyjnej wszystkie dane z przeprowadzanych analiz. Aby jednak wyprowadzić wartości potencjałów węzłowych do tekstowego pliku wyjściowego, należy zadeklarować analizę OP6. Do tego celu używamy przycisku
5 6
Podobnie z poziomu innych programów pakietu ICAP/4Windows. Lub dowolną inną analizę zmuszającą symulator do zapisania wyników w pliku *.out.
16.3. Projekt i analiza wzmacniacza małosygnałowego
449
Rys. 16.10. Okno wyboru analiz IsSpice 4 Simulation Setup
Simulation Setup powiązanego z polem wyboru Setup1. Na ekranie pojawia się okno wyboru analiz i procedur wspomagających – patrz rysunek 16.10. Po naciśnięciu przycisku Operating Point pojawia się kolejne okienko pokazane na rysunku 16.11, na którym wybieramy w tej chwili tylko pole pierwsze powodujące wyprowadzenie do pliku wyjściowego *.out wszystkich potencjałów węzłowych i prądów płynących przez źródła napięciowe. Po akceptacji (OK, a następnie Done) uruchamiamy symulator (Ctrl G ), a potem edytor tekstowy7. Specjalizowany edytor tekstowy IsEd stanowi alternatywną metodę tworzenia lub edycji pliku źródłowego (*.cir) stanowiącego podstawę do przeprowadzenia symulacji. Jednak o wiele praktyczniej oraz wygodniej jest użyć do tego celu edytora schematów SpiceNet, który generuje ten plik automatycznie (na podstawie utworzonego schematu układu), minimalizując ilość błędów użytkownika. Edytor tekstowy pozwala również na przeglądanie wyników symulacji zawartych w pliku wyjściowym (*.out), a także umożliwia sprawdzenie przebiegu (stanu) oraz błędów generowanych podczas symulacji, które zawarte są w pliku z rozszerzeniem *.err. Za pomocą trzech przycisków (Cir, Err i Out) można łatwo otworzyć trzy okna: pliku źródłowego (*.cir), stanu (i ewentualnych błędów) symulacji (*.err) i pliku
7
Edytor tekstowy można również wywołać z poziomu innych programów pakietu, wybierając polecenie Text Edit z menu Actions.
450
16. Komputerowa analiza układów elektronicznych
Rys. 16.11. Okno ustawień analizy punktu pracy
Rys. 16.12. Okno główne edytora tekstowego IsEd z wewnętrznymi okienkami: pliku źródłowego (*.cir), stanu symulacji (*.err) i pliku wyjściowego (*.out)
16.3. Projekt i analiza wzmacniacza małosygnałowego
451
wyjściowego (*.out). Na rysunku 16.12 przedstawione jest okno edytora tekstowego z otwartymi plikami związanymi z realizowanym projektem. Jak widać, w pliku wejściowym pojawiła się instrukcja op poprzedzona gwiazdką i krzyżykiem, co sygnalizuje, że jest ona przetwarzana przez zewnętrzną warstwę oprogramowania jeszcze przed rozpoczęciem symulacji (dla samego symulatora jest to linia komentarza). Analizując plik *.err, możemy stwierdzić, że symulacja przebiegła bez problemów, a w pliku *.out możemy odczytać interesujące nas potencjały węzłowe z pełną dokładnością. Zaznaczając w oknie Operating Point Analysis (rysunek 16.11) pozostałe opcje, zlecamy symulatorowi wyprowadzenie do pliku *.out informacji o punktach pracy wszystkich elementów (All device operating point information) oraz m.in. o wartościach parametrów małosygnałowych modeli elementów nieliniowych (All model parameter information). Małosygnałowa analiza zmiennoprądowa Po sprawdzeniu układu polaryzacji możemy przystąpić do dalszej części projektu wzmacniacza. Załóżmy, że układ sterowany będzie z generatora o rezystancji wewnętrznej Rg = 50 Ω, a obciążeniem będzie rezystancja Ro = 1 kΩ. Przyjmijmy ponadto, że kondensatory sprzęgające mają wartość 68 nF, emiterowy zaś 220 µF. Korzystając z odpowiednich skrótów klawiaturowych lub z menu Parts, wstawiamy generator sterujący oraz dwa rezystory i trzy kondensatory. Po wykonaniu połączeń otrzymujemy układ z rysunku 16.13.
Rys. 16.13. Wzmacniacz w układzie wspólnego emitera
452
16. Komputerowa analiza układów elektronicznych
Rys. 16.14. Deklaracja źródła AC
Musimy teraz zadeklarować odpowiednio źródło sterujące. W tym celu klikamy dwukrotnie na źródle V1 i w oknie właściwości (rysunek 16.14) deklarujemy wartość napięcia dla analizy AC równą 1 V8 oraz zmieniamy nazwę na Vg. Dla przejrzystości za pomocą przycisku Add umieszczamy wartość napięcia AC na liście etykiet wyświetlanych na schemacie. Ponieważ zamierzamy wyznaczyć małosygnałowe charakterystyki częstotliwościowe wzmacniacza, musimy na wyjściu układu umieścić punkt wyprowadzania wyników (sondę pomiarową – Y). Klikając dwukrotnie na sondzie pomiarowej, możemy zmienić jej nazwę na Uwy – patrz rysunek 16.15. Na zakończenie należy jeszcze zadeklarować parametry analizy. W okienku IsSpice 4 Simulation Setup zaznaczamy pole AC Analysis i deklarujemy parametry analizy tak jak na rysunku 16.16. Po akceptacji przyciskiem Done uruchamiamy symulator. W oknie symulatora wykreślana jest na bieżąco charakterystyka amplitudowa i fazowa. Po zakończeniu symulacji przeprowadzamy autoskalowanie i otrzymujemy zobrazowanie wyników jak na rysunku 16.17. Z okienka podglądu odczytujemy, że wzmocnienie w paśmie przenoszenia wynosi około 35 dB. Przeskok fazy, widoczny w lewym okienku podglądu, wynika z faktu, że argumenty funkcji trygonometrycznych, ze względu na okresowość, przedstawiane są w zakresie ±180°. Ponieważ podgląd wyników świadczy o poprawnej pracy układu, możemy uruchomić postprocesor graficzny (menu Actions, polecenie Scope). W okienku Add
8
Zalecana jest jednostkowa wydajność napięciowego źródła sterującego, gdyż wówczas napięcie na wyjściu układu jest liczbowo równe skutecznemu wzmocnieniu napięciowemu.
16.3. Projekt i analiza wzmacniacza małosygnałowego
453
Rys. 16.15. Okno właściwości punktu wyprowadzania wyników
Waveform za pomocą przycisku Browse wybieramy Active Project Output File, zaznaczamy VDB(VUWY) i naciskamy przycisk Add, a następnie zamykamy okienko dodawania wykresu za pomocą przycisku Done – patrz rysunek 16.18.
Rys. 16.16. Parametry małosygnałowej analizy zmiennoprądowej
454
16. Komputerowa analiza układów elektronicznych
Rys. 16.17. Okno symulatora z podglądem wyników obliczeń analizy AC
Maksymalizując okno główne postprocesora graficznego, otrzymujemy zobrazowanie wyników przedstawione na rysunku 16.19. Korzystając z menu Calculator i podmenu Measurement (rysunek 16.19), możemy zmierzyć wartość maksymalną charakterystyki. Wynik pomiaru wyświetlany jest w lewym dolnym rogu okna (w naszym przypadku wynosi 33,6 dB). Używając polecenia Bandwidth, możemy odczytać bezpośrednio szerokość pasma jako ∆x = 7,5
Rys. 16.18. Okienko dodawania wykresów postprocesora graficznego
16.3. Projekt i analiza wzmacniacza małosygnałowego
455
Rys. 16.19. Menu Calculator programu IntuScope. Bardzo użyteczne podmenu Measurement umożliwia pomiar: wartości średniej (Average), liczby punktów przebiegu (Data Points), wartości maksymalnej (Maximum), wartości minimalnej (Minimum), wartości międzyszczytowej (Peak to Peak), wartości średniokwadratowej (RMS) i wartości średniokwadratowej składowej zmiennej (Std Deviation)
MHz – rysunek 16.20. Położenia kursorów wskazują jednocześnie dolną i górną częstotliwość graniczną, odpowiednio: 1,76 kHz i 7,5 MHz. Ponieważ dolna częstotliwość graniczna jest zbyt duża, wracamy do edytora schematów i zwiększamy dziesięciokrotnie pojemności kondensatorów sprzęgających. Po przeprowadzeniu symulacji dodajemy nową charakterystykę częstotliwościową do już istniejącej – patrz rysunek 16.21. Korzystając z autoskalowania (rysunek 16.21), wyrównujemy skale obu wykresów i otrzymujemy obraz z rysunku 16.22. Z rysunku 16.22 można odczytać, że dolna częstotliwość graniczna uległa istotnemu zmniejszeniu i teraz wynosi 218 Hz. Zaznaczamy stary wykres oznaczony numerem 1 i usuwamy go klawiszem Delete, a na jego miejsce, za pośrednictwem okna Add Waveform, wstawiamy charakterystykę fazową. W celu zwiększenia czytelności wykresu możemy jeszcze, poprzez menu Calculator i podmenu Label, dodać etykietę i otrzymać nadający się do wydruku wykres zamieszczony na rysunku 16.23.
456
16. Komputerowa analiza układów elektronicznych
Rys. 16.20. Amplitudowa charakterystyka częstotliwościowa z kursorami ustawionymi na krańcach pasma
Rys. 16.21. Charakterystyki amplitudowe analizowanego układu: 1) Cs1 = Cs2 = 68 nF, 2) Cs1 = Cs2 = 680 nF
16.3. Projekt i analiza wzmacniacza małosygnałowego
457
Rys. 16.22. Charakterystyki amplitudowe z rysunku 16.21 po wyrównaniu skal
Rys. 16.23. Gotowy do wydruku wykres z etykietą prezentującą liczbowo podstawowe parametry wzmacniacza
458
16. Komputerowa analiza układów elektronicznych
Analiza czasowa Powróćmy do pierwotnego projektu wzmacniacza i przygotujmy go pod kątem przeprowadzenia analizy czasowej. W pierwszej kolejności musimy zmienić deklarację źródła wymuszającego. Klikając dwukrotnie na źródle Vg, otwieramy okno właściwości i usuwamy wymuszenie typu AC (nie jest to konieczne, ale poprawia czytelność projektu), następnie naciskamy przycisk Enter9 znajdujący się obok parametru Tran Generators (generatory dla analizy czasowej) – patrz rysunek 16.24. Jako rodzaj wymuszenia wybieramy sygnał harmoniczny o amplitudzie 1 mV i częstotliwości 100 kHz – rysunek 16.25. Następnie, za pośrednictwem okna IsSpice 4 Simulation Setup, otwieramy okienko Transient Analysis i deklarujemy parametry analizy czasowej – rysunek 16.26. Jak widać, wynik analizy, przedstawiony na rysunku 16.27, jest całkowicie satysfakcjonujący. Na rysunku 16.27 dokonano pomiaru wartości maksymalnej (równej amplitudzie, gdyż wartość średnia przebiegu jest zerowa) – zaznaczone pole w lewym dolnym rogu. Ponieważ zadeklarowana amplituda sygnału wejściowego jest równa 1 mV, możemy stwierdzić, że wzmocnienie układu dla częstotliwości 100 kHz wynosi 47,7 V/V = 33,6 dB, co dokładnie potwierdza wynik otrzymany w trakcie analizy zmiennoprądowej AC (patrz rysunek 16.23).
Rys. 16.24. Okno opisujące właściwości źródła napięciowego
9
Przycisk ten pojawia się, dopiero gdy uaktywnimy pole Tran Generators.
16.3. Projekt i analiza wzmacniacza małosygnałowego
459
Rys. 16.25. Ustawianie parametrów sygnału sinusoidalnego
W celu pokazania istoty pracy wielkosygnałowej zwiększamy amplitudę sygnału sterującego do 100 mV. Wynik symulacji przedstawiony jest na rysunku 16.28 (wykres nr 2) na tle poprzedniego przebiegu (wykres nr 1). Rozdział o komputerowej analizie układów elektronicznych zamyka analogową część książki. Proponujemy Czytelnikowi zaczerpnięcie powietrza na długim spacerze, aby pozyskana wiedza mogła się dobrze zakorzenić i bez zbytniego ociągania zapraszamy do nowego – cyfrowego świata.
Rys. 16.26. Parametry analizy czasowej – chcemy obejrzeć pięć okresów sygnału sterującego z rozdzielczością 10 punktów/okres, co powinno zapewnić gładki przebieg wyjściowy. Ponadto dodajemy 20 ms dla zapewnienia z zapasem stanu ustalonego w obwodzie
460
16. Komputerowa analiza układów elektronicznych
Rys. 16.27. Wyniki symulacji czasowej z parametrami pokazanymi na rysunku 16.26
Rys. 16.28. Wyniki symulacji przy pracy wielkosygnałowej – przebieg 2
Część 4.
Układy cyfrowe
17. Wprowadzenie do techniki cyfrowej
Przez pojęcie techniki cyfrowej rozumiemy całokształt działań oraz urządzeń przeznaczonych do pamiętania, przetwarzania i przesyłania informacji cyfrowej, tzn. reprezentowanej z użyciem sygnałów, które w danej chwili znajdują się na jednym z dwóch poziomów napięć: wysokim H (od ang. High) lub niskim L (od ang. Low). Zazwyczaj przyjmuje się, że napięciu niższemu odpowiada wartość logiczna 0, natomiast napięciu wyższemu odpowiada wartość logiczna 1. Taka umowa dotyczy logiki dodatniej i będziemy jej konsekwentnie przestrzegać w dalszej części książki. Układy cyfrowe są przeznaczone do wykonywania zadań, które można podzielić w skrócie na dwie grupy: – wykonywanie obliczeń, – sterowanie urządzeniami. Zwykle zadania te są realizowane łącznie, gdyż współczesne układy cyfrowe charakteryzują się dużą złożonością, zarówno pod względem budowy, jak i możliwości funkcjonalnych. Funkcje sterujące zależą od wyników obliczeń, te z kolei zależą od informacji dostarczanej do układu, wreszcie jedne i drugie zależą od stanu pamięci wewnętrznej i spełnienia innych warunków gwarantujących prawidłowe działanie urządzenia.
17.1. Reprezentacje liczb Warto przyjrzeć się uważnie właściwościom wybranych reprezentacji liczb, by w pełni świadomie z nich korzystać, choćby przy analizie sposobu działania układów dostępnych w handlu lub podczas prowadzenia własnych działań projektowych. Pozycyjna reprezentacja liczb naturalnych Liczbę naturalną w zapisie pozycyjnym przedstawia się następująco: an −1an − 2 ak a1a0 , gdzie ak – k-ta cyfra liczby, n – liczba cyfr.
463
17.1. Reprezentacje liczb
Wartość liczby zależy od podstawy przyjętego systemu liczbowego wg wzoru: L=
n −1
∑ ak p k ,
(17.1)
k =0
gdzie dodatkowe oznaczenia to: L – liczba naturalna, p – podstawa systemu. Na przykład, liczbę L = 14510, zapisaną w systemie dziesiętnym, odczytujemy jako L = 1·102 + 4·101 + 5·100 = 100 + 40 + 5. Poszczególnym cyfrom przyporządkowano wagi, które maleją w ustalonym porządku od lewej do prawej. W tym przypadku wagi to 102, 101, 100. Cyfrę o największej wadze określa się mianem najbardziej znaczącej (MSD – Most Significant Digit), natomiast cyfrę o najmniejszej wadze mianem najmniej znaczącej (LSD – Least Significant Digit). Często o liczbie zapisanej w danym systemie pozycyjnym mówimy, że jest zapisana w danym kodzie, np. dziesiętnym, dwójkowym itp. W przypadku systemu dziesiętnego jest nim naturalny kod dziesiętny (w skrócie ND). Równie często, zwłaszcza w informatyce, spotkamy jeszcze inne określenie liczby zapisanej w określonym systemie pozycyjnym – jako liczbę zapisaną w określonym formacie, np. w formacie dziesiętnym. System dziesiętny, pomimo powszechnego stosowania w życiu codziennym, nie stanowi, poza nielicznymi wyjątkami, podstawy działania komputerów ani innych urządzeń cyfrowych. W praktyce używa się systemu dwójkowego i szesnastkowego (heksadecymalnego – w skrócie HEX), przy czym tego drugiego najczęściej jako sposobu skróconego zapisu liczb dwójkowych. Liczbę dwójkową bn – 1 bn – 2 ... b1b0, zgodnie z ogólnym wzorem (17.1), przedstawiamy następująco: L=
n −1
∑ bk 2k ,
(17.2)
k =0
gdzie: 2 – podstawa systemu dwójkowego, n – liczba cyfr, bk – k-te cyfry 0 lub 1. Powstały w ten sposób kod dwójkowy nazywamy naturalnym kodem binarnym (NB), a jego poszczególne cyfry (0 i 1) bitami (oznaczanymi małą literą b). Stosuje się też inne oznaczenie kodu NB jako BIN. Posłużmy się przykładem liczby 14510 zapisanej w systemie dwójkowym 14510 = 100100012 = 1 · 27 + 0 · 26 + 0 · 25 + 1 · 24 + 0 · 23 + 0 · 22 + 0 · 21 + 1 · 20. Tym razem wagi to 27, 26, .., 20. Bit o największej wadze określa się mianem najbardziej znaczącego (MSB – Most Significant Bit), natomiast bit o najmniejszej
464
17. Wprowadzenie do techniki cyfrowej
wadze mianem najmniej znaczącego (LSB – Least Significant Bit). Kod dwójkowy, reprezentowany ciągiem bitów, tworzy słowa, których niektóre długości mają specjalne nazwy: bajt (8 bitów, oznaczany dużą literą B), kilobajt (1000 bajtów, kB), megabajt (1 mln bajtów, MB) itd. Przedstawiony sposób stosowania przedrostków (kilo, mega, itd.) do wyrażania odpowiednich mnożników (103, 106 itd.) jest zgodny z wytycznymi układu SI. W praktyce często stosuje się również inne wartości mnożników (1024, 1048576 itd.), które stanowią wynik operacji potęgowania liczby 2 (210, 220 itd.). Powyższa niejednoznaczność może niekiedy prowadzić do nieporozumień, np. przy określaniu pojemności dysków twardych. Liczby w kodzie szesnastkowym można otrzymać w sposób analogiczny do pokazanych wyżej. Trzeba w tym celu rozbudować zbiór stosowanych cyfr tak, aby było ich 16. W tym celu zbiór cyfr stosowanych w kodzie dziesiętnym uzupełniamy początkowymi znakami alfabetu łacińskiego: A, B, C, D, E i F. W tabeli 17.1 zestawiono pierwszych 20 liczb reprezentowanych odpowiednio z użyciem kodu dziesiętnego, dwójkowego i szesnastkowego. Tab. 17.1. Zestawienie pierwszych 20 liczb w kodach: dziesiętnym, dwójkowym i szesnastkowym Kod dziesiętny (ND)
Kod dwójkowy (NB)
Kod szesnastkowy (HEX)
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
0 1 10 11 100 101 110 111 1000 1001 1010 1011 1100 1101 1110 1111 10000 10001 10010 10011
0 1 2 3 4 5 6 7 8 9 A B C D E F 10 11 12 13
Konwersja formatu liczby Konwersję liczby dwójkowej na postać dziesiętną można wykonać, korzystając wprost ze wzoru (17.2). Natomiast konwersja odwrotna, na podstawie tego samego wzoru, może być kłopotliwa z uwagi na konieczność dobierania odpowiednich składników sumy tak, by równość była spełniona. W tym celu używamy prostego algorytmu iteracyjnego rozkładu liczby dziesiętnej na potęgi 2, poprzez dzielenie przez 2, przedstawionego na rysunku 17.1.
465
17.1. Reprezentacje liczb
a)
l0 = L
b) 145 72 36 18 9 4 2 1
l0 b = l1 + 0 2 2 l1 b = l2 + 1 2 2 ... ln −1 b = 0 + n −1 2 2
li :2 :2 :2 :2 :2 :2 :2 :2
= = = = = = = =
bi 72 + 1 : 2 36 + 0 18 + 0 9+1:2 4+1:2 2+0 1+0 0+1:2
li
bi
145 1 72 0 36 0 18 0 9 1 4 0
← LSB
2 0 1 1 ← MSB 14510 = 100100012
Rys. 17.1. Konwersja liczby zapisanej w formacie dziesiętnym na format dwójkowy: a) algorytm iteracyjny, b) przykłady zapisu obliczeń
Najpierw dzielimy liczbę przez 2. Wynikiem dzielenia jest liczba, składająca się z części całkowitej l1 oraz reszty b0 /2. Potem bierzemy część całkowitą wyniku i ją także dzielimy przez 2, uzyskując w ten sposób kolejne wartości li, bi. Czynności powtarzamy tak długo, aż wynik dzielenia będzie równy 1/2. W trakcie konwersji wykonywanej za pomocą długopisu i kartki papieru można zapis uprościć przez wypisanie kolejnych par liczb li, bi w dwóch kolumnach rozdzielonych kreską. Otrzymana w ten sposób liczba dwójkowa ma postać bn −1bn − 2 b1b 0. Konwersja zapisu liczb dwójkowych na szesnastkowe i odwrotnie prowadzona jest w sposób trywialny. Korzysta się z właściwości, że każda cyfra kodu szesnastkowego ma swój odpowiednik dwójkowy złożony z czterech bitów kodu dwójkowego. Przykłady konwersji tych kodów pokazano na rysunku 17.2. W zapisie liczb kodu szesnastkowego często stosuje się przedrostek 0x lub $ (np. 0x9DF, $3CF0) albo przyrostek h (np. 9DFh, 3CF0h). W praktyce, kod szesnastkowy, ze względu na krótki zapis, jest bardziej użyteczny do reprezentowania liczb dwójkowych niż kod dwójkowy. Stosują go powszechnie elektronicy i informatycy. Ci drudzy chyba nawet częściej. Konwersja pomiędzy kodami dziesiętnym i szesnastkowym jest zwykle prowadzona wg schematu ND –> BIN –> HEX i odwrotnie wg schematu HEX –> BIN –> ND. Oczywiście, można też zrobić ją w sposób bezpośredni, jednak takie postępowanie wydaje się zbyt męczące. Zainteresowanych Czytelników odsyłamy do innych pozycji literaturowych, np. [9, 12].
a) BIN ↓
HEX
1001 11010111 ↓
↓
↓
9
D
7
b) HEX ↓
BIN
3
C
F
0
↓ ↓ ↓ ↓
001111001111 0000
Rys. 17.2. Przykłady konwersji kodów: a) z kodu dwójkowego na szesnastkowy, b) z szesnastkowego na dwójkowy
466
17. Wprowadzenie do techniki cyfrowej
Pozycyjna reprezentacja dodatnich liczb rzeczywistych Liczbę rzeczywistą, składającą się z części całkowitej oraz ułamkowej, zapisujemy w kodzie pozycyjnym następująco: an −1an − 2 ak a1a0 , a−1a−2 a−1a− m część całkowita część ułamkowa gdzie: ak – k-ta cyfra liczby, n – liczba cyfr części całkowitej, m – liczba cyfr części ułamkowej. Część całkowitą często oddzielamy od części ułamkowej przecinkiem bądź kropką. W konsekwencji powyższy zapis liczb nazywamy stałoprzecinkowym. Jednak przecinek (bądź kropka) ma tutaj znaczenie pomocnicze i wcale nie musi występować. Wystarczy wtedy poinformować, ile wynosi n lub m. Wartość liczby rzeczywistej obliczymy za pomocą wyrażenia: L=
n −1
∑
k =− m
ak p k .
(17.3)
Na przykład, liczbę L = 145,67810 odczytamy jako L = 1 · 102 + 4 · 101 + 5 · 100 + 6 · 10 –1 + 7 · 10 –2 + + 8 · 10 –3 = 100 + 40 + 5+
6 8 7 + + . 10 100 1000
Podobnie postępujemy z liczbami zapisanymi dwójkowo i szesnastkowo.
a)
l−1 = L 2l−1 = b−1 + l−2 2l−2 = b−2 + l−3 ...
2l− m = b− m + l− m −1
b) 2 2 2 2 2 2
· · · · · ·
li 0,678 0,356 0,712 0,424 0,848 0,696
= = = = = = .. .
bi 1+ 0+ 1+ 0+ 1+ 1+
li – 1 0,356 0,712 0,424 0,848 0,696 0,392
2li
bi
li−1
1, 356 1 0, 712 0 1, 424 1 0, 848 0 1, 696 1 1, 392 1 ← LSB 0,67810 = 0,101011...2
Rys. 17.3. Konwersja liczby ułamkowej zapisanej w formacie dziesiętnym na format dwójkowy: a) algorytm iteracyjny, b) przykłady zapisu obliczeń
467
17.1. Reprezentacje liczb
Stałoprzecinkowa reprezentacja liczb, w wielu przypadkach, jest źródłem powstawania dużych błędów zaokrągleń. Przykładowo, jeśli chcemy przedstawić liczbę dziesiętną w kodzie dwójkowym, to osobno przetwarzamy część całkowitą (patrz rysunek 17.1) i osobno część ułamkową (patrz rysunek 17.3). Algorytm konwersji części ułamkowej liczby różni się nieco od algorytmu konwersji części całkowitej głównie tym, że zamiast dzielenia przez 2 stosujemy mnożenie przez 2. Analizę skróconego zapisu pozostawiamy Czytelnikowi. Zwróćmy uwagę, że wierne odwzorowanie części ułamkowej może być niemożliwe ze względu na ustaloną liczbę bitów przeznaczonych na jej realizację. Przykładowe zestawienie błędów zaokrągleń powstających przy konwersji liczby 0,67810 na kod dwójkowy przedstawia się następująco: 0,101011012 = 0,6757812510
-- błąd = – 0,00221875
0,1010110112 = 0,67773437510
-- błąd = – 0,000265625
0,1010110110012 = 0,67797851562510
-- błąd = – 0,000021484375
Zapis liczb dwójkowych ze znakiem Reprezentacje liczb dwójkowych ze znakiem uzyskuje się poprzez wstawienie dodatkowego bitu na początku. Stąd jej zapis jest następujący: zn an −1an − 2 a1a0 . Wyróżnia się trzy zasadnicze typy kodów stosowanych do opisu liczb ze znakiem: – ZM (znak, moduł), – ZU1 (znak, uzupełnienie do 1) – ZU2 (znak, uzupełnienie do 2). We wszystkich wymienionych kodach przyjmuje się, że 0 na pozycji bitu znaku zn oznacza (+), natomiast 1 oznacza (–). Warto też od razu odnotować, że liczby dodatnie będą zapisane tak samo we wszystkich trzech kodach, natomiast liczby ujemne będą się różnić. Przykładowe zestawienie liczb czterobitowych ze znakiem w kodach ZM, ZU1 i ZU2 zawiera tabela 17.2. Moduł oznacza wartość bezwzględną liczby, stąd w zapisie ZM ma taką samą wartość dla liczb dodatnich i ujemnych. Takie przedstawianie liczby jest zgodne z naszymi przyzwyczajeniami i charakteryzuje się pewnymi zaletami, np. operacja zmiany znaku jest w tym kodzie trywialna. Z kolei operacja sumowania wymaga już większej liczby zabiegów, tj. podejmowania decyzji, na podstawie znaków sumowanych składników, o sposobie działania (dodawaniu bądź odejmowaniu) i wreszcie ustaleniu znaku wyniku. Takiej wady nie mają pozostałe dwie reprezentacje. Jednakże tylko kod ZU2 ma jednoznaczną reprezentację 0, co pod tym względem czyni go bardziej użytecznym od ZU1. Sposób zamiany zapisu liczb ujemnych między kodami ZM, ZU1 i ZU2 zilustrowano na rysunku 17.4.
468
17. Wprowadzenie do techniki cyfrowej Tab. 17.2. Zestawienie czterobitowych liczb w kodach ze znakiem Liczba dziesiętna –8 –7 –6 –5 –4 –3 –2 –1 –0 0 +0 1 2 3 4 5 6 7
–7(10)
ZM
ZU1
1111 1110 1101 1100 1011 1010 1001 1000
1000 1001 1010 1011 1100 1101 1110 1111
0000 0001 0010 0011 0100 0101 0110 0111
0000 0001 0010 0011 0100 0101 0110 0111
1111 −
ZM
↓
1000 − ZU1 Inwersja bitów modułu
ZU2 1000 1001 1010 1011 1100 1101 1110 1111 0000 0001 0010 0011 0100 0101 0110 0111
1000 − +1
ZU1
1001 − ZU 2 Dodanie 1
Rys. 17.4. Ilustracja zamiany reprezentacji liczby ujemnej –7(10) w kodach ZM, ZU1 i ZU2
Zmiennoprzecinkowa reprezentacja liczb Liczby zmiennoprzecinkowe, zgodnie z nazwą, nie mają ustalonej pozycji przecinka. Może on zajmować dowolną pozycję w reprezentacji liczby, dzięki czemu następuje rozszerzenie zakresu możliwych do przedstawienia liczb w porównaniu do liczb stałopozycyjnych. Możemy zatem w całości zużyć dostępne pozycje na przedstawienie liczb wyłącznie całkowitych, wyłącznie ułamkowych, jak i złożonych z części całkowitej i ułamkowej. Liczba zmiennoprzecinkowa składa się ze złożenia dwóch liczb: mantysy oraz wykładnika nazywanego też cechą. Dwójkowa liczba zmiennoprzecinkowa może być wyrażona w postaci: L = M · 2W,
(17.4)
gdzie M – mantysa (liczba ułamkowa), W – wykładnik. Zarówno mantysa, jak i wykładnik są często reprezentowane w kodzie ZU1 lub ZU2. Ważnym wymaganiem reprezentacji zmiennoprzecinkowej jest spełnianie warunku normalizacji, której celem jest „wyrzucenie” nieznaczących cyfr z mantysy poprzez odpowiednie ustalenie pozycji przecinka. Zmianę pozycji przecinka uzyskamy, odpowiednio zwiększając bądź zmniejszając wykładnik.
17.1. Reprezentacje liczb
469
Rys. 17.5. Struktura danych typu double
Z liczbami zmiennoprzecinkowymi spotykamy się często w informatyce. Programiści powszechnie stosują takie typy danych jak: real, single, double czy extended. Różnią się one między sobą, przede wszystkim, długościami słów mantysy i wykładnika. Przykładowa budowa danej typu double jest pokazana na rysunku 17.5. Wykonywanie działań arytmetycznych z użyciem liczb zmiennoprzecinkowych jest bardziej skomplikowane niż z użyciem liczb stałoprzecinkowych i bardziej długotrwałe. Dlatego w pierwszych komputerach PC wprowadzono specjalne układy koprocesorów, które znacznie zwiększały ich wydajność. Zdaje się, że nasze pierwsze PC często nie miały takich układów, ale na pewno były dla nich podstawki na płytach głównych. Inne kody dwójkowe Mnogość kodów dwójkowych, sklasyfikowanych jako inne, jest oczywiście ogromna. Najbardziej popularne to: – kody dwójkowo-dziesiętne (BCD) – umożliwiające zapis cyfr dziesiętnych za pomocą czterobitowego kodu dwójkowego (zazwyczaj używa się pierwszych 10 wartości kodu NB), np. liczba 7510 = 0111 0101BCD, – kod wyświetlacza 7-segmentowego – 7-bitowy kod przeznaczony do zobrazowania cyfr z użyciem świecących segmentów wyświetlacza (rysunek 17.6), – kod Graya – kod stosowany przy odczycie czujników (np. położenia kątowego) oraz w opisie układów cyfrowych. Ma właściwość, że kolejne jego wartości różnią się tylko na jednej pozycji bitowej. Kod ten będzie dokładniej wyjaśniony w dalszej części, – kod 1 z n – kod, którego kolejne słowa zawierają tylko jedną jedynkę przesuwającą się zwykle od pozycji najmniej znaczącej w kierunku pozycji bardziej znaczącej, najmniej oszczędny pod względem liczby bitów, stosowany w koderach i dekoderach (będą opisane w dalszej części), – kody alfanumeryczne – grupa kodów reprezentujących znaki. Istnieje wiele standardów, z których historycznie najbardziej znanym jest 7-bitowy kod ASCII objęty normą ANSI X3.4-1986. Obecnie powszechnie stosuje się 8- i 16-bitowe kody alfanumeryczne. Można się z nimi zapoznać, np. uruchamiając aplikację tablicy znaków w systemie Windows,
470
17. Wprowadzenie do techniki cyfrowej
Rys. 17.6. Zasada działania wyświetlacza siedmiosegmentowego
– kody kontrolne – kody detekcyjne (służące do wykrywania błędów) oraz korekcyjne (służące do korekcji błędów). Nie będą tutaj opisywane (obszerny opis można znaleźć w [9]).
17.2. Algebra Boole’a i wzór Shannona Do opisu działania pewnej grupy układów cyfrowych stosuje się reguły, które wynikają z praw dwuwartościowej algebry Boole’a. Prawa algebry Boole’a 1. a + a = a 2. a + b = b + a 3. a + (b + c) = (a + b) + c
a⋅a = a a ⋅b = b ⋅ a a ⋅ (b ⋅ c) = (a ⋅ b) ⋅ c
Idempotentność Przemienność Łączność
4. a + (b ⋅ c) = (a + b) ⋅ (a + c)
a ⋅ (b + c) = (a ⋅ b) + (a ⋅ c)
Rozdzielność
5. a + (a ⋅ b) = a
a ⋅ ( a + b) = a
Pochłanianie
6. a + 0 = a a⋅0 = 0 7. a + a = 1 8. a = a
a +1 = 1 a ⋅1 = a a⋅a = 0
Własności stałych
9. a + b = a ⋅ b
a ⋅b = a + b
Prawa De Morgana
Własności negacji Podwójna negacja
Zastosowanie algebry Boole’a do sygnałów binarnych sformalizował C.E. Shannon w roku 1938. Stosuje się w niej oznaczenia operacji sumy (+), iloczynu (·) oraz negacji (–). Należy pamiętać, że podane operatory są operatorami logicznymi i nie można ich mylić z operatorami arytmetycznymi. Na przykład wyrażenie logiczne
471
17.3. Symbole operacji logicznych
1 + 1 daje w wyniku 1, natomiast jego arytmetyczny odpowiednik daje w wyniku 2. Zatem znaczenie operatorów wynika zwykle z treści, w której otoczeniu występują. Stosowane są często również inne oznaczenia operatorów, wynikające przede wszystkim z szerokiego użycia algebry Boole’a w rachunku zdań oraz rachunku zbiorów. Operator sumy jest oznaczany symbolami {∨, ∪}, operator iloczynu symbolami {∧, ∩}, a operator negacji (uzupełnienia) symbolami apostrofu, bądź ukośnika {', /}. Pierwszeństwo działań w algebrze Boole’a jest takie same jak w arytmetyce, więc nawiasy są często opuszczane tam, gdzie nie prowadzi to do nieporozumień. Opuszczany jest także znak mnożenia. Zmienne najczęściej oznaczane są z użyciem małych liter alfabetu łacińskiego lub liter z indeksami, np. x1, x2, ... W poniższym tekście będą stosowane jedne i drugie. Zadanie projektanta polega m.in. na wyznaczaniu funkcji logicznych w postaci nadającej się do realizacji układowej. Taka operacja składa się nie tylko z samego przygotowania formuły logicznej, ale również z odpowiednio dobranych przekształceń mających na celu uproszczenie formuły bądź uzyskanie zapisu wg określonego szablonu; np. można wykazać, że każdą funkcję logiczną da się wyrazić z użyciem tylko dwóch operatorów: negacji i iloczynu albo negacji i sumy. Przekształcanie wyrażeń boole'owskich wyłącznie na podstawie praw algebry Boole’a może okazać się dość kłopotliwe, zwłaszcza przy większej liczbie zmiennych. Dlatego w praktyce często korzysta się ze wzorów upraszczających procedurę przekształceń. Jednym z takich wzorów jest wzór Shannona zawierający formy dualne, stanowiący w istocie uogólnienie prawa De Morgana w zastosowaniu do funkcji logicznej. f ( xn −1 , xn − 2 , , x0 , +, ⋅) = f ( xn −1 , xn − 2 , , x0 , ⋅ , +) .
(17.5)
Ze wzoru wynika, że funkcję logiczną, reprezentowaną w postaci wyrażenia boole'owskiego, można przedstawić jako jej negację, negując wszystkie zmienne oraz zamieniając miejscami operatory (+) i (·). Na przykład wyrażenie y = a + b + cd otrzymuje postać y = (ab)(c + d ). Funkcje logiczne mogą być także opisywane za pomocą tablic prawdy (tablic stanów, tablic funkcyjnych) i symboli operacji logicznych (funktorów).
17.3. Symbole operacji logicznych Wyrażenia logiczne mogą być przedstawiane graficznie w formie schematów logicznych. W tym celu wprowadzono symbole operacji logicznych. Są dwa standardy rysowania symboli: symbole o kształtach zróżnicowanych oraz symbole o kształtach prostokątnych [9]. W niniejszej książce będziemy używać symboli o kształtach
472
17. Wprowadzenie do techniki cyfrowej
Rys. 17.7. Symbole podstawowych operacji logicznych i ich znaczenie
zróżnicowanych. Na rysunku 17.7 pokazano symbole podstawowych operacji logicznych oraz ich funkcje w postaci wyrażeń boolowskich i tablic prawdy. Symbole podstawowych operacji logicznych stanowią swego rodzaju wzorzec umożliwiający utworzenie innych symboli reprezentujących bardziej złożone operacje. Polega to na tym, że można opatrzyć wybrane wejścia (i wyjście) kółkami symbolizującymi negacje oraz zwiększać liczbę doprowadzeń wejściowych. Tak utworzone symbole przydatnych operacji (funkcji elementarnych) pokazano na rysunku 17.8. Przy graficznym przedstawianiu funkcji próbuje się przestrzegać zasady, aby te, które występują w postaci prostej, były reprezentowane za pomocą symboli operacji OR i AND. Natomiast te, które występują w postaci zanegowanej, za pomocą symboli NOR i NAND. W rysowaniu schematów logicznych pomocne są symbole równoważne operacji zamieszczone na rysunku 17.9.
Rys. 17.8. Symbole przydatnych operacji
17.4. Zasady rysowania schematów logicznych
473
Rys. 17.9. Symbole równoważne operacji logicznych
Powyższe symbole operacji logicznych stosuje się także w odniesieniu do układów elektronicznych przeznaczonych do ich fizycznej realizacji nazywanych bramkami. Będziemy o nich pisać w dalszej części książki.
17.4. Zasady rysowania schematów logicznych Schematy logiczne są przypuszczalnie najczęstszym sposobem opisu układów cyfrowych i mimo rosnącej roli innych sposobów, np. języków opisu sprzętu, różnego rodzaju diagramów oraz tablic, są chętnie używane przez projektantów. Do rysowania takich schematów używa się symboli podstawowych elementów logicznych, symboli bloków (najczęściej prostokątnych, reprezentujących schematy oraz inne opisy leżące na niższym poziomie hierarchii), połączeń oraz symboli wejść i wyjść. Rysowanie schematów ideowych odbywa się dzisiaj z użyciem specjalnie do tego przeznaczonych programów komputerowych, nazywanych edytorami schematowymi. Istnieje wiele takich edytorów charakteryzujących się większym bądź mniejszym podobieństwem. Jednakże wybór odpowiedniego edytora schematowego może być istotny nie ze względu na sposób obsługi, lecz ze względu na zasoby umożliwiające wykonanie schematu układu przeznaczonego do realizacji w określonej technologii. Symbole elementów i połączenia powinny być rozmieszczone tak, aby w sposób czytelny pokazywać realizowane funkcje. W trakcie rysowania prostych schematów można stosować pewne zabiegi, które można nazwać prowadzeniem syntezy graficznej. Na przykład schemat układu realizującego funkcję zapisaną wyrażeniem boole'owskim y = a + bc da się, w wyniku wprowadzania kolejnych zmian, przedstawić za pomocą schematu reprezentującego funkcję y = abc (rysunek 17.10). Powyższe schematy ilustrują sposób dokonywania przekształceń bezpośrednio w edytorze graficznym, bez potrzeby prowadzenia analizy wyrażeń logicznych.
474
17. Wprowadzenie do techniki cyfrowej
Rys. 17.10. Przykład syntezy graficznej: przekształcenia schematu logicznego układu realizującego funkcję y = a+ bc = a+ bc = abc
W takich przekształceniach korzysta się z możliwości wstawiania i usuwania kółek, będących oznaczeniami negacji na obu końcach połączenia, przenoszenia kółek z jednego końca na drugi oraz stosowania symboli równoważnych. W praktyce najlepszym schematem jest oczywiście taki, który przedstawia prawidłowo działające urządzenie. Taki schemat powstaje zwykle w wyniku żmudnego wprowadzania poprawek projektowych, które mogą zmniejszyć jego czytelność. Zatem po każdej poprawce należy wykonać odpowiednią korektę schematu tak, aby nadawał się do dokumentacji, tzn. opisywał działanie urządzenia w sposób możliwie łatwy w interpretacji.
18. Układy kombinacyjne Układy cyfrowe dzieli się na układy kombinacyjne oraz sekwencyjne. Różnią się one znacznie sposobem działania i są projektowane wg innych reguł. W tym rozdziale przedstawiono: definicję układu kombinacyjnego, sposoby jego reprezentacji oraz wybrane metody projektowe.
18.1. Definicja układu kombinacyjnego Układem kombinacyjnym (UK) nazywamy układ o n wejściach oraz m wyjściach, w którym stan wyjść zależy tylko od aktualnego stanu wejść (rysunek 18.1). Stąd wynika ważny wniosek, że układ kombinacyjny nie ma zdolności pamiętania stanów wcześniejszych. Zatem może być opisany wprost za pomocą funkcji logicznych, bardzo dogodnych z punktu widzenia realizacji układowej. Niestety, samo wyznaczanie funkcji może stanowić problem, bo nawet jeśli uznamy, że są prawidłowe, to nadal nie jesteśmy pewni, czy zapisaliśmy je w optymalnej formie. Dlatego w dalszej części rozdziału opisano najważniejsze techniki stosowane przy projektowaniu układów kombinacyjnych.
18.2. Dwupoziomowa reprezentacja układów kombinacyjnych Działanie układu kombinacyjnego możemy opisać słownie, za pomocą rysunków, tablic prawdy i, oczywiście, za pomocą schematu logicznego. Najlepszym sposobem zapoznania Czytelnika z tymi zagadnieniami jest, zdaniem autorów, użycie odpowiednio dobranych przykładów.
Rys. 18.1. Symbol układu kombinacyjnego
476
18. Układy kombinacyjne
Przykład 1 Wyznaczyć funkcje sterujące wymianą wody w basenie zaopatrzonym w trzy czujniki poziomu oraz dwa zawory: dopływowy i odpływowy, jak pokazano na rysunku 18.2a. Czujniki poziomu są umieszczone na trzech wysokościach w pobliżu planowanego poziomu lustra wody. Zadanie układu sterującego ma polegać na zapewnieniu ciągłej wymiany wody w basenie z gwarancją utrzymania jej poziomu pomiędzy skrajnymi czujnikami. Rozwiązanie Załóżmy, że na zanurzonym czujniku jest stan 1, natomiast na niezanurzonym 0. Podobnie przyjmijmy, że sterowanie zaworami odbywa się wg przyporządkowania: 1 – zawór otwarty, 0 – zawór zamknięty. Przewidujemy także możliwość wystąpienia awarii, której stan będziemy sygnalizować za pomocą 1. Wreszcie przyjmujemy oznaczenia zmiennych wejściowych i wyjściowych zgodnie z umieszczonymi na rysunku. Teraz możemy przystąpić do opracowania tablicy prawdy zawierającej wszystkie możliwe kombinacje stanów wejść i przyporządkowanych im wyjść (rysunek 18.2b).
Rys. 18.2. Sterowanie wymianą wody w basenie: a) rysunek poglądowy, b) tablica prawdy
18.2. Dwupoziomowa reprezentacja układów kombinacyjnych
477
Według opracowywanej tablicy prawdy, przy prawidłowym działaniu czujników poziomu, zawsze jest otwarty przynajmniej jeden zawór: dopływowy – gdy poziom wody jest poniżej środkowego czujnika i odpływowy – gdy poziom wody jest powyżej dolnego czujnika. Zauważmy, że zastosowanie aż trzech czujników pozwala wykryć stan awarii, włączyć sygnalizację i pozamykać zawory. Pokazany sposób wyznaczania zakodowanej tablicy prawdy jest ważnym krokiem prowadzącym do wyznaczenia funkcji przełączających. Przykładowo, jeśli weźmiemy pod uwagę wiersze, dla których stany wyjść są równe 1, to dla każdego takiego wiersza można skonstruować iloczyn pełny (złożony ze wszystkich zmiennych wejściowych). W miejsce jedynek wstawiamy zmienną, natomiast w miejsce zer jej negację. Przykładowo do wyznaczenia funkcji y0 bierzemy wiersze x2
x1
x0
y0
0
0
0
1
← x2 x1 x0
0
0
1
1
← x2 x1 x0
i następnie z wyrazów iloczynowych wyznaczamy postać kanoniczną sumacyjną funkcji: y0 = x2 x1 x0 + x2 x1 x0 . W identyczny sposób wyznaczamy funkcję y1. x2
x1
x0
y1
0
0
1
1
← x2 x1 x0
0
1
1
1
← x2 x1 x0
y1 = x2 x1 x0 + x2 x1 x0 . I na koniec funkcję y2. x2
x1
x0
y2
0
1
0
1
← x2 x1 x0
1
0
0
1
← x2 x1 x0
1
0
1
1
← x2 x1 x0
1
1
0
1
← x2 x1 x0
1
1
1
1
← x2 x1 x0
y2 = x2 x1 x0 + x2 x1 x0 + x2 x1 x0 + x2 x1 x0 + x2 x1 x0 . Na podstawie powyższych funkcji boole'owskich możemy narysować schemat logiczny układu sterującego, który oznaczymy jako wariant 1 (rysunek 18.3).
478
18. Układy kombinacyjne
Funkcję można wyznaczyć również w inny sposób, poprzez wybór wierszy, dla których funkcja przyjmuje wartość 0. Na podstawie takich wierszy konstruujemy iloczyny pełne i otrzymujemy wyrażenia: y0 = x2 x1 x0 + x2 x1 x0 + x2 x1 x0 + x2 x1 x0 + x2 x1 x0 + x2 x1 x0 , y1 = x2 x1 x0 + x2 x1 x0 + x2 x1 x0 + x2 x1 x0 + x2 x1 x0 + x2 x1 x0 , y2 = x2 x1 x0 + x2 x1 x0 + x2 x1 x0 . Otrzymane funkcje występują w postaci zanegowanej (dopełniającej), zatem na schemacie układu, który oznaczymy jako wariant 2, trzeba będzie dodać inwertery
Rys. 18.3. Schemat logiczny układu sterowania (wariant 1)
18.2. Dwupoziomowa reprezentacja układów kombinacyjnych
479
(rysunek 18.4). Jeśli porównamy oba schematy, to zauważymy, że występują na nich 2 poziomy operacji: poziom AND oraz poziom OR. Jeśli pominiemy inwertery wejściowe i wyjściowe, to możemy uznać, że są to reprezentacje dwupoziomowe. Gołym okiem widać, że układ oznaczony jako wariant 2 jest dużo bardziej złożony niż uzyskany w pierwszym podejściu, bo symbole operacji sumy tworzące drugi poziom mają większą liczbę wejść i trzeba wykonać znacznie więcej połączeń. Zauważmy też, że na obu schematach znajdujemy takie funktory AND, których wyjście jest dołączone do dwóch funktorów OR. Taka możliwość, pojawia się tylko w przypadku funkcji wielowyjściowych i pozwala często zmniejszyć liczbę
Rys. 18.4. Schemat logiczny układu sterowania (wariant 2)
480
18. Układy kombinacyjne
potrzebnych funktorów AND. Połączenia pomiędzy poziomami AND i OR nazywa są często termami iloczynowymi bądź po prostu termami, a wyrażenie boole'owskie występujące w postaci sumy iloczynów nazywa się w skrócie SOP (Sum-of-product). Oczywiście, obydwa wyznaczone w ten sposób schematy logiczne są dalece nieoptymalne. Można obie formy logiczne znacznie uprościć bez zmiany funkcji. Na obecnym etapie nie wiemy jeszcze, która z tych dwóch form okaże się lepsza do dalszego przekształcania. Zatem, w dalszych etapach projektowania jako punkt wyjściowy, stosuje się oba warianty funkcji. Wyznaczone funkcje, których podstawą jest dwupoziomowa reprezentacja SOP, mogą być w prosty sposób przekształcone do postaci iloczynu sum. Wystarczy skorzystać z twierdzenia Shannona (wzór 17.5). W ten sposób funkcje przedstawioną w kanonicznej postaci sumacyjnej przekształcamy do kanonicznej postaci iloczynowej. Odpowiednie przekształcenia wyglądają następująco: – do wariantu 1 y0 = ( x2 + x1 + x0 )( x2 + x1 + x0 ), y1 = ( x2 + x1 + x0 )( x2 + x1 + x0 ), y2 = ( x2 + x1 + x0 )( x2 + x1 + x0 )( x2 + x1 + x0 )( x2 + x1 + x0 )( x2 + x1 + x0 ). – do wariantu 2 y0 = ( x2 + x1 + x0 )( x2 + x1 + x0 )( x2 + x1 + x0 )( x2 + x1 + x0 )( x2 + x1 + x0 )( x2 + x1 + x0 ), y1 = ( x2 + x1 + x0 )( x2 + x1 + x0 )( x2 + x1 + x0 )( x2 + x1 + x0 )( x2 + x1 + x0 )( x2 + x1 + x0 ), y2 = ( x2 + x1 + x0 )( x2 + x1 + x0 )( x2 + x1 + x0 ). Teraz także mamy funkcje, na podstawie których można utworzyć schematy zawierające dwa poziomy operacji, lecz tym razem w miejscu poziomu iloczynu wystąpi poziom sumy, natomiast w miejscu poziomu sumy poziom iloczynu. W powyższych operacjach uzyskaliśmy zatem cztery warianty funkcji przełączających i układów logicznych reprezentowanych jako: 1. Sumy iloczynów (SOP) 2. Negację sum iloczynów (negacja SOP) 3. Negację iloczynu sum 4. Iloczyny sum Uzyskane cztery rozwiązania poszukiwanego układu będą, w dalszej części, stanowić punkt wyjścia do poszukiwań lepszych rozwiązań. Jednak zanim rozpoczniemy poszukiwania, powinniśmy sprecyzować kryteria oraz miary, które umożliwią ocenę jakości otrzymywanych rozwiązań. Zdecydujmy, że formy proste i zanegowane w postaci iloczynu sum nie będą nas interesować, gdyż można je szybko uzyskać, przekształcając formy SOP charakteryzujące się przecież podobną złożonością. Zatem złożoność formy SOP, która nas
481
18.2. Dwupoziomowa reprezentacja układów kombinacyjnych
interesuje, wyrazimy liczbowo za pomocą wskaźnika złożoności z jako sumę liczby występujących w niej literałów oraz liczby wyrazów iloczynowych, np. y0 = x2 x1 x0 + x2 x1 x0
z = 3+3+ 2 = 8
y0 = x2 x1 x0 + x2 x1 x0 + x2 x1 x0 + x2 x1 x0 + x2 x1 x0 + x2 x1 x0
z = 6 ⋅ 3 + 6 = 24
Możemy takie funkcje zapisać krócej z użyciem zbiorów prawdy (T, true) i fałszu (F, false) oraz równoważników dziesiętnych reprezentujących poszczególne iloczyny, np. y0 = x2 x1 x0 + x2 x1 x0 → T = {0, 1} 000
001
y0 = x2 x1 x0 + x2 x1 x0 + x2 x1 x0 + x2 x1 x0 + x2 x1 x0 + x2 x1 x0 → F = {2, 3, 4, 5, 6, 7} 010
011
100
101
110
111
W literaturze można też spotkać inny zapis, np. y0 ( x2 , x1 , x0 ) = ∑ (0,1) , y0 ( x2 , x1 , x0 ) = ∑ (2, 3, 4, 5, 6, 7). Zauważmy, że zbiory prawdy i fałszu reprezentujące funkcję y0 spełniają warunek T ∪ F = N, gdzie N – zbiór wszystkich liczb naturalnych, które można zapisać w postaci dwójkowej z użyciem określonej liczby zmiennych, w tym przypadku N = {0, ..., 7}. Oznacza to, że y jest funkcją zupełną lub inaczej w pełni określoną. W przypadku funkcji niezupełnych, tzn. takich, których sumy zbiorów T i F nie zawierają wszystkich elementów zbioru N, stosuje się osobny zbiór D (don’t care) zawierający stany nieokreślone, czyli dowolne, oznaczane najczęściej symbolami –, x lub d. Obowiązuje wtedy zasada: T ∪ F ∪ D = N. Do wyrażenia funkcji zupełnej wystarczy dostarczyć informację o elementach tylko jednego zbioru, np. zbioru T. Natomiast do wyrażenia funkcji niezupełnej trzeba podać informacje o zawartości dowolnych dwóch zbiorów, np. T i D. Dla przedstawienia tych zbiorów (T i D) stosowany jest też zapis: y ( x3 , x2 , x1 , x0 ) = ∑ (1, 2, 3, 7, 12, 13, 15 , (5, 10, 14)). D T Uwzględnianie informacji o stanach nieokreślonych może bardzo wydatnie przyczynić się do redukcji złożoności projektowanych układów kombinacyjnych. Dlatego nie wolno tych informacji zaniedbywać.
482
18. Układy kombinacyjne
Najważniejszym kryterium syntezy logicznej jest zwykle znalezienie rozwiązania o najmniejszym koszcie, który wyznacza się, stosując takie miary, jak: – wartość wskaźnika złożoności z, – całkowita liczba elementów logicznych oraz koszt ich realizacji, – liczba wszystkich termów.
18.3. Minimalizacja funkcji logicznych Reprezentowanie funkcji za pomocą kanonicznej formy SOP, aczkolwiek bardzo wygodne i łatwe w interpretacji, jest nieoptymalne z punktu widzenia złożoności logicznej. Dlatego opracowano metody prowadzące do uzyskania prostszych postaci, wśród których jest graficzna metoda siatek Karnaugha (nazywana także metodą tablic lub map Karnaugha). Punktem wyjścia jest tablica prawdy minimalizowanej funkcji. Siatka Karnaugha jest tabelą zawierającą 2n kratek, gdzie n – liczba zmiennych. Zmienne dzielone są na dwie grupy, z których pierwsza służy do opisu kolumn, natomiast druga do opisu wierszy. Dobór zmiennych jest w tym przypadku dowolny. Wartości zmiennych występujące w kolumnach oraz wierszach są kodowane z użyciem kodu Graya. Kod ten ma właściwość taką, że kolejne jego wartości, różnią się tylko jednym bitem. Ponadto wartość pierwsza i ostatnia też ma taką właściwość. Można go w prosty sposób otrzymać z kodu NB poprzez użycie funkcji XOR dla każdej pary bitów (rysunek 18.5). Przykłady siatek dla dwóch, trzech, czterech i pięciu zmiennych są pokazane na rysunku 18.6. Zmienne występujące w kolumnach oraz wierszach są współrzędnymi kratek, które będą reprezentować iloczyny pełne. W ten sposób każda kratka ma swój unikalny adres, który można zapisać z użyciem równoważników dziesiętnych (numerów). Do siatki wpisujemy 1 w kratkach, których równoważniki dziesiętne są elementami zbioru prawdy. Natomiast 0 wpisujemy w kratkach o numerach zgodnych ze zbiorem fałszu. W ten sposób przyporządkowujemy wszystkim stanom zmiennych wejściowych odpowiednie stany wyjścia. Przykładowa siatka Karnaugha reprezentująca funkcję opisaną wyrażeniem y0 = x2 x1 x0 + x2 x1 x0 jest pokazana na rysunku 18.7a.
Rys. 18.5. Ilustracja sposobu wyznaczania kodu Graya z kodu NB
18.3. Minimalizacja funkcji logicznych
483
Rys. 18.6. Siatki Karnaugha dla n zmiennych: a) n = 2, b) n = 3, c) n = 4, d) n = 5
Wyznaczanie minimalnych postaci funkcji odbywa się poprzez łączenie sąsiadujących jedynek w grupy tak duże, jak to tylko możliwe. Grupy te muszą tworzyć kwadraty lub prostokąty o powierzchni pokrywającej ściśle określone liczby jedynek będące potęgą 2, tj. 2, 4, 8, 16 itd. Ważną właściwością siatek jest traktowanie skrajnych kolumn oraz wierszy tak, jakby były sąsiadami. W ten sposób skrajna
Rys. 18.7. Przykładowe siatki Karnaugha reprezentujące funkcję opisaną wyrażeniami: a) y0 = x2 x1x0 + x2 x1x0 , b) y0 = x2 x1
484
18. Układy kombinacyjne
prawa kolumna sąsiaduje ze skrajną lewą kolumną, a skrajny dolny wiersz sąsiaduje ze skrajnym górnym wierszem. Zaznaczona grupa jedynek reprezentuje sumę iloczynów pełnych, którą można zastąpić jednym iloczynem o mniejszej liczbie zmiennych (rysunek 18.7b). Iloczyn zawiera tylko te zmienne, których stan jest taki sam dla wszystkich jedynek w grupie. W podanym przykładzie redukcji podlega zatem zmienna x0 . W siatce Karnaugha może wystąpić takie zestawienie jedynek, że ich grupowanie można wykonać na kilka sposobów. Zatem, aby otrzymywane rozwiązanie było rzeczywiście najlepsze z możliwych, należy postępować wg następujących zasad: 1. Zakreślić kółkami kratki z jedynkami, w których otoczeniu znajdują się kratki z samymi zerami. 2. Wyszukać kratki, które mają tylko jedną kratkę sąsiednią z 1 lub – (wartością nieokreśloną). Zakreślić wszystkie znalezione pary kratek. 3. Zakreślić pozostałe pary kratek zawierające 1 lub –, ale tylko w przypadku, gdy nie ma możliwości utworzenia większej grupy, np. obejmującej cztery kratki. 4. Postępować analogicznie jak w punkcie 3 w odniesieniu do kolejnych rozmiarów grup. 5. Po zaznaczeniu wszystkich jedynek, wyznaczyć wyrażenie boole'owskie w postaci sumy, której składnikami są wyrazy opisujące każdą z zaznaczonych grup. Przykłady zaznaczania grup w siatkach z trzema zmiennymi są pokazane na rysunku 18.8, a z czterema, pięcioma i sześcioma zmiennymi na rysunkach 18.9, 18.10 i 18.11. Dla pięciu zmiennych sytuacja nieco się komplikuje, gdyż zasada sąsiedztwa kratek ulega rozszerzeniu o kratki leżące po przeciwnych stronach osi symetrii zaznaczonej podwójną linią (rysunek 18.10).
Rys. 18.8. Przykłady zaznaczania grup w siatkach Karnaugha z trzema zmiennymi
18.3. Minimalizacja funkcji logicznych
Rys. 18.9. Przykłady zaznaczania grup w siatkach Karnaugha z czterema zmiennymi
Rys. 18.10. Przykłady zaznaczania grup w siatkach Karnaugha z pięcioma zmiennymi
485
486
18. Układy kombinacyjne
Rys. 18.11. Przykłady zaznaczania grup w siatkach Karnaugha z sześcioma zmiennymi
W analogiczny sposób można zbudować jeszcze siatkę dla sześciu zmiennych zawierającą osiem kolumn, osiem wierszy oraz dwie osie symetrii (poziomą i pionową). Na rysunku 18.11 pokazano sposób zaznaczenia grupy jedynek reprezentującej iloczyn x4 x1 x0 . Niestety, korzystanie z siatek Karnaugha dla większej liczby zmiennych, choć nie niemożliwe, jest zbyt skomplikowane, a to ze względu na znacznie większe rozmiary siatek i dodatkowe osie symetrii. W pokazanych wyżej przykładach jedynki zostały z rozmysłem rozmieszczone tak, aby dało się je włączyć do jednej grupy. W rzeczywistych projektach zazwyczaj występuje większa liczba grup. Dodajmy, że w przypadku występowania grup o takim samym rozmiarze, ostateczny wynik zależy niekiedy od przyjętej kolejności wyszukiwania i zdarza się, że istnieje kilka rozwiązań o takiej samej (minimalnej) złożoności. Przykład 1 – kontynuacja Stosując metodę Karnaugha, dokonajmy minimalizacji funkcji y0, y1 oraz y2 (rysunek 18.12). Na podstawie otrzymanych równań możemy narysować schemat układu (rysunek 18.13). Jak widać, jest on dużo prostszy od obu schematów uzyskanych wcześniej (rysunki 18.3 i 18.4).
Rys. 18.12. Minimalizacja funkcji y0, y1 oraz y2 metodą Karnaugha
18.3. Minimalizacja funkcji logicznych
487
Rys. 18.13. Schemat ideowy układu sterowania po minimalizacji
To jeszcze nie koniec. Dokonajmy minimalizacji funkcji y0, y1 oraz y2 wg zer. W takim przypadku traktujemy grupowane 0 tak, jakby to były 1 (rysunek 18.14). Następnie możemy, korzystając ze wzoru Shannona, wyznaczyć funkcje y0, y1 oraz y2.
Rys. 18.14. Minimalizacja funkcji wg zer
W rezultacie otrzymujemy identyczne wyniki dla funkcji y0 i y1 oraz różniący się złożonością wynik dla funkcji y2. Zatem w wyniku minimalizacji wg zer nie uzyskaliśmy poprawy, dlatego pozostajemy przy rozwiązaniu przedstawionym na rysunku 18.13. Jednak po dokładnym przyjrzeniu się wyrażeniom otrzymanym w kolejnych krokach minimalizacji, zauważamy, że w skład funkcji y2 = x2 x1 + x2 x0 wchodzą termy iloczynowe reprezentujące funkcje y0 i y1. Zatem możemy zapisać, że y2 = y0 + y1 i narysować ostateczną wersję schematu urządzenia (rysunek 18.15). Przykład 2 Zaprojektować układ realizujący funkcję y ( x3 , x2 , x1 , x0 ) = ∑ (1, 2, 3, 6, 7, 12, 13, 15, (5, 10, 14)) .
488
18. Układy kombinacyjne
Rys. 18.15. Finalny schemat układu sterowania wymianą wody w basenie
Rozwiązanie Tworzymy siatki Karnaugha i grupujemy 1 oraz 0 wg podanych wcześniej zasad (rysunek 18.16). Liczymy wskaźniki złożoności i otrzymujemy wartości 9 oraz 7. W pierwszym przypadku do narysowania schematu potrzeba trzech dwuwejściowych funktorów AND oraz jednego trzywejściowego funktora OR, natomiast w drugim przypadku potrzeba dwóch funktorów OR (dwuwejściowego oraz trzywejściowego) i dwuwejściowego funktora AND. Zatem wybieramy do realizacji drugą postać funkcji (rysunek 18.17). Należy jednak dodać, że decyzja o tym, która postać funkcji będzie realizowana, nie zależy wyłącznie od stopnia złożoności, gdyż bierzemy pod uwagę także inne czynniki, np. koszt i dostępność elementów składowych.
Rys. 18.16. Siatki Karnaugha do przykładu 2
18.3. Minimalizacja funkcji logicznych
489
Rys. 18.17. Zaprojektowany układ: a) schemat logiczny, b) schemat realizacji układowej (NOR-NOR)
Nadszedł czas, aby zaskoczyć Czytelnika stwierdzeniem, że prawdopodobnie nigdy w przyszłości nie będzie zajmował się ręczną minimalizacją funkcji. Przecież może to zadanie robić komputer – szybko i bezbłędnie. Jednakże pokazanie metody Karnaugha miało na celu uświadomienie Czytelnikowi sensu prowadzenia minimalizacji logicznej w odniesieniu do otrzymywanych rozwiązań układowych. Podkreślmy, że metoda Karnaugha należy do grupy metod minimalizacji dwupoziomowej, tzn. że każdy otrzymywany układ jest zbudowany z dwóch poziomów bramek (pomijając inwertery wejściowe i wyjściowe). Zauważmy też, że nawet przy najbardziej złożonych funkcjach wielu zmiennych, rezultat jest w postaci dwupoziomowej i należy się liczyć z występowaniem bramek o dużej liczbie wejść. Ta
Rys. 18.18. Przykłady dekompozycji z użyciem bramek AND i OR
490
18. Układy kombinacyjne
ostatnia właściwość może stanowić istotne ograniczenie, np. wtedy, gdy do dyspozycji będą bramki co najwyżej n-wejściowe. Wtedy najprostszym rozwiązaniem jest zastąpienie takich bramek dwoma mniejszymi (rysunek 18.18). Taka operacja jest nazywana dekompozycją. Współczesne programy przeznaczone do minimalizacji układów logicznych są bardzo skomplikowane, przede wszystkim ze względu na złożoność i różnorodność stosowanych algorytmów oraz docelowych struktur realizacyjnych [9, 11].
18.4. Układy arytmetyczne Układy arytmetyczne są przeznaczone, zgodnie z nazwą, do wykonywania obliczeń arytmetycznych. Są realizowane jako układy kombinacyjne oraz sekwencyjne. Zazwyczaj kombinacyjne układy arytmetyczne są szybsze od sekwencyjnych. Charakterystyczną cechą w budowie jednych i drugich jest użycie sumatora, który będzie opisany bardziej szczegółowo dalej. Sumator jest bowiem często podstawą do konstruowania układów wykonujących inne operacje arytmetyczne, np. mnożenie. Do układów arytmetycznych zaliczamy m.in.: – komparatory (budowane głównie z bramek XOR z negacją, czyli XNOR), – sumatory, – układy mnożące, – bloki arytmetyczno-logiczne (ALU – Arithmetic Logic Unit). Sumator Operację sumowania możemy przedstawić w postaci szablonu: cn + = cn
cn −1 an −1 bn −1 sn −1
ci ai bi si
c1 c0 a1 a0 b1 b0 s1 s0
1 1 0 1 + = 1 0
1 0 1 0
0 1 1 0
0 0 1 1
gdzie: ai, bi – i-te bity argumentów sumy, ci
– i-te bity przeniesienia,
si
– i-te bity wyniku.
Budujemy tablicę prawdy celem wyznaczenia funkcji logicznych si oraz ci +1 (rysunek 18.19) Otrzymujemy następujące równania sumatora jednobitowego (sumatora pełnego): si = ci ai bi + ci ai bi + ci ai bi + ci ai bi = ci ⊕ ai ⊕ bi , ci +1 = ai bi + ci bi + ci ai = ai bi + ci (ai ⊕ bi ) .
18.4. Układy arytmetyczne
491
Rys. 18.19. Sumator jednobitowy: a) tablica prawdy, b) i c) siatki Karnaugha
Rys. 18.20. Symbole graficzne sumatora
Układy sumatorów najczęściej występują na schematach w postaci symboli pokazanych na rysunku 18.20. Sumatory wielobitowe składają się z sumatorów jednobitowych oraz kaskady połączeń wejść i wyjść przeniesień pomiędzy sumatorami składowymi (rysunek 18.21) albo bloku równoległego generowania przeniesień. Głównym problemem projektowym, który dotyczy sumatorów, jest zapewnienie jak najszybszej propagacji sygnałów przeniesień. Problem nie jest banalny i różnie się go rozwiązuje, np. przez wprowadzanie osobnych bloków generacji przeniesień. Bloki sumatorów nadają się wprost do wykonywania operacji odejmowania. Przecież odejmowanie jest operacją sumy dwóch składników: liczby dodatniej i liczby ujemnej. Wystarczy zastosować kody uzupełnieniowe ZU1 lub ZU2. Bardzo popularne są sumatory dziesiętne (BCD), używane do działań z użyciem liczb reprezentowanych w kodzie BCD. W sumatorach BCD przeniesienie jest generowane po wystąpieniu sumy większej od 9 (1001B).
492
18. Układy kombinacyjne
Rys. 18.21. Sumator n-bitowy z przeniesieniami szeregowymi
18.5. Multipleksery, demultipleksery, konwertery kodów oraz pamięci ROM Multiplekser jest układem cyfrowego przełącznika, mającego 2n wejść danych, n wejść adresowych oraz jedno wyjście. Wartość słowa adresowego decyduje o numerze wejścia, którego stan jest przesyłany do wyjścia. Na rysunku 18.22 pokazano symbole graficzne oraz schemat układu zastępczego (przełącznikowego) multipleksera z dwoma wejściami. Multipleksery są często stosowane do przesyłania danych pomiędzy układami, gdy do dyspozycji jest ograniczona liczba linii. Wtedy kosztem niewielkiego układu można dane występujące na wejściach przesłać w kolejnych taktach. Oczywiście, po stronie odbiorczej trzeba zadbać, aby dane były właściwie zinterpretowane, najczęściej z użyciem układów działających w sposób odwrotny do multiplekserów, czyli demultiplekserów. Demultiplekser ma jedno wejście danych, n wejść adresowych oraz 2n wyjść. Symbole graficzne oraz układ zastępczy są lustrzanymi odbiciami symboli oraz
18.5. Multipleksery, demultipleksery, konwertery kodów oraz pamięci ROM
493
Rys. 18.22. Multiplekser 2-wejściowy (2 na 1): a) trapezowy symbol graficzny, b) prostokątny symbol graficzny, c) układ zastępczy
układu zastępczego multipleksera (rysunek 18.23). W tym przypadku dane z wejścia są przesyłane do wyjścia o wskazanym adresie. Zatem, odpowiednio sterując zmianą słowa adresowego, można uzyskać zamianę danych przychodzących w postaci szeregowej na postać równoległą. Multipleksery i demultipleksery mogą być łączone w większe układy, tj. multipleksery i demultipleksery grupowe, których celem jest przesyłanie wielobitowych słów danych za pomocą magistrali. Oznacza to, iż połączenie multiplekser-demultiplekser odbywa się z użyciem wielu linii, które na schematach przedstawiamy jako jedną, znacznie grubszą, linię magistrali. Linia ta jest niekiedy opatrzona etykietą zawierającą informację o liczbie linii składowych oraz ich nazewnictwie. Przykładowo, nazwa B(3:0) oznacza, że magistrala składa się z czterech linii: B(3), B(2), B(1)
Rys. 18.23. Demultiplekser 2-wyjściowy (1 na 2): a) trapezowy symbol graficzny, b) prostokątny symbol graficzny, c) układ zastępczy
494
18. Układy kombinacyjne
Rys. 18.24. Przykład multipleksowania danych 32-bitowych
oraz B(0). Taki system oznaczeń jest dość powszechnie stosowany w edytorach schematowych. Natomiast w literaturze wykorzystuje się często oznaczanie poprzez przekreślenie linii magistrali pod skosem krótką kreską oraz wpisanie odpowiedniej liczby. Na rysunku 18.24 widać przykład realizacji połączenia multipleksowanego z użyciem czterech słów danych 32-bitowych. W przykładzie do przesłania czterech 32-bitowych danych użyto zaledwie 34 linii (32 linii danych oraz 2 linii adresowych) zamiast 128, których należałoby użyć do realizacji bezpośredniego połączenia. Zatem zysk, w świetle dużych kosztów wytwarzania połączeń, jest oczywisty. Typowym zadaniem projektowym korzystającym z multipleksowania jest sterowanie zespołem kilku wskaźników siedmiosegmentowych LED, stosowanych w wielu urządzeniach powszechnego użytku, np. zegarach, termometrach, wagach, reklamach. Schemat blokowy układu sterującego zespołem czterech wskaźników jest pokazany na rysunku 18.25. Działanie układu sterującego wyświetlaczem polega na tym, że wykorzystuje się cztery stany licznika, które zmieniają się kolejno od 0 do 3 w takt impulsów zegarowych clk. Stan licznika jest używany dwojako: jako adres multipleksera w celu wskazania numeru danej wejściowej, którą chcemy wyświetlić, oraz jako adres demultipleksera w celu wskazania numeru aktywnego wyświetlacza (stan 1 na wejściu COM). W ten sposób każda z czterech danych ma przyporządkowany wyświetlacz, a jej wyświetlanie odbywa się cyklicznie przez jeden okres zegara z odstępem trzech okresów przeznaczonym na wyświetlanie pozostałych cyfr. Oczywiście należy zadbać, aby częstotliwość zegara nie była zbyt mała, by zapobiec migotaniu, ani zbyt duża, by z kolei nie dopuścić do rozmycia wyrazistości wyświetlanych cyfr. Multipleksery mogą być z powodzeniem stosowane jako elementy konstrukcyjne dowolnych układów kombinacyjnych. Na początku lat dziewięćdziesiątych pojawiły się nawet programowalne układy scalone oparte na multiplekserach. Idea zastosowania multiplekserów jest dość prosta i polega przede wszystkim na tym, że multiplekser może być użyty w miejsce dowolnej bramki, a nawet realizować wprost funkcję zawartą w tablicy prawdy.
Σ
Przykładowo funkcję postaci y(x3, x2, x1, x0) = (1, 2, 3, 5, 7, 10, 12, 13, 14, 15) można zrealizować wprost z użyciem multipleksera 16 na 1, ustalając stan 1 na
18.5. Multipleksery, demultipleksery, konwertery kodów oraz pamięci ROM
495
Rys. 18.25. Przykład multipleksowanego sterowania wyświetlaczem siedmiosegmentowym
wejściach o adresach będących elementami zbioru prawdy oraz 0 na pozostałych wejściach (rysunek 18.26). Jednakże, wraz ze wzrostem liczby zmiennych, trzeba by dysponować odpowiednio dużym multiplekserem, a to nie zawsze jest możliwe i do tego nieopłacalne. Dlatego lepszym rozwiązaniem jest zastąpienie pojedynczego dużego multipleksera kilkoma mniejszymi. W tym celu można posłużyć się tablicą prawdy funkcji, którą zamierzamy zrealizować. Oddzielamy na niej zmienne, które będą adresować multiplekser umieszczony na końcu układu (położony najbliżej wyjścia) i odpowiednio oznaczamy wiersze o takich samych adresach. W ten sposób wydzielamy z pojedynczej dużej tablicy prawdy osobne tablice prawdy do realizacji funkcji zmiennych wejściowych spoza adresu, osobno dla każdego wejścia multipleksera. W przypadkach, gdy tablice te w kolumnie y zawierają same jedynki bądź same zera, na wejście multipleksera doprowadzamy odpowiednio 1 lub 0. Natomiast w pozostałych przypadkach dodajemy kolejny multiplekser i postępujemy analogicznie jak w przypadku pierwszego multipleksera. Należy tutaj dodać, że odpowiedni dobór zmiennych tworzących adres może przyczynić się do znacznego uproszczenia całego układu. Aby to sprawdzić, trzeba dokonać odpowiedniego przestawienia kolumn oraz wierszy w tablicy prawdy i wykonać pozostałe czynności, jak opisano wyżej. Można też zastosować inne podejście, wyznaczając krotność występowania zmiennych w minimalnej postaci sumacyjnej. Po czym, w pierwszej kolejności, wykorzystywać do adresowania zmienne występujące najczęściej.
496
18. Układy kombinacyjne
Rys. 18.26. Przykład użycia multipleksera 16 na 1 do realizacji funkcji czterech zmiennych
Poniżej zostaną przedstawione dwa przykłady realizacji wybranej funkcji z użyciem multiplekserów 8 na 1 oraz 4 na 1. Przykład 3 Zaprojektować układ realizujący funkcję y(x3, x2, x1, x0) = 13, 14, 15) z użyciem multipleksera 8 na 1.
Σ(1, 2, 3, 5, 7, 10, 12,
Rozwiązanie zilustrowano na rysunku 18.27. Projektowanie rozpoczynamy od utworzenia tablicy prawdy oraz oddzielenia grupy zmiennych, które będą stanowić adres multipleksera 8 na 1. Do adresowania używamy zmiennych x3, x2, x1, dlatego że wiersze zawierające identyczne adresy sąsiadują ze sobą. Otrzymujemy 8 dwuwierszowych grup i dla każdej z nich zakreślamy minitablice prawdy, określające zależność y od x0. Teraz możemy przystąpić do rysowania schematu, zaczynając od multipleksera 8 na 1. Analizujemy kolejne minitablice celem wyznaczenia funkcji występujących na kolejnych wejściach multipleksera. Zauważamy, że dla wejścia o adresie 000 (0 dziesiętnie) minitablica w kolumnie y zawiera takie same wartości jak kolumna x0. Stąd wniosek, że do tego wejścia należy doprowadzić sygnał x0.
18.5. Multipleksery, demultipleksery, konwertery kodów oraz pamięci ROM
497
Rys. 18.27. Realizacja funkcji czterech zmiennych z użyciem multipleksera 8 na 1: a) tablica prawdy, b) schemat układu
Taką samą właściwość mają wejścia o adresach 2 i 3, więc również do nich doprowadzamy sygnał x0. Patrzymy dalej i ustalamy „sztywne” stany 0 oraz 1 na tych wejściach multipleksera, których odpowiednie minitablice w kolumnie y zawierają same 0 bądź same 1. Na koniec zostało podłączenie wejścia nr 5. Z minitablicy wynika, że powinniśmy do niego doprowadzić sygnał x0 . W tym celu dodajemy do schematu multiplekser 2 na 1 pełniący funkcję inwertera. Przykład 4 Zaprojektować układ realizujący funkcję y(x3, x2, x1, x0) = 13, 14, 15) z użyciem multiplekserów 4 na 1.
Σ(1, 2, 3, 5, 7, 10, 12,
Rozwiązanie ilustruje rysunek 18.28. Projektowanie rozpoczynamy od utworzenia tablicy prawdy oraz oddzielenia grupy zmiennych, które będą adresować multiplekser wyjściowy umieszczony na końcu układu. Do adresowania używamy zmiennych x3, x2, gdyż wiersze zawierające identyczne adresy sąsiadują ze sobą. Otrzymujemy 4 czterowierszowe grupy i dla każdej z nich zakreślamy minitablice prawdy, określające zależność y od x1, x0. Teraz możemy przystąpić do rysowania schematu, zaczynając od umieszczenia końcowego multipleksera 4 na 1 po prawej stronie schematu. Analizujemy kolejne minitablice celem wyznaczenia funkcji występujących na kolejnych wejściach multipleksera. Zauważamy, że dla wejścia o adresie 00 minitablica w kolumnie y zawiera zarówno 0, jak i 1. Stąd wniosek, że należy dodać
498
18. Układy kombinacyjne
Rys. 18.28. Realizacja funkcji czterech zmiennych z użyciem multipleksera o maksymalnym rozmiarze 4 na 1: a) tablica prawdy, b) schemat układu
następny multiplekser, który zrealizuje tę funkcję. Podobnie postępujemy, analizując kolejne adresy, chyba że w kolumnie y minitablicy wystąpią same 0 bądź 1, gdyż wtedy odpowiednie wejścia ustawiamy „na sztywno” w wymagany stan. Konwertery kodów służą, jak sama nazwa wskazuje, do zamiany słów wejściowych w danym kodzie na odpowiadające im słowa w innym kodzie. Ogólny symbol konwertera jest pokazany na rysunku 18.29. Konwertery można podzielić na: – kodery, których słowa wejściowe są zwykle dłuższe niż wyjściowe, np. „1 z 8”/NB, BCD/NB, – dekodery, których słowa wejściowe są zwykle krótsze niż wyjściowe, np. NB/„1 z 10”, NB/BCD, NB/kod wskaźnika 7-segmentowego. Prawdopodobnie historycznie najstarszym zadaniem koderów była zamiana informacji pochodzącej z przycisków na postać cyfrową. Przykładowo, z użyciem dziesięciu przycisków możemy wprost otrzymać informację w kodzie 1 z 10, jeśli założymy, że w danej chwili wciśnięty jest jeden przycisk. Jednakże kod ten jest bardzo nieekonomiczny i warto, mając na celu dalsze przetwarzanie informacji, zamienić go na inny, oszczędniejszy kod, np. BCD. Podobnie można przypuszczać, że najstarszym zastosowaniem dekoderów była operacja odwrotna do poprzedniej, a jej
18.5. Multipleksery, demultipleksery, konwertery kodów oraz pamięci ROM
499
Rys. 18.29. Ogólny symbol konwertera kodów
celem było zobrazowanie informacji z użyciem lampek opatrzonych odpowiednimi numerami. Pamięć ROM (Read Only Memory), inaczej pamięć stała, jest układem, którego zawartość, zapisaną na etapie produkcji, można tylko odczytać. W tym celu układ jest wyposażony w wejścia adresowe, umożliwiające wskazanie adresów komórek, które zamierzamy odczytać oraz wyjścia służące do wyprowadzania danych z pamięci. Podstawowa struktura pamięci składa się z dwuwymiarowej tablicy komórek pamięciowych, przechowujących stany 0 lub 1 (rysunek 18.30). Słowo adresu jest dzielone na dwie części celem wyboru wiersza oraz kolumny odczytywanych komórek. Przy wyborze wiersza pośredniczy dekoder kodu NB na kod 1 z 2n, natomiast przy wyborze kolumny podobną rolę odgrywa multiplekser 2m na 1. Całkowita pojemność pamięci, wynikająca wprost z liczby kolumn oraz wierszy, wynosi 2n + m bitów.
Rys. 18.30. Budowa pamięci ROM o organizacji m × 1
500
18. Układy kombinacyjne
Pamięć ROM w naturalny sposób może zostać użyta do realizacji układu kombinacyjnego, gdyż słowo wejściowe może stanowić adres, natomiast słowo wyjściowe może być umieszczone pod wskazanym adresem. W ten sposób pamięć odzwierciedla tablicę prawdy. Dodajmy, że użycie pamięci do realizacji układów kombinacyjnych jest bardzo atrakcyjne, gdyż w nowoczesnych układach programowalnych występują liczne bloki pamięciowe o różnorakich organizacjach [11].
19. Układy sekwencyjne Układy sekwencyjne, ze względu na właściwość pamiętania, stanowią grupę układów cyfrowych, do której stosuje się inne podejście niż do układów kombinacyjnych. W rozdziale przedstawiono: definicję układu sekwencyjnego, sposoby jego reprezentacji oraz wybrane zastosowania i metody projektowe.
19.1. Definicja układu sekwencyjnego Układem sekwencyjnym (US) nazywamy układ o n wejściach oraz m wyjściach, w którym występuje pamiętanie stanów (rysunek 19.1). Jak pokazano na rysunku, układ ma w swojej strukturze bloki realizujące funkcje kombinacyjne UK1, ..., UKn (już trochę umiemy je projektować) oraz komórki pamięci. Zaznaczmy, że chodzi tu o takie komórki pamięci, których zawartość może się zmieniać. Informację zapamiętywaną w komórkach pamięci możemy zatem po-
Rys. 19.1. Ilustracja idei układu sekwencyjnego
502
19. Układy sekwencyjne
traktować zbiorczo jako stan pamięci układu. Mamy zatem do dyspozycji stany wejść – reprezentowane zbiorem X, stany wyjść – reprezentowane zbiorem Y oraz stany pamięci układu – reprezentowane zbiorem S. Te informacje posłużą nam do przedstawienia modeli, które przydadzą się w trakcie wykonywania dalszych czynności projektowych. Układy sekwencyjne dzieli się na układy synchroniczne – działające w takt sygnału zegara, i układy asynchroniczne – działające bez sygnału zegara. Stąd łatwo takie układy odróżnić.
19.2. Sposoby opisu układów sekwencyjnych Do opisu układów sekwencyjnych stosuje się model matematyczny nazywany automatem. Automat jest definiowany przez: – zbiór stanów wejść X = {X1, X2, ..., Xi} i zbiór stanów wyjść Y = {Y1, Y2, ..., Yj}, – zbiór stanów automatu S = {S1, S2, ..., Sl}, – funkcję przejść d, – funkcję wyjść l. Na rysunku 19.2 są zamieszczone dwa modele układów sekwencyjnych, które obrazują zależności pomiędzy stanami wejść, stanami wewnętrznymi i stanami wyjść. Jak widać, automat Mealy’ego różni się od automatu Moore’a jedynie sposobem definiowania funkcji wyjść d, ale należy podkreślić, że pociąga to za sobą zmianę funkcji przejść. Na rysunkach występują następujące oznaczenia: X – stan wejść, X ∈ X, określony wektorem (x1, ..., xn), Y – stan wyjść, Y ∈ Y, określony wektorem (y1, ..., ym), S, S’ – stany automatu (stany pamięci, stany wewnętrzne), S ∈ S, S’ ∈ S określone wektorem (Q1, ..., Qk). Stan S’ oznacza następny stan pamięci, który ustali się z pewnym opóźnieniem w stosunku do aktualnego stanu pamięci oraz aktualnego stanu wejść. Funkcje przejść oraz funkcje wyjść przedstawia się za pomocą grafów oraz tablic przejść-wyjść reprezentujących wybrany typ automatu. Przykład grafu oraz tablicy
Rys. 19.2. Podstawowe modele układów sekwencyjnych: a) automat Mealy’ego, b) automat Moore’a
19.2. Sposoby opisu układów sekwencyjnych
503
Rys. 19.3. Przykład grafu i tablicy przejść-wyjść wg Mealy’ego
przejść-wyjść wg modelu Mealy’ego jest pokazany na rysunku 19.3. W reprezentacji określonej grafem stany wewnętrzne S są przedstawiane za pomocą węzłów, natomiast stany wejść X i stany wyjść Y za pomocą gałęzi. Tymczasem w reprezentacji tablicy stany pamięci i stany wejść określają współrzędne kratek, w których znajdują się stany następne S’ i stany wyjść Y – wyznaczone odpowiednio z użyciem funkcji przejść d i funkcji wyjść l. Tablicę przejść-wyjść, przez analogię do tablicy prawdy stosowanej w układach kombinacyjnych, nazywa się niekiedy tablicą „prawdy układu sekwencyjnego”. Przykład grafu oraz tablicy przejść-wyjść wg modelu Moore’a jest zamieszczony na rysunku 19.4. W tym przypadku węzły reprezentują stany wewnętrzne i stany wyjść, natomiast gałęzie tylko stany wejść. Zatem takiemu grafowi odpowiada inna tablica, w której stany wyjść zależą wyłącznie od stanów wewnętrznych. Każdy układ sekwencyjny można opisać za pomocą grafu i tablicy przejść-wyjść. Przygotowanie takich reprezentacji może być niekiedy bardzo skomplikowane, zwłaszcza przy projektowaniu układów z wieloma stanami wewnętrznymi. Występują np. problemy z wiernością odwzorowania wymagań podanych słownie lub podanych w formie niepełnych przebiegów czasowych.
Rys. 19.4. Przykład grafu i tablicy przejść-wyjść wg Moore’a
504
19. Układy sekwencyjne
19.3. Zatrzaski i przerzutniki Zatrzaski i przerzutniki należą do grupy układów, które reprezentują pamięć układu sekwencyjnego. Zatrzask (latch) różni się od przerzutnika (flip-flop) sposobem działania, jednak jeden i drugi mają zdolność pamiętania 1 bitu. Różnica polega na tym, że sterowanie zatrzaskiem odbywa się w sposób ciągły, natomiast sterowanie przerzutnikiem odbywa się na zasadzie „ustaw 1 lub 0” w dyskretnych chwilach, wynikających z okresu sygnału zegarowego. Zatrzask SR (Set-Reset), w najprostszym przypadku, może być zbudowany z dwóch bramek NOR. Schemat i inne wybrane sposoby opisu tego zatrzasku pokazano na rysunku 19.5.
Rys. 19.5. Zatrzask SR: a) schemat, b) symbol graficzny, c) tablica przejść, d) tablica wzbudzeń, e) przykładowe przebiegi czasowe
19.3. Zatrzaski i przerzutniki
505
Przy opisie działania zatrzasku posłużmy się określeniem aktywnego stanu wejścia, który utożsamimy ze stanem logicznym 1. Działanie zatrzasku SR polega zatem na: – ustawianiu zatrzasku (ustaleniu stanu 1 na wyjściu Q) przy aktywnym stanie wejścia S (set), – zerowaniu (kasowaniu) zatrzasku (ustaleniu stanu 0 na wyjściu Q) przy aktywnym stanie wejścia R (reset), – pamiętaniu stanu Q, gdy żadne z wejść sterujących nie jest aktywne, – ustalaniu określonego stanu (w tym przypadku 0 na obu wyjściach Q i Q) przy jednoczesnej aktywności wejść S i R (stan zabroniony – nie powinien być używany). Przedstawiona na rysunku 19.5d tablica wzbudzeń stanowi charakterystyczną formę opisu działania zatrzasków i przerzutników. Można ją w prosty sposób wyznaczyć z tablicy przejść. Na przykład, zmiana stanu Q na Q’ z 0 na 1 może wystąpić tylko przy stanie wejść SR = 10. Tablica wzbudzeń ułatwia projektowanie układów, zatem warto dokładnie ją zapamiętać. Pozostałe popularne zatrzaski to: – SR – zatrzaski, w których 0 oznacza aktywny stan wejść, – bramkowane SR (gated latch), – D. Zatrzask SR (nie S – nie R) możemy otrzymać jako wynik przeróbki schematu przerzutnika SR poprzez dodanie inwerterów na wejściach. Po niewielkich zabiegach można taki schemat narysować z użyciem dwóch bramek NAND. Bramkowany zatrzask SR ma dodatkowe, w stosunku do zwykłego SR, wejście zwane wejściem zezwolenia (Enable lub Gate), które zezwala na działanie zatrzasku tylko przy stanie równym 1 na tym wejściu (rysunek 19.6). Moment zmiany stanu wejścia zezwolenia z 1 na 0 oznacza zatrzaśnięcie stanu wyjścia Q do chwili, kiedy nastąpi powrót ze stanu 0 do 1. Układ ten jest rzadko stosowany w praktyce inżynierskiej. Zatrzask D ma tylko jedno wejście informacyjne oraz wejście zezwolenia (rysunek 19.7). Ten z kolei układ jest stosowany bardzo często, przede wszystkim do za-
Rys. 19.6. Bramkowany zatrzask SR: a) schemat, b) symbol graficzny
506
19. Układy sekwencyjne
Rys. 19.7. Zatrzask D: a) schemat, b) symbol graficzny, c) tablica przejść, d) tablica wzbudzeń, e) przykładowe przebiegi czasowe
pamiętywania (blokowania) danych w różnego typu układach transmisyjnych. Pełni wtedy funkcję bufora pamiętającego. Przerzutniki są układami synchronicznymi, czyli mają wejście wyzwalające (zegarowe), które jest różnie oznaczane, najczęściej jako C, Clk, Ck, Clock. Przerzutniki mogą być wyzwalane impulsem bądź zboczem sygnału zegara [9]. W dalszej części książki będziemy koncentrować uwagę na przerzutnikach wyzwalanych zboczem (narastającym lub opadającym). Symbole przerzutników zboczowych zawierają specjalny znaczek trójkącika do oznaczania wejść dynamicznych, tzn. reagujących na zbocza sygnału. Dodaje się do nich znak kółka celem oznaczenia, że zboczem aktywnym jest zbocze opadające lub jeśli go nie ma, aktywnym jest oczywiście zbocze narastające. Podstawowe typy przerzutników to: SR, JK, D i T. Odpowiednie symbole, tablice przejść i tablice wzbudzeń są pokazane na rysunku 19.8. Przerzutniki SR mają identyczne funkcje wzbudzeń jak zatrzaski o tej samej nazwie, jednak zmiany stanów na ich wyjściach mogą zachodzić tylko synchronicznie z zegarem. Oznacza to, że funkcje wzbudzeń wejść nie są wykonywane natychmiast, jak to miało miejsce w przypadku zatrzasku, lecz w chwili wystąpienia aktywnego zbocza sygnału zegara.
19.3. Zatrzaski i przerzutniki
507
Rys. 19.8. Przerzutniki: a) symbole graficzne, b) tablice przejść, c) tablice wzbudzeń
Jeśli porównamy tablicę przejść przerzutnika JK z tablicą przejść przerzutnika SR, to dojdziemy do wniosku, że tablice różnią się jedynie w kolumnie dotyczącej stanu zabronionego, który w przerzutniku JK nie występuje. Zatem działanie przerzutnika JK polega na: – ustawianiu przerzutnika przy aktywnym stanie wejścia J, – zerowaniu (kasowaniu) przerzutnika przy aktywnym stanie wejścia K, – pamiętaniu stanu Q, gdy żadne z wejść sterujących nie jest aktywne, – przełączaniu stanu Q na przeciwny przy jednoczesnej aktywności wejść J i K (synchronicznie z impulsami zegara). Główną zaletą przerzutników JK jest to, że układy projektowane z ich użyciem charakteryzują się występowaniem mniejszych części kombinacyjnych niż układy projektowane z użyciem innych typów przerzutników. Niestety wadą jest konieczność wykonywania dwukrotnie większej liczby obliczeń celem wyznaczenia funkcji wzbudzeń dla obu wejść sterujących J i K. Pozostałe przerzutniki mają tylko jedno wejście sterujące.
508
19. Układy sekwencyjne
Działanie przerzutnika D jest znacznie prostsze. Polega na przenoszeniu stanu wejścia D na wyjście Q w takt impulsów zegara. Tak proste działanie przerzutników D czyni je niezwykle użytecznymi wtedy, gdy przewiduje się chwilowe przechowywanie informacji lub wykonanie prostych operacji arytmetycznych i logicznych. Przerzutnik typu T jest porównywalny z D pod względem użyteczności i łatwości interpretacji. Jego działanie polega na przełączaniu stanu Q na przeciwny (synchronicznie z sygnałem zegara) wtedy, gdy T = 1 i utrzymywaniu stanu Q, gdy T = 0. Podstawowe zastosowania przerzutników T to liczniki i dzielniki częstotliwości. Przerzutniki określonego typu można zbudować z użyciem innego typu przerzutników, gdyż są one przecież układami sekwencyjnym. Skoro dysponujemy sformalizowanym opisem przerzutnika w postaci tablicy przejść, możemy go „zaprojektować”, stosując metody, które zostaną omówione w następnym podrozdziale. Na koniec opisywania przerzutników nie wolno pominąć jednego z ważniejszych zastosowań, jakim jest konstruowanie dwójek liczących, dzielących przez 2 częstotliwość sygnału zegara podawanego na wejście (rysunek 19.9).
Rys. 19.9. Przerzutniki jako dwójki liczące
Przerzutniki scalone występują zwykle z dodatkowymi wejściami przeznaczonymi do ich zerowania i ustawiania w sposób niezależny od zegara (asynchroniczny). Zazwyczaj wejścia te mają wyższy priorytet od pozostałych wejść sterujących i typowo są oznaczane symbolami stanowiącymi skrót realizowanej funkcji, np. R, Rst, Clear, S, Set, P, Preset.
19.4. Synteza układów sekwencyjnych Ze sposobem projektowania układów sekwencyjnych zapoznamy się w przykładowym zadaniu, podobnie jak to miało miejsce w przypadku układów kombinacyjnych, z tym że teraz mamy już znacznie lepiej przygotowanego Czytelnika, który umie wyznaczyć minimalne postacie funkcji kombinacyjnych, wie, jak działają przerzutniki i zatrzaski oraz zna istotę działania układów sekwencyjnych. Przykład 5 Zaprojektować układ przeznaczony do wykrywania ciągu trzech jedynek, które mogą pojawić się podczas transmisji szeregowej w trzech kolejnych taktach zegara. Stan wykrycia zasygnalizować ustawieniem stanu 1 na wyjściu układu.
19.4. Synteza układów sekwencyjnych
509
Rozwiązanie Na wstępie sporządźmy rysunek poglądowy celem lepszego uświadomienia treści zadania (rysunek 19.10).
Rys. 19.10. Ilustracja zadania
Zdefiniujmy wszystkie możliwe stany, które powinny być reprezentowane wewnątrz układu: 1. Stan niewykrycia żadnego elementu szukanego ciągu 2. Stan wykrycia pierwszej jedynki 3. Stan wykrycia drugiej jedynki 4. Stan wykrycia trzeciej jedynki Stany te możemy oznaczyć zgodnie z powyższą numeracją jako S1, ..., S4. Podobnie opiszmy możliwe stany wejść X1, X2 odpowiadające wystąpieniu 1 i 0 i dwa stany wyjść Y1, Y2 oznaczające stany 0 i 1. Gdy nie umiemy już sobie wyobrazić żadnego innego stanu, możemy przejść do opracowywania grafu lub od razu tablicy przejść-wyjść. Lecz czy na pewno potrzebne są cztery stany? Narysujmy dwa grafy: pierwszy wg modelu Moore’a, drugi wg modelu Mealy’ego, jak na rysunku 19.11. Rysowanie rozpoczynamy w obu przypadkach od narysowania węzłów i ich oznaczenia. Następnie rysujemy i etykietujemy gałęzie grafu, rozpoczynając od węzła S1. Czynność powtarzamy, aż zaznaczymy stan wyjścia Y2 oznaczający sygnalizację wykrycia trzeciej jedynki. Jak widać, otrzymaliśmy grafy, które różnią się liczbą stanów. Decyzja o tym, które rozwiązanie przyjąć, nie jest taka oczywista. Postawmy dwa znaki zapytania. Pierwszy – czy mniejsza liczba stanów jest na tyle mniejsza, by zmniejszyć liczbę bitów potrzebnych do ich zakodowania? Drugi – może ważniej-
Rys. 19.11. Grafy przejść-wyjść wg modelu: a) Moore’a, b) Mealy’ego
510
19. Układy sekwencyjne
Rys. 19.12. Tablice przejść-wyjść do przykładu 5: a) symboliczna, b) zakodowana
szy, czy warto uwzględnić odporność układu na występowanie ewentualnych zakłóceń na wejściu? Udzielenie twierdzącej odpowiedzi na drugie pytanie skłania nas raczej do podjęcia decyzji o wyborze modelu Moore’a. Decydujemy się na specyfikację wg automatu Moore’a. Zaznaczmy w tym miejscu, że sposób dalszych działań nie zależy od przyjętego modelu. Dodajmy też, że w trakcie tych działań pominiemy niektóre etapy, np. dotyczące minimalizacji liczby stanów oraz wyboru metody ich kodowania [9, 11, 12]. Rysujemy dwie tablice przejść-wyjść. Rozpoczynamy od tablicy symbolicznej, będącej dokładnym odwzorowaniem grafu. Następnie przystępujemy do kodowania stanów S z użyciem bitów Q1Q0 2-bitowym kodem Graya: S1 = 00, S2 = 01, S3 = 11, S4 = 10. Obie otrzymane tablice są pokazane na rysunku 19.12. Na podstawie tablicy przejść-wyjść wyznaczamy funkcję wyjściową Y w postaci wyrażenia boole'owskiego Y = Q1Q0 . Stany wewnętrzne zakodowano z użyciem dwóch bitów, dlatego, aby je zapamiętywać, potrzeba dwóch przerzutników. Dalsze postępowanie zależy od decyzji, który typ przerzutników wybierzemy. Zrealizujmy układ z użyciem przerzutników typu D. Zwróćmy uwagę, że tablica wzbudzeń przerzutnika D ma identyczne kolumny Q’ i D. Stąd zakodowana tablica przejść-wyjść jest jednocześnie zakodowaną tablicą wzbudzeń dla dwóch przerzutników D. Sposób wyznaczania funkcji wzbudzeń D1 oraz D0 jest przedstawiony na rysunku 19.13. Grupując jedynki, uzyskujemy następujące funkcje: D1 = Q1 X + Q0 X , D0 = Q1 X + Q0 X . Wyznaczmy jeszcze alternatywną postać funkcji, grupując zera: D1 = X (Q1 + Q0 ), D0 = X (Q1 + Q0 ) . Schemat układu rysujemy z użyciem funkcji otrzymanych w drugim podejściu (rysunek 19.14).
511
19.4. Synteza układów sekwencyjnych
Rys. 19.13. Ilustracja wyznaczania funkcji wzbudzeń przerzutników D za pomocą metody Karnaugha z użyciem: a) jednej tablicy i b) dwóch tablic
Rys. 19.14. Schemat układu z przerzutnikami typu D
Wykonajmy podobne czynności z ukierunkowaniem na zastosowanie przerzutników JK. Zatem spoglądamy na tablicę wzbudzeń przerzutnika JK i stwierdzamy, że nie ma w niej takiego podobieństwa kolumn, jak miało miejsce w przypadku tablicy przejść przerzutnika D. Oznacza to, że musimy czynność przedstawienia funkcji wzbudzeń wykonać w inny sposób. Zatem przygotowujemy indywidualne tablice, przeznaczone do wyznaczania funkcji wzbudzeń, osobno dla każdego przerzutnika. Następnie, zerkając na zakodowaną tablicę przejść-wyjść, stanowiącą punkt wyjścia, wpisujemy w miejsce stanów Q’ odpowiadające im stany wzbudzeń (z tablicy wzbudzeń przerzutnika JK). Po wypełnieniu tablicy wyznaczamy funkcje wzbudzeń J1, K1 oraz J0, K0 (rysunek 19.15). W wyniku grupowania jedynek otrzymujemy cztery funkcje wzbudzeń: J1 = Q0 X , J0 = X ,
K1 = X ,
K 0 = Q1 + X .
Schemat zawiera teraz mniejszą liczbę bramek stanowiących część kombinacyjną układu (rysunek 19.16).
512
19. Układy sekwencyjne
Rys. 19.15. Ilustracja wyznaczania funkcji wzbudzeń przerzutników JK za pomocą metody Karnaugha
Rys. 19.16. Schemat układu z przerzutnikami typu JK
Teraz wypada poinformować Czytelnika, że można było dużo łatwiej uzyskać rozwiązanie zadania za pomocą rejestru przesuwającego oraz 3-wejściowej bramki AND (rysunek 19.17). Jednak poprzednie podejście jest bardziej oszczędne z punktu widzenia potrzebnej liczby przerzutników. Nie będziemy w tym miejscu dokładnie objaśniać zasady jego działania, gdyż rejestry, jako osobna grupa układów, zostaną opisane w następnym podrozdziale.
Rys. 19.17. Schemat detektora ciągu „111”
19.5. Rejestry i liczniki
513
19.5. Rejestry i liczniki Układy rejestrów i liczników są zbudowane z przerzutników. Zatem mają wejścia zegarowe i z tego punktu widzenia są układami synchronicznymi. Występują zwykle z dodatkowymi globalnymi wejściami sterującymi, przeważnie o wyższych priorytetach, przeznaczonymi do ich zerowania i ustawiania (najczęściej w sposób asynchroniczny). Typowo wejścia globalne są oznaczane symbolami stanowiącymi skrót realizowanej funkcji, tj. R, Rst, Clear, S, Set, P, Preset (podobnie jak w przerzutnikach). Skala zastosowań tych układów jest ogromna, ale gdy spojrzymy na nie pod względem szczegółów wykonywanych operacji, jest zgodna z ich nazwą, czyli rejestr rejestruje, a licznik po prostu liczy. Projektowanie tych układów, zwłaszcza liczników, wiąże się z przestrzeganiem pewnych zasad. Spróbujemy je nieco przybliżyć. Rejestry służą do zapamiętywania słów wielobitowych. W istocie są to zespoły przerzutników, które ze względu na konfigurację połączeń można podzielić na równoległe oraz szeregowe (rysunek 19.18). W praktyce są używane jako niewielkie pamięci buforowe lub jako rejestry przesuwające. To drugie zastosowanie jest bardziej interesujące. Umożliwia przesyłanie danych z wejścia do wyjścia za pośrednictwem przerzutników tworzących „łańcuch”, czyli bufor szeregowy. W praktyce spotyka się często rejestry uniwersalne, które mają kilka trybów pracy. Dla przykładu można wprowadzać do rejestru dane równolegle, a odczytywać szeregowo i odwrotnie. Istnieje wiele aplikacji opartych na rejestrach, np. dzielniki i mnożarki (przesuw liczby dwójkowej o n pozycji), generatory testów, generatory pseudolosowe, detektory sekwencji, także liczniki. Do jednego z najbardziej popularnych liczników zbudowanych na rejestrach należy licznik pierścieniowy zliczający w kodzie „1 z n” (rysunek 19.19). Licznik wymaga wstępnego ustawienia sygnałem Reset. Stanem aktywnym tego sygnału jest 0, co wynika z obecności kółek przy wejściach P i R przerzutników. Zatem wystąpienie stanu 0 na wejściu Reset powoduje ustawienie pierwszego przerzutnika oraz wyzerowanie pozostałych przerzutników – niekiedy używa się też określenia: włączenie
Rys. 19.18. Rejestry 8-bitowe: a) równoległy, b) szeregowy
514
19. Układy sekwencyjne
Rys. 19.19. Przykład 8-bitowego licznika pierścieniowego (kod „1 z 8”): a) schemat układu [ZJ1], b) tablica kodowa
i wyłączenie przerzutnika. Po zmianie stanu na wejściu Reset z 0 na 1 rozpoczyna się zliczanie impulsów zegarowych. Liczba stanów licznika odpowiada liczbie przerzutników i jest nazywana cyklem. Często, ze względu na charakter kodu, liczniki pierścieniowe nazywane są licznikami „z krążącą jedynką”. Zauważmy, że zmiana kodu, np. na kod „z krążącym zerem”, jest w przypadku tego licznika wyjątkowo łatwa. Wystarczy inicjujący sygnał Reset doprowadzić do innych wejść P i R przerzutników. Na podobnej zasadzie działa licznik Johnsona, który charakteryzuje się dwa razy większą długością cyklu niż rejestr pierścieniowy. Wydłużenie cyklu osiąga się w nim przez zanegowanie danej sygnału wyjściowego doprowadzanego na wejście pierwszego przerzutnika oraz początkowe wyzerowanie wszystkich przerzutników. Ustalenie kodu zliczania pozostawiamy Czytelnikom. Liczniki służą do zliczania impulsów pojawiających się na wejściu zegarowym. Stan licznika jest udostępniany za pomocą magistrali n-bitowej, gdzie n odpowiada długości licznika (liczbie bitów użytej do zakodowania stanów). Liczbę stanów licznika można wyrazić za pomocą liczby m ≤ 2n. Stąd określenie – „licznik modulo m” (operacja „modulo m” daje w wyniku resztę z dzielenia przez m mieszczącą się w przedziale od 0 do m – 1). Liczniki mogą mieć dodatkowe wejście sterujące zezwoleniem na liczenie CE (Count Enable) i oczywiście inne wejścia globalne (najczęściej Reset). Symbol licznika jest pokazany na rysunku 19.20. Liczniki dzieli się na synchroniczne i asynchroniczne. Tutaj uwaga! Chodzi o odróżnienie liczników, których stany na wyjściach zmieniają się jednocześnie, od liczników, niemających takiej właściwości.
19.5. Rejestry i liczniki
515
Rys. 19.20. Symbol licznika
Stosuje się również podział liczników ze względu na używany kod (NB, Graya, BCD) oraz kierunek liczenia (w przód, wstecz, rewersyjny). Najprostszy, pod względem konstrukcyjnym, jest licznik asynchroniczny zbudowany z dwójek liczących (rysunek 19.21). Każdy z przerzutników zmienia swój stan na przeciwny przy narastającym zboczu sygnału zegara. Stąd częstotliwość zmian stanu sygnału na wyjściu przerzutnika jest o połowę mniejsza niż na jego wejściu. Istotnymi zaletami tego układu są: łatwość konstruowania liczników o „nieograniczonej” długości oraz reprezentowanie stanów wyjściowych w kodzie NB. Natomiast jego wadą jest występowanie zakłóceń towarzyszących zmianom stanu spowodowane niezerowym czasem propagacji przerzutników, co w wielu aplikacjach jest niedopuszczalne. Liczniki synchroniczne można zaprojektować z użyciem metod podanych w poprzednim podrozdziale. Licznik należy wtedy potraktować jako układ autonomiczny, czyli taki, którego kolejny stan zależy wyłącznie od stanu bieżącego. Zatem bez większych problemów możemy opracować tablicę przejść projektowanego licznika i postępując zgodnie z receptą podaną wcześniej, wyznaczyć funkcje wzbudzeń oraz schemat ideowy.
Rys. 19.21. Czterobitowy licznik asynchroniczny: a) schemat układu, b) przebiegi czasowe
516
19. Układy sekwencyjne
Rys. 19.22. 3-bitowy licznik synchroniczny NB: a) tablica przejść-wyjść, b) funkcje wzbudzeń przerzutników T
Najbardziej interesujące, z punktu widzenia możliwych zastosowań, są liczniki liczące w kodzie NB. Dlatego warto zapoznać się z podstawowym rozwiązaniem. Na rysunku 19.22 jest zamieszczona tablica przejść 3-bitowego licznika oraz sposób wyznaczania funkcji wzbudzeń dla przerzutników T (patrz przykład 5). Na podstawie wyznaczonych funkcji wzbudzeń możemy narysować schemat oraz wykonać symulację działania układu (rysunek 19.23).
Rys. 19.23. 3-bitowy licznik synchroniczny NB: a) schemat układu, b) przebiegi czasowe
517
19.5. Rejestry i liczniki
Zwróćmy uwagę, że otrzymane rozwiązanie ma niezwykłą właściwość skalowania, tzn., że można na nim oprzeć konstrukcje liczników o większej liczbie bitów. Funkcje wzbudzeń kolejnych przerzutników możemy wyznaczyć wg algorytmu: T0 = 1, T1 = Q0, T2 = Q1Q0 , ..., Tn = Qn Q1Q0. Taka wiedza pozwala na projektowanie wielobitowych liczników synchronicznych bez stosowania złożonych metod syntezy. Na rysunku 19.24a jest pokazany schemat licznika 4-bitowego zaprojektowanego w ten sposób. Niestety powyższa metoda ma istotną wadę polegającą na tym, że kolejne przerzutniki sterowane są z użyciem bramek AND o ciągle rosnącej liczbie wejść oraz istotną zaletę, że wyznaczanie funkcji sterujących wejściami przerzutników T odbywa się z użyciem tylko jednego poziomu bramek AND, tzn. z niewielkim opóźnieniem. Ponieważ bramki AND tworzą w powyższym rozwiązaniu „łańcuch” przeniesień równoległych, takie liczniki nazywa się równoległymi. Funkcje wzbudzeń można wyznaczyć na bazie poprzedniego rozwiązania wg nieco innego algorytmu: T0 = 1, T1 = Q0 , T2 = Q1T1, ..., Tn = QnTn . Na rysunku 19.24b widać schemat licznika zaprojektowanego w ten sposób. Otrzymaliśmy układ, który zawiera wyłącznie 2-wejściowe bramki AND. Bramki te tworzą „łańcuch przeniesień szeregowych” w układzie wielopoziomowym. Stąd pochodzi nazwa liczników szeregowych. Niestety, ciąg 2-wejściowych bramek AND wprowadza opóźnienie, które jest tym większe, im dłuższy jest licznik. Zatem, układy wielobitowych liczników szeregowych są stosowane przede wszystkim w aplikacjach taktowanych zegarem o stosunkowo małych częstotliwościach, w porównaniu do liczników równoległych. W rezultacie dochodzimy do wniosku, że to, co jest zaletą liczników szeregowych, jest jednocześnie wadą liczników równoległych i odwrotnie. Rozwój komputerowych technik wspomagających projektowanie daje dzisiaj możliwość projektowania wg wielu ściśle określonych wymagań, np. można jako parametr wprowadzać wartość maksymalnego opóźnienia dla „łańcucha” przeniesień. To z kolei daje możliwość znalezienia optymalnych rozwiązań, np. liczników, które będą dopasowane do konkretnych technologii wytwarzania.
518
19. Układy sekwencyjne
Rys. 19.24. Schematy ideowe liczników synchronicznych liczących w kodzie NB: a) licznik równoległy, b) licznik szeregowy
20. Cyfrowe układy scalone Cyfrowe układy scalone (Digital integrated circuits) są już po pięćdziesiątce, oczywiście jeśli jako datę urodzenia przyjmiemy datę ich seryjnego wprowadzenia na rynek (1961 – Fairchild i Texas Instruments). Układy te osiągnęły stan zaawansowania, który można określić jako dojrzały. W poniższym rozdziale zostaną zasygnalizowane wybrane właściwości cyfrowych układów scalonych, poczynając od klasyfikacji, poprzez budowę bramek oraz przedstawienie najważniejszych parametrów elektrycznych i czasowych, kończąc na układach programowalnych.
20.1. Klasyfikacja układów cyfrowych Cyfrowe układy scalone można podzielić wg wielu kryteriów [9, 20]. Podstawowym kryterium jest rozróżnienie układów ze względu na tranzystory zastosowane w ich układach elektrycznych. Pod tym względem układy cyfrowe dzieli się zwykle na: – Bipolarne (przede wszystkim z tranzystorami bipolarnymi typu N-P-N) • TTL (Transistor-Transistor Logic), • ECL (Emitter-Coupled Logic); – Unipolarne (z tranzystorami polowymi z izolowaną bramką) • MOS (Metal-Oxide-Semiconductor), • CMOS (Complementary MOS). Układy TTL największą popularność mają już za sobą, choć nadal występują, przede wszystkim ze względu na potrzebę utrzymania sprawdzonych konstrukcji. Ale i tu wkrótce należy spodziewać się coraz mniejszego zainteresowania odbiorców, gdyż nowe konstrukcje urządzeń z tymi układami praktycznie nie powstają, a te konstrukcje, które istnieją i ulegają uszkodzeniom, są w większości zastępowane nowymi, wykonanymi w nowszej technologii. Układy ECL cieszyły się dużą popularnością tam, gdzie bezwzględnie ważna była szybkość działania. Zatem były stosowane głównie w aplikacjach przemysłowych. Dziś jeszcze występują i nadal są konkurencyjne, jednak pod względem szybkości działania nie przyspieszają tak szybko jak układy wykonywane z użyciem nowszych technologii. Układy MOS, zbudowane z tranzystorów polowych MOS z kanałem typu n lub typu p, są wykorzystywane masowo głównie w pamięciach półprzewodnikowych. Podstawową zaletą takich układów jest niski koszt wytwarzania oraz duży stopień integracji. Rozwój technologii MOS stał się podstawą rozwoju technologii CMOS charakteryzującej się użyciem dwóch komplementarnych typów tranzystorów umieszczonych na wspólnym podłożu półprzewodnika (odpowiednio ze sobą połączonych).
520
20. Cyfrowe układy scalone
Układy CMOS zdominowały obecnie rynek cyfrowych układów scalonych. Technologia ta umożliwia uzyskanie bardzo dużej skali integracji, która rośnie praktycznie co roku. Jedną z właściwości tej technologii jest możliwość skalowania rozmiaru elementów rozmieszczonych na podłożu półprzewodnika poprzez zmniejszenie rozmiaru charakterystycznego. Na sukces układów CMOS złożyły się również inne parametry, być może ważniejsze, np. znacznie zmniejszona moc strat, dostępność zamienników układów TTL, niższa cena i wreszcie to, co zrewolucjonizowało elektronikę cyfrową – układy programowalne przez użytkownika. Dlatego w dalszej części będą opisywane prawie wyłącznie układy CMOS. Cyfrowe układy scalone można też podzielić pod względem gotowości do użycia na: – układy standardowe – wytwarzane masowo we wszystkich technologiach, gotowe do działania zaraz po zamontowaniu, – układy programowalne (PLD – Programmable Logic Devices) – produkowane masowo, przede wszystkim w technologii CMOS, stanowiące swego rodzaju uniwersalne półprodukty, których funkcje określi użytkownik końcowy podczas samodzielnego programowania i wg własnej specyfikacji, – układy specjalizowane (ASIC – Application-Specific Integrated Circuits) – wytwarzane na zamówienie, głównie w technologii CMOS.
20.2. Budowa bramek CMOS Działanie bramki logicznej polega na odczycie jednego z dwóch poziomów napięć występujących na wejściach i wytwarzaniu również jednego z dwóch poziomów napięć na wyjściu. Przyjęliśmy, że będziemy poziomy te nazywać w skrócie L i H (patrz rozdz. 17). Wytwarzanie odpowiedniego poziomu logicznego na wyjściu mogłoby hipotetycznie odbywać się za pomocą prostych przełączników (rysunek 20.1). Gdyby zatem w miejsce przełącznika wstawić element zdolny go zastąpić i dodatkowo miał on wejście sterujące, to mielibyśmy prawie rozwiązany problem budowy bramki. Zatem potrzebny jest 3-końcówkowy element i może nim być w sposób oczywisty tranzystor. Taki tranzystor mógłby pracować jako element dwustanowy, tzn. mógłby być włączony, co odpowiada stanowi włączenia przełącznika, bądź wyłączony, co z kolei odpowiada sytuacji wyłączenia przełącznika. Na bazie przedstawionej idei skonstruowano podstawową bramkę CMOS, którą jest inwerter (rysunek 20.2). Użycie dwóch typów tranzystorów MOS normalnie wyłączonych (z kanałem wzbogacanym), górnego z kanałem typu P i dolnego z kanałem typu N, jest w istocie prostym i jednocześnie skutecznym rozwiązaniem problemu. Po pierwsze, tranzystory polowe reprezentują sobą małą rezystancję podczas włączenia (rzędu 10...100 Ω) i bardzo dużą rezystancję podczas wyłączenia (rzędu 109 Ω), więc mogą zastąpić przełączniki. Przypomnijmy, że rezystancja wejściowa bramek jest jeszcze większa (rzędu 1012 Ω). Dlatego pomijamy wartości prądów wejściowych i w dalszych rozważaniach traktujemy wejścia układów jako sterowane napięciowo. Po drugie,
20.2. Budowa bramek CMOS
521
Rys. 20.1. Wytwarzanie poziomu logicznego z użyciem przełączników
Rys. 20.2. Inwerter CMOS: a) schemat układu z tranzystorami, b) bramka w stanie wyłączenia, c) bramka w stanie włączenia
wspólny sygnał wejściowy doprowadzony do bramek tranzystorów steruje ich włączaniem i wyłączaniem w sposób komplementarny, czyli naprzemienny. Dlatego, gdy włączony jest górny tranzystor, dolny tranzystor jest wyłączony i odwrotnie. Po trzecie, tak sterowany układ odwraca poziom sygnału na wyjściu względem sygnału wejściowego. Realizuje zatem funkcję NOT. Układ inwertera CMOS z rysunku 20.2 posłużył jako swego rodzaju szablon do konstrukcji bramek NAND i NOR (rysunek 20.3). Jak widać na schematach obu bramek, tranzystory z kanałem typu p są umieszczone zawsze w górnej połowie układu (bliżej napięcia zasilania), natomiast tranzystory z kanałem typu n są umieszczone w dolnej części układu (bliżej masy). Jest to typowa właściwość bramek CMOS budowanych w ten sposób. Liczba tranzystorów wynika wprost z liczby zastosowanych wejść (jeden tranzystor pMOS stanowiący obciążenie i jeden tranzystor sterowany nMOS na każde wejście). Oczywiście aby realizować funkcję NAND
522
20. Cyfrowe układy scalone
Rys. 20.3. 3-wejściowe bramki CMOS: a) NAND – układ na tranzystorach, b) NAND – model na przełącznikach (zaznaczono pary przełączników), c) NOR – układ na tranzystorach, d) NOR – model na przełącznikach (zaznaczono pary przełączników)
lub NOR, tranzystory powinny być rozmieszczone zgodnie z modelem pokazanym na rysunkach 20.3b i 20.3d. Otrzymujemy w ten sposób charakterystyczne rozkłady tranzystorów polegające na tym, że jeśli w górnej połówce dane tranzystory pMOS występują w konfiguracji równoległej, to w dolnej połówce odpowiadające im tranzystory nMOS występują w konfiguracji szeregowej i odwrotnie. Inne bramki buduje się, korzystając z kilku bramek NAND, NOR i inwertera, oczywiście połączonych ze sobą zgodnie ze schematem logicznym. Zwróćmy teraz uwagę na istotne zjawisko. Otóż, jeśli założymy, że sterowanie bramką CMOS odbywa się z użyciem idealnego sygnału wejściowego, tzn. reprezentowanego wyłącznie za pomocą poziomów napięć H i L, które zmieniają się skokowo, to i tak na wyjściu bramki nie otrzymamy sygnału, który miałby cechy sygnału idealnego, z prostej przyczyny – występowania pojemności pasożytniczych. Nawet gdyby wpływ ten udało się ograniczyć, musimy przecież jeszcze uwzględnić rzeczywistą pojemność obciążenia bramki. Z drugiej strony, sygnał na wejściu może przechodzić z poziomu do poziomu także powoli. Wtedy na wyjściu bramki otrzymamy wyostrzenia zbocza sygnału, gdyż przekroczenie napięcia progowego na wejściu powoduje odpowiednio szybsze przełączanie wewnętrznych tranzystorów bramki. W efekcie konstruuje się bram-
20.3. Wybrane parametry elektryczne i czasowe
523
Rys. 20.4. Bufor trójstanowy CMOS: a) schemat, b) symbol
ki z buforowaniem wejść, buforowaniem wyjść oraz buforowaniem wejść i wyjść. Rolę bufora odgrywa oczywiście inwerter. Dodajmy, że konstrukcja samego bufora jako bramki polega na szeregowym połączeniu dwóch inwerterów. Na rysunku 20.1a przedstawiono model przełącznikowy, który ma oba przełączniki wyłączone. Co za tym idzie, wyjście jest całkowicie odłączone. Gdyby zastosować ten model do bramek, można by odłączać ich wyjścia i uzyskać trzeci stan bramki: stan wysokiej impedancji. W ten sposób zostały zaprojektowane bramki trójstanowe, nazywane buforami trójstanowymi. Na rysunku 20.4 zamieszczono schemat bufora odwracającego (inwertera) pokazujący umiejscowienie tranzystorów-kluczy, wprowadzających stan wysokiej impedancji. Stosunkowo łatwo możemy takie tranzystory odróżnić od pozostałych tranzystorów, gdyż ich bramki są sterowane sygnałem o odwróconej polaryzacji. Obecnie stosowanie buforów trójstanowych jest powszechne. Występują w licznych odmianach: jako elementy układów standardowych, programowalnych i ASIC. Bufory trójstanowe umożliwiają zestawianie połączeń magistralowych, podobnie jak to miało miejsce z użyciem multiplekserów i demultiplekserów. Magistrale te mają jednak dodatkowe korzystne właściwości, np. łatwość zestawiania połączeń dwukierunkowych oraz łatwość dołączania kolejnych buforów do magistrali. Niewątpliwą zaletą jest także ich niska cena. Kończąc opis bramek CMOS, należy wspomnieć również o bramkach transmisyjnych, nazywanych często kluczami półprzewodnikowymi, które w rzeczywistości są układami analogowymi ze sterowaniem cyfrowym. W praktyce inżynierskiej szczegóły konstrukcyjne bramek logicznych nie cieszą się zwykle aż takim zainteresowaniem jak ich parametry. Zatem w następnym punkcie zajmiemy się najważniejszymi parametrami układów cyfrowych.
20.3. Wybrane parametry elektryczne i czasowe Na popularność cyfrowych układów scalonych składa się wiele czynników, np. cena, realizowane funkcje, łatwość montażowa. Projektant zatem prowadzi wnikliwą analizę danych katalogowych w celu dokonania oceny, na ile dane te spełniają
524
20. Cyfrowe układy scalone
jego oczekiwania. Wiele z nich nie wymaga żadnego komentarza, gdyż są rozumiane jednoznacznie, np. zalecany zakres temperatury pracy, liczba i oznaczenia wyprowadzeń, napięcie zasilania. Natomiast część wymaga określenia dodatkowych warunków, w których dokonano pomiaru, jak również właściwej interpretacji. Przyjrzymy się zatem niektórym z nich. Moc strat i napięcie zasilania i częstotliwość maksymalna Moc strat P jest wyrażana następującym wzorem, P = U CC I CC ,
(20.1)
gdzie: UCC – napięcie zasilania, ICC – pobierany prąd. W układach CMOS wyróżnia się dwa składniki mocy: – składowa statyczna mocy, którą można pomierzyć, gdy układ jest w stanie oczekiwania na zmiany sygnałów sterujących (dotyczy to także sygnału zegara, który powinien być wyłączony), – składowa dynamiczna mocy, która w układach CMOS rośnie liniowo w funkcji częstotliwości zegara. Zwiększenie częstotliwości pracy układów wiąże się z koniecznością odprowadzania większej ilości ciepła wydzielanego w półprzewodniku. Dlatego, by nie dopuścić do uszkodzenia struktury, w wielu urządzeniach stosuje się radiatory i wentylatory. Obniżenie mocy, jak wynika ze wzoru 20.1, można także uzyskać, stosując niższe napięcie zasilające. Stąd wniosek, że moc strat jest parametrem, który istotnie wpłynął na wprowadzenie niskonapięciowych standardów zasilania. Czas propagacji Czasem propagacji tp nazywamy opóźnienie układu, czyli czas potrzebny na przejście sygnału od wejścia do wyjścia (rysunek 20.5). Jest to podstawowy parametr opisujący szybkość działania układów cyfrowych – przede wszystkim bramek. W układach cyfrowych rozróżnia się często czasy propagacji dla zboczy sygnału: z poziomu niskiego do wysokiego (tpLH) i z poziomu wysokiego do niskiego (tpHL), które mogą znacznie się od siebie różnić. Pomiaru czasów propagacji dokonuje się przy określonym obciążeniu, które zwykle ma charakter pojemności. Typowe wartości czasów propagacji bramek w układach CMOS mieszczą się w granicach pojedynczych nanosekund. W układach kombinacyjnych często ten sam sygnał jest prowadzony do wyjścia drogami o różnym opóźnieniu. Takie realizacje układowe są wtedy narażone na występowanie zjawiska hazardu, czyli zakłóceń na wyjściu, objawiających się w postaci krótkich impulsów. Hazardy najczęściej są zjawiskiem niepożądanym. Istnieją jednak i takie aplikacje, których działanie polega na wykorzystaniu tego zjawiska. Przykładem jest układ, który może być użyty do wykrywania opadającego zbocza sygnału (rysunek 20.6).
20.3. Wybrane parametry elektryczne i czasowe
525
Rys. 20.5. Ilustracja czasu propagacji inwertera
Rys. 20.6. Układ wykrywania zbocza impulsu wejściowego: a) schemat, b) przebiegi czasowe
Parametry czasowe przerzutników Przerzutniki, z uwagi na to, że są podstawowymi elementami synchronicznymi, czyli wyposażonymi w wejście zegarowe, są opisywane z użyciem dodatkowych parametrów, do których należą: – czas ustalenia tSU (setup time) i czas podtrzymania th (hold time) – suma czasów stanowiąca okno czasowe, w obrębie którego sygnał występujący na wejściach informacyjnych przerzutnika nie może się zmieniać, inaczej może dochodzić do występowania zjawiska metastabilności [9] (rysunek 20.7), – czasy propagacji, np. tCQ – czasy definiowane w identyczny sposób jak czasy propagacji bramek, oznaczenie CQ wskazuje, których wyprowadzeń dotyczy.
Rys. 20.7. Ilustracja czasów ustalenia i podtrzymania dla przerzutników
Odporność na zakłócenia Poziomy napięć wejściowych i wyjściowych w układach cyfrowych muszą mieścić się w określonych zakresach, aby mogły być prawidłowo interpretowane jako H i L. Zazwyczaj poziomy te określone są z pewnym zapasem, tworząc marginesy bezpieczeństwa, nazywane marginesami zakłóceń. Definicja marginesów zakłóceń MH i ML jest zilustrowana na rysunku 20.8.
526
20. Cyfrowe układy scalone
Rys. 20.8. Definicja marginesów zakłóceń: a) CMOS 5 V, b) CMOS 3,3 V
Kompatybilność łączeniowa Problem kompatybilności połączeń nie dotyczy bramek tej samej serii. Natomiast gdy jesteśmy zmuszeni połączyć układy z różnych serii, musimy sprawdzić zgodność poziomów napięć (H, L) oraz wartości dopuszczalnych obciążeń. Mamy zatem dwie drogi postępowania: łączymy bramki bezpośrednio przy spełnieniu powyższych warunków lub korzystamy z odpowiednich układów konwersji poziomów logicznych. Generalnie bramki o różnych napięciach zasilania są kompatybilne, gdy marginesy zakłóceń łączonych bramek MH i ML są dodatnie.
20.4. Architektury układów programowalnych Idea układów programowalnych polega na użyciu półproduktów, zbudowanych z bramek lub bardziej złożonych bloków logicznych oraz ich połączeń. Całość jest przygotowana do zaprogramowania, czyli do ustalenia konfiguracji połączeń wg specyfikacji użytkownika. Pamięci półprzewodnikowe były głównym motorem postępu, gdyż jako pierwsze, wykonywane jeszcze w technologii bipolarnej, umożliwiały jednokrotne programowanie przez użytkownika z użyciem specjalnego programatora. Programowanie polegało na przepaleniu wewnętrznych bezpieczników wskutek doprowadzenia podwyższonego napięcia. Dzisiaj miejsce bezpieczników zastąpiły elementy, które można programować wielokrotnie – najczęściej tranzystory MOS z wbudowaną „bramką swobodną”, oraz elementy, które można programować jednokrotnie – antybezpieczniki. Czytelników, którzy zechcą poszerzyć wiedzę na temat rodzajów łączników programowalnych, zapraszamy do lektury, np. [9, 16]. Opis architektur układów programowalnych rozpoczniemy od pokazania symboli wielowejściowych bramek programowalnych oraz symbolu bufora z wyjściami komplementarnymi (rysunek 20.9).
20.4. Architektury układów programowalnych
527
Rys. 20.9. Symbole bramek: a) w schematach układów standardowych b) w schematach układów programowalnych
Wejścia bramek wielowejściowych rysowane są za pomocą pojedynczej linii oraz umieszczonych na niej punktów, przy czym punkty oznaczają zaprogramowane połączenia, natomiast ich brak – brak połączeń. Idea układów programowalnych opiera się na użyciu programowalnych matryc AND i OR oraz programowalnych matryc wyjściowych umożliwiających przedstawianie funkcji w postaci prostej bądź zanegowanej (rysunek 20.10). Takie zestawienie matryc umożliwia realizację dowolnych funkcji kombinacyjnych zapisanych w postaci sumy iloczynów (patrz rozdział 17). Użycie dwóch programowalnych matryc bramkowych, tj. AND oraz OR, pozwala uzyskać realizacje układów kombinacyjnych, które charakteryzują się dużym stopniem upakowania. Dla przykładu, można do realizacji wybierać postacie funkcji o najmniejszej liczbie termów (minimalizacja stopnia wykorzystania matrycy AND) oraz stosować wspólne termy funkcji wielowyjściowych (minimalizacja stopnia wykorzystania matrycy OR). Zatem, w odniesieniu do technik minimalizacji układów dwupoziomowych, powyższa struktura idealnie trafia w nasze oczekiwania. W praktyce używane są struktury typu PLA (Programmable Logic Array) oraz typu PAL (Programmable Array Logic). Układy PLA mają programowalne dwie matryce bramek (AND i OR), natomiast układy PAL mają programowalną matrycę AND i nieprogramowalną matrycę OR. W układach PAL liczba termów doprowadzonych do wejść jednej bramki OR jest stała (typowo 8 lub 10) i stanowi podstawowe ograniczenie projektowe. Układy z programowalnymi matrycami AND oraz OR możemy zatem sklasyfikować następująco: 1. Pamięci programowalne – stała matryca AND, programowalna matryca OR 2. Układy PAL – programowalna matryca AND, stała matryca OR 3. Układy PLA – programowalna matryca AND, programowalna matryca OR Na rysunku 20.11 pokazano schematy realizacji układu sterowania wymianą wody w basenie (patrz przykład 1) z użyciem wymienionych wyżej struktur programowalnych.
528
20. Cyfrowe układy scalone
Rys. 20.10. Architektura układów PLA
Układy programowalne dostępne w handlu (PLD – Programmable Logic Devices) dzieli się najczęściej na trzy grupy: 1. Proste układy programowalne SPLD (Simple PLD), 2. Złożone układy programowalne CPLD (Complex – PLD), zwane strukturami matrycowymi, 3. Programowalne matryce bramkowe FPGA (Field Programmable Gate Array), struktury komórkowe. W układach SPLD podstawowym elementem konstrukcyjnym jest programowalna matryca AND-OR, do której doprowadzane są sygnały bezpośrednio z wejść układu scalonego oraz sygnały sprzężeń zwrotnych. Wyjścia matrycy AND-OR są podłączone do zespołów elementów wyjściowych w postaci programowalnych inwerterów i trójstanowych buforów wyjściowych. W bardziej rozbudowanych układach znajdują się dodatkowo przerzutniki, multipleksery oraz bramki XOR, które nazywane są makrokomórkami (rysunek 20.12).
20.4. Architektury układów programowalnych
529
Rys. 20.11. Schematy realizacji układu sterowania wymianą wody w basenie: a) pamięć ROM 8 × 3, b) układ PAL, c) układ PLA
530
20. Cyfrowe układy scalone
Rys. 20.12. Struktura prostych układów programowalnych PLD
Układy CPLD, w porównaniu z prostymi układami PLD, są bardziej złożone, gdyż mają większe zasoby logiczne oraz większe możliwości funkcjonalne. Charakterystyczną cechą układów CPLD jest hierarchiczna architektura, w której można wyróżnić programowalną matrycę połączeń PMP, pewną liczbę bloków logicznych BL oraz bloki wejść/wyjść I/O (rysunek 20.13). Matryca PMP (zazwyczaj zbudowana z multiplekserów) łączy ze sobą bloki logiczne i bloki I/O, kierując sygnały wejściowe do określonych programowo wyjść. Natomiast blok BL, który realizuje funkcje logiczne układu, zawiera programowalną matrycę AND-OR (najczęściej typu PAL) oraz pewną liczbę programowalnych makrokomórek złożonych z przerzutników, bramek XOR, multiplekserów i buforów trójstanowych. Blok logiczny zawiera także lokalne ścieżki połączeniowe pomiędzy makrokomórkami,
Rys. 20.13. Budowa układu CPLD
20.4. Architektury układów programowalnych
531
dzięki którym jest możliwe zwiększenie szybkości działania oraz realizacja dodatkowych funkcji zwiększających funkcjonalność, np. poprzez użycie alokatorów termów likwidujących problem ograniczonej liczby wejść bramek OR w matrycach PAL [16]. Układy FPGA są określane w języku polskim jako programowalne matryce bramkowe. Nazwa ta jest jednak myląca, gdyż w istocie matryce programowalne nie są budowane z bramek, lecz ze znacznie bardziej złożonych bloków logicznych. Układy FPGA najczęściej mają architekturę komórkową (rysunek 20.14). Programowalne bloki logiczne (PBL) są rozlokowane na kostce krzemowej w postaci prostokątnej macierzy komórek logicznych. Bloki te są otoczone kanałami ścieżek łączeniowych umożliwiających wykonanie połączeń między dowolnymi blokami PBL oraz z końcówkami zewnętrznymi układu (za pośrednictwem bloków I/O). Wszystkie połączenia są realizowane za pomocą ścieżek o różnych długościach (segmentów) w taki sposób, aby były możliwie najkrótsze. Bloki PBL są programowalne, podobnie jak makrokomórki w układach CPLD, dlatego ich struktury logiczne powinny być możliwie uniwersalne w celu realizacji wielu potencjalnych zastosowań. Architektury układów poszczególnych producentów różnią się tak znacznie, że niekiedy występuje trudność z zakwalifikowaniem ich do określonej klasy układów programowalnych (FPGA – CPLD). Przykładowo, w układach można spotkać bloki logiczne z programowalną matrycą PAL, właściwą układom CPLD, i regularnymi połączeniami, właściwymi dla architektury układów FPGA.
Rys. 20.14. Typowa architektura układów FPGA
532
20. Cyfrowe układy scalone
Dodatkowym czynnikiem pogłębiającym wątpliwości przy klasyfikacji układów jest stosowanie bloków wbudowanych EAB (Embedded Array Block), które zakłócają regularną architekturę układu. Pod nazwą EAB kryją się dzisiaj wbudowane pamięci RAM, multiplikatory, układy do zarządzania rozprowadzaniem sygnału zegarowego, a także procesory i bloki DSP.
21. Komputerowe projektowanie układów cyfrowych Współczesne systemy przeznaczone do projektowania układów cyfrowych można podzielić na dwie grupy, choć podział ten nie jest sztywny: systemy przeznaczone do projektowania płytek drukowanych (rozmieszczenie elementów na płytkach, wytyczanie połączeń itp.) i systemy do projektowania układów umieszczanych wewnątrz układu scalonego, np. układu PLD. Dalsza część rozdziału jest poświęcona tematyce projektowania z użyciem układów programowalnych, począwszy od przedstawienia etapów procesu projektowania, poprzez minimum wiedzy na temat języka VHDL, kończąc na przykładach kilku projektów.
21.1. Etapy projektowania układów cyfrowych Współczesne systemy projektowe umożliwiają projektowanie z wykorzystaniem języków HDL (Hardware Description Language) oraz tradycyjnego schematu ideowego. Często możliwe jest stosowanie również innych sposobów opisu układu, np. automatycznych generatorów funkcyjnych, makr i diagramów. Projektowanie odbywa się za pomocą interfejsu, którego zadaniem jest udostępnienie odpowiednich narzędzi oraz kontrola procesu projektowania. Udostępniane są m.in. edytory tekstowe do opisów HDL i określania parametrów projektowych, edytory graficzne do schematów i rozmieszczenia zasobów, symulatory funkcjonalne i czasowe. Etapy postępowania od opisu do zaprogramowania układu scalonego są w zasadzie jednakowe dla większości systemów projektowych. Różnice występują w zastosowanych kompilatorach, symulatorach i programach optymalizujących projekt (rysunek 21.1). Poszczególne etapy projektowania są uruchamiane za pomocą menedżera projektu. Najważniejsze to: – opis projektu z użyciem: schematu, grafu przejść automatu, języka VHDL, Verilog bądź innych, – kompilacja (do postaci wewnętrznej danego systemu), – symulacja funkcjonalna, – weryfikacja czasowa, – implementacja projektu w wybranej strukturze programowalnej FPGA lub CPLD, – testowanie zaprogramowanego układu, – koniec projektowania.
534
21. Komputerowe projektowanie układów cyfrowych
Rys. 21.1. Proces projektowania układów cyfrowych przeznaczonych do realizacji w układach programowalnych
W dalszej części książki będą przykłady użycia wybranych narzędzi wchodzących w skład pakietu oprogramowania ISE firmy Xilinx (znaczącego producenta programowalnych układów scalonych i narzędzi programowych do ich konfigurowania). Potrzebne oprogramowanie jest udostępniane, także bezpłatnie, na stronach internetowych tej firmy (www.xilinx.com). Wymagana jest rejestracja, w trakcie której wybieramy pełną wersję programu, ale ograniczoną czasowo lub okrojoną wersję bezterminową. Zaznaczmy, że intencją autorów nie jest podawanie instrukcji obsługi programu, lecz pokazanie wybranych możliwości jego użycia. Szczegółowy opis można znaleźć w Helpie oraz innej dokumentacji dołączonej do programu.
21.2. Język VHDL – minimum na start Język VHDL jest obecnie, obok języka Verilog, najbardziej rozpowszechnionym językiem opisu sprzętu stosowanym w technice cyfrowej. Umożliwia opis układów cyfrowych na wielu poziomach, np. można w sposób tekstowy zapisać schemat ideowy lub bez wnikania w szczegóły konstrukcyjne opisać działanie układu wykonującego konkretne zadanie. Wtedy przekształceniem kodu VHDL na ostateczne odwzorowanie w programowalnym układzie scalonym zajmie się kompilator sprzętowy. Język VHDL może być także użyty do pisania programów testujących, tzn. takich, które generują odpowiednie sygnały testowe podawane na wejścia testowanych układów, porównują odpowiedzi otrzymane na ich wyjściach i reagują w zaprogra-
21.2. Język VHDL – minimum na start
535
mowany sposób w sytuacjach występowania błędów. Często bywa tak, że napisanie dobrego programu testowego jest o wiele trudniejsze i bardziej czasochłonne niż projekt układu będącego obiektem testowania. Obsługą programów testowych zajmuje się symulator. Systemy projektowe, które zawierają kompilator sprzętowy języka VHDL, zawierają zwykle także symulator tego języka. Jednak uwaga! Opisy źródłowe programów testowych znacznie różnią się od opisów sprzętu. W przypadku opisów sprzętu mamy przecież do czynienia z opisem działania układów elektronicznych, natomiast w przypadku programów testowych – z symulacją pozwalającą ocenić poprawność działania układów na ich komputerowych modelach. Standardem języka VHDL zajmuje się IEEE (Institute of Electrical and Electronics Engineers) – największa organizacja zawodowa o charakterze globalnym skupiająca elektryków i elektroników, działająca na zasadzie non profit. Nazwa standardu języka VHDL ma więc typowe dla tej organizacji oznaczenie – IEEE 1076. W ramach organizacji IEEE działają grupy robocze, których celem jest ciągłe unowocześnianie standardu. Mamy zatem wydania: VHDL-87, 93, 02 i 08. Przy okazji nadmieńmy, że na kompletny standard języka VHDL nie składa się tylko jeden dokument, lecz wiele dokumentów ukierunkowanych tematycznie, np. na opis modeli czasowych, metod weryfikacji, opis działania układów analogowych. Dokumenty te traktuje się jako rozszerzenie standardu VHDL. Dostępne systemy projektowe umożliwiające stosowanie języka VHDL nie nadążają zwykle za rozwojem standardu. Można taki stan rzeczy w prosty sposób wytłumaczyć choćby cyklem rozwoju oprogramowania użytkowego, który musi występować z opóźnieniem, zwłaszcza wtedy, gdy warunkiem koniecznym jest wierne wspieranie standardu. To ostatnie wymaganie i tak nie jest w pełni osiągane, gdyż w dokumentacji kompilatorów możemy odnaleźć wykazy komend i struktur, które nie są wspierane lub są wspierane w sposób niezgodny ze standardem. W poniższym podrozdziale podjęto próbę wprowadzenia Czytelnika do świata języka VHDL ze świadomym pominięciem wielu szczegółów. Przecież o umiejętności projektowania z użyciem języka VHDL nie będzie decydowała umiejętność bezbłędnego odtworzenia z pamięci składni poszczególnych komend (to można szybko znaleźć w podręczniku), ale przede wszystkim umiejętność przenoszenia reprezentacji układu z innych poziomów abstrakcji na zapis w języku VHDL. Pod tym względem proces projektowania przypomina tworzenie oprogramowania komputerowego i przez wielu jest postrzegany jako swego rodzaju sztuka. Jeśli więc chcemy zostać prawdziwymi artystami, powinniśmy zacząć od przestudiowania literatury, np. [1, 8]. Nauki języka VHDL nie warto rozpoczynać od studiowania standardu z prostego powodu: ten dokument jest adresowany przede wszystkim do twórców kompilatorów, a co za tym idzie, jest napisany z użyciem specjalistycznego informatycznego języka, nie zawiera wystarczającej liczby przykładów, a ponadto układ treści nie jest uporządkowany pod względem dydaktycznym. W pierwszym kroku przyjrzyjmy się, jak wygląda najprostszy szablon z opisem układu w języku VHDL i wyróżnijmy w nim charakterystyczne elementy. Kod źródłowy takiego opisu jest następujący:
536
21. Komputerowe projektowanie układów cyfrowych --/* */
Struktura opisu źródłowego w języku VHDL (pojedyncze linie komentarza są poprzedzone podwójnym -) nowy styl komentarza dostępny od VHDL-2008
-- deklaracje bibliotek i pakietów, np. library ieee; use ieee.std_logic_1164.all; -- deklaracja jednostki projektowej -- (opis interfejsu, czyli wejść i wyjść) entity nazwa_układu is port ( -- deklaracje rodzajów wejść i wyjść -- oraz skojarzonych z nimi typów sygnałów ); end nazwa_układu; -- deklaracja architektury architecture wariant1 of nazwa_układu is /* deklaracje sygnałów, stałych, komponentów, funkcji, procedur */ begin -- (opis układu, tzw. ciało architektury) -- instrukcje współbieżne process(lista_wrażliwości) -- deklaracje stałych, zmiennych i funkcji o zasięgu -- lokalnym (dotyczą tylko tego procesu) begin /* instrukcje sekwencyjne */ end process; -- instrukcje współbieżne (także kolejne procesy) end wariant1;
Teraz scharakteryzujemy dwa style opisu układów cyfrowych: strukturalny i behawioralny. Pierwszy styl ma za zadanie przedstawić układ, który pierwotnie był opisany za pomocą schematu ideowego. Stąd w opisie źródłowym znajdziemy deklaracje komponentów, zastępujących bramki (i inne bloki logiczne) oraz deklaracje sygnałów, zastępujących połączenia. Drugi styl, behawioralny, polega na nowocześniejszym podejściu, opartym na przedstawieniu funkcji układu bez
21.2. Język VHDL – minimum na start
537
wnikania w jego strukturę. Trzeba tylko w odpowiedni sposób opisać działanie układu za pomocą równań, instrukcji warunkowych, instrukcji pętli, procedur itd. Styl ten jest w rzeczywistości stylem pisania programów komputerowych. Dlatego osoby doświadczone w pisaniu programów komputerowych opanowują go błyskawicznie, zwłaszcza gdy pozbędą się nawyku nadużywania zmiennych. Sukces przychodzi tym szybciej, im szybciej uświadomią sobie, że w konkretnych punktach urządzeń elektrycznych występują sygnały, których nie należy utożsamiać ze zmiennymi. Sygnały deklaruje się za pomocą słowa kluczowego signal, natomiast zmienne za pomocą słowa variable. Zarówno sygnały, jak i zmienne służą do reprezentowania informacji, z tym że sygnały posłużą do przedstawiania stanów urządzenia, natomiast zmienne posłużą do przedstawiania innych informacji, np. numeru iteracji w pętli, wartości kroku symulacji. Sygnały są deklarowane w architekturze układu i dotyczą swym zasięgiem całej architektury, natomiast zmienne są deklarowane w osobnych procesach i mają ograniczony zasięg do procesów, w których zostały zadeklarowane. Dodajmy, że oprócz sygnałów i zmiennych istnieją także stałe constant, lecz z ich użyciem zwykle nie ma problemów. Stałe, sygnały i zmienne mogą być reprezentowane za pomocą danych określonego typu. W tabeli 21.1 zestawiono typy stosowane najczęściej.
Przetwarzanie sygnałów i zmiennych odbywa się z użyciem instrukcji przypisania sygnału (<=) lub zmiennej (:=) oraz operatorów logicznych, arytmetycznych i innych (tabela 21.2). W języku VHDL wyróżnia się instrukcje współbieżne oraz instrukcje sekwencyjne. Pierwsze, nazywane równoległymi, służą do odwzorowania wielu zadań realizowanych w tym samym czasie, stąd ich kolejność w kodzie źródłowym nie ma znaczenia. Natomiast drugie, nazywane szeregowymi, służą do odwzorowania zadań następujących kolejno po sobie, stąd ich kolejność w kodzie ma znaczenie. W tabeli 21.3 zestawiono składnię najważniejszych instrukcji języka VHDL z podziałem na współbieżne i sekwencyjne. Tab. 21.1. Zestawienie najczęściej stosowanych typów w VHDL Typ danych std_logic std_logic_vector wyliczeniowy boolean integer real tablicowy fizykalny plikowy
Przykład użycia (deklaracji) signal sig1, sig2: std_logic;
signal A: std_logic_vector(3 downto 0);
type state_type is (Stan0,Stan1,Stan2,Stan3); variable test: boolean:= false; signal iter: integer:= 0;
variable suma, liczbaulamkowa: real;
type t_hist is array(integer range 1 to 10) of integer; wait for 10 ns;
file res1: text is out „result.txt „;
538
21. Komputerowe projektowanie układów cyfrowych Tab. 21.2. Operatory w języku VHDL Typy operatorów logiczne
Oznaczenia
not, and, or, nand, nor, xor, xnor; =, /=, <, <=, >, >=;
relacji przesunięć arytmetyczne
sll, srl, sla, sra, rol, ror; +, -,*, /, mod, rem, **, abs; &
konkatenacji
Tab. 21.3. Najważniejsze instrukcje języka VHDL Instrukcje współbieżne
Instrukcje sekwencyjne Przypisanie sygnału
sygnał <= wyrażenie
sygnał <= wyrażenie
Warunkowe przypisanie sygnału/Instrukcja warunkowa sygnał <= if warunek then instrukcje wyrażenie when warunek else elsif warunek then instrukcje wyrażenie when warunek else ... ... else instrukcje wyrażenie; end if; Przypisanie selektywne/Instrukcja wyboru with (wybór) select case (wyrażenie) is sygnał <= when wartość => wyrażenie when wartość, {instrukcje sekwencyjne} wyrażenie when wartość, when wartość => ... {instrukcje sekwencyjne} wyrażenie when others; ... ... when others => {instrukcje sekwencyjne} end case; Instrukcja procesu etykieta: process(lista_wrażliwości) {deklaracje} begin {instrukcje_sewencyjne} end process etykieta;
Instrukcje pętli etykieta: for index in zakres loop {instrukcje_sewencyjne} end loop etykieta; etykieta: while warunek loop {instrukcje_sewencyjne} end loop etykieta;
Funkcje i procedury w języku VHDL są używane w podobny sposób jak w innych językach programowania. Wywołanie funkcji bądź procedury powoduje jej wykonanie i zwrócenie wyniku, z tym że w przypadku procedury tych wyników może być więcej niż jeden. Należy pamiętać, aby wewnątrz procedur i funkcji stosować wyłącznie instrukcje sekwencyjne.
21.2. Język VHDL – minimum na start
539
Najlepszym sposobem nauki języka VHDL jest analiza odpowiednio dobranych przykładów. Ważne jest przy tym, by przykłady były przejrzyste, niezbyt skomplikowane, ale też nie trywialne. Dlatego najpierw zostaną pokazane kompletne opisy układów, stanowiących rozwiązanie zadań umieszczonych w książce. Natomiast dalej znajdą się przykłady trzech projektów, których celem jest: Projekt 1 – pokazanie sposobu opisu licznika oraz bloku kombinacyjnego, Projekt 2 – pokazanie opisu strukturalnego z użyciem komponentów licznika, multipleksera i demultipleksera, Projekt 3 – pokazanie elementów zaawansowanej symulacji. VHDL – Przykład 1. Sterowanie wymianą wody w basenie. Opis układu sterownika można przygotować na wiele sposobów i z użyciem różnych instrukcji. Zwykle jedne opisy lepiej oddają charakter układu niż inne. Jednakże zawsze opis w języku VHDL powinien być przygotowany tak, aby kompilator miał szansę wyznaczyć optymalną strukturę układu. Na rysunku 21.2 jest pokazany opis układu sterownika z użyciem instrukcji with-select przygotowany w środowisku ISE Xilinx. System projektowy ISE można teraz wykorzystać do wytworzenia pliku, którym zaprogramujemy układ. Możemy też podejrzeć wyniki przetwarzania otrzymywane w kolejnych etapach, choćby po to, by nabrać przekonania, że tok działań jest zgodny, bądź nie, z tokiem naszego myślenia. Bądźmy przy tym świadomi, że system nie jest „głupi” i dopasuje strategię postępowania do właściwości wybranego układu programowalnego. Dla przykładu, gdy zechcemy dokonać implementacji układu w strukturze FPGA z serii XC7k, system dokona syntezy z użyciem pamięci RAM (tak jak dla pamięci ROM), a następnie dokona dekompozycji na cztery mniejsze pamięci, stanowiące w istocie elementy konstrukcyjne bloków logicznych układu programowalnego (rysunek 21.3). Dodajmy, że taki obraz stanu rzeczy otrzymano dla domyślnych ustawień systemu projektowego, a te można zmieniać i dopasowywać do swoich potrzeb. Niestety, rzeczywiste zadania są zwykle dużo bardziej złożone niż aktualne, a śledzenie efektywności rozwiązań za pomocą schematów
Rys. 21.2. Opis układu sterownika z użyciem instrukcji with-select przygotowany w środowisku ISE Xilinx
540
21. Komputerowe projektowanie układów cyfrowych a)
b)
Rys. 21.3. Wyniki syntezy układu sterownika otrzymywane w kolejnych etapach: a) schemat po etapie syntezy RTL, b) schemat po odwzorowaniu technologicznym
21.2. Język VHDL – minimum na start
Rys. 21.4. Opis układu z użyciem instrukcji case
Rys. 21.5. Opis detektora ciągu „111” w języku VHDL
541
542
21. Komputerowe projektowanie układów cyfrowych
nie ma większego sensu. Stosuje się wtedy inne miary, np. stopień wykorzystania powierzchni układu, ilości użytych zasobów, różne wskaźniki oszacowania szybkości działania. VHDL – Przykład 2 Układ realizujący funkcję y ( x3 , x2 , x1 , x0 ) = ∑ (1, 2, 3, 7, 12, 13, 15, (5, 10, 14)) . Zapis zadania w języku VHDL można wykonać jak na rysunku 21.4. Zawiera on przykład użycia konwersji typów danych z std_logic na integer, co zdecydowanie poprawia czytelność kodu. VHDL – Przykład 3. Układ detektora ciągu z rysunku 19.10. wg automatu Moore’a. Opis źródłowy jest opatrzony komentarzami, które wyjaśniają znaczenie wybranych fragmentów kodu (rysunek 21.5).
21.3. Projekt 1 – Sterownik świateł ulicznych Celem zadania jest projekt sterownika pojedynczego panelu sygnalizacyjnego, przystosowanego do pracy synchronicznej. Sterownik powinien generować sygnały sterujące do sygnalizacji ruchu pojazdów oraz do sygnalizacji ruchu pieszych. W praktycznych urządzeniach sygnalizacyjnych występuje wiele odmian sekwencji sterujących o różnym czasie trwania pełnego okresu oraz o różnym rozmieszczeniu wartości sygnałów wyjściowych w cyklu. Poprawnie działające urządzenie nie może dopuszczać do sytuacji kolizyjnych. Najczęściej do sterowania panelu sygnalizacyjnego stosuje się sekwencję stanów przedstawioną na rysunku 21.6. a) Faza
Czas trwania [s]
I
30
zielone
czerwone
II
2
żółte
czerwone
III
20
czerwone
zielone
IV
10
czerwone
zielone przerywane
V
2
czerwone + żółte
czerwone
b)
Rys. 21.6. Przykładowa sekwencja sterowania światłami: a) fazy sterowania, b) przebiegi czasowe
21.3. Projekt 1 – Sterownik świateł ulicznych
543
Rys. 21.7. Schemat blokowy układu sterownika
W przedstawionym projekcie sterownika przewidziano dwa wejścia sterujące: zegara clock oraz zerowania reset. Działanie układu opiera się na użyciu licznika 6-bitowego oraz bloku kombinacyjnego, generującego na swoich pięciu wyjściach sygnały sterowania światłami (rysunek 21.7). Układ jest taktowany zewnętrznym sygnałem zegarowym, którego częstotliwość należy dobrać w zależności od zamierzonego czasu trwania pełnego cyklu. Na przykład jeśli cykl sterowania trwa 64 sekundy, to sygnał zegarowy powinien mieć częstotliwość 1 Hz. Cykl zliczania licznika podzielono w taki sposób, aby przypisać
Rys. 21.8. Opis sterownika świateł w języku VHDL
544
21. Komputerowe projektowanie układów cyfrowych
wszystkim stanom licznika odpowiednie wartości sygnałów sterujących (zgodnie z rysunkiem 21.6a). Układ ma wejście zerujące, które jest przeznaczone do ustalenia fazy świateł względem sygnału zegara. Opis źródłowy układu sterownika jest pokazany na rysunku 21.8. Symulację tak prostego układu można wykonać „ręcznie”. Trzeba tylko określić częstotliwość zegara clock, ustawić krok symulacji oraz stan wejścia reset = 0. Wynik powinien odpowiadać pokazanemu na rysunku 21.6b.
21.4. Projekt 2 – Sterownik 4-pozycyjnego wyświetlacza 7-segmentowego Układ 4-pozycyjnego wyświetlacza 7-segmentowego z multipleksowaniem dokładnie opisano w podrozdziale 18.5. Składa się on z trzech mniejszych układów: licznika, multipleksera i demultipleksera. Na rysunku 21.9 przedstawiono opis tego
Rys. 21.9. Opis sterownika wyświetlacza multipleksowanego w języku VHDL
21.5. Projekt 3 – Generator liczb pseudolosowych
545
układu w stylu strukturalnym, który charakteryzuje się użyciem komponentów, łączących je sygnałów oraz instrukcji port map. Uwaga, opisy komponentów składowych w języku VHDL pozostawiamy Czytelnikowi.
21.5. Projekt 3 – Generator liczb pseudolosowych Generatory ciągów liczb pseudolosowych stosuje się do testowania różnego typu urządzeń. Wytwarza się je za pomocą rejestru przesuwającego z odpowiednim sprzężeniem zwrotnym (rysunek 21.10). Po każdym impulsie zegarowym zawartość rejestru przesuwa się o jedną pozycję w prawo i stan na wyjściu układu XOR zmienia się zależnie od stanów wybranych przerzutników wchodzących w skład rejestru.
Rys. 21.10. Generator ciągu pseudolosowego
Generowany ciąg pseudolosowy zależy od długości rejestru m. Największą długość cyklu losowego uzyskuje się, stosując odpowiedni układ sprzężenia zwrotnego, którego strukturę można wyznaczyć, korzystając z tablic zawartych w [9]. Przedstawiony dalej model generatora ciągu pseudolosowego zawiera 16-bitowy rejestr przesuwający oraz układ kombinacyjny realizujący funkcję: q (16) ⊕ q (5) ⊕ q (4) ⊕ q (3), gdy q (1 : 16) ≠ 0000h sig _ q (1) = 1, gdy q (1 : 16) = 0000h. Sygnał sig_q(1) jest doprowadzany na wejście pierwszego przerzutnika rejestru przesuwającego, natomiast sygnały q pochodzą z odpowiednio wybranych wyjść przerzutników. Pełny opis źródłowy generatora pokazano na rysunku 21.11. Poprawność działania układu można sprawdzić z użyciem testu omówionego dalej (rysunek 21.12). W trakcie symulacji są wyświetlane komunikaty oraz są tworzone raporty w postaci plików tekstowych results1 i results2. Do celów symulacji założono, że ośmiobitowe liczby pseudolosowe są tworzone na podstawie ciągu bitów q(i) uzyskiwanych z badanego układu za pomocą wzoru 16
L = ∑ 2−i q (i ) . i =1
Dzięki takiej reprezentacji uzyskiwane są liczby ułamkowe o wartościach w przedziale (0,1).
546
21. Komputerowe projektowanie układów cyfrowych
Rys. 21.11. Opis generatora ciągu pseudolosowego w języku VHDL
Rys. 21.12. Program do testowania generatora ciągu pseudolosowego (część 1)
21.5. Projekt 3 – Generator liczb pseudolosowych
Rys. 21.12. Program do testowania generatora ciągu pseudolosowego (część 2)
547
548
21. Komputerowe projektowanie układów cyfrowych
Rys. 21.12. Program do testowania generatora ciągu pseudolosowego (część 3)
Generowane liczby pseudolosowe są zapisywane w pliku results1.txt, natomiast wyniki obliczeń statystycznych dla ciągu n = 65 536 kolejnych liczb pseudolosowych uzyskanych z generatora są zapisywane w pliku results2.txt (rysunek 21.13). Opisany test można rozbudować i przystosować do sprawdzania różnych generatorów liczb. Jeżeli wartość średnia liczb w ciągu mało się różni od wartości 0,5, a wariancja od wartości 1/12 = 0,08333..., i w wyznaczonych podprzedziałach przedziału (0,1) nie ma istotnych różnic liczności, to można uznać, że wygenerowany ciąg pochodzi z generatora losowego o rozkładzie wystarczająco równomiernym.
a)
b)
Rys. 21.13. Podgląd zawartości plików tekstowych: a) result1.txt; b) result2.txt
Dodatek matematyczny Dodatek matematyczny
550
Dodatek matematyczny
W Dodatku matematycznym zebraliśmy opisy wybranych zagadnień matematycznych, z którymi Czytelnik być może nie miał jeszcze okazji się zapoznać, a które wykorzystywane są w tej książce. Prezentowane zagadnienia nie do końca będą miały ścisłe matematyczne definicje, ale będą przedstawione w ujęciu i w zakresie wystarczającym lub ułatwiającym zrozumienie problemów opisywanych w książce. Omówimy tu pojęcia pochodnej i całki, funkcje wykładniczą i logarytmiczną oraz arytmetykę liczb zespolonych.
A.
Pojęcie pochodnej Pochodna jest to wartość określająca szybkość zmian funkcji względem zmian jej argumentu dla określonej wartości tego argumentu. W takim sensie można ją określić jako iloraz zmiany ∆y wartości funkcji do wywołującej ją zmiany ∆x argumentu (rysunek A.1a). Jeśli y = f (x), to wspomniany iloraz dla x = x0 zapisać można następująco a=
∆y f ( x0 + ∆x) − f ( x0 ) f ( x0 + ∆x) − f ( x0 ) . = = ∆x ( x0 + ∆x) − ( x0 ) ∆x
(A.1)
Iloraz ten nazywany jest ilorazem różnicowym i, jak widać na rysunku A.1a, określa on w zasadzie średnią szybkość zmian wartości funkcji w zakresie zmian jej argumentu od x0 do x0 + ∆ x i w sensie geometrycznym stanowi nachylenie (współczynnik kierunkowy) pewnej prostej (siecznej) y = a · x + b przechodzącej przez oba graniczne punkty wykresu funkcji, a więc jest również pewnym średnim nachyleniem fragmentu wykresu funkcji objętego tym przyrostem ∆x.
Rys. A.1. Interpretacja geometryczna ilorazu różnicowego (a) oraz wpływ na niego coraz mniejszych wartości przyrostu ∆x (b). Przy ∆x >> 0 przyrosty ∆y i ∆x wyznaczają pewną sieczną wykresu funkcji, której nachylenie interpretować można jako średnie nachylenie fragmentu wykresu funkcji, które z kolei przy coraz mniejszych wartościach ∆x jest coraz bliższe nachyleniu wykresu funkcji w punkcie x0
551
A. Pojęcie pochodnej
Można tu mówić jedynie o średnim nachyleniu wykresu, nie da się bowiem określić nachylenia linii krzywej jako całości ani też jej fragmentu. Można jednak wykazać (rysunek A.1b), że zmniejszając wartość ∆x, określamy średnie nachylenie coraz mniejszego (krótszego) fragmentu wykresu funkcji, co zbliża wartość tego ilorazu do faktycznego nachylenia funkcji w jednym tylko jej punkcie, tu w x = x0. Wynika z tego, że aby określić jej nachylenie czy szybkość zmian dla konkretnej wartości x, należy przyrost ∆x zmniejszyć do zera. Oczywiście przy ∆x = 0 iloraz różnicowy nie ma określonej wartości, dlatego w celu jego określenia wyznacza się jego granicę przy ∆x dążącym do zera, co zapisujemy formalnie jako f ( x0 + ∆x) − f ( x0 ) ∆y = lim . ∆x →0 ∆x ∆x →0 ∆x
a = lim
(A.2)
W takim przypadku sieczna staje się styczną do wykresu funkcji w punkcie określonym przez x = x0, a zdefiniowana wielkość zwana jest pochodną funkcji f (x) w x0 i poprzez nachylenie stycznej określa nachylenie wykresu funkcji w danym jej punkcie (rysunek A.2). Z kolei operację wyznaczania pochodnej nazywa się różniczkowaniem funkcji i oznacza za pomocą kilku symboli, z których do najpowszechniejszych należą df ( x ) d df ∂f , f ( x) = f ' ( x) = f = = = dx dx dx ∂x
(A.3)
gdzie formy ułamkowe ∂ d oraz ∂x dx są operatorami różniczkowania wskazującymi jednocześnie, względem jakiej zmiennej jest wyznaczana pochodna (w tym przypadku względem x) i które wraz z różniczkowaną funkcją f określa się mianem pochodnej f względem x lub krótko pochodną f po x.
Rys. A.2. Interpretacja geometryczna ilorazu różnicowego w przypadku granicznym przy ∆x → 0. Sieczna wykresu staje się styczną do wykresu w punkcie określonym przez x = x0, a jej nachylenie stanowi nachylenie wykresu funkcji w tym punkcie
552
Dodatek matematyczny
Jeśli wartość argumentu x0 zastąpimy zmienną x, to pochodną funkcji f można przedstawić już nie jako jedną wartość dla konkretnego x0, ale również w postaci funkcji x, np. g(x), mianowicie df (A.4) g ( x) = . dx Okazuje się, że na podstawie definicji pochodnej (A.2) można wyznaczyć wzory na pochodne praktycznie dowolnej funkcji. W dalszej części przedstawiono przykłady wyznaczonych pochodnych pewnych funkcji elementarnych, które służą za podstawę do wyznaczania pochodnych pozostałych lub bardziej złożonych funkcji. Jeśli możliwe jest wyznaczenie pochodnej danej funkcji, to mówi się, że funkcja jest różniczkowalna względem danej zmiennej, a pochodna ta nosi nazwę pierwszej pochodnej. Jeśli wyznaczona pochodna jest z kolei również różniczkowalna, to tę kolejną pochodną określa się mianem drugiej pochodnej. Analogicznie określa się kolejne pochodne pochodnych, określając je jako pochodne wyższych rzędów, np. trzeciego, czwartego itd. Formalnie zapisuje się to następująco: – pochodna pierwszego rzędu
df f = f ′( x) = f (1) ( x) = , dx
(A.5)
– pochodna drugiego rzędu
d2 f f = f ′′( x) = f ( 2) ( x) = 2 , dx
(A.6)
– pochodna trzeciego rzędu
d3 f f = f ′′′( x) = f (3) ( x) = 3 , dx
(A.7)
– pochodna n-tego rzędu
f ( n) ( x) =
dn f dx n
.
(A.8)
Do tej pory omawialiśmy pochodną funkcji jednej zmiennej. Jeśli mamy do czynienia z funkcją wielu zmiennych, to wielkością mającą sens pochodnej jest gradient, będący wektorem pochodnych cząstkowych, czyli pochodnych tej samej funkcji, ale względem każdej zmiennej oddzielnie. Mianowicie, jeśli mamy daną funkcję wielu zmiennych y = f ( x1 , x2 , x3 , ..., xk ) ,
(A.9)
to gradient tej funkcji przedstawia się następująco ∂f ∂f ∂f ∂f ∇f = , , , ..., ∂ x ∂ x ∂ x ∂ xk 2 3 1
.
(A.10)
Podobnie jak wartość pochodnej, tak i gradient jako wektor wskazuje kierunek w przestrzeni zmiennych (x1, x2, x3, ..., xk) najszybszego (największego) wzrostu danej funkcji. W przypadku pochodnej rzędu wyższego niż pierwszy możliwe jest wyznaczenie pochodnej po kilku, a nie tylko po jednej zmiennej, przy czym w tym przypadku
553
A. Pojęcie pochodnej
istotna jest kolejność wykonywanych operacji różniczkowania, co zapisuje się np. jako f x( 4x) x
1 3 2 x3
=
∂4 f . ∂x1∂x3∂x2 ∂x3
(A.11)
Własności pochodnej Pochodne są przede wszystkim wykorzystywane do badania zmienności funkcji oraz do opisu zjawisk dynamicznych, które opisane są szybkością zmian danej wielkości w funkcji np. czasu. Wartość pochodnej równą zero interpretuje się jako brak zmienności funkcji dla danego argumentu, co może oznaczać istnienie w danym punkcie wykresu funkcji ekstremum w postaci minimum albo maksimum. W celu dokładniejszego określenia charakteru funkcji w takim punkcie należy zbadać zmienność jej pochodnej. Są to jednak zagadnienia wykraczające poza główny temat książki, więc nie będą tutaj dalej rozwijane. Zakładając, że funkcje f oraz g są funkcjami tej samej zmiennej, inne własności pochodnej zapisać można następująco: – pochodna iloczynu przez stałą
(a ⋅ f ) ' = a ⋅ f ' ,
(A.12)
– pochodna sumy
( f + g ) ' = f '+ g ' ,
(A.13)
– pochodna iloczynu
( f ⋅ g) ' = f ' ⋅ g + f ⋅ g ' ,
(A.14)
– pochodna funkcji złożonej
f ' = h '( g ) ⋅ g '
– pochodna funkcji odwrotnej
( f )' = f1 ' ,
dla f = h ( g ),
−1
(A.15) (A.16)
– pochodna odwrotności
1 ' f' =− 2, f f
(A.17)
– pochodna ilorazu
f ' f ' ⋅ g − f ⋅ g ' . = g2 g
(A.18)
Przykłady Zakładając, że a jest stałą wartością rzeczywistą, a n stałą wartością naturalną, pochodna: – funkcji stałej
(a ) ' = 0,
(A.19)
– funkcji potęgowej
(a ⋅ x n ) ' = a ⋅ n ⋅ x n −1,
(A.20)
– funkcji wykładniczej
(a x ) ' = a x ⋅ ln a,
w szczególności (e x ) ' = e x ,
(A.21)
554
Dodatek matematyczny
– funkcji logarytmicznej (log a x) ' =
(A.22)
– funkcji sinus
1 1 , w szczególności (ln x) ' = , x x ⋅ ln a (sin x) ' = cos x ,
(A.23)
– funkcji kosinus
(cos x) ' = − sin x ,
(A.24)
– funkcji tangens
(tg x) ' =
1 2
cos x
= 1 + tg 2 x .
(A.25)
555
B. Pojęcie całki
B.
Pojęcie całki Operację całkowania, oznaczaną znakiem ∫ (rozciągnięte „S” – od słowa „suma”, łac. summa), można określić jako operację odwrotną do różniczkowania, tzn. jest to wyznaczanie takiej funkcji, której pochodna jest równa funkcji całkowanej. Zapisuje się to jako
∫ f ( x) dx = g ( x) ,
(B.1)
przy czym f(x) = g'(x), wówczas funkcja g(x) nazywana jest całką nieoznaczoną funkcji f(x) lub funkcją pierwotną. Całkowanie wykorzystuje się do rozwiązywania równań różniczkowych oraz do wyznaczania pól powierzchni obszarów ograniczonych krzywymi, których kształt może być opisany za pomocą funkcji. Najprostszym tego przypadkiem jest wyznaczenie pola powierzchni ograniczonej wykresem funkcji i osią jej argumentów (rysunek B.1). Aby wyznaczyć pole powierzchni S w zakresie zmian wartości argumentu x ∈
, należy wyznaczyć całkę oznaczoną funkcji f(x) ograniczającej dane pole powierzchni, co sprowadza się do wyznaczenia całki nieoznaczonej g(x), a następnie różnicy wartości tej całki dla dwóch skrajnych argumentów, odpowiednio x = b oraz x = a, co zapisuje się następująco: b
S = ∫ f ( x) dx = g (b) − g (a ) ,
(B.2)
a
przy czym pole powierzchni ograniczone ujemnymi wartościami funkcji, czyli znajdujące się pod osią, jest brane ze znakiem ujemnym. Dosyć zastanawiający jest fakt, że pole powierzchni ograniczone dowolną krzywą zależy wyłącznie od dwóch wartości funkcji pierwotnej (całki nieoznaczonej) dla skrajnych argumentów przedziału. Można to bardzo łatwo wykazać, przybliża-
Rys. B.1. Interpretacja graficzna całki oznaczonej z funkcji f(x) na przedziale x ∈ . Wyznacza ona pole powierzchni ograniczonej krzywą f(x) i osią argumentów tej funkcji, przy czym wartości pól powierzchni znajdujących się pod tą osią są brane ze znakiem ujemnym
556
Dodatek matematyczny
Rys. B.2. Ilustracja przybliżenia pola powierzchni ograniczonej krzywą przez sumę pól powierzchni odpowiednich prostokątów. Im większa jest ich liczba, tym dokładniej wyznaczone jest pole powierzchni – przypadek pięciu prostokątów (a) oraz trzydziestu (b)
jąc (aproksymując) pole takiej powierzchni np. przez prostokąty (rysunek B.2a). Załóżmy, że prostokąty te mają równe podstawy, wynoszące dx =
b−a , N
(B.3)
gdzie N jest liczbą prostokątów, a wysokości prostokątów określone są przez wartości funkcji f(x) w taki sposób, że lewy górny wierzchołek każdego prostokąta leży na wykresie funkcji f (x). Przybliżona wartość S pola powierzchni S jest wówczas równa sumie pól powierzchni poszczególnych prostokątów: S ≈ S = f (a ) ⋅ dx + f (a + dx) ⋅ dx + f (a + 2 ⋅ dx) ⋅ dx + ... + f (a + ( N − 1) ⋅ dx) ⋅ dx =
N −1
∑
f (a + n ⋅ dx) ⋅ dx.
(B.4)
n =0
Widać, że im większa jest liczba prostokątów, czyli im mniejsza jest ich szerokość dx, tym dokładniejsza jest wartość tak obliczonego pola powierzchni (rysunek B.2b). Rozważmy przypadek np. pięciu prostokątów, czyli N = 5. Pole powierzchni wyraża się wówczas wyrażeniem: S = f (a ) ⋅ dx + f (a + dx) ⋅ dx + f (a + 2 ⋅ dx) ⋅ dx + + f (a + 3 ⋅ dx) ⋅ dx + f (a + 4 ⋅ dx) ⋅ dx.
(B.5)
Jeśli skorzystamy ze znanego przybliżenia funkcji pochodnej za pomocą ilorazu różnicowego o postaci (por. podrozdział A Dodatku matematycznego) f ( x) = g '( x) ≈
g ( x + dx ) − g ( x ) , dx
(B.6)
557
B. Pojęcie całki
to sumę pól powierzchni można zapisać następująco: g ( a + dx ) − g ( a ) g (a + 2 ⋅ dx) − g (a + dx) S = ⋅ dx + ⋅ dx + dx dx g (a + 3 ⋅ dx) − g (a + 2 ⋅ dx) ⋅ dx + + dx g (a + 4 ⋅ dx) − g (a + 3 ⋅ dx) + ⋅ dx + dx g (a + 5 ⋅ dx) − g (a + 4 ⋅ dx) + ⋅ dx. dx
(B.7)
Upraszczając to wyrażenie, otrzymujemy S = g (a + dx) − g (a ) + g (a + 2 ⋅ dx) − g (a + dx) + g (a + 3 ⋅ dx) − g (a + 2 ⋅ dx) + + g (a + 4 ⋅ dx) − g (a + 3 ⋅ dx) + g (a + 5 ⋅ dx) − g (a + 4 ⋅ dx).
(B.8)
Jak widać, wszystkie składniki powyższego wyrażenia, oprócz dwóch, redukują się wzajemnie. To co pozostaje ma postać S = g (a + 5 ⋅ dx) − g (a ).
(B.9)
A ponieważ wyrażenie a + 5 · dx = b, czyli jest końcem przedziału wyznaczanego pola powierzchni, można zapisać, że S = g (b) − g (a ).
(B.10)
Identyczną zależność uzyskujemy niezależnie od liczby prostokątów aproksymujących wyznaczane pole powierzchni i w granicznym przypadku, przy N → ∞, a więc przy dx → 0, wyznaczone w ten sposób pole powierzchni S jest dokładnie równe polu powierzchni S ograniczonemu krzywą f(x) w przedziale x ∈ S = lim S = g (b) − g (a ), dx → 0
(B.11)
co jest zgodne z podanym na początku wzorem (B.2), dowodząc, że pole powierzchni na pewnym przedziale argumentów wyznaczają dwie wartości funkcji pierwotnej dla skrajnych wartości argumentu z tego przedziału. Wyznaczanie całki oznaczonej nie ogranicza się wyłącznie do całkowania na przedziale liniowym. Całkować można również po innej linii krzywej (np. po okręgu), jak również po powierzchni czy objętości. Mamy wówczas do czynienia z całkami krzywoliniowymi, powierzchniowymi oraz objętościowymi. Ponadto, podobnie jak w przypadku różniczkowania, można wyznaczać całki wielokrotne, co polega na całkowaniu otrzymanej wcześniej całki tyle razy i po tylu zmiennych, ile ich występuje w zapisie całki, używa się wówczas oznaczeń typu
∫∫ f ( x, y) dx dy,
(B.12)
∫∫∫ f ( x, y, z ) dx dy dz .
(B.13)
558
Dodatek matematyczny
Proces wyznaczania całki nieoznaczonej nie jest zadaniem łatwym. Najczęściej całkowaną funkcję przekształca się do prostszej postaci oraz wykorzystuje pewne właściwości całkowania, by sprowadzić ją do postaci, której całka jest znana. Powszechnie korzysta się przy tym z tablic całek, które przedstawiają wyznaczone całki nieoznaczone wielu różnych funkcji. Ponadto istnieją funkcje, które nie mają swoich całek lub nie mogą zostać przedstawione za pomocą funkcji elementarnych. Ogólnie, całkowanie jest zagadnieniem złożonym i nie będzie tu szczegółowo rozwijane. Przedstawimy jedynie niektóre własności całkowania oraz całki przykładowych funkcji. W praktycznych zastosowaniach z kolei korzysta się z metod numerycznych, które sprowadzają wyznaczanie całki oznaczonej do aproksymacji pola powierzchni za pomocą wspomnianych prostokątów czy trapezów. Właściwości całkowania Jedną z podstawowych własności całek nieoznaczonych jest to, że istnieje nieskończona liczba funkcji pierwotnych g(x) danej funkcji f (x). Można powiedzieć, że różnią się one składową stałą, czyli przesunięciem w zakresie wartości funkcji g(x). Tę rodzinę funkcji zapisujemy w postaci g(x) + C, gdzie C jest dowolną stałą. Wynika to z tego, że pochodna wartości stałej równa jest zeru, tzn.
( g ( x) + C ) ' =
f ( x) + 0 = f ( x) ,
(B.14)
a zawsze można zapisać, że całkujemy funkcję f (x) + 0, gdzie składnik zero pochodzi właśnie od pochodnej pewnej stałej. A ponieważ jej wartości nie da się określić bez dodatkowych informacji o funkcji pierwotnej g(x), tzn. bez warunków brzegowych lub początkowych, oznacza się ją za pomocą pewnej stałej C. Właściwość ta dotyczy wszystkich funkcji pierwotnych i zapisuje się ją formalnie następująco:
∫ f ( x) dx = g ( x) + C .
(B.15)
Należy zauważyć, że w przypadku całki nieoznaczonej brak znajomości stałej C nie przeszkadza w wyznaczeniu jej wartości, gdyż przy obliczaniu różnicy S = g (b) + C − ( g (a ) + C ) = g (b) − g (a )
(B.16)
składowa stała redukuje się. Pozostałe własności całek wyrażają się następująco: – całka iloczynu stałej i funkcji
∫ a ⋅ f ( x) dx = a ⋅ ∫ f ( x) dx ,
– całka sumy funkcji
∫ ( f ( x) + h( x) ) dx = ∫ f ( x) dx + ∫ h( x) dx, (B.18) a
– odwrócenie kierunku całkowania
∫ b
(B.17)
b
f ( x) dx = − ∫ f ( x) dx . a
(B.19)
559
B. Pojęcie całki
Przykłady całek nieoznaczonych Poniżej przedstawiono wybrane wzory z tablicy całek. Należy pamiętać, że formalnie każda funkcja pierwotna powinna zawierać jeszcze składnik C, który dla przejrzystości jest zwykle pomijany. –
∫ dx = ∫ 1 dx = x ,
–
n ∫ x dx =
–
∫ x n dx = (n − 1) ⋅ x n−1
–
∫ x dx = ln
–
∫ ln ( a ⋅ x ) dx = x ⋅ ln ( a ⋅ x ) − x,
–
∫ ( ln x )
–
∫a
– – – – –
x n +1 n +1
1
−1
1
b⋅ x
(B.20)
2
b⋅ x
(B.21)
dla n ≠ 1,
(B.22)
x,
(B.23) (B.24)
2
dx = x ⋅ ( ln x ) − 2 x ⋅ ln x + 2 x,
dx =
a b⋅ x b ⋅ ln a
1 b⋅ x ⋅e b x a2 x 2 2 2 2 a − x d x = ⋅ a − x + ⋅ arcsin ∫ 2 2 a ⌠ 1 x dx = arcsin a ⌡ a2 − x2 1 ∫ sin ( c ⋅ x ) dx = − c ⋅ cos ( c ⋅ x ) , 1 ∫ cos ( c ⋅ x ) dx = c ⋅ sin ( c ⋅ x ) ,
∫e
dla n ≠ –1,
dx =
(B.25) dla a > 0, a ≠ 1, b ≠ 0,
(B.26)
dla b ≠ 0,
(B.27)
dla |x| ≤ |a|,
(B.28)
dla |x| ≤ |a|,
(B.29)
1
–
∫ tg ( c ⋅ x ) dx = − c ⋅ ln cos ( c ⋅ x ) ,
–
b⋅ x ∫ e ⋅ sin ( c ⋅ x ) dx =
–
∫e
b⋅ x
⋅ cos ( c ⋅ x ) dx =
e b⋅ x
b2 + c2 e b⋅ x b2 + c2
(B.30) (B.31) (B.32)
⋅ ( b ⋅ sin ( c ⋅ x ) − c ⋅ cos ( c ⋅ x ) ) , dla |b| ≠ |c|
(B.33)
⋅ ( b ⋅ cos ( c ⋅ x ) + c ⋅ sin ( c ⋅ x ) ) . dla |b| ≠ |c|
(B.34)
560
C.
Dodatek matematyczny
Funkcja wykładnicza i logarytmiczna Funkcja wykładnicza Funkcja wykładnicza to funkcja o postaci f (x) = a x,
(C.1)
gdzie a > 0 nazywane jest podstawą, a x wykładnikiem, będącym jednocześnie argumentem tej funkcji. Przykładowe kształty funkcji wykładniczej dla różnych wartości podstawy a przedstawione są na rysunku C.1. Jak widać, dla argumentu x dążącego do minus nieskończoności funkcja ta dąży do zera, czyli ma asymptotę poziomą f (x) = 0, natomiast dla x dążącego do plus nieskończoności dąży ona również do plus nieskończoności, z kolei dla x = 0 przyjmuje wartość równą 1. Szczególnym przypadkiem funkcji wykładniczej jest funkcja eksponencjalna (nie mylić ze słowem ekspotencjalna!), tzn. funkcja wykładnicza o wartości podstawy a = e, czyli równej liczbie Eulera (wynoszącej ok. 2,72), którą to funkcję zapisuje się jako e x. Często, szczególnie w informatyce, oznaczana jest ona przez exp(x) i nazywana jest eksponentą lub eksponentem (znowu, nie mylić z ekspotentem!). Równie często, w żargonie elektrotechnicznym, z uwagi na to, że jest ona najczęściej rozwiązaniem wszelkich zjawisk dynamicznych typu relaksacyjnego, funkcję eksponencjalną nazywa się po prostu funkcją wykładniczą. W książce tej mianem funkcji wykładniczej określana jest właśnie funkcja eksponencjalna, chyba że wyraźnie zaznaczono inaczej.
Rys. C.1. Wykresy funkcji wykładniczej f(x) = a x dla przykładowych wartości podstawy a
561
C. Funkcja wykładnicza i logarytmiczna
Podstawowe własności funkcji wykładniczej Dla funkcji wykładniczej obowiązują te same zależności, co dla działań potęgowania. Jeśli przyjmiemy, że dane mamy dwie liczby a x oraz a y, to: a x ⋅ a y = a x+ y ,
– iloczyn
ax
– iloraz
ay
= a x− y ,
(C.3)
– potęgowanie
(a )
= ax⋅n,
– odwrotność
a− x =
1
– dla argumentu zerowego
a0 = 1,
– pochodna
(a x ) ' =
x n
ax
,
(C.4) (C.5) (C.6)
d x a = a x ⋅ ln a , dx ax x . a d x = ∫ ln a
– całka nieoznaczona
(C.2)
(C.7) (C.8)
Jeśli a > 1, to funkcja wykładnicza jest funkcją rosnącą, z kolei dla 0 < a < 1 funkcja wykładnicza jest funkcją malejącą, dla a = 1 funkcja ta jest zaś funkcją stałą o wartości równej 1. Ciekawą własnością funkcji wykładniczej jest to, że stosunek dwóch jej wartości dla dwóch dowolnych argumentów będzie zawsze taki sam, niezależnie od wartości tych argumentów, o ile ich wzajemna różnica pozostanie stała. Formalnie można to zapisać następująco a x2 a x1
= const ,
(C.9)
gdy x2 = x1 + d, gdzie d jest stałym odstępem między x1 a x2. Można tego dowieść następująco a x2 a x1
=
a x1 + d a x1
= a x1 + d − x1 = a d = const.
(C.10)
Własność ta oznacza, że jeśli funkcją wykładniczą opisane byłoby np. opadanie przebiegu czasowego prądu w pewnym obwodzie, oznaczałoby to, że ciągle, w równych odstępach czasu, prąd ten zmniejszałby się tyle samo razy (rysunek C.2). Inną przydatną własnością tej funkcji jest to, że jeśli mamy do czynienia z przebiegiem czasowym w postaci funkcji eksponencjalnej, np. typu t exp − τ
,
(C.11)
562
Dodatek matematyczny
Rys. C.2. Ilustracja własności funkcji wykładniczej mówiącej, że stosunek dwóch jej wartości dla dwóch dowolnych argumentów będzie zawsze taki sam, niezależnie od wartości tych argumentów, o ile ich wzajemna różnica pozostanie stała
to styczna do jej wykresu wyznaczona w dowolnej chwili czasu t, np. t = t0, przecina się z asymptotą poziomą tego wykresu w chwili, która jest oddalona od t0 o wartość t (rysunek C.3a), będącą stałą czasową tego przebiegu eksponencjalnego, a określającą szybkość jego wykładniczej zmiany. Można to wykazać na podstawie trójkąta prostokątnego wyznaczonego przez trzy punkty (rysunek C.3b): jeden jako punkt A na wykresie funkcji wykładniczej dla czasu t0, drugi jako punkt B na asymptocie dla czasu t0, a trzeci jako punkt C przecięcia się stycznej w punkcie A z asymptotą poziomą. Położenia punktów A i B są jasno określone, natomiast by znaleźć położenie punktu C, należy znać nachylenie stycznej. Nachylenie to, w sensie współczynnika kierunkowego a prostej o równaniu y = a · x + b, równe jest pochodnej funkcji w punkcie, w którym styczną tę określamy, a więc a=
d 1 t t exp − = − ⋅ exp − dt τ τ τ
.
(C.12)
Pochodna natomiast związana jest z nachyleniem a prostej poprzez tangens kąta a jej nachylenia, a mianowicie a = tg a,
(C.13)
który w trójkącie prostokątnym zdefiniowany jest jako stosunek długości odpowiednich jego boków, tutaj tg α =
AB BC
.
(C.14)
563
C. Funkcja wykładnicza i logarytmiczna
Rys. C.3. Ilustracja własności funkcji eksponencjalnej mówiącej, że styczna do jej wykresu wyznaczona w dowolnej chwili czasu t przecina się z asymptotą poziomą tego wykresu w chwili, która jest oddalona od t o wartość t, czyli stałą czasową (a) oraz ilustracja dowodu tej własności (b)
A ponieważ t AB = exp − , τ
(C.15)
natomiast na podstawie (C.12) i (C.13) otrzymujemy tg α =
1 t ⋅ exp − τ τ
,
(C.16)
z tego wynika, że dla t = t0 (C.14) można przepisać w postaci t exp − 0 1 t τ ⋅ exp − 0 = τ τ BC
.
(C.17)
Stąd otrzymujemy, że BC = τ ,
(C.18)
co należało dowieść. Właściwość tę wykorzystuje się do oszacowania stałej czasowej obwodu elektrycznego, w którym przebiegi sygnałów zmieniają się w sposób wykładniczy, jedynie na podstawie ich wykresów. Stałą czasową można też interpretować jako czas, po którym wartość przebiegu wykładniczego zmaleje, w tym przykładzie e-krotnie. Funkcja wykładnicza, a właściwie eksponencjalna, ma również ścisły związek z liczbami zespolonymi. Zgodnie ze wzorem Eulera e i · j = cos j + j · sin j,
(C.19)
564
Dodatek matematyczny
jeśli argumentem funkcji wykładniczej będzie liczba zespolona, np. r + j · j, to część rzeczywista r tej liczby określa moduł pewnej liczby zespolonej z, a część urojona j argument (kąt) tej liczby zespolonej, a mianowicie z = er + j · j = er · ej · j = er · (cos j + j · sinj) = er · cosj + j · er · sinj = a + j · b, (C.20) gdzie e r jest modułem liczby zespolonej z, natomiast a jest jej częścią rzeczywistą, a b częścią urojoną. Funkcja logarytmiczna Funkcją logarytmiczną jest funkcja o postaci f (x) = loga x,
(C.21)
co określa się jako logarytm o podstawie a z x, gdzie a > 0 i a ≠ 1 oraz x > 0. Jest ona właściwie funkcją odwrotną do funkcji wykładniczej, tzn. jej wartość f (x) jest taką wartością wykładnika potęgi (funkcji wykładniczej), do której należy podnieść podstawę a, aby otrzymać wartość x. W zapisie formalnym przedstawia się to następująco log x a f ( x ) = x lub a a = x. (C.22) Na rysunku C.4 pokazano przykładowe wykresy funkcji logarytmicznych dla różnych wartości parametru a. Jak widać, wartość funkcji logarytmicznej dla x dążącego do zera dąży do minus nieskończoności, czyli ma ona asymptotę pionową x = 0, natomiast dla x dążącego do plus nieskończoności również dąży do plus nieskończoności, z kolei dla wartości x = 1 osiąga wartość równą zero. Podobnie jak w przypadku funkcji wykładniczej, również funkcja logarytmiczna ma inne oznaczenie oraz nazwę, gdy podstawa a = e. Funkcja log e x jest oznaczana przez ln x i nazywana logarytmem naturalnym. Z kolei w informatyce, w językach programowania, logarytm naturalny jest oznaczany przez log(x) lub ln(x), a funkcja
Rys. C.4. Wykresy funkcji logarytmicznej f(x) = log a x dla przykładowych wartości podstawy a
565
C. Funkcja wykładnicza i logarytmiczna
logarytmiczna o podstawie a = 10 przez log10(x). Należy też mieć na uwadze to, że czasem zamieniane jest znaczenie zapisów ln lub log10 z log. Podstawowe własności funkcji logarytmicznej Własności funkcji logarytmicznej wynikają z własności logarytmowania. Podstawowe z nich można sformułować następująco: – suma
log a x + log a y = log a ( x ⋅ y ) ,
(C.23)
– różnica
x log a x − log a y = log a , y
(C.24)
– potęga argumentu
log a x n = n ⋅ log a x ,
(C.25)
– potęgowanie
a log a x = x,
(C.26)
– logarytm funkcji potęgowej
loga ax = x,
(C.27)
– zmiana podstawy
log a x =
– pochodna
(log a x) ' =
– całka nieoznaczona
∫ log a x dx =
( )
logb x , logb a
(C.28)
d 1 , log a x = dx x ⋅ ln a x ⋅ ( ln x − 1) ln a
.
(C.29) (C.30)
566
D.
Dodatek matematyczny
Arytmetyka liczb zespolonych Liczby zespolone traktować można jako rozszerzenie zbioru liczb rzeczywistych o pewną dodatkową składową nienależącą do zbioru liczb rzeczywistych, zwaną składową urojoną lub częścią urojoną. Algebraiczna (kanoniczna) postać liczby zespolonej jest następująca: z = a + i · b,
(D.1)
gdzie a oraz b są pewnymi liczbami rzeczywistymi, natomiast „i” jest jednostką urojoną (łac. quantitas imaginaria), która spełnia równanie i 2 = –1 (niemające rozwiązania w zbiorze liczb rzeczywistych), przy czym wartość a nazywana jest częścią rzeczywistą (łac. pars realis) liczby zespolonej z i zapisywana jest jako a = Re z,
(D.2)
z kolei wartość b nazywana jest częścią urojoną (łac. pars imaginaria) liczby zespolonej z i zapisywana jest jako b = Im z
(D.3)
W elektronice, i podobnie w niniejszym podręczniku, w celu odróżnienia jednostki zespolonej od wszechobecnego symbolu prądu, zamiast „i” stosuje się literę „j”. Jeśli wartości a oraz b potraktujemy jako dwie współrzędne kartezjańskie punktu w przestrzeni dwuwymiarowej, to liczbę zespoloną z można przedstawić jako wektor lub punkt na płaszczyźnie, zwanej płaszczyzną zespoloną (rysunek D.1a). Wektor taki nazywamy wskazem.
Rys. D.1. Interpretacja graficzna liczb zespolonych jako punktów w kartezjańskim układzie współrzędnych (a) oraz punktów opisanych współrzędnymi biegunowymi (b), a także operacji sprzężenia liczby zespolonej (c)
Można ją również wyrazić we współrzędnych biegunowych (rysunek D.1b) w postaci modułu | z| oraz argumentu j (j = arg z), będącego kątem między wektorem odpowiadającym liczbie zespolonej z a osią części rzeczywistej Re płaszczyzny zespolonej, co zapisać można następująco w postaci trygonometrycznej z = | z| · (cos j + j · sinj)
(D.4)
lub w postaci wykładniczej (zgodnie ze wzorem Eulera) z = | z| · e j j,
(D.5)
567
D. Arytmetyka liczb zespolonych
gdzie z = a 2 + b2 ,
(D.6)
przy czym | z| > 0. Wyznaczenie argumentu j sprowadza się do wyznaczenia wartości funkcji arctg z ilorazu b oraz a lub funkcji arccos z ilorazu a oraz modułu liczby z, przy czym należy wziąć pod uwagę to, w której ćwiartce układu współrzędnych znajduje się liczba zespolona z, gdyż wymienione funkcje trygonometryczne są funkcjami okresowymi i dla kilku różnych kątów j przyjmują te same wartości, co powodować może niejednoznaczność w wyznaczeniu argumentu liczby z. Z tego względu należy posłużyć się następującymi zależnościami: b arctg a , arctg b + π, a b ϕ = arctg − π, a π , 2 π − 2 ,
a > 0,
I i IV ćwiartka
a < 0, b ≥ 0,
II ćwiartka
a < 0, b < 0,
III ćwiartka
a = 0, b > 0,
dodatnia półoś urojoona
a = 0, b < 0,
ujemna półoś urojona
(D.7)
lub arccos ϕ= − arccos
a , z
b ≥ 0, z ≠ 0,
I i II ćwiartka
a , z
b < 0, z ≠ 0,
III i IV ćwiartka
(D.8)
Wyjątek stanowi liczba z = 0, której argumentu nie można określić. Ponieważ argument liczby zespolonej jest cykliczny z okresem 2π, więc liczba zespolona ma nieskończenie wiele argumentów, co można zapisać jako arg z = arg z + 2π · k,
(D.9)
gdzie k jest liczbą całkowitą. Najmniejsza z wartości argumentu określana jest mianem argumentu głównego lub wartością główną argumentu. Jeśli z kolei znana jest postać trygonometryczna lub wykładnicza liczby zespolonej, to przekształcenie jej do postaci algebraicznej polega na wyznaczeniu jej części rzeczywistej i urojonej według zależności a = z ⋅ cos ϕ b = z ⋅ sin ϕ
(D.10)
568
Dodatek matematyczny
Podstawowe własności i działania Liczby zespolone o zerowej części urojonej, czyli z = a + j · 0, są liczbami rzeczywistymi, z kolei o zerowej części rzeczywistej, ale niezerowej części urojonej, czyli z = 0 + jb, nazywane są liczbami urojonymi. Dla każdej liczby zespolonej z definiuje się liczbę do niej sprzężoną, oznaczaną przez z* różniącą się od z jedynie znakiem części urojonej. Jeśli z = a + jb, to liczbą do niej sprzężoną jest z* = a – jb.
(D.11)
W interpretacji geometrycznej sprzężenie jest odbiciem wskazu odpowiadającego liczbie z względem osi części rzeczywistej Re (rysunek D.1c), co powoduje zmianę argumentu liczby z na wartość, albo 2π – j, albo – j (co wynika ze wspomnianej cykliczności argumentu). Dwie liczby zespolone są sobie równe, jeśli mają takie same części rzeczywiste oraz takie same części urojone, a w przypadku przedstawienia w postaci trygonometrycznej lub wykładniczej, gdy mają takie same moduły oraz takie same argumenty. Dla liczb zespolonych zdefiniowane są podstawowe działania arytmetyczne, takie jak dodawanie, odejmowanie, mnożenie i dzielenie. Wykonuje się je tak samo jak odpowiednie działania arytmetyczne, pamiętając, że j2 = –1. Załóżmy, że mamy dane dwie liczby zespolone z1 oraz z2 z1 = a1 + jb1 z2 = a2 + jb2
(D.12)
z1 + z2 = (a1 + j · b1) + (a2 + j · b2) = (a1 + a2) + j · (b1 + b2)
(D.13)
z1 – z2 = (a1 + j · b1) – (a2 + j · b2) = (a1 – a2) + j · (b1 – b2)
(D.14)
z1 · z2 = (a1 + j · b1)·(a2 + j · b2) = = a1 · a2 + j · a1 · b2 + j · b1 · a2 + j2 · b1 · b2 = = a1 · a2 – b1 · b2 + j · (a1 · b2 + b1 · a2)
(D.15)
Wówczas
( a + j ⋅ b1 ) ⋅ ( a2 − j ⋅ b2 ) z1 a1 + j ⋅ b1 = = 1 = z2 a2 + j ⋅ b2 ( a2 + j ⋅ b2 ) ⋅ ( a2 − j ⋅ b2 ) =
( a1 ⋅ a2 + b1 ⋅ b2 ) + j ⋅ ( b1 ⋅ a2 − a1 ⋅ b2 ) a22 + b22
(D.16)
.
Przy postaci geometrycznej działania dodawania i odejmowania odpowiadają odpowiedniemu składaniu wektorów na płaszczyźnie zespolonej (rysunek D.2).
569
D. Arytmetyka liczb zespolonych
Rys. D.2. Interpretacja graficzna operacji dodawania i odejmowania liczb zespolonych: wprowadzenie dwóch przykładowych wektorów (a), ich suma (b) oraz różnica (c)
Przykład Jeśli mamy daną liczbę zespoloną z = 3 + j ⋅1, to można podać następujące wielkości: Re z = 3, – jej część rzeczywistą Im z = 1, – jej część urojoną z* = 3 − j ⋅1, – liczbę sprzężoną do niej
( 3)
2
+ 12 = 3 + 1 = 4 = 2 ,
– jej moduł
z =
– jej argument
arg z = arctan gdzie k ∈ C
1 3
=
π π lub ogólnie arg z = + k ⋅ 2π , 6 6
– jej postać trygonometryczną
π π z = 2 ⋅ cos + j ⋅ sin , 6 6
– jej postać wykładniczą
z = 2⋅e
j⋅
π 6
π = 2 ⋅ exp j ⋅ . 6
Literatura 1. Ashenden P. J., The designer’s guide to VHDL, Morgan Kaufmann Publishers 2008. 2. Brejwo W., Ćwirko J., Kierlańczyk S., Malinowski A., Elementy elektroniczne – laboratorium, WAT 2008. 3. Dobrowolski A., Pod maską Spice’a. Metody i algorytmy analizy układów elektronicznych, BTC 2004. 4. Dobrowolski A., Komur P., Sowiński A., Projektowanie i analiza wzmacniaczy małosygnałowych, BTC 2005. 5. Górecki P., Wzmacniacze operacyjne, BTC 2004. 6. Górecki P., Cykl „Kurs audio”, „Elektronika Praktyczna” 8–11/2008. 7. Iwanejko L. (red.), Laboratorium obwodów i sygnałów elektrycznych, WAT 2005. 8. Kalisz J. (red), Język VHDL w praktyce, WKŁ 2002. 9. Kalisz J., Podstawy elektroniki cyfrowej, WKŁ 2007. 10. Krakowski M., Elektrotechnika teoretyczna. Cz. 1 – Obwody liniowe i nieliniowe, PWN 1999. 11. Łuba T. (red.), Programowalne układy przetwarzania sygnałów i informacji, WKŁ 2008. 12. Mano M. M., Kime C. R., Podstawy projektowania układów logicznych i komputerów, WNT 2007. 13. Marciniak W., Przyrządy półprzewodnikowe i układy scalone, WNT 1984. 14. Osiowski J., Szabatin J., Podstawy teorii obwodów, tom I, WNT 1992. 15. Osowski S., Siwek K., Śmiałek M., Teoria obwodów, Oficyna Wydawnicza Politechniki Warszawskiej 2006. 16. Pasierbiński J., Zbysiński P., Układy programowalne w praktyce, WKŁ 2002. 17. Pawłowski J., Podstawowe układy elektroniczne. Wzmacniacze i generatory, WKŁ 1980. 18. Pluciński K., Przyrządy półprzewodnikowe, WAT 2000. 19. Wilkinson B., Układy cyfrowe, WKŁ 2003. 20. Zbysiński P., Pasierbiński J., Układy programowalne. Pierwsze kroki, BTC 2002.